Points Clés
- Tobias Osborne est professeur de physique théorique à l'Université Leibniz de Hanovre et cofondateur de la société de communication scientifique Innovailia.
- Le Règlement de l'UE sur l'IA est un cadre réglementaire global qui introduira des règles plus strictes jusqu'en 2026.
- Osborne soutient que les débats sur les machines surintelligentes et une « singularité » hypothétique sont devenus une distraction dangereuse des préjudices actuels.
- Il identifie l'exploitation des étiqueteurs de données peu payés et le scraping massif d'œuvres protégées comme des risques clés négligés.
- Osborne qualifie les affirmations sur une explosion d'intelligence incontrôlée de « eschatologie religieuse déguisée en langage scientifique ».
La dystopie est déjà là
Alors que l'industrie technologique et les décideurs débattent de la possibilité qu'une intelligence artificielle puisse un jour menacer la survie de l'humanité, un professeur de physique soutient que cette fixation sur les catastrophes futures permet aux entreprises d'éviter leur responsabilité pour les très réels préjudices que leur technologie cause déjà.
Dans un essai récent, Tobias Osborne, professeur de physique théorique à l'Université Leibniz de Hanovre et cofondateur de la société de communication scientifique Innovailia, affirme que les débats sur les machines surintelligentes et une « singularité » hypothétique sont devenus une distraction dangereuse.
L'apocalypse n'est pas en train de venir. À la place, la dystopie est déjà là.
Osborne affirme que pendant que les technologues débattent des risques existentiels, l'industrie inflige des « préjudices réels maintenant. Aujourd'hui. De manière mesurable. »
Comment les récits d'apocalypse affaiblissent la surveillance
Le débat sur l'IA est de plus en plus façonné par des scénarios d'apocalypse, y compris des avertissements selon lesquels des systèmes surintelligents pourraient anéantir l'humanité par conception ou par accident. Ces craintes sont amplifiées par des chercheurs en IA de premier plan, des dirigeants technologiques et des rapports gouvernementaux.
Osborne soutient que cette fixation a un effet concret sur la réglementation et la responsabilité. En se présentant comme des gardiens contre la catastrophe civilisationnelle, les entreprises de l'IA sont traitées comme des acteurs de sécurité nationale plutôt que comme des vendeurs de produits.
En se présentant comme des gardiens contre la catastrophe civilisationnelle, les entreprises de l'IA sont traitées comme des acteurs de sécurité nationale plutôt que comme des vendeurs de produits, ce qui dilue la responsabilité et décourage la réglementation ordinaire.
Ce changement permet aux entreprises d'externaliser les préjudices tout en bénéficiant de la déférence réglementaire, du secret et des subventions publiques. Les récits de style apocalypse persistent, dit Osborne, car ils sont faciles à vendre, difficiles à réfuter et aident à transférer le risque d'entreprise sur le public.
"L'apocalypse n'est pas en train de venir. À la place, la dystopie est déjà là."
— Tobias Osborne, Professeur de physique théorique, Université Leibniz de Hanovre
Les préjudices actuels négligés
L'essai d'Osborne énumère une longue liste de préjudices actuels qu'il estime être marginalisés par les débats futuristes. Ceux-ci incluent :
- L'exploitation des travailleurs peu payés qui étiquettent les données d'entraînement de l'IA
- Le scraping massif des œuvres d'artistes et d'écrivains sans consentement
- Les coûts environnementaux des centres de données énergivores
- Les préjudices psychologiques liés à l'utilisation des chatbots
- Une avalanche de contenu généré par l'IA qui rend la recherche d'informations fiables plus difficile
Il s'attaque également à l'idée populaire que l'IA se dirige vers une explosion d'intelligence incontrôlée. Dans l'essai, Osborne a décrit de telles affirmations comme « une eschatologie religieuse déguisée en langage scientifique », disant que de tels scénarios s'effondrent lorsqu'ils sont confrontés aux limites physiques.
Ce ne sont pas des problèmes d'ingénierie en attente de solutions intelligentes. Ce sont des conséquences de la physique.
Diversion réglementaire
Le paysage réglementaire évolue dans des directions opposées. Alors que l'Union européenne a commencé à déployer le Règlement sur l'IA — un cadre réglementaire global qui introduira des règles plus strictes jusqu'en 2026 —, les États-Unis adoptent une approche différente.
Les efforts fédéraux aux États-Unis se concentrent sur la limitation de la réglementation de l'IA au niveau des États et sur le maintien de normes nationales « minimales ». Cette divergence met en évidence le défi mondial de concilier innovation et responsabilité.
La critique d'Osborne suggère que sans un changement de focus, les cadres réglementaires pourraient continuer à privilégier les risques spéculatifs aux préjudices mesurables et actuels.
Un appel à la responsabilité
Osborne n'est pas opposé à l'IA en soi. Dans son essai, il souligne les avantages réels que les grands modèles de langage peuvent offrir, en particulier aux personnes handicapées qui ont des difficultés avec la communication écrite.
Cependant, il avertit que sans responsabilité, ces avantages risquent d'être éclipsés par les préjudices systémiques. Plutôt que de se concentrer sur les menaces futures spéculatives, Osborne dit que les décideurs devraient appliquer les lois existantes sur la responsabilité des produits et le devoir de vigilance aux systèmes d'IA.
Les vrais problèmes sont les problèmes très ordinaires, très humains du pouvoir, de la responsabilité et de qui décide comment ces systèmes sont construits et déployés.
En obligeant les entreprises à assumer la responsabilité des impacts réels de leurs outils, la société peut s'assurer que les avantages de l'IA ne sont pas perdus au profit d'un pouvoir d'entreprise incontrôlé.
"En se présentant comme des gardiens contre la catastrophe civilisationnelle, les entreprises de l'IA sont traitées comme des acteurs de sécurité nationale plutôt que comme des vendeurs de produits, ce qui dilue la responsabilité et décourage la réglementation ordinaire."
— Tobias Osborne, Professeur de physique théorique, Université Leibniz de Hanovre
"Ce ne sont pas des problèmes d'ingénierie en attente de solutions intelligentes. Ce sont des conséquences de la physique."
— Tobias Osborne, Professeur de physique théorique, Université Leibniz de Hanovre
"Les vrais problèmes sont les problèmes très ordinaires, très humains du pouvoir, de la responsabilité et de qui décide comment ces systèmes sont construits et déployés."
— Tobias Osborne, Professeur de physique théorique, Université Leibniz de Hanovre
Questions Fréquemment Posées
Quel est l'argument principal avancé par Tobias Osborne ?
Tobias Osborne soutient que se concentrer sur les scénarios d'apocalypse futurs de l'IA distrait les régulateurs et permet aux entreprises d'éviter leur responsabilité pour les préjudices réels qui se produisent aujourd'hui. Il affirme que les débats sur les machines surintelligentes sont devenus une distraction dangereuse des problèmes mesurables et actuels.
Quels préjudices spécifiques Osborne met-il en évidence ?
Osborne énumère plusieurs préjudices actuels, notamment l'exploitation des étiqueteurs de données peu payés, le scraping massif d'œuvres protégées sans consentement, les coûts environnementaux des centres de données, les préjudices psychologiques liés à l'utilisation des chatbots et une avalanche de contenu généré par l'IA qui rend la recherche d'informations fiables plus difficile.
Quelle solution Osborne suggère-t-il ?
Plutôt que de se concentrer sur les menaces futures spéculatives, Osborne dit que les décideurs devraient appliquer les lois existantes sur la responsabilité des produits et le devoir de vigilance aux systèmes d'IA. Cela obligerait les entreprises à assumer la responsabilité des impacts réels de leurs outils.
Comment Osborne perçoit-il le paysage réglementaire actuel ?
Osborne note une divergence entre l'UE, qui met en œuvre le Règlement sur l'IA avec des règles plus strictes jusqu'en 2026, et les États-Unis, où les efforts fédéraux se concentrent sur la limitation de la réglementation au niveau des États et le maintien de normes nationales « minimales ».









