M
MercyNews
Home
Back
Les craintes d'apocalypse de l'IA permettent aux entreprises d'éviter les vrais préjudices, prévient un professeur
Technologie

Les craintes d'apocalypse de l'IA permettent aux entreprises d'éviter les vrais préjudices, prévient un professeur

Business Insider2h ago
3 min de lecture
📋

Points Clés

  • Tobias Osborne est professeur de physique théorique à l'Université Leibniz de Hanovre et cofondateur de la société de communication scientifique Innovailia.
  • Le Règlement de l'UE sur l'IA est un cadre réglementaire global qui introduira des règles plus strictes jusqu'en 2026.
  • Osborne soutient que les débats sur les machines surintelligentes et une « singularité » hypothétique sont devenus une distraction dangereuse des préjudices actuels.
  • Il identifie l'exploitation des étiqueteurs de données peu payés et le scraping massif d'œuvres protégées comme des risques clés négligés.
  • Osborne qualifie les affirmations sur une explosion d'intelligence incontrôlée de « eschatologie religieuse déguisée en langage scientifique ».

La dystopie est déjà là

Alors que l'industrie technologique et les décideurs débattent de la possibilité qu'une intelligence artificielle puisse un jour menacer la survie de l'humanité, un professeur de physique soutient que cette fixation sur les catastrophes futures permet aux entreprises d'éviter leur responsabilité pour les très réels préjudices que leur technologie cause déjà.

Dans un essai récent, Tobias Osborne, professeur de physique théorique à l'Université Leibniz de Hanovre et cofondateur de la société de communication scientifique Innovailia, affirme que les débats sur les machines surintelligentes et une « singularité » hypothétique sont devenus une distraction dangereuse.

L'apocalypse n'est pas en train de venir. À la place, la dystopie est déjà là.

Osborne affirme que pendant que les technologues débattent des risques existentiels, l'industrie inflige des « préjudices réels maintenant. Aujourd'hui. De manière mesurable. »

Comment les récits d'apocalypse affaiblissent la surveillance

Le débat sur l'IA est de plus en plus façonné par des scénarios d'apocalypse, y compris des avertissements selon lesquels des systèmes surintelligents pourraient anéantir l'humanité par conception ou par accident. Ces craintes sont amplifiées par des chercheurs en IA de premier plan, des dirigeants technologiques et des rapports gouvernementaux.

Osborne soutient que cette fixation a un effet concret sur la réglementation et la responsabilité. En se présentant comme des gardiens contre la catastrophe civilisationnelle, les entreprises de l'IA sont traitées comme des acteurs de sécurité nationale plutôt que comme des vendeurs de produits.

En se présentant comme des gardiens contre la catastrophe civilisationnelle, les entreprises de l'IA sont traitées comme des acteurs de sécurité nationale plutôt que comme des vendeurs de produits, ce qui dilue la responsabilité et décourage la réglementation ordinaire.

Ce changement permet aux entreprises d'externaliser les préjudices tout en bénéficiant de la déférence réglementaire, du secret et des subventions publiques. Les récits de style apocalypse persistent, dit Osborne, car ils sont faciles à vendre, difficiles à réfuter et aident à transférer le risque d'entreprise sur le public.

"L'apocalypse n'est pas en train de venir. À la place, la dystopie est déjà là."

— Tobias Osborne, Professeur de physique théorique, Université Leibniz de Hanovre

Les préjudices actuels négligés

L'essai d'Osborne énumère une longue liste de préjudices actuels qu'il estime être marginalisés par les débats futuristes. Ceux-ci incluent :

  • L'exploitation des travailleurs peu payés qui étiquettent les données d'entraînement de l'IA
  • Le scraping massif des œuvres d'artistes et d'écrivains sans consentement
  • Les coûts environnementaux des centres de données énergivores
  • Les préjudices psychologiques liés à l'utilisation des chatbots
  • Une avalanche de contenu généré par l'IA qui rend la recherche d'informations fiables plus difficile

Il s'attaque également à l'idée populaire que l'IA se dirige vers une explosion d'intelligence incontrôlée. Dans l'essai, Osborne a décrit de telles affirmations comme « une eschatologie religieuse déguisée en langage scientifique », disant que de tels scénarios s'effondrent lorsqu'ils sont confrontés aux limites physiques.

Ce ne sont pas des problèmes d'ingénierie en attente de solutions intelligentes. Ce sont des conséquences de la physique.

Diversion réglementaire

Le paysage réglementaire évolue dans des directions opposées. Alors que l'Union européenne a commencé à déployer le Règlement sur l'IA — un cadre réglementaire global qui introduira des règles plus strictes jusqu'en 2026 —, les États-Unis adoptent une approche différente.

Les efforts fédéraux aux États-Unis se concentrent sur la limitation de la réglementation de l'IA au niveau des États et sur le maintien de normes nationales « minimales ». Cette divergence met en évidence le défi mondial de concilier innovation et responsabilité.

La critique d'Osborne suggère que sans un changement de focus, les cadres réglementaires pourraient continuer à privilégier les risques spéculatifs aux préjudices mesurables et actuels.

Un appel à la responsabilité

Osborne n'est pas opposé à l'IA en soi. Dans son essai, il souligne les avantages réels que les grands modèles de langage peuvent offrir, en particulier aux personnes handicapées qui ont des difficultés avec la communication écrite.

Cependant, il avertit que sans responsabilité, ces avantages risquent d'être éclipsés par les préjudices systémiques. Plutôt que de se concentrer sur les menaces futures spéculatives, Osborne dit que les décideurs devraient appliquer les lois existantes sur la responsabilité des produits et le devoir de vigilance aux systèmes d'IA.

Les vrais problèmes sont les problèmes très ordinaires, très humains du pouvoir, de la responsabilité et de qui décide comment ces systèmes sont construits et déployés.

En obligeant les entreprises à assumer la responsabilité des impacts réels de leurs outils, la société peut s'assurer que les avantages de l'IA ne sont pas perdus au profit d'un pouvoir d'entreprise incontrôlé.

"En se présentant comme des gardiens contre la catastrophe civilisationnelle, les entreprises de l'IA sont traitées comme des acteurs de sécurité nationale plutôt que comme des vendeurs de produits, ce qui dilue la responsabilité et décourage la réglementation ordinaire."

— Tobias Osborne, Professeur de physique théorique, Université Leibniz de Hanovre

"Ce ne sont pas des problèmes d'ingénierie en attente de solutions intelligentes. Ce sont des conséquences de la physique."

— Tobias Osborne, Professeur de physique théorique, Université Leibniz de Hanovre

"Les vrais problèmes sont les problèmes très ordinaires, très humains du pouvoir, de la responsabilité et de qui décide comment ces systèmes sont construits et déployés."

— Tobias Osborne, Professeur de physique théorique, Université Leibniz de Hanovre

Questions Fréquemment Posées

Quel est l'argument principal avancé par Tobias Osborne ?

Tobias Osborne soutient que se concentrer sur les scénarios d'apocalypse futurs de l'IA distrait les régulateurs et permet aux entreprises d'éviter leur responsabilité pour les préjudices réels qui se produisent aujourd'hui. Il affirme que les débats sur les machines surintelligentes sont devenus une distraction dangereuse des problèmes mesurables et actuels.

Quels préjudices spécifiques Osborne met-il en évidence ?

Osborne énumère plusieurs préjudices actuels, notamment l'exploitation des étiqueteurs de données peu payés, le scraping massif d'œuvres protégées sans consentement, les coûts environnementaux des centres de données, les préjudices psychologiques liés à l'utilisation des chatbots et une avalanche de contenu généré par l'IA qui rend la recherche d'informations fiables plus difficile.

Quelle solution Osborne suggère-t-il ?

Plutôt que de se concentrer sur les menaces futures spéculatives, Osborne dit que les décideurs devraient appliquer les lois existantes sur la responsabilité des produits et le devoir de vigilance aux systèmes d'IA. Cela obligerait les entreprises à assumer la responsabilité des impacts réels de leurs outils.

Comment Osborne perçoit-il le paysage réglementaire actuel ?

Osborne note une divergence entre l'UE, qui met en œuvre le Règlement sur l'IA avec des règles plus strictes jusqu'en 2026, et les États-Unis, où les efforts fédéraux se concentrent sur la limitation de la réglementation au niveau des États et le maintien de normes nationales « minimales ».

Continue scrolling for more

L'IA transforme la recherche et les preuves mathématiques
Technology

L'IA transforme la recherche et les preuves mathématiques

L'intelligence artificielle passe d'une promesse à une réalité en mathématiques. Les modèles d'apprentissage génèrent désormais des théorèmes originaux, forçant une réévaluation de la recherche et de l'enseignement.

Just now
4 min
200
Read Article
Kokuho : Le film Kabuki qui a défié Hollywood
Entertainment

Kokuho : Le film Kabuki qui a défié Hollywood

Un film de près de trois heures sur le Kabuki, une forme d'art traditionnelle, est devenu le plus grand succès en prise de vues réelles au Japon et a été présélectionné pour les Oscars.

2h
5 min
6
Read Article
Manifestations en Iran : Le plus grand défi depuis 1979
Politics

Manifestations en Iran : Le plus grand défi depuis 1979

Les manifestations actuelles en Iran représentent le défi le plus important pour la République islamique depuis 1979, selon les experts. L'opposition reste fragmentée, créant de l'incertitude sur l'avenir politique du pays.

2h
5 min
6
Read Article
Society

'Charlie Hebdo' cartoon on Swiss fire tragedy sparks outrage

A cartoon by the French satirical weekly portraying the deadly fire in Crans-Montana as the "comedy of the year" provokes disgust.

2h
3 min
0
Read Article
LSEG lance une plateforme de règlement blockchain 24h/24, 7j/7
Economics

LSEG lance une plateforme de règlement blockchain 24h/24, 7j/7

Le London Stock Exchange Group a lancé une plateforme blockchain révolutionnaire pour les règlements financiers, permettant un traitement 24h/24, 7j/7 des dépôts bancaires tokenisés sur différentes devises et réseaux.

2h
5 min
6
Read Article
Protests en Iran : Le bilan des décès dépasse 2 600
Politics

Protests en Iran : Le bilan des décès dépasse 2 600

Les manifestations nationales en Iran sont étouffées par une répression brutale. Selon les militants, au moins 2 615 personnes ont été tuées, un bilan record depuis des décennies.

2h
5 min
6
Read Article
Un agent fédéral blesse un manifestant à Minneapolis
Politics

Un agent fédéral blesse un manifestant à Minneapolis

Un agent fédéral de l'immigration a blessé un homme à la jambe à Minneapolis mercredi soir lors d'une confrontation avec des manifestants, marquant le deuxième tir de l'ICE dans la ville récemment.

2h
5 min
6
Read Article
L'Ouganda : Museveni cherche un septième mandat dans une élection tendue
Politics

L'Ouganda : Museveni cherche un septième mandat dans une élection tendue

L'Ouganda se prépare à une élection présidentielle tendue où le président Yoweri Museveni, le dirigeant le plus ancien d'Afrique, cherche un septième mandat. Les opposants critiquent l'équité du processus.

2h
5 min
6
Read Article
US says Gaza truce enters phase two, after forming Palestinian committee
Politics

US says Gaza truce enters phase two, after forming Palestinian committee

The United States said on Wednesday it is launching the second phase of its plan to end the Gaza war, even as key elements of the first phase - including ⁠a complete ceasefire between Israel and Hamas - remain unfulfilled. Story by David Gilberg and Monte Francis.

2h
3 min
0
Read Article
La véritable guerre des talents en IA concerne les plombiers et les électriciens
Economics

La véritable guerre des talents en IA concerne les plombiers et les électriciens

Le boom de l'IA entraîne une vague sans précédent de construction de centres de données, mais il n'y a pas assez de plombiers et d'électriciens qualifiés aux États-Unis pour répondre à la demande.

2h
5 min
6
Read Article
🎉

You're all caught up!

Check back later for more stories

Retour a l'accueil