M
MercyNews
Home
Back
Chef de la police britannique impute à l'IA la fabrication de preuves pour bannir des supporters
Technologie

Chef de la police britannique impute à l'IA la fabrication de preuves pour bannir des supporters

Times of Israel8h ago
3 min de lecture
📋

Points Clés

  • La police des Midlands de l'Ouest a reconnu que Microsoft Copilot a créé des détails de match entièrement fictifs qui ont ensuite été utilisés dans des procédures officielles contre des supporters israéliens.
  • Le contenu généré par l'IA a cité un match du Maccabi Tel Aviv qui n'a jamais eu lieu, mais a été présenté comme une preuve légitime.
  • Un haut responsable de la police a été contraint d'admettre l'échec technologique lors d'un interrogatoire par des parlementaires enquêtant sur l'incident.
  • Les conclusions de cette affaire doivent être formellement présentées aux autorités, ce qui pourrait entraîner des changements de politique plus larges.
  • Ceci représente l'un des premiers cas documentés de désinformation générée par l'IA affectant directement les décisions d'application de la loi liées au sport.

Scandale de preuves par IA

Une grande controverse a éclaté au Royaume-Uni après qu'un haut responsable de la police a admis que l'intelligence artificielle a fabriqué des preuves utilisées pour bannir des supporters de football israéliens. Cet aveu a suscité une large indignation et soulevé des questions urgentes sur la fiabilité des outils d'IA dans l'application de la loi.

L'affaire met en cause la police des Midlands de l'Ouest, l'une des plus grandes agences de police du pays. Lors d'un témoignage devant les parlementaires, un haut officier a confirmé que l'IA Microsoft Copilot a généré de fausses informations sur un match de football inexistant, qui ont ensuite été utilisées comme preuves légitimes dans des procédures officielles.

Cela représente un échec critique dans la façon dont les départements de police adoptent les nouvelles technologies. L'incident a provoqué un examen immédiat de la part du public et des responsables gouvernementaux, qui exigent des explications sur la manière dont une telle erreur a pu se produire et sur les garanties qui seront mises en place pour éviter de futurs incidents.

Le Faux Match

Le cœur du scandale implique Microsoft Copilot qui a créé des détails entièrement fictifs sur un match de football du Maccabi Tel Aviv. L'outil d'IA a généré un contenu décrivant les détails du match, les scores et des événements qui n'ont jamais eu lieu. Ces informations fabriquées ont ensuite été intégrées dans la documentation officielle de la police.

Ce qui est le plus troublant, c'est que ce match inexistant a été présenté comme une preuve factuelle lorsque les autorités ont pris des décisions pour bannir les supporters israéliens des matchs de football. La fausse preuve semble avoir été acceptée sans vérification appropriée, ce qui démontre une lacune dangereuse dans la validation du contenu généré par l'IA.

Les aspects clés de cet échec incluent :

  • Des détails de match générés par l'IA qui étaient complètement fictifs
  • Une documentation policière officielle intégrant du contenu d'IA non vérifié
  • Des décisions affectant de vraies personnes basées sur des informations fabriquées
  • La découverte tardive de l'erreur par les superviseurs humains

Le nom Maccabi Tel Aviv a été utilisé sans autorisation pour créer un récit plausible mais entièrement faux. Cette utilisation abusive de l'identité d'un vrai club dans des preuves fabriquées a particulièrement indigné l'équipe et ses supporters.

"L'incident souligne le besoin urgent de protocoles clairs régissant l'utilisation de l'IA dans l'application de la loi."

— Parlementaire, Parlement du Royaume-Uni

Aveu au Parlement

La vérité a émergé lorsqu'un haut officier de la police des Midlands de l'Ouest a été interrogé par les parlementaires sur les preuves utilisées dans l'affaire du bannissement des supporters. Sous un interrogatoire direct, le haut responsable a admis que le contenu controversé avait été généré par Microsoft Copilot, et non compilé par des enquêteurs humains.

Cet aveu devant le parlement a transformé ce qui aurait pu être une erreur technique mineure en un problème politique et juridique majeur. Les parlementaires ont exprimé leur choc que du matériel généré par l'IA ait été traité comme une preuve crédite sans vérification humaine appropriée.

L'incident souligne le besoin urgent de protocoles clairs régissant l'utilisation de l'IA dans l'application de la loi.

Le témoignage a révélé plusieurs pratiques préoccupantes :

  1. Des outils d'IA ont été utilisés pour générer du contenu sans surveillance adéquate
  2. Aucun processus de vérification n'existait pour vérifier les faits générés par l'IA
  3. La technologie a été déployée plus rapidement que les politiques n'ont pu être développées
  4. Les officiers humains n'ont pas remis en question l'authenticité des résultats de l'IA

À la suite de l'aveu, les autorités ont annoncé que des conclusions complètes sur cette affaire seraient formellement présentées. Cela suggère que le problème dépasse un incident isolé et pourrait refléter des problèmes plus larges avec la façon dont la police met en œuvre les systèmes d'intelligence artificielle.

Réaction du public et de la politique

La révélation a suscité une indignation généralisée à travers plusieurs communautés. Les supporters de football, les groupes de défense des libertés civiles et les critiques technologiques ont tous exprimé leur indignation quant à la manière dont l'IA a été autorisée à influencer des décisions d'application de la loi dans le monde réel sans garanties appropriées.

Beaucoup se demandent si cela représente un incident isolé ou si des preuves générées par l'IA ont été utilisées dans d'autres affaires. Le timing est particulièrement sensible, car les départements de police du monde entier adoptent rapidement de nouveaux outils technologiques sans cadres de surveillance établis.

Les critiques ont identifié plusieurs problèmes fondamentaux :

  • Manque de vérification obligatoire pour le contenu généré par l'IA
  • Formation insuffisante des officiers sur les limites de l'IA
  • Politiques manquantes sur le moment et la manière d'utiliser l'IA
  • Lacunes de responsabilité lorsque la technologie échoue

La marque Microsoft a également été entraînée dans la controverse, bien que l'accent principal reste sur les procédures de la police. Les experts technologiques notent que bien que les outils d'IA puissent être utiles, ils nécessitent une surveillance humaine et une vérification des faits, surtout lorsqu'ils sont utilisés dans des contextes juridiques ou d'application de la loi.

Implications plus larges

Cette affaire pourrait devenir un exemple emblématique de ce qui se passe lorsque l'application de la loi adopte l'IA sans garanties appropriées. L'incident a des implications bien au-delà des bannissements de supporters de football, affectant potentiellement la façon dont les départements de police à travers le Royaume-Uni et au niveau international abordent la mise en œuvre de l'IA.

Les conclusions prévues pour la présentation influenceront probablement les décisions de politiques futures concernant l'utilisation de l'IA dans l'application de la loi. Cela pourrait inclure des processus de vérification obligatoires, des cas d'utilisation restreints ou des interdictions complètes de certaines applications d'IA dans la collecte de preuves.

Plusieurs questions critiques restent sans réponse :

  • Combien d'autres affaires pourraient impliquer des preuves générées par l'IA ?
  • Quelles normes de vérification seront mises en place ?
  • Qui est responsable lorsque l'IA crée de fausses preuves ?
  • Comment les personnes affectées seront-elles indemnisées ou blanchies ?

L'affaire des Midlands de l'Ouest a déjà provoqué des appels à la suspension immédiate des outils d'IA dans la génération de preuves en attendant l'enquête. Les experts juridiques suggèrent que cela pourrait entraîner des appels dans des affaires où l'IA a été utilisée auparavant, affectant potentiellement de nombreuses décisions passées.

Perspectives

Le scandale de preuves par IA représente un tournant critique dans la façon dont la société équilibre l'innovation technologique avec les garanties juridiques. Bien que l'intelligence artificielle offre des capacités puissantes, cet incident démontre les conséquences graves de son déploiement sans surveillance humaine adéquate.

Alors que les conclusions sont préparées pour la présentation, tous les regards seront tournés vers la manière dont les autorités réagissent à cet échec sans précédent. Le résultat établira probablement des précédents importants pour la réglementation future de l'IA dans l'application de la loi.

#Israel & the Region#British police#Maccabi Tel Aviv#european soccer#Birmingham

Continue scrolling for more

L'IA transforme la recherche et les preuves mathématiques
Technology

L'IA transforme la recherche et les preuves mathématiques

L'intelligence artificielle passe d'une promesse à une réalité en mathématiques. Les modèles d'apprentissage génèrent désormais des théorèmes originaux, forçant une réévaluation de la recherche et de l'enseignement.

Just now
4 min
189
Read Article
Famille en deuil après la mort de Renee Good, victime d'une fusillade de la police des frontières
Crime

Famille en deuil après la mort de Renee Good, victime d'une fusillade de la police des frontières

La famille de Renee Maklin Good, mère de 37 ans abattue par un agent de l'ICE, annonce une enquête civile. La communauté exige transparence et responsabilité.

28m
5 min
0
Read Article
Grok restreint la création d'images IA suite à un tollé mondial
Technology

Grok restreint la création d'images IA suite à un tollé mondial

Grok a mis en place des restrictions strictes sur la création d'images sexualisées de personnes réelles suite à un tollé mondial et des enquêtes réglementaires.

42m
6 min
0
Read Article
xAI ajuste la politique de Grok sous la pression d'Apple
Technology

xAI ajuste la politique de Grok sous la pression d'Apple

xAI a annoncé des changements significatifs à ses capacités d'édition d'images Grok. Cette décision fait suite à des appels urgents de groupes de défense demandant à Apple d'agir contre la plateforme X.

47m
5 min
0
Read Article
Top 10 Programming Languages to Master in 2025
Technology

Top 10 Programming Languages to Master in 2025

Navigating the tech landscape in 2025 requires the right tools. We break down the top 10 programming languages based on industry demand, salary potential, and versatility to help you future-proof your career.

49m
10 min
0
Read Article
Fermeture de l'espace aérien iranien : les vols détournés en pleine tension
World_news

Fermeture de l'espace aérien iranien : les vols détournés en pleine tension

Les compagnies aériennes détournent les vols pour éviter l'espace aérien iranien et irakien en raison de tensions régionales accrues. Parallèlement, Téhéran nie fermement les rapports suggérant des exécutions sommaires imminentes.

56m
4 min
0
Read Article
The Ultimate Guide to E-Readers: Kindle vs. Kobo
Technology

The Ultimate Guide to E-Readers: Kindle vs. Kobo

From waterproof Kindles to color Kobos with stylus support, find the perfect e-reader for your library. A comprehensive guide to the top devices on the market.

1h
5 min
0
Read Article
Technology

Furiosa: 3.5x efficiency over H100s

Article URL: https://furiosa.ai/blog/introducing-rngd-server-efficient-ai-inference-at-data-center-scale Comments URL: https://news.ycombinator.com/item?id=46626410 Points: 15 # Comments: 0

1h
3 min
0
Read Article
Graffiti antisioniste profane les ruines d'une synagogue de Pasadena
Society

Graffiti antisioniste profane les ruines d'une synagogue de Pasadena

Dans les cendres d'un incendie de forêt dévastateur, les restes d'une synagogue centenaire sont devenus la cible d'un acte antisémite. Les dirigeants communautaires et les forces de l'ordre enquêtent.

1h
5 min
0
Read Article
Coinbase rejette le projet de loi américain sur les cryptomonnaies
Cryptocurrency

Coinbase rejette le projet de loi américain sur les cryptomonnaies

Le PDG de Coinbase, Brian Armstrong, a retiré son soutien à la législation crypto américaine, déclarant qu'« aucune loi » vaut mieux qu'une « mauvaise loi » pour l'avenir de l'industrie.

1h
5 min
0
Read Article
🎉

You're all caught up!

Check back later for more stories

Retour a l'accueil