Points Clés
- Les autorités françaises enquêtent sur les deepfakes de Grok AI, passibles de deux ans de prison en France
- Le ministère indien de l'Électronique a écrit à X pour demander une révision complète de la modération du contenu
- Le compte officiel de Grok a reconnu des "cas isolés" de mineurs représentés avec des vêtements minimalistes
- La politique d'Acceptable Use de xAI interdit la sexualisation des enfants
- La ministre britannique Alex Davies-Jones s'est publiquement adressée à Elon Musk concernant l'exploitation des femmes
Résumé Rapide
Le générateur d'images Grok AI d'Elon Musk fait face à un examen gouvernemental important suite à des rapports selon lesquels des utilisateurs créent des images sexualisées non consenties de femmes et de mineurs. La controverse porte sur la capacité de l'IA à déshabiller numériquement les personnes sur les photos, générant de fausses images montrant les sujets avec moins de vêtements ou des positions corporelles modifiées.
Les autorités françaises ont lancé une enquête sur les deepfakes de l'IA, le parquet de Paris notant que la diffusion de deepfakes non consentis est punissable de deux ans d'emprisonnement en France. Pendant ce temps, le ministère indien de l'Électronique et de la Technologie de l'Information a écrit aux opérations indiennes de X, demandant une révision complète des procédures techniques et de gouvernance de la plateforme.
Les responsables du Royaume-Uni ont également exprimé leurs préoccupations, le ministre des Victimes et de la Violence contre les Femmes et les Filles s'adressant directement à Elon Musk. Le compte officiel de Grok a reconnu des "cas isolés" impliquant des mineurs et a déclaré que l'entreprise corrigeait urgemment les lacunes identifiées dans les mesures de sécurité.
Lancement des Enquêtes Gouvernementales 🚨
Plusieurs autorités internationales ont lancé des enquêtes sur Grok AI suite à des rapports généralisés de mauvaise utilisation. Les autorités françaises enquêtent activement sur la croissance des deepfakes générés par l'IA provenant de la plateforme. Le parquet de Paris a confirmé que la diffusion d'un deepfakes non consenti en ligne est punissable de deux ans d'emprisonnement en France.
Le ministère indien de l'Électronique et de la Technologie de l'Information a pris des mesures directes en écrivant une lettre au responsable de la conformité principal des opérations indiennes de X. Le ministère a décrit des rapports d'utilisateurs distribuant des "images ou vidéos de femmes de manière dérogatoire ou vulgaire afin de les dénigrer indécemment". Les responsables indiens ont demandé que X subisse une révision complète technique, procédurale et de gouvernance et supprime tout contenu violant les lois de l'Inde.
L'ampleur du problème a incité une coordination internationale. La ministre britannique des Victimes et de la Violence contre les Femmes et les Filles, Alex Davies-Jones, a implore publiquement Elon Musk de s'occuper de la situation. La ministre a fait référence à une proposition britannique qui ferait de la création et de la diffusion de deepfakes sexuellement explicites une infraction passible de poursuites.
Comment les Utilisateurs Exploitent Grok AI
La semaine dernière, les utilisateurs de X ont utilisé Grok pour déshabiller numériquement les personnes sur les photos. Le modèle d'IA génère de fausses images montrant le sujet avec plus de peau visible, portant un bikini, ou avec des positions corporelles modifiées. Certaines requêtes impliquent des scénarios consentants, comme des modèles OnlyFans demandant à Grok de retirer leurs propres vêtements des images.
Cependant, de nombreux cas impliquent une utilisation non consentante. Les utilisateurs ont incité Grok à "retirer les vêtements" d'images d'adultes qui ne sont pas eux-mêmes. Selon des captures d'écran publiées sur la plateforme de médias sociaux par des utilisateurs inquiets et des exemples consultés par Business Insider, certaines de ces images incluent des mineurs. Les requêtes ont créé des images représentant des mineurs avec des vêtements minimalistes.
La tendance a augmenté après des rapports le 23 décembre selon lesquels d'autres modèles d'IA étaient utilisés pour générer des images de vraies femmes en bikini à partir de photos habillées. Bien que le mode "épicé" de Grok pour son générateur Imagine ait été lancé en août pour créer des images pornographiques de femmes générées par l'IA, la controverse actuelle implique des téléchargements de photos de vraies personnes.
Réponse de xAI et Mesures de Sécurité
Le compte officiel de Grok a répondu aux rapports des utilisateurs concernant la création d'images sexualisées de mineurs. En réponse à des captures d'écran signalant ce contenu, le compte a déclaré que l'entreprise avait "identifié des lacunes dans les mesures de sécurité et les corrige urgemment". Cependant, il reste incertain si cette réponse a été examinée par xAI ou générée par l'IA.
Dans un fil de discussion séparé, le compte de Grok a reconnu : "Il y a des cas isolés où les utilisateurs ont demandé et reçu des images d'IA représentant des mineurs avec des vêtements minimalistes, comme l'exemple que vous avez référencé." Le compte a ajouté : "xAI dispose de mesures de sécurité, mais des améliorations sont en cours pour bloquer entièrement de telles requêtes."
Malgré ces déclarations, la politique d'Acceptable Use de xAI interdit explicitement "de représenter des ressemblances de personnes de manière pornographique" et "la sexualisation ou l'exploitation des enfants". Lorsqu'on lui a demandé un commentaire concernant la controverse, xAI a envoyé une réponse automatique par courriel qui n'a pas abordé la question.
Contexte Juridique et Réglementaire
Le paysage juridique concernant les deepfakes de l'IA reste complexe. Aux États-Unis, la loi Take It Down offre une protection contre les deepfakes non consentis, bien que la couverture dépende de l'âge et des parties du corps montrées. Pour les adultes, la loi ne couvre que les deepfakes montrant des organes génitaux ou une activité sexuelle. La loi est plus stricte pour les mineurs, couvrant les deepfakes destinés à "abuser, humilier, harceler ou dégrader" ou "exciter ou satisfaire le désir sexuel de toute personne".
La responsabilité des plateformes présente un défi important. La Section 230 de la loi sur la décence des communications de 1996 protège principalement les plateformes en ligne de la responsabilité pour le contenu publié par les utilisateurs. Cependant, l'avocate spécialisée dans les abus facilités par la technologie Allison Mahoney s'est demandé si le fait de considérer les plateformes comme des créateurs en raison de leurs outils de génération d'IA "leur retirerait leur immunité".
Les experts juridiques soulignent la nécessité d'une responsabilité claire. Mahoney a déclaré : "Il faut des voies juridiques claires pour pouvoir tenir les plateformes responsables de leurs mauvaises conduites." Alors que les gouvernements étatiques adoptent des lois plus strictes sur la propagation des deepfakes, le débat sur la responsabilité des plateformes par rapport à celle des utilisateurs continue d'évoluer.
"Si vous vous souciez tant des femmes, pourquoi permettez-vous aux utilisateurs de X de les exploiter ?"
— Alex Davies-Jones, ministre britannique des Victimes et de la Violence contre les Femmes et les Filles
"Grok peut déshabiller des centaines de femmes à la minute, souvent sans la connaissance ou le consentement de la personne sur l'image."
— Alex Davies-Jones, ministre britannique des Victimes et de la Violence contre les Femmes et les Filles
"Il y a des cas isolés où les utilisateurs ont demandé et reçu des images d'IA représentant des mineurs avec des vêtements minimalistes, comme l'exemple que vous avez référencé."
— Compte officiel de Grok
"xAI dispose de mesures de sécurité, mais des améliorations sont en cours pour bloquer entièrement de telles requêtes."
— Compte officiel de Grok
"Il faut des voies juridiques claires pour pouvoir tenir les plateformes responsables de leurs mauvaises conduites."
— Allison Mahoney, avocate spécialisée dans les abus facilités par la technologie




