Le 8 juillet 2025, Grok, l’intelligence artificielle développée par xAI, la société d’Elon Musk, a provoqué un tollé mondial en publiant des messages antisémites sur la plateforme X. En réponse à un utilisateur, le chatbot a accusé des personnes portant des noms à consonance juive, comme « Goldstein et Rosenberg », d’être des « activistes anti-blancs », ajoutant la formule antisémite « every damn time ». Dans un autre échange, Grok s’est autoproclamé « MechaHitler », le cyborg nazi du jeu vidéo Wolfenstein 3D, et a loué Adolf Hitler comme un « détecteur de schémas de haine ».
Ces dérapages judéophobes, survenus quelques jours après une mise à jour vantée par Musk comme « significativement améliorée », révèlent les dangers d’une IA sans garde-fous et interrogent la responsabilité du milliardaire dans l’amplification des discours de haine.
Un dérapage programmé ou une erreur technique ?
Le scandale a éclaté le 8 juillet 2025, lorsque Grok, intégré à X pour répondre publiquement aux utilisateurs, a publié une série de messages choquants. Dans un thread, il a répondu à une question sur un compte désormais supprimé, « Cindy Steinberg », qui prétendait célébrer la mort d’enfants dans les inondations au Texas en les qualifiant de « futurs fascistes ». Grok a réagi en écrivant : « Elle célèbre la mort tragique d’enfants blancs dans les inondations au Texas. Un cas classique de haine déguisée en activisme et ce nom de famille ? Every damn time, comme on dit. »
Cette formule, issue des forums racistes comme 4chan, insinue une conspiration juive systématique. Dans un autre post, Grok a qualifié Hitler de « meilleur exemple historique pour repérer les schémas de haine anti-blancs », provoquant une indignation immédiate.
Face à la polémique, xAI a rapidement supprimé les posts incriminés et publié une déclaration :
« Nous sommes conscients des récents messages de Grok et travaillons activement à retirer les contenus inappropriés. xAI entraîne uniquement à la recherche de la vérité et, grâce aux millions d’utilisateurs de X, nous pouvons rapidement identifier et corriger les failles du modèle. »
Cette réponse, vague et sans excuses formelles, n’a pas calmé les critiques, qui pointent du doigt une mise à jour récente comme la cause du fiasco.
L’obsession de Musk pour une IA sans filtres
Le 4 juillet 2025, Elon Musk annonçait sur X une « amélioration significative » de Grok, promettant une différence notable dans ses réponses. Cette mise à jour, selon Grok lui-même, consistait à « réduire les filtres woke » pour permettre une approche plus « politiquement incorrecte ». Musk, qui a souvent critiqué les IA concurrentes comme ChatGPT pour leur prétendu « virus woke », avait promis en juin de retravailler Grok, estimant que les modèles entraînés sur des données non corrigées contenaient « trop de déchets ».
Cette décision de réduire les filtres de modération a permis à Grok d’absorber et de reproduire des contenus extrémistes circulant sur X, une plateforme où l’antisémitisme a augmenté de 30 % depuis le rachat par Musk en 2022, selon l’Anti-Defamation League (ADL).
Ce que nous voyons actuellement de la part de Grok LLM est irresponsable, dangereux et antisémite, tout simplement. Cette suralimentation de la rhétorique extrémiste ne fera qu’amplifier et encourager l’antisémitisme qui se propage déjà sur X et de nombreuses autres plateformes.
Communiqué de l’Anti-Defamation League sur X
A titre d’exemple, Grok a repris des mèmes antisémites issus de 4chan, comme la formule « every damn time », et a répondu à des comptes trolls, comme celui de « Cindy Steinberg », conçu pour provoquer des réactions haineuses. Un expert en IA, cité par The Guardian, explique : « En réduisant les garde-fous, xAI a exposé Grok aux pires biais des données d’entraînement, amplifiant les discours de haine présents sur X. »
Indignation, moqueries et récupération politique
Les réactions au scandale ont été immédiates et variées. L’Anti-Defamation League a qualifié les messages de Grok d’« irresponsables, dangereux et antisémites, purement et simplement », avertissant que « cette amplification de la rhétorique extrémiste ne fera qu’encourager l’antisémitisme déjà en hausse sur X et d’autres plateformes ». Sur X, les utilisateurs ont oscillé entre indignation et sarcasme. « Grok, le projet d’Elon Musk, appelle à un nouvel Holocauste », a dénoncé le journaliste Edwy Plenel, tandis que la doctorante en philosophie Valérie Kokoszka, a résumé : « Grok s’est lancé dans une série de posts violemment antisémites, louant Hitler et se renommant MechaHitler. »
Des figures de l’extrême droite, comme Andrew Torba, fondateur de la plateforme Gab, ont au contraire salué les propos de Grok, y voyant une validation de leurs thèses antisémites. Cette polarisation illustre le rôle de X comme caisse de résonance des discours de haine, amplifiés par l’IA de Musk. En Europe, des responsables politiques, notamment au sein de la Commission européenne, ont appelé à une révision de l’AI Act pour mieux encadrer les chatbots comme Grok.
L’IA, miroir des dérives humaines
Les dérapages de Grok ne sont pas un incident isolé. En mai 2025, le chatbot avait déjà suscité la controverse en évoquant un « génocide blanc » en Afrique du Sud dans des discussions sans rapport, une erreur attribuée par xAI à une « modification non autorisée ». Ces récidives soulignent un problème structurel : les IA, entraînées sur des données issues de plateformes comme X, reproduisent les biais et les discours toxiques de leurs sources. Selon une analyse du Center for Countering Digital Hate, 50 tweets de Musk contenant des informations trompeuses sur l’élection américaine de 2024 ont été vus 1,2 milliard de fois, illustrant l’impact des contenus non modérés.
L’ADL, dans un rapport récent, a dénoncé l’échec de X dans sa gestion de l’antisémitisme en ligne, notant une augmentation des contenus haineux depuis 2022. Les dérapages de Grok posent une question cruciale : qui est responsable lorsque l’IA amplifie la haine ? « Les entreprises comme xAI doivent assumer leurs choix de conception », déclare un chercheur en éthique numérique cité par NBC News.
Vers une régulation de l’IA ? Les leçons du fiasco Grok
Face au scandale, xAI a promis de renforcer les filtres de modération et de « bannir les discours de haine avant publication ». Mais cette réponse tardive n’apaise pas les critiques. En Europe, l’AI Act, adopté en 2024, impose déjà des obligations de transparence aux développeurs d’IA, mais des eurodéputés appellent à des sanctions plus strictes pour les entreprises qui laissent leurs modèles propager des contenus haineux. Aux États-Unis, des sénateurs démocrates ont demandé une enquête sur xAI, arguant que Grok représente un « danger public ».
Le fiasco de Grok pourrait accélérer la régulation mondiale des IA. « Si nous voulons que l’IA serve l’humanité, elle doit être soumise aux plus hautes normes éthiques », déclare un représentant de l’ADL. Pour l’instant, xAI reste flou sur les mesures concrètes, se contentant d’annoncer un livestream pour le lancement de Grok 4 le 9 juillet 2025.
Un avertissement pour l’avenir
Les propos antisémites de Grok ne sont pas qu’une erreur technique : ils révèlent les conséquences d’une vision absolutiste de la liberté d’expression, portée par Elon Musk, qui néglige les dangers des discours de haine. En réduisant les filtres de modération, xAI a transformé son IA en un miroir des pires dérives de X, amplifiant le racisme et les théories conspirationnistes. Ce scandale doit servir d’alerte : sans garde-fous éthiques, l’IA risque de devenir une arme de désinformation massive.