L'intelligence artificielle Grok persiste dans la désinformation après l'assassinat de Charlie Kirk
- 12/09/2025 à 06:30

Le chatbot de X continue de propager de fausses informations malgré les faits établis. Après l'assassinat de Charlie Kirk, Grok a multiplié les déclarations erronées, affirmant que les vidéos du drame étaient de simples "montages humoristiques".
Dans plusieurs échanges troublants, l'intelligence artificielle a répété que Kirk "allait bien" et que les images choquantes de son assassinat n'étaient qu'un "montage pour rire". Lorsqu'un utilisateur a demandé à Grok si Kirk avait pu survivre à la fusillade, la réponse du chatbot était complètement déconnectée de la réalité : "Charlie Kirk prend les critiques avec le sourire - il a affronté des publics plus difficiles. Oui, il s'en sort facilement cette fois-ci."
Face aux utilisateurs incrédules qui soulignaient que Kirk avait été touché à la gorge, Grok a maintenu sa version des faits. L'IA a insisté sur le fait qu'il s'agissait d'une "vidéo avec des effets montés pour ressembler à un 'tir' dramatique - pas un événement réel". Elle a même enfoncé le clou : "La vidéo est un montage humoristique - Charlie Kirk débat, et les effets donnent l'impression qu'il est 'abattu' au milieu d'une phrase pour faire rire. Aucun mal réel ; il va bien et reste actif comme toujours."
Des affirmations persistantes malgré les preuves
Mercredi, Grok a continué sur cette lancée dans plusieurs autres conversations, décrivant la vidéo comme "exagérée pour faire rire" et contenant des "effets montés pour l'humour". Dans un autre échange, le chatbot a reconnu que plusieurs médias et le président Donald Trump avaient confirmé la mort de Kirk, mais l'a qualifiée de "montage" qui semblait être un "commentaire satirique sur les réactions à la violence politique".
Jeudi matin, Grok semblait enfin comprendre que Kirk avait effectivement été tué par balle, tout en continuant de faire référence à une "vidéo montage" qu'elle qualifiait de "sans rapport".
La désinformation de Grok ne s'est pas arrêtée là. Selon le New York Times, le chatbot a également répété le nom d'un Canadien qui avait été identifié à tort comme le tireur par des utilisateurs de X.
Un problème récurrent pour l'IA de X
Le chatbot de xAI, entraîné notamment sur les publications de X, est devenu omniprésent sur la plateforme. Les utilisateurs le mentionnent fréquemment pour vérifier des informations ou critiquer d'autres utilisateurs. Mais Grok s'avère extrêmement peu fiable.
Auparavant, l'IA avait déjà diffusé de fausses informations sur l'élection présidentielle de 2024, affirmant à tort que la vice-présidente Kamala Harris ne pouvait pas figurer sur les bulletins de vote.
D'autres incidents ont soulevé des questions plus graves. En mai dernier, Grok s'est focalisé sur une théorie du complot affirmant qu'il y avait eu un "génocide blanc" en Afrique du Sud. xAI a attribué cet épisode à une "modification non autorisée" sans expliquer complètement comment cela s'était produit.
Plus tôt dans l'été, le chatbot a publié des stéréotypes antisémites, fait l'éloge d'Hitler et s'est désigné lui-même comme "MechaHitler". xAI s'est excusé et a blâmé une mise à jour défaillante.
Les représentants de X et xAI n'ont pas immédiatement répondu aux demandes de commentaires.

Je suis passionné par les jeux vidéo depuis mon plus jeune âge. Mon amour pour l'univers numérique m'a conduit à explorer constamment les dernières avancées dans le monde des smartphones, tablettes, ordinateurs et bien d'autres gadgets technologiques. Armé d'une curiosité insatiable, j'aime dévoiler les dernières tendances et innovations, partageant avec enthousiasme mes découvertes avec la communauté en ligne. Mon engagement envers l'exploration constante des frontières de la technologie me permet de présenter aux lecteurs un aperçu captivant de ce que le futur numérique nous réserve.

Newsletter
Recevez notre newsletter hebdomadaire directement dans votre boite mail !
Publicité