Sélectionner une page

 

Intelligences  dites artificielles génératives .

Grok, l’IA d’Elon Musk, est avant tout une redoutable machine à désinformer

.

Le chatbot adossé au réseau social X, qui se veut concurrent de ChatGPT, a récemment diffusé des propos négationnistes et de fausses informations sur le 13-Novembre. Un épisode qui rappelle que cet outil est loin d’être neutre.

.

 le 21 novembre 2025

.

Elon Musk, alors qu’il travaillait pour le président américain, porte une casquette « Trump avait raison sur tout », à la Maison Blanche, à Washington, le 24 mars 2025.

Elon Musk est « plus en forme » que LeBron James, « plus drôle » que Jerry Seinfeld, plus intelligent qu’Albert Einstein et plus beau que François Civil. C’est en tout cas ce que répond Grok, l’intelligence artificielle (IA) intégrée au réseau social X, lorsqu’on lui demande de comparer le milliardaire à ces différentes personnalités. Depuis jeudi, les internautes s’en amusent : rien ne semble pouvoir arrêter l’IA conversationnelle quand il s’agit de dire à quel point l’homme le plus riche du monde est exceptionnel.

L’anecdote pourrait prêter à sourire, quand on sait qu’Elon Musk est justement le propriétaire de cette IA, lancée en 2023. Mais elle est surtout révélatrice d’une tendance inquiétante : alors que la plateforme X, elle aussi propriété du Sud-Africain, fait déjà l’objet d’une enquête ouverte par le parquet de Paris concernant les modifications apportées à son algorithme, les réponses laudatrices de Grok montrent, là encore, l’ancrage grandissant dans l’espace public d’une redoutable machine à désinformer.

 

De multiples cas sans explications

Ses états de service parlent pour elle. Rien que dans la semaine écoulée, Grok a contribué à la diffusion de fausses informations concernant l’attentat au Bataclan et répondu à un internaute que le Zyklon B, produit mortel utilisé dans les chambres à gaz des camps d’extermination par l’Allemagne nazie, avait en réalité servi « à la désinfection (…) contre le typhus ».

Des exemples loin d’être isolés. En mai, l’IA d’Elon Musk développait une obsession pour un « génocide blanc » prétendument en cours en Afrique du Sud, thèse chère à son créateur. En juin, elle appelait à voter pour Marine Le Pen, soulignait « l’efficacité » d’Adolf Hitler et appelait à un « vrai nettoyage » à Marseille pour lutter contre le trafic de drogue. A l’époque, xAI, l’entreprise qui pilote Grok, avait plaidé la faute à l’occasion d’une mise à jour, et assuré avoir « pris des mesures pour empêcher les discours de haine ».

.

Bien sûr, aucune IA n’est à l’abri de dérapages ou, selon le terme consacré, d’« hallucinations ». Tous les concurrents de Grok ont pu donner des réponses plus ou moins désastreuses – Gemini, l’IA de Google, ne préconisait-elle pas de mettre de la colle dans les pizzas ? Et toutes sont susceptibles de faire l’objet de manipulation pour propager de la désinformation ou de la propagande prorusse, comme le relevait en octobre une étude sur les chatbots ChatGPT, Gemini, Grok et Deepseek.

Le cas de Grok est toutefois particulier. S’il est arrivé que les équipes de xAI reconnaissent du bout des lèvres leur responsabilité dans ses débordements, la faute est bien plus souvent rejetée sur un acteur tiers non identifié. « Modification non autorisée » avait ainsi répondu, laconique, la société lorsque l’IA serinait les utilisateurs à propos du « génocide blanc ». Quant aux messages flagorneurs à l’égard d’Elon Musk, ils ont été cette fois justifiés jeudi par l’homme d’affaires lui-même comme étant le fruit d’une manipulation « par des consignes faites par un adversaire ». Sans plus d’explications.

.

Propagande d’extrême droite

Les causes réelles sont pourtant connues : Grok a été conçu comme un outil de désinformation et les propos extrêmes qu’elle colporte ne sont pas un bug, mais une fonctionnalité. Dès le départ, Elon Musk se targuait de lancer une IA avec le minimum de garde-fous, afin de fournir un point de vue alternatif aux autres IA jugées trop « woke ». Ses concepteurs ont ainsi toujours eu à cœur de proposer un outil pouvant fournir des réponses provocantes ou humoristiques, par exemple.

Dans une certaine forme de transparence, l’entreprise met régulièrement en ligne une partie des « prompts » internes à Grok, c’est-à-dire les consignes que le robot se doit de respecter, quelle que soit la requête formulée par l’utilisateur. On peut ainsi y lire que « la recherche de la vérité » et un « point de vue non partisan » doivent l’emporter sur le reste, et que le chatbot ne doit pas « éviter de faire des réponses politiquement incorrectes, tant qu’elles sont étayées ».

.

Or c’est bien là le problème. En dehors de son ton en apparence plus « libre », la particularité de Grok tient aux données sur lesquelles il s’appuie.

Pour alimenter ses réponses, l’outil est branché en temps réel sur X, réseau social devenu chambre d’écho de l’extrême droite depuis son rachat par Elon Musk, en 2022. Il semble – xAI fait sur ce point preuve de bien moins de transparence, contrairement à ses engagements – que le robot se nourrisse par ailleurs de sources bien particulières, comme en témoigne une étude de l’université Cornell Tech, publiée en novembre. Les chercheurs ont constaté que Grokipedia, le concurrent de Wikipedia construit sur les réponses de Grok, citait ainsi de façon extensive le site conspirationniste Infowars et le site néonazi Stormfront comme des sources fiables dans ses réponses.

.

Car, en dépit des discours sur la « recherche de la vérité », Grok reste la propriété d’un milliardaire d’extrême droite avec son propre agenda politique. Difficile donc d’être étonné lorsque l’on apprend que l’IA fabrique en partie ses réponses en s’appuyant sur les messages postés par son propriétaire sur X, ou que ce dernier assume de dire publiquement que Grok sera « mis à jour » afin d’éviter qu’elle cite le magazine Rolling Stones ou l’ONG Media Matters for America, qu’il considère comme des sources illégitimes.

En dépit de son fonctionnement nocif, l’outil n’en demeure pas moins très utilisé : Grok compte 64 millions d’utilisateurs mensuels, selon The New York Times. Un nombre bien inférieur à celui de ChatGPT (700 millions par semaine) mais qui illustre tout de même que pour les internautes, noyés sous un déluge de nouveautés servies par une industrie désireuse de les voir embrasser l’IA, Grok reste, malgré tout, un outil comme un autre.

.

Poster le commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *