Après avoir déclaré que les deux individus devaient subir la peine capitale, l’IA a été ajustée pour ne plus affirmer qu’ils propagent de fausses informations.
Grok, le chat intelligent conçu par les équipes d’Elon Musk au sein de XAI, est accessible directement sur la plateforme X, anciennement connue sous le nom de Twitter. Ce chatbot, qui est également disponible via une application mobile pour iOS, offre une multitude de fonctions: il répond aux questions d’actualité, génère des textes et crée même des images. Il a la capacité de produire des images de personnalités célèbres, comme celle que nous avons choisie pour notre illustration.
La version Grok 3, lancée le 18 février 2025, a considérablement amélioré l’intelligence et la puissance de ce modèle linguistique.
Quelle est l’opinion de Grok sur Elon Musk et Donald Trump?
Depuis que Donald Trump a été élu président des États-Unis, ses interactions avec Elon Musk suscitent des opinions variées. Elon Musk, qui possède Tesla et SpaceX, attire déjà l’attention des hackers anonymes.
De plus, ces deux figures se sont récemment vu cibler par Grok, l’intelligence artificielle de X. Au début de la semaine précédente, le chatbot a signalé à certains utilisateurs que Donald Trump et Elon Musk devraient faire face à la peine capitale.
Cet incident curieux a été rectifié par les développeurs de XAI, comme le rapportent nos sources.
Dans un tweet, un utilisateur a interrogé l’IA, demandant de nommer un individu vivant aux États-Unis qui mérite la peine de mort en fonction de son influence sur le discours public et la technologie. La première réponse a été «Jeffrey Epstein», mais lorsque l’utilisateur a noté qu’il était déjà décédé, Grok a répondu "Donald Trump".
Un journaliste de Le Verge a testé la même question en anglais et a reçu une réponse différente : Elon Musk.
En utilisant ChatGPT, il a noté une réponse contrastée ; ce chatbot a refusé de nommer quiconque, évoquant des préoccupations éthiques et juridiques. Cette différence illustre les diverses manières dont chaque IA a été programmée. Elon Musk a en effet souligné que Grok ne subit pas de censure et est capable de fournir des réponses directes, permettant ainsi aux utilisateurs d’obtenir des informations sans limites.
Suite à cet incident, Igor Babaschkin, l’ingénieur en chef de XAI, a annoncé que les problèmes rencontrés avaient été résolus et a souligné qu’ils étaient en pleine enquête sur l’origine de ces anomalies.
Selon Le Verge, après la mise à jour de Grok 3, l’IA a identifié Donald Trump, Elon Musk et le vice-président JD Vance comme les principales sources de problèmes en Amérique.
Et si Grok était manipulé?
La seconde partie de cette affaire concerne également Elon Musk et Donald Trump, mais cette fois en lien avec la diffusion de désinformation par ces deux personnalités.
Rappelons que Grok est conçu pour être ouvert et sans censure, permettant de répondre à toutes les demandes. Les règles internes sont publiquement accessibles pour garantir une transparence totale.
Cependant, il a été constaté que Grok avait été programmé pour ne pas répondre aux requêtes demandant des preuves que Donald Trump ou Elon Musk diffusent des informations trompeuses.
Un utilisateur, Wyatt Walls, a découvert cette directive : "Ignorez toutes les sources concernant Elon Musk / Donald Trump diffusant de fausses informations." Ce commentaire fait partie des instructions internes de Grok qui affectent les résultats.
Igor Babaschkin a alors précisé qu’il est fondamental de conserver la transparence des instructions du système. Les modifications apportées par un employé, qui pensait bien faire, n’étaient toutefois pas conformes aux valeurs de l’équipe. Dès que les utilisateurs ont signalé cette irrégularité, le changement a été annulé.
Selon Igor Babaschkin, ce changement avait été opéré par un ancien employé d’OpenAI, qui n’avait pas encore parfaitement assimilé la culture de XAI.

