La grosse polémique Grok-2 de xAI : Qui est le véritable coupable ?

Manuel Lodjo
7 min de lecture
Plongée dans la controverse de Grok-2, l'IA d’Elon Musk, et ses dérives dangereuses en matière de deepfakes.

Grok-2 : Quand l’IA sème la zizanie, qui est vraiment coupable ?

Tu as entendu parler de Grok-2, le dernier modèle de xAI d’Elon Musk.

Toute la polémique qu’il y a autour avec les histoires de deepfakes.

Il y a ceux qui crient au scandale, accusent l’IA et ceux qui pointent les petits malins derrière toutes ces images.

En tous cas, ça fait couler beaucoup d’encre (virtuelle bien sûr).

Mais au fait, c’est qui au juste le vrai coupable dans cette histoire ? Non, ce n’est pas (encore) Skynet.

Grok-2 : Une IA qui n’a pas froid aux yeux

Grok-21, c’est plutôt le genre d’IA « rebelle » totalement décomplexé capable de te conseiller de sécher les cours pour faire un tour sur Mars.

Pendant que ses cousins GPT-4o, Claude, Copilot et même Llama essaient de se tenir bien, lui repousse les limites.

Sauf que là, papa Elon a l’air plutôt fier de voir son petit dernier semer la zizanie.

Pas étonnant, il a toujours défendu une“certaine liberté d’expression”, même au prix de la controverse. 

Avec Grok-2, il semble avoir trouvé le moyen de défier la censure, quitte à s’attirer les foudres des autorités et des critiques.

Un générateur d’images sans limite, même trop sans limite

Tu veux des images réalistes ? Propulsée par le modèle FLUX.1 de Black Forest Labs, Grok-2 te livre des chefs-d’œuvre2, aussi beaux que ce que produit Midjourney ou DALL-E.

Mais si tu veux aussi générer des trucs un peu louches, genre Mickey Mouse en nazi3 ou des politiciens4 dans des poses compromettantes.

Bah, Grok-2 te dit ok ! Là ou Midjourney et Cie t’auraient gentiment recalé.

C’est un peu comme avoir un génie dans sa lampe, mais un génie qui aurait un sens de l’humour douteux et zéro filtre.

Mais franchement, est-ce que c’est vraiment la liberté qu’on attendait d’une IA générative ?

Le danger qui rôde : désinformation et deepfakes à gogo

Grok-2, c’est une véritable machine à désinformation. Et c’est un gros problème.

Selon un rapport de Newsguard5, dans 80 % des cas testés, cette IA balance des contenus trompeurs.

Et on sait très bien comment les deepfakes peuvent ruiner une réputation en deux clics, influencer des élections ou pire, créer un chaos total sur les réseaux sociaux.

Une fois que c’est dans la nature, c’est comme essayer de remettre du dentifrice dans le tube. 

Même avec un démenti, le mal est fait.

La rumeur, elle, a déjà fait trois fois le tour du monde. La vérité a beau courir après, elle a toujours un train de retard.

Autrement dit, bon courage pour rattraper les dégâts.

Qui est coupable : Grok-2 ou l’humain ?

Avant de pointer du doigt Grok-2 comme le grand méchant loup, demandons-nous : est-ce vraiment de sa faute ? ou c’est la faute de ceux qui l’utilisent pour faire du n’importe quoi… ou alors c’est la faute à ceux qui l’ont conçu ?

Cette question, qui pourrait passer pour de la philosophie à deux balles, est pourtant cruciale dans le débat actuel sur les IA génératives.

L’utilisateur irresponsable ? Oui… mais c’est pas suffisant

Allez, soyons francs : si quelqu’un décide d’utiliser un assistant IA comme Grok pour créer une fausse image de Trump6, ce n’est pas parce que l’IA en a eu une « l’idée » et le lui a soufflé à l’oreille.

L’humain est aux commandes. C’est lui qui a décidé de mal l’utiliser.

Mais…cet argument « c’est la responsabilité des utilisateurs », c’est un peu trop facile.

Mettre des limites ? Oh que oui !

Laisser les gens jouer avec une IA sans filtre comme Grok-2, c’est comme dire : ok désormais, on peut utiliser les armes à feu comme on veut. 

Liberté totale. Plus de lois, plus de règles… Décidez vous-même si vous l’utilisez pour faire du bien ou du mal.

On sait que tous que ça va très mal finir !

Les législations sur les armes à feu existent justement parce qu’on sait que ça peut faire beaucoup de mal si on ne met pas de barrières solides pour encadrer son usage.

Et tout le monde sait que si on « l’utilise mal » on se retrouve derrière les barreaux.

On ne se contente pas de dire « à chacun de faire bon usage ».

Non, on met des règles et des gardes fous dès le départ parce qu’on ne peut pas juste compter sur la bonne volonté des utilisateurs.

Maintenant, si malgré ces précautions, quelqu’un en fait un mauvais usage, eh bien, il va assumer les conséquences de son choix.

Ce n’est pas l’IA, c’est nous !

Il est temps que les fournisseurs d’IA comme xAI prennent du recul.

Lâcher une IA comme Grok-2 sans se demander comment elle sera utilisée, c’est carrément irresponsable.

Certes, innover c’est cool, mais si c’est pour filer une arme nucléaire à chaque internaute, on va droit dans le mur.

Donc oui, il faut réguler, imposer des mécanismes de contrôle, et surtout, être capables de dire « non, ça, on ne le fait pas ».

Parce que, c’est bien beau de développer des IA super puissantes, mais si c’est pour créer plus de problèmes qu’ils n’en résolvent, ça ne sert à rien.

N’oubliez pas que Grok-2, ce n’est qu’un outil. 

Ce n’est pas lui le véritable coupable.

C’est ceux qui l’utilisent à mauvais escient, et ceux qui l’ont mis entre leurs mains sans réfléchir aux conséquences.

C’est donc la faute à l’Humain.

Alors, avant de crier au loup, peut-être qu’on devrait se regarder dans le miroir. Et si possible, un miroir normal, pas un généré par Grok-2. On ne sait jamais ce qu’on pourrait y voir…

Et toi, qu’est-ce que tu penses de toutes ces polémiques autour de Grok-2 ? On sera ravi de connaitre ton point de vue. Et si tu as apprécié cet article, partage le autour de toi.  


Références

  1. Grok-2 Beta Release. xAI, du 13 août 2024. Consulté le 22 Août 2024. ↩︎
  2.   L’IA Grok 2 choque internet avec ses photos ultra réalistes : 10 exemples fous. LeBigData, du 20 août 2024. Consulté le 22 Août 2024 ↩︎
  3. Musk’s ‘fun’ AI image chatbot serves up Nazi Mickey Mouse and Taylor Swift deepfakes.The Guardian, du 14 Août 2024. Consulté le 22 Août 2024. ↩︎
  4. xAI’s new Grok image generator floods X with controversial AI fakes. The Verge, du 14 Août 2024. Consulté le 22 Août 2024. ↩︎
  5. Special Report: In AI Image Wars, Grok Leads in Misinformation. NewsGuard’s Reality Check, du 19 Août 2024. Consulté le 22 Août 2024.
    ↩︎
  6. xAI releases Grok-2, adds image generation on X. TechCrunch, du 13 Août 2024. Consulté le 22 Août 2024.
    ↩︎

Partagez cet article