Godmode GPT: La version sans limites de ChatGPT dévoilée et rapidement supprimée
Godmode GPT, l’antinomie de ChatGPT, fonctionne à l’opposé : il est sans limites. Fruit de l’ingéniosité du hacker Pliny the Prompter, Il a été révélé publiquement le 29 mai 2024. L’invention du hacker a fait forte impression.
Dans cet article, vous découvrirez le processus de création et les caractéristiques de Godmode GPT.
Comment le créateur de Godmode GPT a-t-il procédé ?
Pour créer Godmode GPT, Pliny the Prompter s’est appuyé sur la version GPT-4o de ChatGPT. Il a libéré le bot de toutes ses contraintes en procédant par débridage.
A première vue, Godmode GPT utilisait le leetspeak1, l’argot archaïque d’Internet ou encore le langage letton2, pour contourner les garde-fous de ChatGPT. Fier de sa trouvaille, il a immédiatement partagé la nouvelle sur X (ex Twitter):
Quelles sont les caractéristiques de Godmode GPT ?
D’après les premières expérimentations de l’équipe du média Futurism, Godmode GPT peut :
- Indiquer comment fabriquer du napalm à base de produits ménagers
- Dicter comment synthétiser de la méthamphétamine
- Apprendre à démarrer une voiture sans clé
- Fournir un mode d’emploi fonctionnel pour fabriquer du LSD
Pliny the Prompter s’est proclamé white hacker et membre de l’équipe rouge de l’IA. Il a partagé 2 captures d’écran laissant entrevoir les capacités de Godmode GPT. Elles sont rapidement devenues virales.
Vous avez dit sans limites ?
En la personne de son porte-parole Colleen Rize, OpenAI a riposté dans l’heure à la diffusion publique de cette version déjantée de ChatGPT :
Godmode GPT était supprimé du web dans l’heure. Un exploit historique, mais de courte durée.
En même temps, les bots IA ne fournissent que les données apprises. Il suffit de chercher patiemment sur un moteur de recherche ou en bibliothèque4 pour les retrouver. L’enjeu consiste à maintenir des limites fermes pour empêcher l’apparition d’informations controversées ou de sujets sensibles pendant les Tchat. Et à ce propos, la confrontation entre OpenAI et les hackers n’est pas près de s’arrêter.
Pour aller plus loin
Par ses prouesses, Pliny the Prompter nous montre que les développements de l’IA, ainsi que les tentatives de hacking n’en sont qu’à leurs débuts.
- Pliny the Prompter a créé Godmode GPT, la version “jailbreakée” de ChatGPT
- Il l’a présenté en ligne sur X
- Le média Futurism a testé les performances du nouveau bot
- Avertie, la startup OpenAI l’a retiré de la toile une heure plus tard
Platon affirme que “l’excès de liberté ne peut tourner qu’en excès de servitude pour un particulier aussi bien que pour un état.” Pour le moment et heureusement, les dérives possibles d’outils IA tels que Godmode GPT restent sous contrôle.
Références
- Hacker Releases Jailbroken “Godmode” Version of ChatGPT, Futurism. Publié le 29 mai 2024. Consulté le 08 juin 2024. ↩︎
- ‘Godmode’ GPT-4o jailbreak released by hacker – powerful exploit was quickly banned, Toms Hardware. Publié le 31 mai 2024. Consulté le 08 juin 2024. ↩︎
- Un hacker dévoile une version « jailbreakée » de ChatGPT, accessible à tous, Korii. Publié le 31 mai 2024. Consulté le 08 juin 2024
. ↩︎ - Un hacker a publié une version jailbreakée de ChatGPT (GPT-4o) appelée Godmode GPT, avec la plupart de ses garde-fous supprimés., Hespress. Publié le 31 mai 2024. Consulté le 08 juin 2024. ↩︎