Ilya Sutskever, ancien scientifique en chef d’OpenAI, lance une nouvelle société d’IA

Manuel Lodjo
8 min de lecture
Ilya Sutskever crée Safe Superintelligence Inc. pour une IA plus sécurisée.

Ilya Sutskever lance Safe Superintelligence Inc. pour sécuriser l'IA avancée

Un mois seulement après avoir quitté , Ilya Sutskever, cofondateur et ex-Chief Scientist, s'embarque déjà dans une nouvelle aventure.

Ce mercredi, il a tweeté qu'il lançait une nouvelle startup appelée Safe Superintelligence Inc. (SSI).

Qui est Ilya Sutskever ?

Ilya Sutskever est un nom bien connu dans le domaine de l'. Co-fondateur d'OpenAI, il a été une figure clé dans les recherches et développements en matière d'IA. Né en Russie et ayant immigré au Canada, il a obtenu son doctorat à l'Université de Toronto.

Chez OpenAI, il a contribué à la création de modèles d'IA avancés comme GPT-3 et co-dirigeait les recherches sur la sécurité de la superintelligence1.

Pourquoi quitter OpenAI ?

Une vision différente de celle d'OpenAI sur la sécurité de l'IA

Le départ2 de Sutskever d'OpenAI en mai 2024 fait suite à des différends internes sur la manière d'aborder la sécurité de l'IA.

Les têtes pensantes de la société derrière ChatGPT n'étaient plus sur la même longueur d'onde.

Ces désaccords ont atteint un point culminant avec le départ de Jan Leike de l'équipe Superalignment d'OpenAI. Aux dernières nouvelles, Leike a rejoint la société Anthropic, l'un des concurrents directs d'OpenAI.

En quittant OpenAI, Ilya a publié un message d'au revoir sur dans lequel il a déclaré qu'il dévoilerait en temps voulu un projet qui lui tient personnellement à cœur.

Apparemment, il parlait de Safe Superintelligence Inc. (SSI)

Safe Superintelligence Inc. : Le laboratoire de recherche sur une superintelligence sûre

Sutskever s'est associé à Daniel Gross, ancien partenaire de Y Combinator, et Daniel Levy, ex-ingénieur d'OpenAI pour créer la nouvelle startup dédiée à la sécurisation de l'IA.

Leur mission : faire progresser les capacités de l'IA tout en s'assurant que la sécurité reste en tête des priorités. Comme on peut le lire sur le site de présentation :

La superintelligence est à notre portée.Construire une superintelligence sûre (SSI) est le problème technique le plus important de notre époque. Nous avons lancé le premier laboratoire SSI au monde, avec un seul objectif et un seul produit : une superintelligence sûre… Nous abordons la sécurité et les capacités en tandem, comme des problèmes techniques à résoudre grâce à une ingénierie révolutionnaire et à des percées scientifiques.

SSI

Un modèle commercial particulier

SSI se positionne comme une entreprise à but lucratif.

Cependant, Sutskever insiste sur le fait que leur modèle commercial est aligné pour éviter les « pressions commerciales » et les « distractions » à court terme.

Apparemment, l'entreprise n'a pas l'intention de vendre des produits ou des services d'IA pour le moment.

Ainsi, ils pourront se concentrer exclusivement sur leur objectif. Un discours qui semble s'opposer vivement au mode de fonctionnement d'OpenAI3.

Pourquoi Ilya Sutskever crée-t-il une nouvelle société d'IA ?

Non, Sutskever n'a pas décidé de lancer une nouvelle entreprise d'IA juste pour rivaliser avec OpenAI. Sa motivation semble bien plus profonde : il veut se consacrer à la sécurisation de la superintelligence.

L'ancien scientifique en chef d'OpenAI a déjà fait part de sa préoccupation sur les défis liés à la sécurité de la superintelligence et les risques associés, par le passé.

En 2023 notamment, Sutskever et son collègue Jan Leike ont publié un article de blog4 dans lequel ils prédisent l'émergence possible d'une IA plus intelligente que l'Homme au cours de cette décennie.

Ils ont également évoqué les risques d'une superintelligence potentiellement dangereuse qu'il faudra contrôler.

Ils estiment que si des mesures adéquates ne sont pas prises, ces systèmes d'IA avancés pourraient un jour prendre des décisions contraires aux intérêts humains ou échapper complètement à notre contrôle. D'où l'importance d'un cadre de sécurité rigoureux pour le développement de ces technologies.

Actuellement, nous n'avons pas de solution pour piloter ou contrôler une IA potentiellement superintelligente et l'empêcher de devenir malveillante. Nos techniques actuelles d'alignement de l'IA, telles que l'apprentissage par renforcement à partir des commentaires humains , reposent sur la capacité des humains à superviser l'IA.

OpenAI

En lançant cette entreprise, Sutskever veut tout simplement poursuivre ses recherches sur la sécurité de l'IA.

Comment Safe Superintelligence va-t-il impacter le secteur de l'IA ?

En se concentrant exclusivement sur la sécurité de l'IA, SSI pourrait établir de nouveaux standards de sécurité pour l'industrie si elle réussit sa mission.

Les méthodes et les technologies développées pourraient être adoptées par d'autres entreprises et instituts de recherche.

En gros, SSI pourrait contribuer à rendre les systèmes d'IA plus sûrs à l'échelle mondiale.

Questions fréquentes sur le sujet

Qu'est-ce que la superintelligence artificielle ?

La superintelligence artificielle fait référence à un système d'IA hypothétique dont les capacités cognitives dépassent celles des êtres humains dans pratiquement tous les domaines.

Pourquoi la sécurité de la superintelligence est-elle si importante ?

La sécurité de l'IA est préoccupante parce que des systèmes superintelligents non contrôlés pourraient prendre des décisions aux conséquences imprévisibles, potentiellement dangereuses pour l'humanité.

Quels sont les principaux défis dans la création d'une superintelligence sûre ?

Les principaux défis incluent le contrôle de systèmes plus intelligents que les humains, l'alignement des objectifs de l'IA avec ceux de l'humanité, et la prévention de l'utilisation malveillante de ces technologies.

Qu'est-ce que Safe Superintelligence Inc. ?

Safe Superintelligence Inc. (SSI) est une nouvelle entreprise fondée par Ilya Sutskever, Daniel Gross, et Daniel Levy. Elle se concentre sur le développement de technologies pour sécuriser les systèmes d'IA superintelligents.

Rendre la superintelligence sûre et sécurisée : une utopie ?

L'aventure de Safe Superintelligence Inc. ne fait que commencer, mais elle promet déjà d'être passionnante. Avec Ilya Sutskever aux commandes, cette nouvelle entreprise pourrait bien redéfinir les standards de sécurité dans le développement de l'IA avancée.

Avec une équipe solide et des objectifs clairs, SSI semble bien positionnée pour devenir une force majeure dans le domaine de l'IA sécurisée.

En pleine expansion, la société possède des bureaux à Palo Alto et Tel Aviv, SSI et recherche activement des talents techniques pour rejoindre ses rangs5.

Alors, l'IA de demain sera-t-elle à la fois superintelligente et sûre ?

La tâche qui attend SSI est titanesque.

Créer une superintelligence, c'est déjà un sacré défi. La rendre sûre ? C'est une autre paire de manches ! C'est en tout cas le pari audacieux de SSI.

Une chose est sûre : le monde de l'IA n'a pas fini de nous surprendre.


Références

  1. Qu'est-ce que la superintelligence artificielle ? | IBM. IBM, du 18 décembre 2023. Consulté le 21 juin 2024. ↩︎
  2. Ilya Sutskever, OpenAI co-founder and longtime chief scientist, departs. TechCrunch, du 14 mai 2024. Consulté le 21 juin 2024. ↩︎
  3. Ilya Sutskever, ancien chief scientist d'OpenAI, crée un rival baptisé Safe SuperIntelligence. Usine Digitale, du 20 Juin 2024. Consulté le 21 Juin 2024. ↩︎
  4. Introducing Superalignment. OpenAI, du 5 juillet 2023. Consulté le 21 Juin 2024.
    ↩︎
  5. Safe Superintelligence Inc. SSI, du 19 juin 2024. Consulté le 21 juin 2024.
    ↩︎
Partagez cet article