La Californie s’apprête à adopter une loi radicale sur l’IA qui ne fait pas l’unanimité

David Licoppe
9 min de lecture
La Californie s'apprête à adopter une loi controversée sur l'IA qui pourrait changer l'avenir de la tech

Californie : Loi IA SB 1047, Révolution ou Risque ? 

La Californie se prépare à voter une nouvelle loi sur l’intelligence artificielle (IA). Cette loi, appelée SB 1047, vise principalement les grands modèles d’IA très coûteux à développer.

Elle concerne surtout les grandes entreprises comme Google, Meta, Microsoft et OpenAI,. L’initiative a pour but de rendre l’IA plus sûre, mais elle ne fait pas l’unanimité.

Ce que dit la loi SB 1047 : Des mesures de sécurité strictes pour les grands modèles d’IA

La loi SB 1047, aussi appelée « Loi pour une innovation sûre dans les modèles d’IA pionniers », demande aux entreprises d’IA de prendre plusieurs mesures importantes :

  • Créer un « bouton d’arrêt d’urgence » : Les entreprises doivent pouvoir arrêter complètement leur IA si un problème grave survient.
  • Tester la sécurité : Avant de lancer un nouveau modèle d’IA, les startup d’IA doivent faire des tests approfondis pour s’assurer qu’il ne présente pas de risques importants pour la sécurité publique.
  • Être responsables en cas de problèmes : Si quelqu’un utilise l’IA pour faire quelque chose de très dangereux (comme créer des armes ou lancer une cyberattaque), les entreprises pourraient être poursuivies en justice.
  • Faire vérifier leur sécurité chaque année : Des experts indépendants devront examiner les pratiques de sécurité des entreprises d’IA tous les ans.
  • Protéger les lanceurs d’alerte : Les employés qui signalent des problèmes de sécurité ne doivent pas être punis par leur entreprise.

Ces règles s’appliquent aux modèles d’IA qui coûtent plus de 100 millions de dollars à développer ou qui nécessitent une très grande puissance de calcul.

Pourquoi cette loi ?

Le but principal de cette loi est de prévenir les dangers potentiels de l’IA. Les partisans pensent qu’il vaut mieux agir maintenant plutôt que d’attendre qu’un problème grave se produise.

Le sénateur Scott Wiener, auteur de la loi SB 1047, explique :

Nous avons l’habitude d’attendre qu’un malheur arrive et de nous lamenter ensuite. N’attendons pas qu’un malheur arrive. Anticipons-le.

sénateur Scott Wiener,

Deux avis différents 

Cette loi divise la Silicon Valley, où se trouvent beaucoup d’entreprises de technologie.

Ceux qui sont pour la loi : les partisans

Plusieurs personnes importantes soutiennent cette loi :

  • Le sénateur Scott Wiener, qui a écrit la loi
  • Elon Musk1, le patron de Tesla, xAI et SpaceX
  • Des experts en IA comme Geoffrey Hinton et Yoshua Bengio

Ils pensent que la loi est nécessaire pour s’assurer que l’IA reste sûre à long terme. Ils croient qu’il est important de mettre en place des règles maintenant, avant que l’IA ne devienne trop puissante et difficile à contrôler.

Ceux qui sont contre la loi : les opposants

De nombreuses figures de proue de la Silicon Valley et organisations s’opposent fermement à ce projet de loi :

  • La Chambre de Commerce de Californie
  • Des investisseurs comme a16z (Andreessen Horowitz)
  • Des chercheurs en IA comme Fei-Fei Li et Yann LeCun
  • OpenAI2, l’entreprise qui a créé ChatGPT

Ces opposants craignent que la loi ne freine l’innovation dans le domaine de l’IA. Ils pensent que les règles sont trop strictes et pourraient coûter très cher aux entreprises. Certains craignent même que des entreprises décident de quitter la Californie pour aller dans d’autres États où il n’y a pas ces règles.

Jason Kwon, le directeur stratégique d’OpenAI, dit que cette loi pourrait menacer « le statut unique de la Californie en tant que leader mondial de l’IA ».

La position changeante d’Anthropic

Anthropic, l’entreprise derrière Claude AI, a une position intéressante. Au début, elle était contre la loi. Mais après que le projet de la loi a été modifié, elle semble maintenant la soutenir3.

Tout dépend maintenant du gouverneur Newsom

Le projet de loi SB 1047 est déjà adopté par l’Assemblée et le Sénat de l’État.

C’est maintenant au tour du gouverneur de Californie, Gavin Newsom, de décider s’il approuve ou non. Il a jusqu’au 30 septembre pour prendre sa décision.

Sa décision aura de lourdes conséquences, tant pour l’avenir de l’IA en Californie que pour l’équilibre entre innovation et sécurité dans ce domaine.

Newsom devra sans aucun doute faire face à un lobbying intense de la part des deux camps. Quel que soit son choix, ce projet de loi marque un tournant dans la régulation de l’intelligence artificielle aux États-Unis.

Pourquoi c’est important pour tout le monde

Même si vous ne vivez pas en Californie, cette loi pourrait vous concerner. Voici pourquoi :

  • Impact global : Les entreprises californiennes créent des IA utilisées dans le monde entier. Si elles changent leur façon de travailler, cela affecte les produits que nous utilisons tous.
  • Exemple pour d’autres : Si cette loi fonctionne bien, d’autres États ou pays pourraient créer des lois similaires.
  • Débat sur l’avenir de l’IA : Cette loi soulève des questions importantes sur la façon dont nous voulons que l’IA se développe. Faut-il privilégier la sécurité ou l’innovation ? Comment trouver le bon équilibre ?

Questions fréquentes sur le sujet

Quels sont les principaux éléments du projet de loi SB 1047 sur l’IA en Californie ?

Le projet de loi SB 1047 vise à encadrer le développement des plus puissants modèles d’IA en Californie. Parmi les principales mesures, on trouve l’obligation d’un « bouton d’arrêt d’urgence », de tests de sécurité approfondis, et la responsabilité des développeurs en cas d’utilisation abusive de leurs modèles. Les entreprises concernées devront également se soumettre à des audits de sécurité annuels.

Pourquoi ce projet de loi divise-t-il la Silicon Valley ?

D’un côté, des partisans comme le sénateur Scott Wiener et des experts de l’IA estiment qu’une réglementation stricte est nécessaire pour prévenir les scénarios catastrophiques liés à l’utilisation malveillante de l’IA. De l’autre, de nombreux acteurs de la tech, notamment des investisseurs et des chercheurs influents, craignent que le projet de loi ne nuise gravement à l’innovation dans le domaine de l’IA en Californie.

Que se passera-t-il si le gouverneur Gavin Newsom signe le projet de loi SB 1047 ?

Cela établira un précédent en matière de réglementation de l’IA, mais pourrait aussi pousser les développeurs d’IA à quitter la Californie et freiner l’innovation dans l’open source.

Quels sont les changements récents apportés au projet de loi ?

Sanctions pénales : uniquement des sanctions civiles.
Responsabilité : Les développeurs doivent désormais démontrer une « diligence raisonnable » plutôt qu’une « assurance raisonnable ».
Développeurs Open Source : Les développeurs dépensant moins de 10 millions de dollars pour peaufiner un modèle ne sont pas considérés comme responsables.

Une mesure à double tranchant pour la Silicon Valley

La loi SB 1047 montre que les gens commencent à s’inquiéter sérieusement des risques de l’IA. Elle essaie de trouver un équilibre entre permettre l’innovation et assurer la sécurité. Ce n’est pas une tâche facile.

La décision du gouverneur Newsom sera très attendue. Quelle que soit sa décision, elle aura probablement un grand impact sur l’avenir de l’IA, non seulement en Californie, mais peut-être dans le monde entier.

Cette loi n’est qu’un début. À mesure que l’IA devient plus puissante et plus présente dans nos vies, nous verrons probablement de plus en plus de débats et de lois sur ce sujet. 


Références

  1. The controversial California AI bill that has divided the tech world. Axios, du 28 Août 2024. Consulté le 2 septembre 2024. ↩︎
  2. OpenAI joins opposition to California AI safety bill. FT, du 21 Août 2024.Consulté le 2 septembre 2024.
    ↩︎
  3. California legislature passes sweeping AI safety bill.The Verge, du 29 août 2024. Consulté le 2 septembre 2024. ↩︎

Partagez cet article