Microsoft sous l’œil inquisiteur de l’UE

Marie Louisy
De Marie Louisy 9 min de lecture
9 min de lecture

L’AI Act face aux enjeux de concentration des géants de l’IA en Europe

Malgré l’AI Act, la Commission Européenne peine à dormir sur ses deux oreilles. En effet, Microsoft est sous le viseur pour de lourds investissements dans l’IA qui questionnent.

Dans cet article, vous découvrirez ce qu’est la concentration, pourquoi elle peut être nocive et les implications de la mise en examen de Microsoft.  

Qu’est-ce que la concentration d’entreprises?

D’après le dictionnaire juridique1 :

La concentration économique est l’opération juridique résultant généralement d’une entente conclue entre deux ou plusieurs entreprises ou entre des groupes d’entreprises qui, soit par voie de fusion, soit par le jeu du contrôle qu’exercent certains de leurs dirigeants, soit encore par des prises de participations dans leur capital respectif ou par la création d’une entreprise ou d’un groupement commun ou de toute autre manière, parviennent à contrôler tout ou partie de l’ensemble de ces entreprises et donc les activités économiques qu’elles exercent.

Le dictionnaire juridique

Pour parler de concentration, il faut que les entreprises qui fusionnent aient été auparavant indépendantes. Cependant, la concentration peut se présenter autrement, en outre ;

  • Une entreprise qui prend le contrôle d’une autre2
  • La création d’une entreprise commune

Pourquoi la concentration d’entreprise est-elle importante ?

Le concentration d’entreprise peut soit stimuler, soit étouffer la concurrence. Dans le second cas, elle est proche du trust et fera l’objet soit d’un redressement, soit d’une dissolution par les autorités compétentes3

Toute opération de concentration réalisée en Europe peut être examinée par décision unilatérale du législateur4

Quel est le risque de concentration à l’échelle des géants de l’IA ?

Le risque est avéré. En effet, les géants de la technologie IA n’ont pas lâché une seule fois du lest, concernant leur hégémonie sur le vieux continent. Perçue comme une goutte d’eau face à l’océan de problèmes potentiels à venir, l’AI Act5 a laissé un goût d’inachevé. Certaines décisions, telles que le contrôle des biais et de la désinformation, ont été abordées sans aller en profondeur.

Quels sont les risques majeurs de l’IA en Europe?

Les risques structurels de l’IA sont importants :

  • L’impact environnemental
  • Le quasi-monopole des géants de la tech sur les données personnelles des individus et des organisations (données, mémoire de stockage, matériel et échelle de grandeur). IA = Big Tech6
  • La minimisation des interventions éthiques dans les processus de l’IA
  • L’intervention non contrôlée dans les technologies de l’armement
  • La détention exclusive des pouvoirs étendus de l’IA par quelques entités numériques (Meta, Microsoft, Alphabet ou Baidu)

Comment les acteurs majeurs de l’IA ont-ils fait face à la réglementation en Europe?

Une pression externe continue

Dès l’annonce de l’UE de réglementer l’utilisation de l’IA, la pression des acteurs de la Big Tech n’a cessé de monter pour obtenir le maximum de liberté. En parallèle aux déclarations publiques enjouées, les législateurs européens ont fait face à une résistance farouche et à un lobbying acharné. 

Des pressions internes

  • En France, Mistral AI a apporté son soutien à l’innovation apportée à l’IA et orchestré un lobby depuis Bruxelles
  • En Allemagne, Aleph Alpha mis la pression sur son gouvernement au nom de la libéralisation
  • 150 entreprises ont répondu et signé une lettre ouverte la liberté d’utilisation de l’IA pour protéger la compétitivité et la souveraineté technologique européenne

La remise en cause de l’intérêt public

Les déclarations et les positions de personnalités en faveur de l’IA ont joué en faveur de l’assouplissement de la réglementation, notamment :

  • Cédric O
  • Robert Habeck (Ministre allemand de l’économie)
  • René Obermann (Airbus)
  • Jeannette zu Fürstenberg (La Famiglia)
  • Des responsables, français, allemands et et italiens

Que prévoit la loi européenne sur la concentration ?

Concernant les risques structurels

Une fois passés certains seuils de grandeur, les entreprises concernées sont mises en examen. Elle débouche généralement sur trois décisions :

  • L’autorisation sans conditions était la plus fréquente jusqu’à présent (96%)
  • L’autorisation sous conditions :  L’imposition d’un devoir de diligence raisonnable pour les entreprises propriétaires des modèles IA de fondation. Les entreprises doivent prouver la qualité des données, l’éthique appliquée pour les droits fondamentaux de l’utilisateur, et leur engagement environnemental
  • L’interdiction

Concernant l’IA

L’AI Act est considéré comme une avancée majeure dans la législation européenne. Cependant, elle est jugée incomplète. Plusieurs voix7 s’élèvent pour réclamer des ajustements8 salutaires à un fonctionnement sécurisé.

Quelles sont les implications de la mise en examen de Microsoft par la commission européenne ?

La Commission Européenne a décidé d’examiner les investissements de Microsoft dans l’IA pour déterminer s’ils sont constitutifs de domination exclusive ou de concentration. Il s’agit d’évaluer l’impact9 de ces partenariats sur la dynamique du marché, selon la Commission Européenne. Plusieurs rencontres ont été planifiées dans ce sens par Margrethe Vestager, la Commissaire à la Concurrence :

  • Mira Murati et Jason Kwon, pour OpenAI
  • Tim Cook, pour Apple
  • Sundar Pichai pour Google

Microsoft clame l’indépendance de son entreprise vis-à-vis de son partenaire privilégié OpenAI. D’autant plus que la législation européenne pourrait évoluer prochainement, passant de l’autorégulation volontaire à un cadre réglementaire plus strict.

Les questions fréquentes sur le sujet

Quels sont les avantages de l’IA ? ? 

L’IA assiste et remplace valablement l’humain pour des tâches cognitives répétitives. Elle produit instantanément du texte et du contenu multimédia et réduit les coûts de production pour les entreprises.  

Pourquoi faut-il cadrer l’usage de l’IA ?

L’usage non éthique entraîne des dommages pour les victimes, au niveau :
* Politique (Fake News)
* Economique (erreurs de calcul)
* Physiques (incidents cliniques ou accidents de travail)
* Psychologiques (traumatismes) 
L’IA peut être dangereuse si elle devient incontrôlable. 

Qu’est-ce qui est reproché aux propriétaires actuels de l’IA ?

Les entreprises de la Big Tech ont désormais trop d’influence, ce qui entraîne des risques graves pour la concurrence équitable et la sécurité des usagers. Elles sont dotées d’un lobby puissant, d’un accès privilégié au pouvoir et sont capables d’implémenter des modèles IA non éthiques sans répression légale adaptée.   

Quels risques encourt Microsoft si la firme devait être épinglée par la Commission Européenne ?

La Commission Européenne peut suspendre les activités contrevenant à la législation en vigueur. Même si des dommages et intérêts peuvent être évoqués, le plus dur serait la réorganisation des forces en présence sur le marché.  

Une entente délicate   

Deux géants doivent trouver une entente sur un sujet délicat. D’un côté, il y a l’UE qui préserve sa territorialité et sa sécurité. De l’autre, les géants technologiques qui visent l’hégémonie et le profit.

  • La concentration d’entreprises peut entraîner des dangers pour la saine concurrence sur un marché donné
  • Les contrevenants à la réglementation européenne sur la concentration d’entreprises s’exposent à des sanctions
  • Associés à la concentration d’entreprises, les dangers de l’IA se multiplient
  • Microsoft a été placé sous examen de la Commission Européenne pour ses investissements et sa proximité avec OpenAI

Qui gagnera ce bras de fer ? “La performance ne doit pas engendrer l’imprudence”, dit-on. Cependant, la puissance illimitée de l’IA et la pleine sécurité des usagers sont-elles compatibles ? 


Références :

  1. Définition de Concentration économique, Dictionnaire juridique de Serge Braudo. Consulté le 05 janvier 2024. ↩︎
  2. Contrôle des concentrations, Autorité de la concurrence. Consulté le 05 janvier 2024. ↩︎
  3. AI won’t be safe until we rein in Big Tech, European Policy Centre. Publié le 22 2023. Consulté le 05 janvier 2024. ↩︎
  4. 32004R0139 Règlement (CE) n° 139/2004 du Conseil du 20 janvier 2004 relatif au contrôle des concentrations entre entreprises (“le règlement CE sur les concentrations”) (Texte présentant de l’intérêt pour l’EEE), Journal officiel n° L 024 du 29/01/2004 p. 0001 – 0022. Consulté le 05 janvier 2024. ↩︎
  5. AI Act agreement gets mixed reaction from European tech, Science Business. Publié le 12 décembre 2023. Consulté le 05 janvier 2024. ↩︎
  6. Big Tech lobbying is derailling the AI Act, Social Europe. Publié le 24 novembre 2023. Consulté le 05 janvier 2024. ↩︎
  7. German antitrust head warns AI may boost Big Tech’s dominance, Reuters. Publié le 10 octobre 2023. Consulté le 05 janvier 2024. ↩︎
  8. AI Is in the Hands of Big Tech. EU Regulation Could Help It Stay That Way, Barron’s. Publié le 1er décembre 2023. Consulté le 05 janvier 2024. ↩︎
  9. EU does not need to wait for the AI Act to act, Euractiv. Publié le 30 janvier 2024. Consulté le 30 janvier 2024. ↩︎
Partagez cet article