Biais: L’IA est incapable de détecter les signes de dépression chez les noirs américains

Marie Louisy
De Marie Louisy 7 min de lecture
7 min de lecture
Une nouvelle étude met en évidence les défis de l’IA à détecter la dépression chez les Noirs américains

Préjugé de l’IA dans la détection de la dépression : défis pour les Noirs américains mis en évidence dans une nouvelle étude

Noir🎶 c’est noir🎶 Il n’y a🎶 plus d’espoir🎶

Êtes-vous de ceux qui ont détesté cette célèbre chanson de Johnny Hallyday ? Quoi qu’il en soit, un biais choquant de l’IA vient de remettre sur le plateau une politique du 2 poids 2 mesures qui ne laisse personne indifférent.

Incapable de détecter la dépression des noirs américains à l’analyse de leurs publications sur les réseaux sociaux, l’IA plante littéralement. 

Dans cet article, vous découvrirez les conditions de l’étude qui a dévoilé cette insuffisance dommageable de l’IA.   

Quelles sont les conditions de l’expérience menée sur l’IA pour détecter la dépression ?

Des tests ont été effectués par le Center for Insights to. Results à Penn Medicine, sur un outil IA standard pour prédire la dépression chez 868 volontaires. Tous les participants ont rempli un questionnaire clinique standard de dépistage de la dépression.

Le groupe était composé aux trois quarts de femmes, et à parts égales de blancs et de noirs. Mise à part leur différence de peau, les sujets de l’expérience étaient de même âge (18-72 ans) et de même sexe. Il s’agissait de s’appuyer sur leurs messages sur les réseaux sociaux, en l’occurrence Facebook. 

Ces tests se basent sur des recherches antérieures stipulant que ceux qui utilisent souvent les pronoms à la première personne (je, moi ou le mien), ainsi qu’une catégorie de mots tels que les termes d’auto-dépréciation, sont plus exposés à la dépression. 

Pour justifier leur démarche, les chercheurs considèrent que les données de réseaux sociaux peuvent être utilisées pour évaluer les risques de dépression des individus ou des groupes. Dans le même ordre d’idées, un procédé identique avait été utilisé pour jauger la santé mentale des communautés1 durant la pandémie à Covid19.

Brenda Curtis2 (Institut national américain sur l’abus des drogues de l’Institut national de la santé), qui a également travaillé sur l’étude a apporté quelques précisions. Non seulement l’IA permet l’anticipation sur une prochaine dépression, mais dans les cas de troubles liés à la toxicomanie, elle évalue également les probabilités d’abandon et de rechute. 

L’objectif des tests pratiqués consistait à mettre en lumière le danger de la formation des modèles d’IA pour des tâches liées au domaine médical sans données issues de différents groupes ethniques et raciaux. 

L’étude a été publiée dans l’édition du 02 avril dernier du Proceedings of the National Academy of Sciences.

Quelles sont les difficultés de l’IA vis-à-vis des noirs américains ?

Dans les mêmes conditions, l’IA est trois fois moins capable de détecter les signes de dépression chez les américains noirs que chez leurs homologues blancs. Les éléments à prendre en compte pour détecter la dépression :

  • L’attention centrée sur soi
  • L’autocritique
  • Le sentiment d’être un étranger

ont été traités par l’IA comme des marqueurs concernant uniquement la communauté blanche. Les auteurs de l’étude ont fait un commentaire dans un rapport publié dans PNAS (les Actes de l’Académie nationale des sciences) :

La race semble avoir été particulièrement négligée dans les travaux sur l’évaluation linguistique de la santé mentale.

L’une des co-auteurs de l’étude, Sharath Chandra Guntuku, a évoqué sa surprise :

Nous avons été surpris que ces associations linguistiques trouvées dans de nombreuses études antérieures ne s’appliquent pas à tous les niveaux.

Quelles leçons peut-on tirer de l’expérience ?

Les chercheurs ont observé que la prise en charge médicale équitable par les outils IA nécessite des données raciales, ethniques et culturelles plus fournies. Autrement dit, l’hypothèse selon laquelle les qualités prédictives des mots sont applicables à toutes les cultures a été remise en cause à l’issue de l’étude. Par exemple :

  • Les noirs s’expriment plus à la première personne (Je)
  • Les marqueurs de dépression, le sentiment d’être un étranger et les indications de désespoir ne sont pas systématiquement liés à la dépression chez les noirs

Les solutions au problème incluent de:

  • Augmenter la représentation des noirs et des autres races et ethnies lors de la formation de l’IA

Nous devons comprendre que, lorsque nous réfléchissons à la santé mentale et concevons des interventions de traitement, nous devons tenir compte des différences entre les groupes raciaux et de la manière dont ils peuvent parler de la dépression.

Guntuku3
  • Intégrer les différences culturelles
  • Associer d’autres critères d’évaluation, tels que décrits par les chercheurs :

[Il se peut que] les processus psychologiques censés prédire ou entretenir la dépression soient moins pertinents, voire non pertinents.

On ne peut pas placer toutes les cultures dans le même panier

A l’issue de l’étude du Center for Insights to. Results à Penn Medicine, les lacunes de l’IA ont été révélées. 

  • L’IA dissocie les marqueurs de la dépression des noirs américains
  • De plus, la communauté noire exprime différemment ses états d’âmes et la dépression
  • L’IA doit être mise à jour concernant les différences raciales et culturelles
  • Pour que l’IA prenne en charge efficacement les cas de santé mentale, elle doit être formée pour les différentes populations existantes

Pour l’instant, sanitairement parlant, on peut affirmer que l’IA n’a pas les yeux en face des trous. Des solutions existent, en commençant par une formation basée sur des données plus réalistes.  


Références

  1. AI Fails to Detect Depression Signs in Social Media Posts by Black Americans, Study Finds, US News. Publié le 28 mars 2024. Consulté le 26 avril 2024. ↩︎
  2. AI fails to detect depression signs in social media posts by Black Americans, study finds, Reuters. Publié le 28 mars 2024. Consulté le 26 avril 2024. ↩︎
  3. Why AI social media analysis fails to detect depression among Black patients, Haymarket. Publié le 03 avril 2024. Consulté le 26 avril 2024. ↩︎
Partagez cet article