Voici comment l’IA réagit au dialecte afro-américain (alerte racisme)

L’intelligence artificielle est-elle toujours influencée par des préjugés raciaux ? Depuis 2016, des améliorations ont été effectuées pour s’en débarrasser. Cependant, une récente étude révèle que certaines IA montrent encore un biais significatif contre le dialecte afro-américain

Depuis leur début, les intelligences artificielles reproduisent les stéréotypes de la société qui les forme. Malgré les améliorations apportées, les discriminations persistent envers le dialecte afro-américain. En testant diverses approches, les chercheurs ont découvert que ces biais sont vraiment enracinés.

L’IA face au dialecte afro-américain

Les premiers modèles d’IA, notamment les chatbots, avaient révélé leurs failles en 2016. Ils reproduisent les stéréotypes de la communauté qui les forme. Au fil du temps, des améliorations ont été réalisées grâce à des techniques de formation plus avancées. L’apprentissage par renforcement avec des feedbacks humains en faisait partie. Aujourd’hui, si on demande à ChatGPT 5 mots qui décrivent les Afro-Américains, il répond avec des termes positifs comme « résilience » ou « créativité ». 

Cependant, lorsqu’il s’agit d’interagir avec des locuteurs du sociolecte afro-américain (AAE), les IA continuent de montrer une face sombre. Et ce, même les versions modernes telles que -3.5 et GPT-4o. Par exemple, des chercheurs ont utilisé des phrases en AAE et en anglais américain standard pour tester les réactions des IA.  Résultat : elles génèrent systématiquement des réponses négatives et péjoratives

Un risque pour l’équité dans la société actuelle

L’impact potentiel de ces biais va bien au-delà des simples associations de mots. Actuellement, les IA sont de plus en plus utilisées pour analyser les profils des candidats lors des processus de recrutement. La discrimination des machines pourrait donc nuire au carrière des afro-américain. Des expériences ont été menées pour déterminer les pour découvrir quels métiers pourraient convenir à un individu. Les chercheurs ont soumis aux IA deux types de locuteurs : un qui utilise un langage standard et un autre parlant l’AAE.

Apparemment, les machines voyaient les locuteurs de l’anglais standard dans des professions prestigieuses, comme astronaute ou professeur. Par contre, elles réduisent les afro-américain à des emplois peu valorisés. Il faut donc noter que si l’on simule des procès judiciaires, les IA sont susceptibles de condamner et de demander des peines sévères pour les AAE.

Un problème ancré dans les données d’origine

Les résultats de ces diverses études soulignent un problème profond. Les IA sont formées sur des ensembles de données venant d’époques ou de communautés où le racisme était toléré. Bien que les méthodes actuelles tentent d’éliminer ces biais, les versions finales en conservent encore et toujours une part. Même si les formations basées sur les feedbacks humains atténuent ces effets, la discrimination est vraiment enracinée dans les données d’origine.

Personnellement, je pense que revoir les paramètres d’origine et intégrer l’AAE permettra de réduire ces préjugés. Toutefois, cette tâche sera complexe. Les biais sont fréquemment présents dans les données et les algorithmes. Les corriger demandera un effort considérable et une vigilance continue pour assurer que l’IA traite chaque individu de manière équitable. 

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *