Cette IA rivalise avec ChatGPT, mais cachait un terrible secret

, la startup derrière le chatbot , rival de , est au cœur d’une nouvelle polémique : un groupe d’auteurs, l’accuse d’avoir entraîné son IA sur des contenus piratés. Un scandale qui vient ternir l’image de cette entreprise présentée comme un modèle en matière d’éthique dans l’IA.

L’intelligence artificielle générative est en plein essor, et avec elle, les controverses, toujours dans les parages. Alors que l’IA ChatGPT d’ fait couler beaucoup d’encre, c’est maintenant au tour d’Anthropic, son principal rival, d’être pointé du doigt.

Ce lundi, un groupe d’auteurs, représenté par les écrivains Andrea Bartz, Charles Graeber et Kirk Wallace Johnson, ont en effet porté plainte contre la start-up. Devant un tribunal fédéral de San Francisco, ils l’accusent d’avoir entraîné son chatbot Claude sur des copies illégales de livres.

Rival de ChatGPT : un modèle d’IA construit sur des fondations fragiles

Anthropic s’était pourtant présentée comme un pionnier de l’éthique dans l’IA. Fondée par d’anciens employés d’OpenAI, la start-up avait promis de développer des modèles plus sûrs et alignés avec les valeurs humaines. Mais la plainte déposée par ces créateurs révèle une tout autre réalité.

YouTube video

D’après ces plaignants, Anthropic aurait utilisé un ensemble de données appelé The Pile. Ce dernier comprenait un grand nombre d’œuvres protégées par le droit d’auteur. À partir des contenus piratés, l’entreprise aurait ainsi formé son chatbot Claude. Tout cela lui permet de générer des textes très créatifs et cohérents.

Ce genre de modèle d’IA générative est entraîné sur une grande quantité de données, souvent collectées sur internet, et cela, sans autorisation. Or, les auteurs, les artistes et les éditeurs craignent de voir leurs œuvres exploitées sans compensation. Ils estiment qu’utiliser leurs contenus pour nourrir des chatbots, c’est comme violer leurs droits d’auteur.

Les entreprises d’IA sous pression : la justice tranche sur les pratiques d’usage équitable

Par ailleurs, Anthropic et les autres entreprises qui développent ces outils d’IA ne se laissent pas faire. Celles-ci défendent l’idée que leurs pratiques relèvent de l’”usage équitable”. Selon elles, l’entraînement de leurs chatbots est important pour faire progresser la recherche. Cela est aussi essentiel pour développer de nouvelles applications bénéfiques à la société.

Toutefois, les tribunaux américains semblent de plus en plus réticents à accepter ces arguments. Les affaires se multiplient, et les firmes technologiques risquent de devoir verser des indemnités considérables aux créateurs lésés.

L’affaire opposant les auteurs à Anthropic est un nouveau chapitre dans la longue saga des conflits autour de l’IA générative. Les enjeux sont importants, tant sur le plan juridique qu’éthique. Il est urgent de trouver un équilibre entre les intérêts des développeurs d’IA et ceux des auteurs.

YouTube video

Que pensez-vous de cette affaire ? Les entreprises créatrices des modèles d’IA ont-elles l’obligation de rémunérer les auteurs dont les œuvres sont utilisées pour entraîner leurs modèles ? Partagez votre avis dans les commentaires !

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *