Les employés d’OpenAI INTERDITS de parler des dangers de l’IA : Ils avouent tout !

La parole sur les risques sécuritaires de l'intelligence artificielle n'est pas libre, dénonce le collectif Right to Warn. Ses membres veulent que cela change.

Des anciens et actuels employés d' réclament le droit d'alerte pour dévoiler des problèmes de sécurité en lien avec l'intelligence artificielle. Leur collectif, appelé Right to Warn, dénoncent le silence des travailleurs face aux abus des entreprises du secteur. Il milite pour « soutenir une culture de la critique ouverte ».

Le collectif demande la protection des lanceurs d'alerte. Il réclame également la possibilité de faire des signalements anonymes.

Les entreprises du secteur font signer à leurs salariés des clauses de confidentialité et de non-dénigrement. Cette pratique doit cesser selon ce groupe de dissidents.

Pas que des salariés d'OpenAI

Le collectif détaille ses motivations et ses revendications dans une lettre ouverte intitulée Un droit d'alerte sur l'intelligence artificielle avancée. Celle-ci est disponible sur sa plateforme.

Par ailleurs, l'initiative bénéficie du soutien des parrains de l'intelligence artificielle. Geoffrey Hinton et Yoshua Bengio sont effectivement cosignataires de la lettre ouverte. Rappelons que le mois dernier, ils alertaient déjà sur le manque de législation concernant l'IA.

Right to Warn ne compte pas des anciens et actuels salariés d'OpenAI. Le collectif compte également parmi ses rangs un chercheur de , à savoir Neel Nanda.

Précisons que Nanda était auparavant chez Anthropic, start-up concurrente d'OpenAI. Ramana Kumar, un ex-employé de DeepMind, a également signé la lettre ouverte.

Les contradictions de

Right to Warn donne l'impression de beaucoup cibler OpenAI. C'est probablement dû au fait que le collectif compte majoritairement des anciens et actuels salariés de la start-up.

Pourtant, son PDG a récemment souligné l'importance de ne pas accorder une confiance aveugle à une seule entreprise ou individu pour dominer l'intelligence artificielle.

Sam Altman devrait ainsi se trouver dans les bonnes grâces du collectif. Néanmoins, ce n'est pas le cas. Il est même très critiqué par un ancien de la maison.

William Saunders — également signataire de la lettre ouverte — partage l'avis de son ancien patron. Il considère crucial le partage des informations sur les risques liés aux nouvelles technologies avec les autorités, des experts indépendants et le public.

Toutefois, Saunders trouve hypocrite la position d'Altman. Si le dirigeant défendait véritablement le partage des informations, ses employés n'auraient pas à signer des clauses spéciales.

La réponse d'OpenAI à Right to Warn

Autre expert membre du collectif, Jacob Hilton. Ce dernier met les grandes entreprises du secteur face à leurs engagements en matière de sécurité et d'éthique.

« Le public doit avoir la certitude que les employés ne feront pas l'objet de représailles pour s'être exprimés », explique cet ancien collègue de Saunders dans un long thread sur X.

En réaction à la lettre ouverte, OpenAI a sollicité le New York Times pour dissiper les doutes vis-à-vis de son approche scientifique pour évaluer les risques.

La start-up derrière la création de ChatGPT s'accorde sur la nécessité de maintenir des discussions rigoureuses sur l'intelligence artificielle. « Nous continuerons à nous engager auprès des gouvernements, de la société civile », a expliqué son porte-parole.

Right to Warn veut ainsi libérer la parole au sein de l'industrie de l'intelligence artificielle. Soutenez-vous cette initiative ?

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *