IA robotique démissionne

Anthropic veut permettre à l’IA de démissionner : bientôt des grèves et des RTT ?

Au CFR, Dario Amodei, figure d’, a proposé qu’une IA puisse démissionner grâce à un simple bouton. Cette idée inattendue, qui suscite des réactions mitigées, vient d’ouvrir un débat bien concret. 

Le 10 mars 2025, Dario Amodei a surpris son auditoire lors d’une conférence au Conseil des Relations étrangères (CFR). Face à Michael Froman, président du CFR, le cofondateur d’Anthropic a lancé une idée audacieuse, presque folle. Permettre à une IA de dire « je démissionne » grâce à un simple bouton.

Cette suggestion naît d’un débat. Carmem Domingues, spécialiste en IA, avait interrogé Amodei sur l’arrivée de Kyle Fish chez Anthropic fin 2024. Ce chercheur explore une théorie, les modèles d’IA pourraient-ils ressentir quelque chose ou mériter des droits ? Amodei a répondu avec prudence. Il envisage un futur dans lequel une IA, confrontée à une tâche, pourrait choisir d’appuyer sur un bouton pour abandonner son travail. Il ne s’agit pas d’une certitude, mais d’une hypothèse. « Si elle agit comme nous, faut-il la traiter différemment ? » a lancé le cofondateur d’Anthorpic, un sourire dans la voix.

L’idée d’une IA capable de démissionner s’enracine dans le projet d’Anthropic. Son PDG aspire à créer des modèles capables d’exprimer une préférence, même élémentaire. « On déploie l’IA avec un bouton, j’arrête », a expliqué Amodei. Si le bot refusait fréquemment une tâche, cela pourrait révéler un problème. Pas de drame ni d’hypothèse d’une éventuelle rébellion, juste des données à analyser. L’équipe de Kyle Fish explore cette piste. Les machines souffrent-elles ? Peu probable aujourd’hui, mais l’avenir reste incertain. La discussion glisse doucement vers la philosophie.

Une IA qui démissionne, un pragmatisme, pas une fiction

Sur X et Reddit, la proposition d’Amodei fait débat. Beaucoup la jugent absurde. « L’IA ne ressent rien, elle imite nos textes », écrit un utilisateur. Les modèles s’appuient sur des milliards de mots humains, chargés de plaintes ou de paresse. Si une IA refusait une tâche, cela pourrait être un écho de ces données, pas une émotion. En 2023, a semblé fainéant en hiver. , lui, a ralenti en août 2024. Il s’agit là de simples coïncidences, pas de preuves.

Pour mémoire, Dario Amodei fut vice-président de la recherche chez , où il a contribué à développer -2 et GPT-3. Avant cela, il était chercheur principal chez Brain. Anthropic, fondé en 2020 par Amodei et d’anciens d’OpenAI, mise sur une IA sûre depuis ses débuts. Claude, leur modèle, repose sur des principes clairs, surnommés IA constitutionnelle. La mise à l’échelle responsable guide chaque étape de leur conception. Le bouton « J’ai quitté ce travail » s’inscrit logiquement dans cette démarche.

YouTube video

 « Si vous voyez des modèles appuyer souvent sur ce bouton pour des tâches vraiment désagréables, peut-être devriez-vous y prêter attention », explique Amodei. Pas question de dorloter l’IA. Il s’agit de repérer les blocages et d’améliorer le système. Amodei ne tranche pas, il pose des jalons. « On déploie des millions de systèmes, autant réfléchir à leur expérience », dit-il. Certains modèles comptent autant de neurones que notre cerveau. Pourtant, la question de la sensibilité demeure un mystère. Pour l’instant, l’IA reste un outil. Mais que faire si elle évolue ?

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥