chatGPT

ChatGPT arrive à se faire passer pour un humain… en jouant l’imbécile

C’est incroyable, mais vrai ! L’intelligence artificielle d’, , réussit à tromper les humains en agissant bêtement. Ce n’est pas une blague, c’est une stratégie.

Qui aurait cru que, pour se rapprocher de nous, ChatGPT opterait pour la simplicité ? Selon une étude récente, pour convaincre qu’il est humain, ChatGPT doit faire l’idiot . Alors, il se montre moins parfait, fait des fautes, utilise l’argot et trompe son interlocuteur.

ChatGPT : des erreurs programmées pour convaincre

YouTube video

Historiquement, le test de Turing mesure la capacité d’une machine à imiter un humain. Ce , créé par Alan Turing, évalue si une IA peut tromper un juge humain.

Cependant, dans cette étude, les chercheurs ont légèrement modifié les règles. Plutôt qu’une conversation triangulaire, ils ont opté pour un face à face. ChatGPT devait alors convaincre un juge qu’il était humain. Soit il réussissait, soit il échouait… Résultat ?

Apparemment, ChatGPT a trompé les juges dans 54 % des cas. Certes, c’est moins que les véritables humains, qui ont été identifiés à 67 %, mais cela reste impressionnant.

Alors, pour tromper les juges, les chercheurs ont décidé de donner à ChatGPT une approche particulière. Dans le but d’augmenter ses chances de réussite, ils ont demandé à l’IA de faire l’idiot.

Cette stratégie impliquait l’utilisation d’un langage relâché, des fautes d’orthographe, et parfois même des expressions argotiques. Selon Charbel-Raphaël Segerie, directeur du Centre pour la Sécurité de l’IA, cette approche a été clé.

En clair, ChatGPT devait adopter le comportement d’un jeune qui ne prend rien au sérieux. De toute évidence, cette stratégie fonctionne. Comme si l’IA devenait plus crédible à travers ses erreurs. Alors, les juges étaient piégés par ces imperfections humaines simulées.

Les IA et leur performance lors des tests

Durant cette expérience, diverses intelligences artificielles ont été évaluées, notamment GPT-4, -3.5, ainsi qu’ELIZA, un ancien chatbot conçu dans les années 1960. Les chercheurs ont veillé à donner aux IA des délais de réponse, parfois plus lents, pour imiter la réflexion humaine. Les juges devaient ensuite décider s’ils parlaient à une IA ou à un humain.

GPT-4, en jouant l’idiot, a trompé 54 % des juges. De son côté, GPT-3.5 a atteint un score plus bas, avec 50 %. Néanmoins, l’IA la plus ancienne, ELIZA, a échoué lamentablement avec seulement 22 % des juges trompés.

Les résultats de cette étude laissent perplexe ! En termes de performance, ChatGPT a réussi à se rapprocher du comportement humain grâce à des stratégies d’imitation des erreurs.

D’ailleurs, avec des IA comme Sonnet 3.5 ou Google Gemini Pro 1.5, qui sont plus performantes en conversation, les tests futurs pourraient révéler des résultats encore plus impressionnants.

Une autre étude, menée sur Claude 3, a même montré qu’il peut persuader presque aussi bien qu’un humain.

Les IA ne cessent de nous étonner, c’est certain. Mais jusqu’où iront-elles dans leur perfectionnement du réalisme ?

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *