rtnet ia humain

RTNet : voici la 1ère IA capable de penser comme un humain !

Les chercheurs de Georgia Tech ont créé l’IA RTNet, capable de prendre des décisions à partir de preuves accumulées et en se basant sur son niveau de confiance ! Découvrez pourquoi il pourrait bien s’agir d’une révolution pour l’intelligence artificielle et la robotique…

Jusqu’à présent, les intelligences artificielles étaient très habiles pour imiter l’humain. C’est le cas de ChatGPT et des autres chatbots IA, qui créent l’illusion en feignant de réfléchir et de raisonner.

En réalité, ces Larges Modèles de Langage (LLM) se contentent de calculer le mot suivant le plus probable dans une phrase, sans avoir la moindre idée du sens des textes qu’ils génèrent.

Voilà pourquoi ces IA peuvent très rapidement déraper et se mettre à déblatérer des absurdités, à halluciner ou à inventer des faits qui n’existent pas.

C’est la principale limite de ces outils, et la raison pour laquelle même déconseille fortement de se fier à pour tout projet sérieux.

Néanmoins, l’intelligence artificielle pourrait très bientôt passer à la prochaine étape et réellement commencer à penser. Un cap vient d’être franchi par les chercheurs de Georgia Tech !

Afin d’apprendre à un réseau de neurones à reproduire la prise de décision humaine, ils l’ont entraîné à faire preuve de variabilité et de confiance dans ses choix.

Une caractéristique qui était jusqu’à présent l’apanage des humains ! Leur modèle RTNet est capable d’égaler l’humain dans les tâches de reconnaissance de chiffres, et peut aussi accumuler des preuves pour démontrer ses affirmations

Prise de décision : la grande différence entre IA et humains

YouTube video

Chaque jour, un humain prend environ 35 000 décisions. Cela va de choisir ce qu’il va manger pour le déjeuner, à déterminer si une route est sûre en passant par la sélection de sa paire de chaussettes.

Or, chaque décision implique d’évaluer les différentes options, de se remémorer des situations similaires rencontrées dans le passé, et de se sentir suffisamment confiant pour faire le bon choix.

Ainsi, même ce qui semble être une décision prise en un éclair résulte d’une accumulation de preuves issues de l’environnement.

En outre, à différents moments, la même personne peut prendre des décisions différentes dans une situation similaire. Nous sommes donc loin d’être aussi binaires que des ordinateurs.

Au contraire, les réseaux de neurones prennent les mêmes décisions à chaque fois. Comme l’explique Farshad Rafiei, diplômé d’un doctorat de psychologie, « les réseaux de neurones prennent une décision sans vous dire s’ils sont confiants ».

Il souligne que « c’est l’une des principales différences avec la façon dont les humains prennent leurs décisions ». Voilà pourquoi les chercheurs de Georgia Tech ont décidé de les entraîner à décider comme des humains, sous la houlette du professeur Dobromir Rahnev !

Une solution contre les hallucinations de l’IA ?

Selon eux, créer un réseau de neurones plus proche du cerveau humain peut le rendre plus fiable. À l’heure actuelle, comme nous l’évoquions en début d’article, un LLM qui ne connaît pas la réponse à une question tend à inventer une réponse sans même le préciser.

Dans une situation similaire, la plupart des humains feraient simplement preuve d’humilité et admettraient ne pas connaître la réponse. De fait, une IA plus humaine pourrait éviter ce type de supercherie potentiellement néfaste.

L’IA qui accumule des preuves avant de prendre ses décisions

Pour entraîner leur réseau de neurones, les chercheurs ont utilisé des chiffres manuscrits issus d’un jeu de données très utilisé en informatique : MNIST.

Ils lui ont demandé de déchiffrer chaque nombre, puis ont vérifié son taux de précision en ajoutant du bruit aux chiffres.

Ils ont d’abord entraîné leur RTNet et trois autres modèles (CNet, BLNet, MSDNet) sur le jeu de données MNIST sans bruit.

Puis, ils les ont és sur la version à laquelle du bruit était ajouté et ont comparé les résultats. Le but ? Comparer leurs performances avec celles des humains.

Le modèle RTNet repose sur deux composants principaux. D’abord, un réseau de neurones bayésien (BNN) qui utilise la probabilité pour prendre des décisions.

Le deuxième élément est un processus d’accumulation de preuves qui conserve une trace des preuves pour chaque choix. Ce BNN produit des réponses légèrement différentes à chaque fois.

À mesure qu’il rassemble des preuves, son processus d’accumulation peut parfois favoriser un choix et parfois un autre.

Une fois qu’il a suffisamment de preuves pour décider, le modèle RTNet arrête son processus d’accumulation et prend sa décision.

En parallèle, l’équipe a aussi mesuré la vitesse de prise de décision du modèle pour voir s’il suit le phénomène psychologique appelé « compromis vitesse-décision ».

Il s’agit d’un phénomène qui fait que les humains sont moins précis quand ils doivent prendre des décisions rapidement.

Les chercheurs surpris par le niveau d’humanité de RTNet

Dès qu’ils ont eu les résultats du modèle, les chercheurs les ont comparés à ceux des humains. Soixante étudiants de Georgia Tech ont vu le même jeu de données, et indiqué le niveau de confiance dans leurs décisions.

À la stupéfaction générale, le réseau de neurones a présenté des performances similaires aux humains en termes de précision, de temps de réaction et de confiance.

Comme l’explique Rafiei, « de manière générale, nous n’avons pas assez de données humaines dans la littérature informatique existante, donc nous ne savons pas comment les gens se comporteront lorsqu’ils seront exposés à ces images »

D’après lui, « cette limitation freine le développement de modèles répliquant avec précision la prise de décision humaine, et cette étude fournit l’un des plus grands jeux de données sur des humains réagissant à MNIST ».

YouTube video

Au-delà de surpasser tous les modèles déterministes rivaux, RTNet s’est révélé plus précis dans les situations à plus haute vitesse en raison d’un autre élément fondamental de la psychologie humaine.

Il se comporte comme un humain, et gagne en confiance lorsqu’il prend des décisions correctes. Sans même avoir été entraîné à favoriser la confiance, le modèle l’a fait automatiquement.

Face à ce constat, Rafiei en est convaincu : « si nous essayons de rendre nos modèles plus proches du cerveau humain, cela se verra dans le comportement lui-même sans fine-tuning ».

Vers une révolution pour l’IA et la robotique ?

À présent, les chercheurs espèrent entraîner le réseau de neurones sur des jeux de données plus variés afin de tester son potentiel. Ils espèrent aussi appliquer ce modèle BNN sur d’autres réseaux de neurones, pour leur permettre de rationaliser de façon plus humaine.

Dans un futur proche, les algorithmes pourraient donc non seulement être capables d’émuler nos capacités de prise de décision… mais même de nous débarrasser de quelques-unes des 35 000 décisions que nous prenons chaque jour !

Cette innovation pourrait aussi se révéler très utile pour le domaine de la robotique, en incorporant une telle IA à un humanoïde pour lui permettre de prendre des décisions à la manière d’un vrai humain…

Si ce sujet vous intéresse, vous pouvez consulter l’étude complète « le réseau de neurones RTNet démontre des signatures de la prise de décision perceptive humaine » par Farshad Raiei, Medha Shekhar et Dobromir Rhanev dans le journal Nature Human Behaviour en suivant ce lien !

YouTube video

Et vous, qu’en pensez-vous ? Faut-il tenter de créer une IA similaire à l’humain ? Ou au contraire tenter de surpasser nos défauts en s’éloignant de ce modèle imparfait ? Partagez votre avis en commentaire !

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *