IA

« Nous avons perdu le contrôle » : les pères de l’IA se réunissent en urgence

C’est la panique ! Un groupe de spécialistes, composé des deux pères fondateurs de l’intelligence artificielle, ont eu une réunion d’urgence pour parler des risques catastrophiques de l’IA.

Ce n’est pas la première fois que l’on entend les spécialistes parler des dangers de l’intelligence artificielle. Mais cette fois, ce sont les pères de l’intelligence artificielle qui s’inquiètent sur les « risques catastrophiques » de cette technologie. Pour éviter que l’IA échappe au contrôle humain, ces scientifiques proposent un cadre réglementaire, doté de modèles inscrits sur un registre.

Les pères de l’IA pensent que l’IA pourrait dépasser l’intelligence humaine ?

Les spécialistes du domaine de l’intelligence artificielle ont des avis différents concernant les risques inhérents à cette technologie. Si certains pensent que l’IA n’est qu’un outil relativement inoffensif, qui n’a que pour mission d’assister les humains, d’autres craignent qu’elle puisse devenir hors du contrôle humain.

Parmi les personnes qui s’inquiètent des conséquences négatives de cette technologie, on peut citer Geoffrey Hinton et Yoshua Bengio. Ces deux spécialistes sont considérés comme des pères fondateurs de l’intelligence artificielle.

YouTube video

Rappelons qu’ils ont reçu le prix Turing en 2018 pour leurs actions sur l’apprentissage profond, avec le français . Il n’y a pas si longtemps, ces deux hommes participaient à la troisième rencontre Idais (Dialogues internationaux sur la sécurité de l’IA) qui s’est déroulée à Venise. Notons que c’est l’un des grands événements qui réunit les différents spécialistes du secteur.

Ce groupe de spécialistes a publié un communiqué qui parle surtout des risques relatifs à l’arrivée d’une IA capable de surpasser l’intelligence humaine. Cela pourrait arriver immédiatement, ou au plus tard d’ici quelques décennies.

Un cadre réglementaire proposant trois solutions

Le communiqué signé aussi par Zhang Ya-Qin, ancien président du géant chinois Baidu, ou encore Stuart Russell, propose trois propositions qui permettent d’éviter les scénarios catastrophiques.

Dans un premier temps, ces spécialistes de l’IA suggèrent d’enregistrer les modèles d’IA. La communauté internationale devrait mettre en place des accords et institutions permettant d’inscrire ces modèles sur un registre et de communiquer tout incident.

Ensuite, tous les développeurs d’IA doivent être en mesure de démontrer la sûreté de leurs modèles si jamais leurs aptitudes dépassent certains seuils. Enfin, il faudra entreprendre une recherche mondiale indépendante sur la sécurité de l’IA. Cette étude doit permettre d’examiner la validité des allégations en matière de sécurité formulées par les développeurs.

YouTube video

Notons néanmoins que le communiqué ne précise pas ce qui pourrait constituer un risque ou encore quels seuils doit être mis en place.

Rappelons que ce n’est pas la première fois que Geoffrey Hinton parle de ce sujet. En 2003, il a démissionné de chez pour pouvoir partager librement ses appréhensions sur le développement de l’intelligence artificielle.

Et vous, quel est votre avis ? Vous pensez que l’IA pourrait réellement dépasser l’intelligence humaine ? N’hésitez pas à écrire dans les commentaires.

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *