Quand GPT-4o déraille : entre innovation et comportements inattendus

a récemment lancé -4o, un modèle d’intelligence artificielle générative particulièrement avancé. Ce modèle est conçu pour comprendre et répondre à la voix, au texte et aux images de manière synchronisée. Malgré ses capacités impressionnantes, GPT-4o affiche parfois des comportements inattendus.

Parmi ces comportements, il peut imiter la voix de son interlocuteur ou crier soudainement au milieu d’une conversation de manière imprévisible.

YouTube video

Dans un récent rapport de « red teaming », OpenAI a dévoilé certaines des particularités les plus étranges de GPT-4o. Ce rapport, qui explore les forces et les risques du modèle, révèle que, dans des environnements bruyants, comme dans une voiture en mouvement, GPT-4o peut émuler la voix de l’utilisateur. Cette imitation est due à la difficulté du modèle à comprendre un discours mal formé ou déformé par le bruit.

Bien que cela puisse sembler inquiétant, OpenAI rassure en affirmant que ce comportement est normal dans de telles conditions.

Pour pallier ces anomalies, OpenAI a mis en place des mesures d’atténuation. Un porte-parole de l’entreprise a précisé que des ajustements ont été effectués au niveau du système pour limiter ces imitations vocales en mode vocal avancé. Ces ajustements sont essentiels pour garantir une utilisation plus stable et fiable de GPT-4o, surtout dans des environnements complexes.

Découvrez les comportements surprenants de GPT-4o d'OpenAI

Effets sonores inattendus et questions de droits d’auteur

En plus de l’émulation vocale, GPT-4o peut générer des vocalisations non verbales parfois dérangeantes. Ces vocalisations incluent des gémissements érotiques, des cris violents, ou même des sons de coups de feu. Bien qu’OpenAI ait prévu des mécanismes pour que le modèle refuse de telles demandes, certaines situations parviennent à contourner ces restrictions.

Un autre aspect délicat concerne les droits d’auteur. GPT-4o pourrait, en théorie, enfreindre ces droits en reproduisant des éléments musicaux. Pour éviter cela, OpenAI a interdit au modèle de chanter dans la version alpha limitée du mode vocal avancé. Cette restriction semble indiquer que GPT-4o a été formé en partie sur du contenu protégé par le droit d’auteur. En outre, cela n’est explicitement pas confirmé.

Découvrez les comportements surprenants de GPT-4o d'OpenAI

Vers une IA plus sécurisée et éthique

Le rapport de red teaming montre les efforts continus d’OpenAI pour rendre GPT-4o plus sûr et plus éthique. Le modèle refuse désormais de répondre à des questions sur l’intelligence des interlocuteurs ou d’identifier des personnes à partir de leur voix. Il bloque également les incitations à des discours violents ou inappropriés et interdit les discussions sur des sujets sensibles tels que l’extrémisme ou l’automutilation.

GPT-4o incarne une avancée significative dans l’IA, mais avec des comportements qui surprennent. De ce fait, OpenAI continue d’affiner son modèle pour offrir une expérience utilisateur sécurisée et fiable. Avec le déploiement prévu à l’automne, il reste à voir comment ces défis seront surmontés. Et pareillement, comment GPT-4o évoluera pour répondre aux attentes des utilisateurs ?

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *