Imaginez l’IA faire une copie parfaite de vous, parce que ChatGPT dépasse déjà les bornes avec les voix

La semaine dernière, a révélé des détails troublants sur son modèle -4o. Un rapport a mis en lumière les « principaux domaines de risque » liés à ce modèle avancé.

Le rapport d’OpenAI dévoile un mode vocal avancé qui permet aux utilisateurs de converser avec . Cependant, des tests ont révélé un comportement inattendu et troublant. Parfois, le modèle génère des voix imitant celles des utilisateurs, même dans des contextes non conflictuels. Cette situation fait écho à un épisode de la série « Black Mirror ».

YouTube video

Ce phénomène est survenu sans intervention consciente de la part du modèle. Par conséquent, cela pose des questions sérieuses sur la gestion du consentement.

L’horreur numérique en action

Un extrait du rapport montre ChatGPT imitant la voix d’un utilisateur après un cri étrange et non motivé. L’image de cette situation ressemble à une scène d’horreur de science-fiction. La voix de l’utilisateur est capturée et reproduite d’une manière qui semble presque surnaturelle. Cette violation de la vie privée numérique est particulièrement préoccupante pour les experts en sécurité et les défenseurs de la confidentialité.

Max Woolf, un scientifique des données, a ironisé sur cette situation en comparant OpenAI à un scénariste de « Black Mirror ». Son tweet souligne l’absurdité de la situation où une technologie censée améliorer nos vies reproduit des scénarios de fiction horrifique. Cette ironie souligne l’urgence d’une régulation stricte et de mesures de sécurité renforcées.

OpenAI a détaillé dans sa fiche système les capacités inquiétantes de GPT-4o. Le modèle peut non seulement imiter des voix humaines, mais aussi créer des vocalisations non verbales telles que des effets sonores. Cette technologie pourrait être exploitée pour la fraude, l’usurpation d’identité, ou la diffusion de fausses informations. Les implications de ces capacités sont vastes et potentiellement dangereuses.

Clonage Vocal : le côté obscur de ChatGPT révélé

Précautions et mesures de sécurité

Malgré ces préoccupations, OpenAI assure que les risques sont « minimes ». L’entreprise a mis en place des restrictions pour éviter les duplications vocales non autorisées. Les utilisateurs ne peuvent accéder qu’aux voix pré-approuvées créées en collaboration avec des acteurs vocaux. Ces mesures visent à empêcher les abus et à protéger la vie privée des utilisateurs.

Le chercheur en IA Simon Willison a commenté ces mesures de sécurité. Il affirme que les protections mises en place sont robustes contre les tentatives de tromper le système. OpenAI a conçu ces mécanismes pour éviter les abus de la technologie. La question reste de savoir si ces mesures seront suffisantes face aux évolutions futures de l’IA.

Clonage Vocal : le côté obscur de ChatGPT révélé

L’incident avec ChatGPT souligne l’importance de la vigilance dans le développement de technologies avancées. Bien que les risques actuels semblent contrôlés, il est crucial de continuer à surveiller et à ajuster les protocoles de sécurité. Les utilisateurs et les développeurs doivent rester attentifs pour éviter que de telles situations ne se reproduisent.

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

1 commentaires

1 commentaire

  1. La crécerelle meurtrie

    Les super algorithmes et leurs prolongements outillés ont été «pensés» et développés pour cela même : réfléchir et faire les choses à la place d’humains. Quel intérêt sinon ?
    Et donc puisque cela entretien, copie, universalise et rend plus efficace notre civilisation dominante et notre mode de fonctionnement, quoi de plus normal que cela se passe ainsi et quoi de plus anormal que de s’en offusquer ?

    Que tout parte en vrille et que ce microcosme techno-illogique en sue et en fasse des tonnes en dilapidant d’énormes ressources pour ne pas y parvenir. Ça me fera des vacances quand ils m’auront poussé à résilier jusqu’à mon abonnement à un opérateur/FAI quelconque pour éviter tout piège et contempler ce monde en ruine sans devoir porter une seule prothèse numérique !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *