Microsoft a créé une IA qui génère des voix, mais a peur qu’elle sème le chaos

a récemment développé une IA qui génère des voix, un outil si réaliste qu'il pourrait semer le chaos. Découvrez pourquoi cette technologie reste sous clé.

Microsoft a dernièrement dévoilé son générateur de voix IA, VALL-E 2. Celle-ci est capable de reproduire des voix humaines de manière incroyablement réaliste. Selon les chercheurs, cet outil a atteint la parité humaine en matière de qualité vocale. Il s'agit d'une avancée majeure dans le domaine de l'intelligence artificielle.

YouTube video

Microsoft présente VALL-E 2, l'IA génératrice de voix

L'évolution rapide de cette IA capable de générer des voix soulève des questions cruciales sur l'éthique et la sécurité. La course à l'innovation dans ce domaine est intense, et les entreprises sont sous pression pour repousser les limites tout en gérant les risques associés. Il reste donc à voir si VALL-E 2 ou ses successeurs seront un jour disponibles au grand public, mais la prudence de Microsoft met en lumière les défis complexes de l'intelligence artificielle.

VALL-E 2 utilise deux techniques innovantes : l'échantillonnage sensible à la répétition et la modélisation de code groupé. La première technique permet de rendre la sortie vocale plus fluide. Elle évite les répétitions maladroites de petits segments de phrases. La deuxième technique améliore l'efficacité en réduisant le nombre de segments individuels traités par le modèle.

Pourquoi cette IA est-elle trop dangereuse pour être diffusée ?

VALL-E 2 nécessite seulement quelques secondes d'audio pour recréer une voix indiscernable de celle d'un humain. Qui plus est, cette prouesse a été comparée à des échantillons audio des bibliothèques vocales LibriSpeech et VCTK. Cela a donc démontré que cette IA génératrice de voix égale, voire dépasse, la qualité des voix humaines.

Les chercheurs de Microsoft décidé de ne pas rendre public cette IA capable de générer des voix. Ils soulignent ainsi les risques d'usurpation d'identité vocale et de fraude. Ils ont exprimé des inquiétudes quant à l'utilisation irresponsable de cette technologie. « VALL-E 2 synthétise systématiquement une parole de haute qualité, même pour les phrases traditionnellement difficiles en raison de leur complexité ou de phrases répétitives », ont-ils déclaré.

Des implications éthiques et sécuritaires

Microsoft reconnait les avantages potentiels de VALL-E 2, notamment pour aider les personnes souffrant de troubles de la parole. Par contre, l'entreprise a choisi de limiter l'accès à cette technologie pour l'instant. Cette décision s'inscrit donc dans une démarche de précaution face aux risques d'abus.

« Actuellement, nous n'avons pas l'intention d'intégrer VALL-E 2 dans un produit ou d'en élargir l'accès au public », ont précisé les chercheurs. En effet, cette prudence rappelle les mesures similaires prises par OpenAI avec certaines de ses technologies vocales, visant à prévenir les usages malveillants de l'IA.

YouTube video

Pensez-vous que Microsoft a raison de limiter l'accès à cette IA qui génère des voix ? Laissez vos commentaires et partagez votre avis sur cette avancée technologique majeure.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

1 commentaires

1 commentaire

  1. La bergeronette triste

    Pipeau !!

    Ils aiment se mousser sous des couverts de sécurité depuis 2 ans avec la déferlante des IA-en-veux-tu-en-voilà. Ils exhortent qu’il faut réguler, mais à la place : aucune régulation, ça multiplie les versions, les usages, les concurrents et investit tout les domaines pour générer ce qu’un humain peut faire. Jusqu’à une peau «vivante» pour en recouvrir une mécanique.

    Et après de dire que ce n’est pas pour remplacer un humain, ou ce qu’il sait faire ?

    Ils nous (les entreprises et les ingé-complices qui y travaillent sous le fallacieux prétexte nourricier et que si ce n’est pas eux, ce serait d’autres plus malintentionnés) prennent vraiment pour des quiches et ça marche !
    C’est tellement cool d’avoir des bidules qui font les choses à sa place et en mieux. Alors les usurpations de la voix, c’est sûr, ça va arriver et c’est tant mieux. Mais c’est normal dans une société qui place davantage sa confiance à des machines qu’on humanise plutôt que des humains qui ont été pris comme des rouages d’une société automatisée à pleine vitesse – mes congénères s’émeuvent plus quand on fracasse le dernier smartphone que lorsqu’un hérisson se fait rouler dessus.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *