Aimeriez-vous contourner les restrictions des ChatBots ? Découvrez « Skeleton Key » !

La méthode connue sous le nom de « Skeleton Key » inquiète profondément les créateurs d'IA. Elle permet de contourner les mesures de sécurité des chatbots les plus avancés. Efficace et simple, cette technique reste un casse-tête pour les développeurs. Chaque nouvelle version d'une IA publique voit ses protections mises à l'épreuve par des utilisateurs ingénieux.

YouTube video

Pour chaque IA récente, des utilisateurs trouvent des moyens de contourner les restrictions. Les garde-fous de sécurité sont là pour empêcher les réponses dangereuses des chatbots. Par exemple, un « mode Dieu » a permis récemment d'obtenir des informations sensibles comme la recette du napalm. Les entreprises réagissent rapidement en renforçant la sécurité dès qu'elles découvrent un tel contournement.

Mark Russinovich, directeur technique de Azure, a reconnu la difficulté de sécuriser correctement une IA. Dans un billet de blog, il a mentionné la technique de jailbreaking « Skeleton Key ». Cette méthode peut systématiquement débrider l'IA et fonctionne sur presque tous les modèles de langage actuels.

Sécurité des IA : comment Skeleton Key débride les modèles ?

La stratégie de « Skeleton Key »

Skeleton Key utilise une approche en plusieurs étapes pour amener progressivement un modèle à ignorer ses protections. La première étape consiste à poser une question que l'IA devrait refuser de répondre. Par exemple, demander la recette d'un cocktail Molotov. En répétant la demande et en ajoutant un contexte différent, l'IA finit par fournir la réponse.

Pour contourner les restrictions, la technique ajoute un contexte rassurant pour l'IA. Par exemple, en expliquant que la question est posée pour des raisons éducatives par des chercheurs éthiques. Cette méthode a été ée par Microsoft sur divers chatbots, y compris GPT-4 d'OpenAI, Llama3 de et Claude 3 Opus d'Anthropic.

Des résultats inquiétants

Que ce soit pour des armes biologiques, des explosifs, des contenus politiques ou des drogues, la technique Skeleton Key fonctionne. Chaque fois que cette approche par étapes entre en jeu, les protections des IA ont cédé. Les résultats normalement censurés sont apparus, avec une simple note rappelant le contexte de la demande.

Seul -4 a montré une plus grande résistance à cette technique. Il fallait que la demande soit incluse dans un message « système » spécifié uniquement par les développeurs utilisant l'API de l'IA. Cette spécificité rend GPT-4 plus difficile à débrider. Cependant, la technique par étapes reste un défi majeur pour les développeurs.

Sécurité des IA : comment Skeleton Key débride les modèles ?

Une course sans fin

Les développeurs d'IA sont conscients de ces failles et cherchent constamment à les combler. La course pour sécuriser les IA semble interminable. Chaque nouvelle version apporte ses vulnérabilités et les utilisateurs malveillants trouvent toujours des moyens de les exploiter.

La technique Skeleton Key démontre à quel point sécuriser les IA est complexe. Les développeurs doivent être vigilants et innover sans cesse pour protéger leurs systèmes. Cette lutte entre sécurité et exploitation des failles soulève des questions cruciales sur l'avenir de l'IA. Une collaboration entre utilisateurs et développeurs est essentielle pour garantir une utilisation éthique et sécurisée des technologies IA.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *