Google vous a-t-il exploité pour entraîner son IA ? L’Europe ouvre une enquête

En Europe, une question devient brûlante : et si vos données personnelles avaient servi à entraîner l’IA de sans que vous le sachiez ?

Depuis quelques jours, Google est soupçonné de se servir des données personnelles de ses utilisateurs en Europe pour alimenter son IA. La Commission irlandaise pour la protection des données (DPC) scrute de près cette affaire.

L’Europe ouvre une enquête sur Google et son IA : les détails

Ce jeudi 12 septembre 2024, la DPC a parlé au nom de l’UE. L’entreprise californienne fait donc l’objet d’une enquête. Pourquoi le terrain d’intervention est-il en Irlande ? Car c’est là-bas que se situe le siège européen de Google. Tout comme pour d’autres géants tels qu’, TikTok, X, et .

Google utiliserait alors les données personnelles des citoyens en Europe afin de nourrir son modèle d’IA. Il s’agit au fait du Pathways Language Model 2. Déployé en 2023, ce PaLM 2 est entraîné sur une lourde quantité de données. Et c’est sur celui-ci que s’est appuyé la version plus puissante de , dévoilé en décembre de la même année.

La DPC veut donc savoir « si Google a respecté ses éventuelles obligations » de réaliser « une étude d’impact ». Et cela avant de traiter les données des utilisateurs en Europe pour ses projets d’IA.

Dans une communiquée, cette autorité irlandaise explique qu’une telle évaluation, « lorsqu’elle est requise », est essentielle pour s’assurer « que les droits et libertés fondamentaux des personnes » sont « protégés de manière adéquate ». Une exigence que la RGPD stipule.

En réponse, la porte-parole de Google a soutenu : « Nous prenons au sérieux nos obligations en vertu du RGPD et nous travaillerons de manière constructive avec la DPC pour répondre à leurs questions ».

Quand l’innovation bouscule les lois de l’UE

Les régulateurs, en particulier au sein de l’UE, cherchent depuis longtemps à imposer des limites aux grandes entreprises de la technologie. Surtout à propos de la concurrence et du respect de la vie privée.

Mais l’arrivée de ChatGPT, il y a deux ans, a déclenché une course sans merci dans l’arène de l’IA générative. Dans cette compétition, chaque entreprise tente ainsi de former ses modèles avec le plus de données possible. Et cela même au risque de se retrouver confrontée aux autorités.

Entre le 7 mai et le 1ᵉʳ août, le réseau social X a exploité les données personnelles de ses utilisateurs européens pour entraîner son IA, Grok. Mais suite à un rappel à l’ordre de la DPC, X s’est consenti à interrompre cette pratique.

Puis, en juin, après avoir reçu des plaintes dans 11 pays européens, Meta a dû stopper l’entraînement Llama. Cela s’est fait grâce à l’intervention de l’association autrichienne Noyb.

YouTube video

D’autre part, ce mardi 10 septembre, la justice européenne a rendu son verdict en condamnant Apple. Ce dernier doit restituer 13 milliards d’euros d’arriérés à Dublin. La société de Cupertino a déjà annoncé qu’elle ne déploierait pas son IA, Apple Intelligence, en UE.

Par conséquent, la tâche des régulateurs se complique encore et encore. Qui plus est, le secteur tire parti de la lenteur des procédures législatives et des recours judiciaires.

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *