L'IA de Google au cœur d'une enquête européenne sur les données personnelles
L'Union européenne pourrait imposer de nouvelles contraintes aux géants du numérique après l'ouverture d'une enquête portant sur les pratiques de collecte et d'utilisation des données personnelles dans le cadre du développement de l'IA.
Les tensions entre l'Union européenne et les grandes entreprises technologiques ne cessent de croître, et cette fois, c'est Google qui se retrouve dans le viseur des régulateurs. La Commission irlandaise pour la protection des données (DPC), agissant au nom de l'Union européenne, a ouvert une enquête sur la manière dont le géant californien utilise les données personnelles des utilisateurs européens pour alimenter son intelligence artificielle (IA). Cette initiative s'inscrit dans un contexte où les régulateurs tentent de contenir la montée en puissance de l'IA tout en veillant au respect des droits des citoyens européens.
L'enquête européenne : une réponse aux préoccupations sur les données
L'utilisation des données personnelles pour former des algorithmes d'intelligence artificielle n'est pas un sujet nouveau, mais il est devenu particulièrement brûlant depuis l'essor de l'IA générative.
Avec l'introduction de son modèle Pathways Language Model 2 (PaLM 2) en 2023, Google est accusé de ne pas avoir effectué les études d'impact nécessaires pour garantir la protection des droits fondamentaux des utilisateurs. Ce manquement présumé pourrait entraîner de lourdes conséquences pour l'entreprise, tant en termes d'image que de régulations futures.
La DPC, compétente pour représenter l'Union européenne dans cette affaire, cherche à savoir si Google a enfreint le Règlement général sur la protection des données (RGPD). En effet, selon la législation européenne, les entreprises doivent effectuer des études d'impact avant d'utiliser des données sensibles, notamment dans des contextes technologiques avancés comme l'intelligence artificielle.
Un modèle d'IA au centre des débats
Le cœur de l'enquête concerne donc le modèle d'IA PaLM 2, un algorithme de Google utilisé pour diverses applications, dont la traduction et l'assistance virtuelle. Ce modèle, alimenté par des volumes massifs de données, fait aujourd'hui l'objet de vives critiques en raison de la potentielle exploitation des informations personnelles sans consentement explicite des utilisateurs.
En décembre 2023, Google a introduit un autre modèle d'IA appelé Gemini, encore plus sophistiqué, ce qui a intensifié l'attention des régulateurs européens. La rapidité avec laquelle ces modèles se développent pousse les entreprises à s'appuyer sur des quantités de données toujours plus importantes, créant ainsi des tensions avec les régulateurs qui peinent à suivre l'innovation technologique.
Le défi des régulateurs face à la course à l'IA
Depuis l'émergence de ChatGPT et la popularisation de l'IA générative, les grandes entreprises technologiques se livrent une course effrénée pour dominer ce secteur. Comme le souligne La Tribune, chaque acteur, que ce soit Google, Meta ou X (anciennement Twitter), cherche à développer des modèles toujours plus performants, en exploitant des données massives.
Cependant, cette accélération de l'innovation met les régulateurs sous pression. L'Union européenne, en particulier, tente de ralentir ce phénomène afin de garantir que les avancées technologiques ne se fassent pas au détriment des droits fondamentaux des citoyens. Mais les lenteurs bureaucratiques et les recours judiciaires allongent considérablement les délais de mise en œuvre de nouvelles régulations.
Précédents et enjeux futurs
Google n'est pas la première entreprise à être ciblée par des régulateurs européens pour l'exploitation de données personnelles. En juin 2024, Meta avait déjà suspendu l'utilisation de données personnelles pour former son IA, suite à des plaintes dans 11 pays européens. Le réseau social X, détenu par Elon Musk, avait lui aussi été rappelé à l'ordre pour avoir utilisé les informations de ses utilisateurs européens sans leur consentement.
L'enquête actuelle sur Google s'inscrit donc dans une dynamique plus large visant à réguler les pratiques des géants de la tech. Les résultats de cette enquête pourraient servir de précédent pour d'autres entreprises du secteur, modifiant la manière dont les données personnelles sont utilisées dans le cadre du développement de l'IA.