La Californie adopte une loi inédite de régulation de l'intelligence artificielle
La Californie devient le premier État américain à imposer un cadre légal strict aux géants de l'intelligence artificielle. Le gouverneur Gavin Newsom a promulgué la loi SB53, qui encadre le développement des modèles les plus avancés au moment où les investissements explosent dans la Silicon Valley.
Transparence et sécurité au cœur du texte
Selon Le Monde, la loi SB53 oblige les entreprises à rendre publics leurs protocoles de sécurité, à signaler tout incident grave dans un délai de quinze jours et à protéger les lanceurs d'alerte. Elle impose également de déclarer les comportements trompeurs ou dangereux détectés lors des tests, notamment si un modèle parvient à contourner les contrôles censés limiter les risques liés aux armes biologiques ou nucléaires.
Pour Gavin Newsom, il s'agit de trouver un équilibre "qui aide l'État de Californie à encourager l'innovation tout en protégeant la sécurité publique". La transparence exigée va plus loin que le cadre européen : alors que l'IA Act limite la transmission des informations aux autorités, la loi californienne rend les protocoles accessibles publiquement.
Cette législation est issue d'un long processus. En 2024, un premier projet porté par le sénateur démocrate Scott Wiener avait été rejeté par le gouverneur, jugé trop défavorable à l'innovation. Un an plus tard, le texte a été remanié avec l'aide d'un groupe d'experts, dont Fei-Fei Li, chercheuse à Stanford surnommée la "marraine de l'IA". En juin, ce collectif avait alerté sur "des progrès inquiétants dans toutes les catégories de menaces", appelant à une réaction rapide.
Une réponse locale à l'absence de régulation fédérale
La promulgation de la loi SB53 intervient après l'échec de l'administration Trump à bloquer toute régulation au niveau des États. Washington craignait qu'un encadrement trop strict ne ralentisse la course technologique face à la Chine. La Californie a choisi de tracer sa propre voie, confirmant son rôle de pionnière dans les débats mondiaux sur l'IA.
Avant même cette loi, plusieurs entreprises californiennes, dont Google, Meta, OpenAI et Anthropic, avaient pris des engagements volontaires de transparence et de sécurité. Désormais, ces pratiques deviennent des obligations légales. Pour Scott Wiener, ce cadre a l'avantage de "rendre publics les protocoles de sécurité", une exigence inédite à l'échelle mondiale.
Présentée comme une première, la régulation californienne cherche à concilier l'essor rapide de l'IA et la protection de la sécurité publique. Elle place la Silicon Valley sous une surveillance renforcée tout en envoyant un signal clair : l'innovation doit désormais s'accompagner d'une transparence obligatoire.