Une loi pour réguler l'IA suscite une levée de boucliers au sein de la Silicon Valley
La proposition SB 1047 entend limiter les risques posés par les systèmes d'IA les plus puissants en imposant des procédures de sécurité aux entreprises et en donnant le pouvoir à l'État de poursuivre les développeurs peu scrupuleux.
La Californie, qui se trouve à la pointe de l'intelligence artificielle aux États-Unis, pourrait bientôt également montrer l'exemple en matière de régulation. La législature de l'État doit se prononcer sur la loi SB 1047, qui entend réguler une industrie actuellement en plein boom avec l'essor de l'IA générative. Son objectif : limiter les usages néfastes de l'IA et contraindre les entreprises leaders du domaine à plus de transparence.
Si elle est adoptée, la proposition obligerait notamment les acteurs à tester les systèmes d'IA dont les coûts de développement excèdent 100 millions de dollars avant de les rendre accessibles au public. Un seuil qui permettrait de cibler les modèles de fondation, utilisés pour entraîner des IA génératives comme ChatGPT. Une agence publique serait créée pour concevoir ces tests et assurer leur supervision. Les systèmes d'IA générative ayant une composante imprévisible, liée à la façon dont ils interagissent avec les utilisateurs, l'objectif est d'identifier les risques en amont pour les traiter à la racine.
La loi donnerait également au Procureur général de l'État de Californie la possibilité de poursuivre les développeurs de modèles d'IA causant des "dommages critiques", pour lesquels la loi place toutefois la barre assez haut. Il faudrait, par exemple, que l'IA déclenche une attaque nucléaire, chimique ou biologique causant un grand nombre de morts, ou commette une cyberattaque créant plus de 500 millions de dollars de dégâts.
Enfin, la loi requerrait par ailleurs des développeurs qu'ils mettent en place un protocole permettant de désactiver un modèle d'IA à n'importe quel moment, un "kill switch" réclamé de longue date par ceux qui mettent en garde contre les dangers de l'IA. Elle accorderait enfin des protections aux lanceurs d'alertes.
La Silicon Valley vent debout contre la loi SB 1047
La plupart des entreprises leaders de l'IA (dont Alphabet, Meta, OpenAI, Anthropic, Apple et Amazon) sont membres de TechNet, un lobby qui s'est publiquement opposé à la loi. Alphabet et Meta ont également pris séparément position contre celle-ci. Parmi les détracteurs, on compte en outre Andreessen Horowitz, ou a16z, l'un des fonds d'investissement en capital-risque les plus puissants de la Silicon Valley, qui a dénoncé la proposition dans une tribune parue dans le Financial Times. OpenAI, dont le dirigeant, Sam Altman, avait pourtant pratiquement supplié le Congrès américain de réguler l'IA, fait aussi partie des opposants à la loi SB 1047. Fei-Fei Li, Andrew NG et Yann LeCun, trois personnalités stars du monde de l'IA, le dernier étant un français à la tête de la recherche sur l'IA chez Meta, ont aussi fait part de leur opposition.
La plupart des critiques se concentrent sur deux aspects. En régulant trop fort, trop tôt, la loi risquerait de tuer l'innovation dans l'œuf, cassant la belle dynamique à l'œuvre en Californie, en particulier dans la Silicon Valley. Dans une lettre adressée à Scott Wiener, l'élu californien qui est aux manettes pour faire adopter la proposition, Jason Kwon, en charge de la stratégie chez OpenAI, déclare ainsi qu'elle "menace le statut unique de la Californie comme leader mondial de l'IA" et risque de "ralentir le rythme de l'innovation, et de conduire les ingénieurs et entrepreneurs de classe mondiale à quitter l'État en quête d'une meilleure opportunité ailleurs."
D'autres affirment que la perspective de poursuites en justice pourrait dissuader les géants technologiques de partager le code de leurs IA avec la communauté des développeurs, tuant ainsi la pratique de l'open source dans l'IA et favorisant les gros au détriment des petits. Un argument qui sonne tout de même un peu faux quand on sait que certains des opposants à la loi, comme OpenAI, n'ont justement pas opté pour l'open source, et sont de grosses entreprises déjà bien en place. En outre, la loi ne s'applique qu'aux modèles dont le développement coûte plus de 100 millions de dollars, une somme de toute façon hors de portée des start-ups et des développeurs indépendants.
Les soutiens de la loi
La proposition compte également son lot de soutiens, notamment parmi les communautés des chercheurs spécialisés dans l'IA : Geoffrey Hinton, un ancien de Google, et Yoshua Bengio, professeur à l'Université de Montréal, qui mettent régulièrement en garde contre les dangers d'une IA non régulée, ont ainsi pris position en sa faveur.
Parmi les soutiens de poids, citons encore Elon Musk, qui avait cofondé OpenAI afin de permettre l'émergence d'une IA ouverte et éthique, avant d'en claquer la porte suite à des désaccords quant à l'orientation que prenait la société. Dans un message publié sur X (ex Twitter), Musk a déclaré que "la Californie devrait passer la loi SB 1047", ajoutant : "Depuis plus de 20 ans, j'ai défendu l'idée d'une régulation de l'IA, tout comme nous régulons n'importe quel produit ou technologie posant un risque pour le public."
Une première aux États-Unis
Alors que l'Union européenne a adopté l'AI Act au printemps, les États-Unis n'ont pas encore mis en place de régulation à l'échelon fédéral, et il est peu probable que ce soit le cas dans un futur proche. Le Congrès américain, hautement divisée entre républicains et démocrates, qui peinent à trouver des terrains d'entente, n'a en effet passé aucun projet de régulation ambitieux sur la tech depuis des années, à l'exception de la loi contre TikTok votée plus tôt dans l'année.
La Californie a donc décidé de prendre les choses en main, tout comme elle l'avait fait en votant sa propre loi sur la protection des données et la neutralité du net. Dans les deux cas, ces lois avaient ensuite fait des émules dans plusieurs États, il est donc probable que ce soit de nouveau le cas avec cette loi sur l'IA. Une autre loi californienne (celle-ci beaucoup moins controversée) est actuellement en passe d'être votée afin d'instaurer le watermarking pour les contenus créés par l'IA.