Royaume-Uni : une loi pour adapter les droits d'auteurs à l'ère de l'IA suscite de vives controverses
Le Parti travailliste britannique, élu en juillet 2024 sur un programme pro-croissance et technophile, entend fournir un cadre pour permettre aux entrepreneurs de l'IA générative d'entraîner leurs algorithmes sans risquer d'enfreindre les lois sur la protection des droits d'auteur.
Une nouvelle proposition de loi vise ainsi à résoudre le casse-tête juridique posé, au Royaume-Uni comme ailleurs, par les modèles d'IA générative entraînés sur des données protégées. Soutenue par la majorité travailliste, elle permettrait aux entreprises de la tech d'utiliser des données sous droit d'auteur pour entraîner leurs algorithmes, à moins que les artistes concernés n'aient spécifiquement indiqué qu'ils refusaient cet usage. La loi britannique fonctionne normalement de manière inverse: elle interdit par principe l'usage de tout contenu protégé à moins d'avoir obtenu l'autorisation de la personne ou de l'organisme concerné. Le gouvernement entend ainsi donner davantage de garanties aux entrepreneurs de l'IA. "L'incertitude en matière légale décourage l'investissement dans l'IA et l'adoption de cette technologie", a déclaré un porte-parole du gouvernement.
Le très technophile gouvernement travailliste
Le gouvernement entend ménager la chèvre et le chou, concilier les intérêts de l'industrie de la tech britannique et ceux des artistes du royaume, qui forment deux communautés aussi puissantes que dynamiques. "Nous avons le troisième plus gros marché de l'IA au monde et la deuxième plus grosse industrie des arts créatifs. Mon objectif n'est ni de les monter l'un contre l'autre, ni d'avoir à choisir entre les deux", a déclaré Peter Kyle, le secrétaire d'Etat britannique à la Science, à l'Innovation et à la Technologie. "Notre but est de faire en sorte que les deux secteurs soient parés pour le futur et l'ère numérique, capables d'y bénéficier de droits, de protection et d'y gagner de l'argent."
Le parti travailliste, qui a largement remporté les élections en juillet 2024, avait fait campagne sur un programme technophile, proposant notamment d'accélérer la construction de centres de données géants pour nourrir la croissance de l'industrie locale de l'IA. Le Royaume-Uni constitue le premier écosystème de start-up européen, avec en particulier un secteur fintech très dynamique. Mais aussi une excellence autour de l'IA, servie notamment par des universités de pointe comme Oxford, Cambridge et l'University College London, dont est issu le fondateur de Deepmind, pépite de l'IA rachetée par Google en 2014.
En janvier, pour répondre à ses promesses de campagne, le gouvernement a publié un "Plan d'action pour les opportunités autour de l'IA", appuyé sur les recommandations de l'investisseur britannique Matt Clifford, qui propose de fortement accélérer la quantité de puissance informatique "souveraine" disponible au Royaume-Uni. Est notamment prévue la création de plusieurs centaines de "zones de croissance de l'IA", bénéficiant de régulations allégées et de procédures administratives accélérées pour sortir rapidement des centres de données du sol.
Une loi loin de faire l'unanimité
La nouvelle réglementation sur l'IA générative et les droits d'auteurs s'inscrit donc dans un projet de croissance cohérent. Toutefois, Peter Kyle a pour l'heure créé précisément la situation qu'il dit vouloir éviter, à savoir une vive opposition entre le monde de la tech et celui des artistes et créateurs. La proposition de loi a en effet été favorablement accueillie par le premier et très froidement par les seconds. TechUK, principal lobby de la tech britannique, affirme "accueillir favorablement l'engagement du gouvernement en faveur d'une solution susceptible de créer un environnement compétitif et favorable au secteur de la tech et aux créatifs". Du côté des artistes, en revanche, le son de cloche est tout autre. Paul McCartney a confié au Guardian que la loi devrait selon lui empêcher l'IA d'exploiter les créations des écrivains et des musiciens, sous peine de voir celle-ci les priver de leurs revenus.
"Les Big Tech doivent payer pour les contenus créatifs qu'ils exploitent afin d'entraîner leur IA, tout comme ils paient pour l'électricité et autres coûts liés au fait de diriger une entreprise qui respecte la loi", affirme pour sa part Dan Conway, à la tête de la Publishers Association, un lobby représentant plus de 150 éditeurs britanniques. Owen Meredith, directeur général de la News Media Association, qui défend les intérêts des media, nous confie pour sa part que "le plan du gouvernement consistant à affaiblir la protection des droits d'auteur en faveur des plateformes d'IA risque de torpiller notre secteur créatif de classe mondiale, qui contribue pour plus de 120 milliards de livres sterling à l'économie britannique chaque année." Depuis que le gouvernement a fait part de sa proposition, la plupart des médias britanniques, tous bords politiques confondus, affichent un bandeau sur leur site appelant à se mobiliser contre celle-ci.
Un membre d'un lobby protégeant les artistes et créateurs de contenu nous confie de son côté, sous couvert d'anonymat, que "la proposition du gouvernement n'a guère de sens : elle requiert des artistes qu'ils expriment leur refus de voir leur travail utilisé, mais le fonctionnement des algorithmes d'IA étant ce qu'il est, ils ne sont dans l'écrasante majorité des cas pas informés du fait que leur travail est utilisé."
Beeban Kidron, une élue indépendante et réalisatrice britannique, s'est faite la porte-parole des artistes et créateurs de contenus que la nouvelle loi inquiète. Elle a proposé une série d'amendements qui imposeraient aux entreprises de l'IA le respect de la loi britannique, où qu'elles soient basées, et permettrait aux personnes et entreprises protégées par les droits d'auteur de savoir quand, où et de quelle manière leur travail a été utilisé par des algorithmes. Elle imposerait également aux entreprises utilisant des web crawlers pour récupérer des données protégées par le droit d'auteur sur le web d'être parfaitement transparentes à cet égard.
"Nous avons un excellent système de droits d'auteurs, vieux de plus de 300 ans, que les entreprises de la tech et le gouvernement qualifient de "peu clair". Mais ce n'est pas le cas, il est tout à fait clair" a-t-elle affirmé pour défendre ses propositions. "Mes amendements obligeraient les entreprises à déclarer quand et où elles utilisent du matériel protégé par les droits d'auteur. Ils rendraient notre protection des droits d'auteur adaptée à l'ère de l'IA et imposerait à la tech de remplir ses devoirs."
Des débats houleux dans le monde entier
Les débats agités autour de l'usage par les entreprises de la tech de contenus protégés par les droits d'auteur pour entraîner leurs algorithmes d'IA est loin d'être confiné au Royaume-Uni. Plusieurs procès ont été lancés par des créateurs de contenus de tous horizons contre les entreprises de l'IA, dont un, très médiatique, opposant le New York Times à OpenAI.
Aux Etats-Unis, par exemple, l'usage de contenus protégés par des droits d'auteur sans autorisation préalable est permis lorsque celui-ci est "équitable", une qualification assez floue qui ouvre un fort potentiel de litiges. Elle conduit dans la pratique les entreprises à brasser toutes sortes de contenus protégés et à signer des accords avec les grands media (ce qu'ont fait par exemple Google et OpenAI) pour éviter les procès. Une logique qui tend toutefois à laisser les petits sur le côté, qui n'ont pas les moyens de poursuivre d'aussi gros poissons en justice. Dans l'UE, l'IA Act prévoit depuis l'an passé une obligation pour les fournisseurs de modèles d'IA de prendre des mesures visant à respecter le droit d'auteur.