IA : les législateurs comprennent-ils vraiment ce qu'ils essaient de réglementer ?

Avec l'arrivée de l'IA générative, les dirigeants se retrouvent à un carrefour entre le besoin de renforcement de la confiance du public dans la technologie et sa surveillance réglementaire.

Le vote du Parlement européen, le mois dernier, en faveur d'une réglementation de l'utilisation des systèmes d'intelligence artificielle dans l'ensemble de l'UE n'est qu'un des nombreux organismes gouvernementaux du monde entier de plus en plus nombreux à s’inquiéter des risques, éthiques et autres, associés à cette puissante technologie émergente. Il ne fait aucun doute que l'IA générative est là pour rester, et qu'une certaine forme de réglementation suivra. La question qui se pose maintenant est de savoir quelle sera l'ampleur de la réglementation nécessaire - ira-t-elle trop loin ou pas assez loin ? Les régulateurs comprendront-ils exactement ce qui doit être réglementé ?

Jusqu'à présent, une grande partie du débat public mené par les décideurs politiques a tourné autour des craintes futuristes de voir la technologie devenir consciente et se retourner contre l'humanité. Les prédictions catastrophistes mises à part, il y a de bonnes raisons de s'inquiéter : l'IA générative a encore de nombreux points à éclaircir. De réelles questions éthiques et les risques potentiels doivent être abordés, notamment son utilisation à des fins de discrimination, de diffusion de fausses informations ou encore d'atteinte à la propriété intellectuelle.

Les avertissements de Margrethe Vestager

Les priorités en matière de réglementation de l'IA doivent tenir compte des défis et menaces actuels liés à cette technologie, en particulier après les avertissements de Margrethe Vestager, responsable de la concurrence au sein de l'UE, qui déclare au sujet de l'intelligence artificielle : « la discrimination est une préoccupation plus urgente que l'extinction de l'homme ». C'est pourquoi de nombreux leaders technologiques, dont je fais partie, accueillent favorablement une forme de réglementation de l'IA et estiment qu'elle est nécessaire, en particulier avec les modèles d'IA générative qui se sont rapidement imposés au cours des derniers mois.

Néanmoins, quelles que soient les réglementations à venir, soyons clairs : elles ne suffiront pas à garantir l'utilisation sûre et responsable de l'IA générative dans les mois et les années à venir - et elles ne pourront pas suivre le rythme de l'innovation. Chaque dirigeant d'entreprise devra trouver un équilibre entre les opportunités économiques potentielles de l'IA générative et le devoir de créer son propre ensemble de lignes directrices, de pratiques et de cadres en matière d'IA responsable, ancrés dans les valeurs de l'organisation.

Nous nous tournons vers l'avenir et réglementons en fonction des possibilités, mais si nous n'avons pas été en mesure de comprendre les défis d'aujourd'hui, comment pouvons-nous agir en conséquence ?

Je pense que l'hyperbole actuelle de l'IA pourrait être une bonne chose, elle alimente la conversation. Comme beaucoup d'autres technologies émergentes avant elle, les risques potentiels liés à l'IA générative ont suscité une conversation animée dans le monde entier - et c'est une bonne chose. Cela signifie que nous restons attentifs aux risques réels de l'IA générative, notamment la crainte d'une désinformation au niveau du système, les préjugés et la discrimination, l'inquiétude concernant son impact sur les emplois existants et les préoccupations plus existentielles concernant ce que les capacités de raisonnement de l'IA générative disent de la définition même de l’être humain.

Nous devons continuer à rassembler tout le monde – universitaires, technologues, parents concernés, entrepreneurs, agences non gouvernementales, employés, consommateurs et décideurs politiques – pour discuter de l'impact potentiel de l'IA générative sur chacun d'entre nous.

Un potentiel inestimable

Il ne fait aucun doute que l'IA générative est un outil incroyable avec un potentiel inestimable. Si les grands modèles de langage à l'origine de ChatGPT (par exemple) ont dominé l'actualité, ils ne sont que l'un des nombreux modèles d'IA disponibles pour les entreprises et utilisés de manière fiable depuis un certain temps. C'est pourquoi la réglementation de l'utilisation de l'IA fournira des garde-fous, mais il existe un risque qu'ils soient trop génériques pour être efficaces ou trop vastes pour couvrir tous les scénarios et modèles d'IA possibles. En d'autres termes : aller trop loin (ou pas assez) peut avoir des conséquences.

Les dirigeants doivent aller au-delà de la réglementation pour créer des règles d'IA responsables qui favorisent la confiance et la transparence et qui disposent de processus clairs pour gérer les risques, les politiques et le contrôle - et cela doit commencer dès maintenant.

Les études montrent qu'il leur reste un long chemin à parcourir pour instaurer cette confiance. Aujourd'hui, seules 36 % des organisations ont une confiance totale dans la capacité de leur organisation à atténuer les risques et les dommages potentiels associés à l'IA. 48 % des organisations n'ont pas mis en place de lignes directrices et de politiques spécifiques pour régir les pratiques responsables en matière d'IA. Les organisations doivent également comprendre qu'à mesure que l'IA générative évolue, les cadres de l'IA responsable devront également évoluer. Pour se préparer pleinement à ce qui nous attend, les évaluations de l'état de préparation à l'IA sont essentielles, tout comme les cadres d'IA responsable clairement définis qui systématisent et opérationnalisent la gouvernance d'une organisation autour de son utilisation.

Que signifie réellement l'IA responsable ? Au fond, cela signifie qu'il faut faire confiance à la technologie. Les progrès de l'IA générative auront un impact humain considérable, et les conséquences involontaires risquent fort de créer des dilemmes éthiques pour lesquels le monde ne dispose pas encore de normes solides ou de précédents juridiques.

Si nous voulons minimiser le risque d’une IA générative partiale, nous devons mieux intégrer des personnes et des points de vue plus diversifiés à chaque étape, de son développement à l'examen des résultats qu'elle génère. L'IA générative, du fait de sa conception, est destinée à apprendre et à s'améliorer au fil du temps. Cependant, nous devons réintégrer ces apprentissages clés dans le modèle afin de garantir l'élimination des biais potentiels et du risque d'utilisation à des fins de discrimination à l'encontre des groupes sous-représentés. Cela signifie que nous devons accorder une attention encore plus grande aux domaines technologiques spécialisés, tels que l'IA, où le besoin d'une plus grande diversité se fait cruellement sentir.

Repérer les préjugés

L’impératif pour les dirigeants est clair : nous devons faire tout ce qui est en notre pouvoir pour rassembler des personnes d'origines, d'âges, d'expériences et de perspectives diversifiés lorsque nous développons et faisons progresser les nouvelles technologies, en particulier l'IA générative. Et nous devons veiller à ce que ces diverses perspectives soient également présentes à la table pour repérer les préjugés générés par l'IA et y remédier.   

Lorsque la part de développeurs qui élaborent des modèles et des solutions d'IA et analysent les données qu'ils produisent représente en grande partie un seul groupe ethnique, de sexe et d'âge, le risque de partialité et de discrimination dans les itérations futures est trop important. Comment l'industrie technologique peut-elle innover dans le domaine de l'IA si tout le monde vient d'un milieu similaire et pense de la même manière ? Lorsqu'il s'agit d'établir des garde-fous autour de l'IA générative, nous devrions nous inspirer du RGPD qui repose sur les principes de minimisation des données, d'équité, de transparence, et de responsabilité. Ces principes sont particulièrement pertinents pour les préoccupations relatives à la vie privée, à l'éthique et à l'IA.

À l'instar du RGPD, les lignes directrices sur l'IA devraient suivre un modèle d'IA responsable dès la conception, encourageant les entreprises à travailler de manière proactive pour répondre aux préoccupations en matière de vie privée et d'éthique au fur et à mesure du développement ou de l'adoption de la technologie. Le RGPD limite le traitement des données personnelles dans un contexte d'IA, ce qui peut éventuellement contribuer à créer la confiance nécessaire pour que l'IA soit acceptée par les consommateurs et les décideurs politiques chargés de la réglementer.

La question du DPO

Dans le cadre du RGPD, de nombreuses organisations doivent nommer un délégué à la protection des données pour garantir la conformité. Une approche similaire pourrait être adoptée pour l'IA générative. Les régulateurs pourraient envisager d'obliger les organisations qui développent l'IA à recruter un ambassadeur/responsable de l'IA qui supervise l'éthique, la gouvernance, les processus de changement et la communication en matière d'IA afin de guider les employés et de responsabiliser à la fois les dirigeants et l'organisation elle-même. Une telle mesure garantirait que les considérations éthiques sont intégrées dans toutes les initiatives de l'organisation en matière d'IA, ce qui permettrait d'atténuer les risques potentiels et de se prémunir contre les préjudices.

Nous devons reconnaître que nous sommes déjà dans un monde où l'IA occupe une place prépondérante et que la course est lancée pour réglementer son utilisation. Encourageons les normes internationales à aborder les problèmes réels inhérents à la technologie plutôt que les possibilités dystopiques afin que nous puissions renforcer la confiance avec nos employés, nos clients et nos communautés tout en répondant aux préoccupations réelles et valables que suscite l'IA. Ensuite, allons au-delà de ces réglementations avec nos propres engagements et actions pour être des gestionnaires responsables et éthiques de son utilisation aujourd'hui et à l'avenir.