Pourquoi faut-il mettre en place un cadre réglementaire pour l'IA à l'échelle mondiale ?

Il est impératif de mettre en place un consensus mondial basé sur la gouvernance des données, la transparence et la responsabilité, pour une utilisation cohérente et éthique de l'intelligence artificielle.

La conception et l'utilisation de l'intelligence artificielle posent un dilemme éthique pour les entreprises qui envisagent de l'adopter. A l'heure actuelle, seules 6% des entreprises ont recours à des solutions basées sur l'IA dans l'ensemble de leurs activités. Pourtant, selon une étude de Juniper Networks, 95% des personnes interrogées pensent que leur entreprise intègre l'IA dans leurs opérations, produits et services au quotidien.

Si l'application de l'IA suscite un tel intérêt, pourquoi les entreprises mettent-elles autant de temps à s'y mettre ?  

L'un des défis auxquels les entreprises sont confrontées aujourd’hui est l’adoption d’une IA responsable. En effet, trois éléments liés à l’éthique préoccupent : la vie privée et la surveillance, les préjugés, ainsi que le rôle des différentes valeurs humaines dans la mise en œuvre de l'IA. Pour apporter des premiers éléments de réponses à ces préoccupations, des organisations des secteurs public et privé ont pris l'initiative de mettre en place des comités d'éthique et d'établir leurs propres principes pour développer une IA responsable. Ainsi, plus de 80 cadres éthiques pour l'IA existent aujourd’hui. Cependant, il est impératif de mettre en place un consensus mondial - basé sur la gouvernance des données, la transparence et la responsabilité – pour une utilisation cohérente et éthique de l’IA.

En premier lieu, la gouvernance des données aide l’entreprise à comprendre et à mieux gérer la disponibilité, la facilité d'utilisation, l'intégrité et la sécurité de ses données. Elle garantit que les résultats des systèmes basés sur l’IA au sein d'une entreprise maintiennent les plus hauts niveaux d'intégrité et de qualité des données, tout en préservant les données sensibles et les accès. Alors que le lieu de travail intègre de plus en plus de technologies modernes, des directives de gouvernance efficaces permettraient de garantir une réduction des risques et renforceraient la valeur des résultats analytiques de la technologie.

Ces dernières années, les leaders de la tech (notamment aux US) se sont également rapprochés des organismes gouvernementaux pour demander une plus grande transparence dans le développement et le déploiement des modèles d'IA, à la suite d'enquêtes antitrust et de réactions de plus en plus vives quant à l'utilisation de cette technologie par les grandes entreprises. Si certaines entreprises – telles que Microsoft, Google et IBM – ont déjà fait de l'IA responsable une priorité stratégique. L'adoption et mise en place d'un cadre éthique plus large permettrait d'alléger le fardeau associé à la mise en œuvre d'une technologie encore en pleine maturation. En identifiant l'ensemble des valeurs sur lesquelles tous les systèmes d'IA devraient s'aligner, et en renforçant la confiance des consommateurs à travers une communication claire des résultats attendus des décisions basées sur l’IA, il est possible de créer un précédent mondial qui permettra de résoudre le problème actuel de la responsabilité de l'IA.

Enfin, la responsabilité humaine est le dernier principe nécessaire à la réussite de la mise en place d’un cadre éthique mondial pour l'IA. La responsabilité en matière d'IA garantit que les concepteurs et les développeurs respectent les objectifs définis dans la charte de gouvernance et qu'ils assument leur responsabilité via une chaîne de commandement qui garantit que l'opérateur du système supervise les décisions prises par l'algorithme. Dire qu'une décision spécifique a été prise parce qu'un algorithme l’a recommandé ne représente pas une réponse satisfaisante pour le public ou pour les régulateurs. Des personnes et des organisations spécifiques doivent donc être tenues responsables.  

Bien que l'intérêt des clients pour les interactions basées sur l'IA ait considérablement augmenté depuis le début de la pandémie, les progrès réalisés pour résoudre les problèmes de confiance et d'éthique associés à cette technologie sont assez faibles. Il est temps pour les chefs d'entreprise et les responsables informatiques d'utiliser leur pouvoir de persuasion pour inciter les organismes de réglementation et les gouvernements à mettre en place un nouveau cadre à l’échelle mondiale reflétant les problèmes de partialité éthique et de transparence liées l'IA.

Même si certains doutent encore de la plausibilité d'un cadre éthique mondial, il y a des arguments à faire valoir en faveur d'un ensemble de lignes directrices qui inspireraient des pratiques cohérentes et exemplaires en matière d'IA. Cela ne sera toutefois possible qu’à travers la mise en œuvre de normes formelles, quel que soit le temps qu'il faudra pour les intégrer, ainsi qu’une coopération mondiale continue fondée sur une IA équitable et responsable.