L'IA deviendra légitime quand elle sera certifiée
Alors que la Commission Européenne a dévoilé sa feuille de route sur l'intelligence artificielle et que ce sujet est dorénavant au cœur de la stratégie numérique des Etats membres, le point sur la problématique de certification des IA.
La Commission Européenne a enfin dévoilé sa feuille de route pour l’intelligence artificielle. Consciente des bouleversements sociétaux et économiques qu’elle provoque et l’enjeu pour la souveraineté et la compétitivité de l’Union européenne, l’IA est officiellement au cœur de la stratégie numérique des Etats membres.
C’est bien la nécessité de créer et de garantir un cadre législatif commun que met en avant la Commission dans son rapport présenté le 19 février. Il s’agit désormais d’entamer un travail de réflexion et de se poser les bonnes questions pour y parvenir. Comment peut-on créer un cadre solide et de confiance autour d’une technologie qui n’a, à ce jour, pas encore été certifiée ? Comment peut-on déployer une stratégie en matière de données si celles-ci proviennent d’outils et de services qui utilisent une IA qui ne soit pas “normalisée” au préalable ?
Une économie qui se construit autour de l’IA
Le plus courant aujourd’hui et qui se développe de plus en plus rapidement, ce sont des solutions spécialisées pour assister ou remplacer l’homme dans des tâches intellectuelles et ce, dans tous les secteurs : dans la santé avec des supports d’aide à la détection de cancer en radiologie, des recommandations d'achat sur des sites de e-commerce, des solutions pour le tri des CV dédiées aux services de ressources humaines, etc. Comme les robots physiques sont dédiés à une tâche pour la remplir mieux que nous (vitesse, précision, répétition, etc...), les IA spécialisées sont des robots virtuels qui ont vocation à décider mieux que nous. Notre environnement professionnel, social et culturel se numérise et de nombreuses applications vont émerger qui auront pour ambition de décider "la vérité".
Et si cette application a un potentiel impact éthique, nous pouvons imaginer que sa légitimité va dépendre de son niveau d’intégrité intrinsèque : mais comment le garantir ?
Rechercher la justesse et non la vérité
Je dirige une société qui développe une solution dédiée à l’optimisation des processus de production automatisés dans l’industrie. Afin de pouvoir "apprendre" et proposer des actions d’ajustement des paramètres de pilotage des machines, nous utilisons une technologie de calculs basée sur des probabilités qui fait partie de la catégorie de l’Intelligence Artificielle. Quelle est la légitimité de notre solution ? En quoi les modifications de réglages de paramètres que nous proposons sont "vraies" ? La réponse tient en deux points : la performance de recommandation de notre système repose sur la qualité des données historiques. Ensuite, les algorithmes que nous utilisons sont basés sur des formules de recherche d’optimum probabiliste qui sont explicables mathématiquement. D’autres sociétés développent des applications avec la même démarche de légitimité par la justesse. Je ne parle plus de vérité mais bien de justesse.
En revanche, beaucoup d’applications actuelles mises sur le marché utilisent d’autres technologies dont celles centrées sur une technologie d’apprentissage : les réseaux de neurones. Beaucoup de chercheurs et d’ingénieurs se sont lancés dans l’utilisation avancée de cette théorie en espérant faire des miracles. Mais point de miracle pour des résultats très médiocres : un taux de précision faible pour une consommation énergétique pharaonique. Pourtant des applications utilisent quotidiennement des réseaux de neurones entraînés, c’est le cas du fil d’actualité de Facebook ou le classement personnalisé réalisé par Google News. Et là on touche le deuxième point sensible : entraînés sur quelles données ? Sur leur analyse il n’y a pas de système numérique industriel mais des personnes qui viennent qualifier les données à la main. Parfois ce sont des spécialistes (comme les radiologues dans la santé), mais souvent ce sont des anonymes non experts, embauchés à la mission sur les plateformes. Donc on utilise des systèmes apprenants peu performants, soumis à beaucoup d’erreurs, entraînés sur des données dont on ne maîtrise pas la réelle qualité. Comment peut-on faire confiance à de telles solutions ? Leurs biais de conception ou d’apprentissage les rendent au mieux inutiles, au pire dangereuses.
Nous ne devons pas rester naïfs, hypnotisés par les bonimenteurs. Soit un système apporte une vraie justesse estimable et nous fournit une réelle aide dans nos tâches, soit il est tout simplement inacceptable par manque de qualité. Qui voudrait voler dans des avions non fiables ? Les objets que nous utilisons ont un niveau minimum de certification. La nourriture industrielle que nous consommons, beaucoup des services que nous utilisons sont contrôlés et certifiés. Il faut sortir du fantasme numérique, et rapidement considérer les IA comme des outils, et offrir aux utilisateurs un moyen d’identifier la qualité de justesse de ces outils. La Commission européenne vient d’ouvrir la voie, il est désormais tant qu’elle s’y engouffre complètement pour établir rapidement un système d’évaluation et de certification des IA à l’échelle des Etats membres. Après avoir commencé à protéger nos données avec la mise en place du RGPD, il faut continuer en nous protégeant de leur utilisation médiocre. Sans légitimité l’IA devient un vrai danger.