Éthique et immunité contre l'apprentissage antagoniste : deux challenges pour l'IA en 2021

L'adoption du machine Learning était déjà une réalité avant la crise sanitaire, mais, dans beaucoup d'entreprises, le Covid-19 a accéléré les choses. Bien que ces technologies soient porteuses de nombreuses opportunités, 2020 a mis en évidence leurs limites.

Plus que jamais, les organisations du monde entier voient, dans les approches modernes de l’automatisation et du traitement des données, des opportunités d’optimiser leurs ressources, de réduire les coûts et d’augmenter leur compétitivité. Pourtant, 2020 a aussi mis en exergue les limites des technologies d'IA et les challenges qu’elles doivent relever pour s’implanter durablement dans le quotidien.

Les algorithmes complexes se sont démocratisés dans tous les secteurs d’activité. Les grands fournisseurs de cloud proposent désormais tous des plateformes matérielles et logicielles qui rendent l’IA et le ML (machine learning) accessibles à leurs clients. L’IA as a service devient une réalité commerciale et les atouts de ces technologies sont maintenant bien ancrés dans l’imaginaire de l’entreprise. Cependant, pour accéder au rang de produits de "grande consommation", deux défis majeurs restent à relever.

La menace de l’apprentissage antagoniste

La menace du sabotage des IA est une réalité. Encore minime l’année dernière, elle est devenue sérieuse cette année et doit être résolue par l’industrie dès 2021.  La naïveté de l’IA sur les données qui la nourrissent et la font grandir est à ce jour une de ses limites les plus flagrantes. En contaminant les données qui sont le socle de son apprentissage, on peut parfaitement "empoisonner" les résultats d’un processus. Les algorithmes de machine learning font par essence confiance aux données à partir desquelles ils apprennent. Aujourd’hui, l’industrialisation des processus d’IA n’a pas assez pris en compte l’éventualité de données antagonistes dans les phases d’apprentissage. Les chercheurs et spécialistes vont devoir trouver des moyens robustes de rendre les modèles plus résistants aux antagonistes, plus conscients d’eux-mêmes. La présence croissante de processus IA dans les systèmes fait croître la surface pour ce type d’attaques, d’autant plus que la consolidation accrue des services d’IA et l’émergence d’un petit nombre de fournisseurs avec des modèles performants au détriment d’une grande variété accentuent le risque, de la même manière que l’hégémonie de Windows a, pour un temps, concentré les efforts des cybercriminels sur l’OS de Microsoft.

Plus le marché se consolide autour de quelques plateformes de service IA as a service, plus la motivation est grande pour les hackers d’y trouver des failles. Face à ce constat, l’industrie doit consacrer des ressources au développement d’algorithmes immunisé contre ces attaques.

Biais, éthique et formation des ingénieurs et data scientists 

Si on accepte de confier un nombre croissant de décisions importantes aux algorithmes, il faudra parvenir rapidement à une maîtrise plus précise de la manière dont ils les prennent. La vision parfois utopique de l’IA, des résultats justes et équitables, produits par l’examen impartial de données objectives, omet un détail important. Ce sont des êtres humains faillibles et biaisés qui construisent les algorithmes et déterminent les jeux de données sur lesquels ils s’entraînent.

Des exemples notoires de ces biais ont déjà été exposés cette année dans les médias. L’apprentissage biaisé est une réalité et les exemples de détournements volontaires ou non d’un système d’IA pour le soustraire à l’objectivité et l’impartialité s’accumulent.

Au mois de juillet, un article du Royal Society Open Science abordait la question de "l’optimisation contraire à l’éthique" et des méthodes mathématiques de détection et d’élimination de ces biais. C’est un champ de recherche qui va sans doute prendre de l’importance. Ceci dit, bon nombre de spécialistes considèrent qu’il est impossible d’éliminer entièrement toute forme de biais et que le mieux que l’on puisse espérer est qu’une IA soit consciente de se ces biais, les signalent et les expliquent à l’humain lorsqu’ils se produisent.

Un exemple flagrant est celui d’un processus d’IA de traitement des demandes de prêt immobilier qui a développé un biais raciste alors même que ce n’était pas l’intention de ses créateurs. C’est simplement le résultat accidentel des données utilisées pour entraîner l’algorithme. Vous ne pouvez pas apprendre à un algorithme à "reconnaître les critères raciaux sans en tirer des jugements. Il sera donc crucial d’expliquer ces biais."

Si nous parvenons à comprendre comment un modèle algorithmique produit un résultat répréhensible, nous pourrons plus rapidement l’ajuster pour produire des conclusions plus justes et plus correctes. Est-ce que les données d’entraînement étaient biaisées parce qu’elles ne reflétaient pas précisément la composition ethnique et de genre de la société ? Est-ce qu’un jeu de données particulier comporte des biais sociétaux que le modèle vient renforcer ? Est-ce que d’autres jeux de données pourraient contribuer à produire une image plus fidèle de notre société et donc des résultats qui correspondent mieux aux valeurs d’une entreprise ou d’une communauté ?

La capacité à expliquer et auditer les biais peut nous aider à corriger les modèles erronés le moment venu, mais le véritable enjeu réside dans la prise en charge des questions éthiques dès les premières étapes de la création d’un modèle, avant qu’il ne dévie.

C’est avant tout une problématique d’éducation. Les cursus qui forment les futurs ingénieurs en informatique et data scientists doivent inclure ces notions. Plus importants encore, nous voyons déjà des partenariats conçus pour prévenir ces biais malheureux. Les ingénieurs doivent collaborer avec des spécialistes de l’éthique, des économistes et des sociologues pour comprendre les implications sociétales de certains modèles et s’assurer de leur impartialité.

Nous ne pouvons pas attendre de chaque ingénieur informatique qu’il soit aussi sociologue, urbaniste, activiste communautaire ou philosophe, mais nous pouvons faire en sorte qu’il sache travailler et échanger avec toutes ces personnes pour parfaire la création de modèles IA et ML.

Ces consultations, et le simple fait de prendre en compte un large spectre de conséquences signifient qu’il faudra aussi que les entreprises soient capables d’investir le temps nécessaire pour réfléchir attentivement à ces questions.

C’est malheureusement contradictoire avec un des mantras de la Silicon Valley : "move fast and break things" (en français, allez vite et cassez des choses). La culture d’entreprise de la Silicon Valley pousse à agir vite pour rester au sommet, particulièrement dans un domaine qui évolue aussi vite que l’IA. Il lui faudra apprendre à agir vite sans faire de dégâts.

L’IA a véritablement le potentiel de devenir une technologie miracle

En puisant des informations parmi les données et en agissant ensuite automatiquement, l’IA et le ML sont susceptibles de transformer toutes les interactions numériques de nos vies et elles sont de plus en plus nombreuses. Avec l’avènement des tendances dont nous venons de parler (des algorithmes éthiques capables de résister à des antagonistes et d’apprendre par eux-mêmes), nous allons voir les IA agir de plus en plus comme des humains, et prendre des décisions et des mesures plus réfléchies.

Les humains auront toutefois encore beaucoup à faire dans un monde transformé par les IA. Le marché de l’emploi sera profondément modifié. Les entreprises ont tout intérêt à revoir dès maintenant la formation de leurs collaborateurs et à se concentrer sur la valeur ajoutée de l’humain. La formation interne aux nouvelles méthodologies, techniques et technologies sera sans doute cruciale.

En mai, un article de McKinsey indiquait que la pandémie de Covid-19 illustrait les effets d’un changement brutal sur les travailleurs, et soulignait la nécessité de la formation dans un monde où les entreprises doivent adapter leurs employés à des rôles en évolution constante. Cette dynamique va au-delà du télétravail ou même du rôle de l’automatisation et de l’IA. Les dirigeants vont devoir enrichir et élargir les compétences de leurs collaborateurs pour délivrer de nouveaux modèles commerciaux dans l’ère post-pandémie. Pour relever ce défi, les entreprises doivent élaborer une stratégie de talent axée sur le développement des compétences numériques et cognitives cruciales de leurs employés, leurs compétences sociales et émotionnelles, ainsi que leurs facultés d’adaptation et de résilience. Il est maintenant temps pour elles d’augmenter leurs budgets de formation et de s’engager sur la voie de la requalification. Le développement de cette dynamique renforcera également les entreprises face aux futures perturbations du marché.