Si l'erreur est humaine, ce n'est pas le cas de l'intelligence artificielle

Vous avez sûrement dû entendre parler de l'histoire d'une caméra alimentée par l'intelligence artificielle qui a confondu le crâne d'un arbitre avec un ballon de foot. C'est drôle, mais lorsque les bugs de l'IA conduisent à des accidents graves ou à des bavures, il faut s'en inquiéter.

Les bénéfices considérables garantis par l’IA ont favorisé l’adoption à grande échelle de cette technologie. On prévoit que les dépenses mondiales des entreprises dans ce domaine atteindront 50 milliards de dollars en 2020 et 110 milliards de dollars par an d’ici à 2024, malgré le marasme économique mondial induit par la pandémie, selon un rapport d’analyste de l’IDC d’août 2020. Bientôt, l’IA fera partie de la vie quotidienne de tous les êtres humains. Accordons-nous une attention suffisante aux dangers que représente le fait de laisser l’intelligence "artificielle" diriger nos vies ? Développons-nous une intelligence artificielle responsable ?

L’Europe a joué un rôle important dans la mise en place d’une approche de l’IA axée sur l’être humain par la mise en place d’un cadre réglementaire formel pour son utilisation éthique. Comment ces politiques se traduisent-elles sur le terrain, notamment pour les entreprises qui fournissent des services d’IA ou qui créent des plateformes et des applications basées sur l’IA ?

Instaurer un équilibre entre le renforcement des capacités humaines et les risques éthiques liés à la violation de la vie privée et à l’utilisation abusive des données

On utilise l’IA pour augmenter les capacités humaines, de la prise de décision optimale à l’amélioration des compétences. Cela suppose que les systèmes basés sur l’IA accèdent à des informations sur les individus, ce qui soulève certaines questions quant à la confidentialité des données. Le manque de visibilité sur les biais pouvant exister dans la vaste quantité de données que les concepteurs d’algorithmes utilisent pour construire les systèmes d’IA constitue un autre défi. Ces données sont souvent généralisées et peuvent entraîner des résultats faussés. Il est également possible de fabriquer des informations avec l’intention de les manipuler. Cela peut conduire à une utilisation abusive des données pour cibler des groupes d’utilisateurs spécifiques en vue de pratiques sociales illégales telles que la discrimination raciale.

Ces risques peuvent être évités en créant des normes et des lignes directrices internationales tels que la RGPD, en élaborant des solutions pour la détection et le contrôle de la fraude et en faisant appel à des ressources humaines si nécessaire. Il importe également de créer un climat de confiance pour que les utilisateurs se sentent à l’aise de partager leurs données et soient conscients des processus ou des utilisations auxquels elles seront destinées.

Supprimer des biais grâce à l’évaluation des données, à la vérification des algorithmes et à la formation

Les préjugés sur l’IA proviennent des humains qui transmettent eux-mêmes de leurs idées dans les données de formation qu’ils fournissent ou dans les modèles qu’ils construisent. Il est indispensable de procéder à une évaluation pragmatique des préjugés pour s’assurer que les systèmes basés sur l’IA disposent du "bon ensemble de données" dont ils peuvent tirer des enseignements. La confidentialité différentielle est une nouvelle approche qui comprend l’ajout de bruit aléatoire dans le mélange de données, de sorte que l’algorithme résultant peut être difficile à déchiffrer, même pour les pirates qui ont accès à des informations auxiliaires. Si des algorithmes de détection et d’atténuation des biais sont disponibles pour équilibrer les données, la meilleure façon de détecter une anomalie reste l’intervention humaine.

Le plus efficace des algorithmes de machine learning est celui qui peut s’autoformer et improviser à partir de nouvelles données réelles. Une fois l’algorithme développé, il doit être testé et retravaillé en fonction des résultats afin d’éviter tout déséquilibre sans affecter la capacité de prédiction de l’algorithme. Enfin, il est très important d’avoir une approche pluridisciplinaire, basée sur la recherche, pour construire les algorithmes.

Améliorer l’explicabilité grâce à une approche multidisciplinaire

L’explicabilité consiste à comprendre comment un modèle d’IA est arrivé à ses conclusions par rapport à un scénario donné. Dans quelle mesure le système d’IA est-il intelligent, transparent et explicable ? Peut-on faire confiance à ses résultats ?

L’explicabilité doit être définie selon trois parties prenantes : pour les concepteurs de systèmes, afin de comprendre le champ d’application des modèles ; pour les décideurs, afin de comprendre quels sont les facteurs de décision et de s’assurer de leur pertinence ; et pour les utilisateurs finaux, en termes de fiabilité, d’équité et d’impartialité.

Le modèle basé sur l’IA devrait apporter une aide à la décision à un humain en fournissant une recommandation basée sur une analyse du problème et une évaluation des risques qui reflète la confiance que le système a dans l’analyse en question. Il doit pouvoir indiquer comment il est parvenu à ladite conclusion, tout en révélant la raison de l’exclusion de diverses possibilités alternatives.

Sensibiliser aux risques liés aux données et protection contre les risques de sécurité

Comme pour la plupart des technologies numériques, une seule brèche ou un seul incident peut mettre en péril les données et donc les résultats obtenus par l’application d’une IA. De plus, en envoyant une série de requêtes préméditées à un modèle d’IA, il est possible pour un hacker de faire de la rétro-ingénierie d’informations sensibles dans l’ensemble de données. Pour résumer, les modèles d’IA créés à partir d’un ensemble de données font certaines hypothèses générales sur les données, laissant des zones d’ombre potentielles dans l’algorithme, que les pirates pourraient remarquer et dont ils pourraient tirer profit. Dans ce cas, l’identification de ces points faibles et la mise en œuvre des meilleures pratiques en matière de sécurité et de protection de la vie privée devient un mandat.