Comment rendre éthique l’intelligence artificielle alors qu'on ne la contrôle pas à 100% ?

Les pouvoirs publics doivent commencer dès maintenant à s'interroger sur cette question clef.

Aujourd’hui, de plus en plus d’algorithmes formulent les recommandations et les suggestions susceptibles d’avoir un impact majeur sur nos vies. Que ce soit pour évaluer les compétences d’un candidat dans le cadre d’un processus de recrutement, de prédire les chances de récidive d’un délinquant, de mesurer les possibilités d’un accident ou le risque d’un crédit avant l’octroi d’un prêt, les algorithmes et les données alimentent dorénavant toute prise de décision.

Se pose alors naturellement le flot de questions qui s’inquiètent de la neutralité : en effet quelles garanties peut-on donner ? Les choix sont-ils biaisés ? Qui peut s’engager sur l’impartialité des résultats et certifier qu’aucun facteur de discrimination ne vienne se glisser dans l’élaboration d’une prédiction ou d’une recommandation ?

Ces dangers sont bien réels, mais ils ne peuvent pas pour autant occulter le fait que l’intelligence artificielle (IA), utilisée à bon escient, pourrait dans bien des situations aider à améliorer l’impartialité de décisions, parfois biaisées par des préjugés très humains !

Des données prédictives… sans valeur légale

Là où la science actuarielle mesure l’évaluation des risques dans le long terme par l’application de méthodes statistiques et mathématiques, nous pouvons aisément imaginer mettre l’IA au service d’un système prédictif. Prenons en exemple l’évaluation de la dangerosité d’un individu où la science actuarielle est déjà appliquée. Un système prédictif tiendrait compte de sa commune de résidence ou encore des antécédents judiciaires de certains membres de sa famille. Un tel système, pourrait se voir aisément reproché d’introduire des facteurs de discrimination inacceptables et ce, quand bien même aucun biais algorithmique (prédiction erronée de certaines caractéristiques) ni aucune donnée idéologiquement connotée ne serait à mettre en cause.

En des termes plus généraux, la question peut se formuler de la manière suivante : est-il légitime d’utiliser toutes les données qui ont un caractère prédictif dès lors que celles-ci sont neutres idéologiquement ? Même s’il existe probablement un vide juridique en la matière aujourd’hui, un principe de bon sens voudrait qu’il soit interdit d’exploiter à des fins prédictives toute donnée qui n’aurait par ailleurs aucune valeur légale devant un tribunal.

La reconnaissance d’images à grande échelle pourrait être exploitée par exemple pour croiser des informations récupérées auprès de sources diverses comme les réseaux sociaux pour rendre anonyme certaines informations. Là encore il existe probablement un vide juridique qu’il faudra combler en connaissance de cause.

Quelle responsabilité en cas d’incident ?

Dès lors que l’IA aura pris le pas et interviendra pleinement dans les transactions financières, le choix de la trajectoire d’un véhicule autonome face à un danger imminent ou bien même dans les systèmes militaires, le risque zéro serait quasiment impossible et les accidents malheureusement inévitables. Mais dans de telles circonstances qui pourrait en être tenu pour responsable : l’utilisateur du système ? Son concepteur ? L’autorité de certification qui aurait échoué à anticiper certains dysfonctionnements ?

Il devient évident alors que des difficultés juridiques surviendront. En effet, comment donner un sens à la notion de « préjudice prévisible » à laquelle font référence nombre de textes légaux alors même que les comportements d’une IA pourraient être, par nature, imprévisibles ? Qui aura la charge d’anticiper les dysfonctionnements d’une IA ? Autant de questions qui n’ont pas de réponses simples.

Probablement est-il impossible d’anticiper l’impact de l’IA sur la législation actuelle dans tous les domaines. Néanmoins, nous ne saurions que trop conseiller aux pouvoirs publics de commencer à y réfléchir dès aujourd’hui, au cas par cas. Prenons le cas des véhicules autonomes. L’IA aura potentiellement à faire un choix éthique impossible lors de situation potentiellement fatale. Quelle sera la bonne réaction à avoir alors qu’aucune vie ne vaut plus qu’une autre. Limiter le danger pour le passager ou la/les personne(s) mise(nt) en danger ?

Il y a fort à parier que tout accident impliquant une IA défraiera la chronique, quel que soient par ailleurs le niveau de fiabilité des systèmes. Assumer soi-même un risque relativement élevé est en effet psychologiquement nettement plus acceptable que de déléguer la gestion d’un risque, même minime, à un système automatique. L’intérêt général de sécurité pourrait en l’occurrence entrer en conflit avec nos instincts primitifs de survie individuels.

Face à ces risques inédits se profile la tentation d’une réglementation excessive qui pourrait se faire au détriment des capacités d’innovations des entreprises et du développement de leur sens des responsabilités. Un point sur lequel une vigilance toute particulière est de mise, en particulier chez nous en France.