Quelle éthique à l'ère de l'intelligence artificielle ?

Le début des années 2020 aura marqué un tournant en matière de réglementation sur l'intelligence artificielle. Tous les acteurs du secteur y vont de leur proposition pour faire cohabiter IA et éthique.

En matière d’intelligence artificielle (IA) c’est clairement l’époque de l’éthique. Lobbyistes, géants de la ‘tech’, think tanks et autres groupes de réflexion, analystes et cabinets de conseils, instituts de recherche publics et privés, groupes parlementaires, états souverains, institutions internationales… Chacun s’engage à apporter son offrande sur l’autel pour consentir à l’union durable de l’éthique et de l’IA.

Il faut certainement s’en réjouir et saluer ces initiatives. Mais l’époque de l’éthique ne serait-elle pas aussi un peu victime des tics de l’époque ? Cela dépend, et, parfois, cela nous dépasse.

Tout d’abord, et ce n’est pas spécifique à l’intelligence artificielle, l’éthique et la science se sont souvent affrontées sur le plan des idées. L’éthique, sujet millénaire s’il en est, reste, en effet, un domaine sur lequel tout le monde semble d’accord pour en admettre les principes sans toutefois lui porter toujours le même regard.  Si l’éthique semble n’être jamais négociable, elle reste un sujet de débat, inévitablement inscrit dans une époque et un contexte. 

La pandémie nous a douloureusement rappelé la difficulté d’une décision politique qui se veut rationnelle et éthique quand elle est éclairée par des positions sinon divergentes, du moins majoritairement plongées dans l’incertitude. Et qu’elle fait face, de surcroit, à une opinion publique qui ne sait plus à quel saint se vouer.

De ce fait l’éthique de l’époque, qui se rêvait universelle, devient de plus en plus soluble dans une éthique de précaution.  Par ignorance ou incompétence des uns ou des autres, ou plus couramment par simple aversion au risque.

L’éthique de l’époque 

Tic de l’époque ? Entre promesses de progrès et risques jugés a priori non anticipables ou incontrôlables, de nombreuses questions sont ainsi souvent prétranchées au nom du principe de précaution par force lois et règlements.

La Commission Européenne a ainsi posé les bases d’un règlement harmonisé relatif à l’intelligence artificielle qui se propose de promouvoir des applications de l’IA fondée sur l’excellence, la confiance, et le respect des droits fondamentaux des citoyens.

En identifiant et classifiant les risques et dérives associés à certains usages de l’IA et en imposant des règles préalables à leur mise en œuvre, l’approche vise à établir une voie européenne originale qui s’imposerait, par la magie de l’effet ‘Bruxelles’, aux leaders américains et asiatiques.

Un label ‘CE’ adapté à l’IA en quelque sorte. Une étiquette de conformité auxquels les acteurs devront consentir pour accéder au marché européen. Au risque, certes, de ralentir, et, en tout cas de renchérir l’innovation et les progrès sur ce domaine. Au risque, aussi, de les bloquer, voire peut-être, de nous priver de ruptures technologiques majeures susceptibles de répondre à nos enjeux les plus critiques en matière de santé, de mobilité, de sécurité, ou de transition énergétique.

L’éthique de l’intelligence artificielle

On peut, a priori, se réjouir d’une démarche qui se veut unique et pionnière sur ce domaine en tentant d’établir un cadre de confiance exigeant, respectueux des valeurs et des droits des individus.

On peut, néanmoins, regretter que certaines applications de l’intelligence artificielle, notamment militaires et sécuritaires, semblent, pour le moment, exclues du champ du projet.

Et, aussi, espérer que les obligations auxquelles les acteurs économiques devront consentir, et les coûts additionnels qu’ils devront supporter valent bien l’étiquette de conformité que les régulateurs leur décerneront.

Reste, enfin, à savoir si la dose d’éthique, qui subsistera dans ladite étiquette nous permettra, sans trop de rappels, de construire des IA responsables au service de l’humanité.