Éthique et technologie : y a-t-il un pilote dans l'IA ?

Les progrès de la technologie de l'IA conversationnelle nécessitent un équilibre prudent entre les intérêts qui favorisent l'innovation et l'atténuation de potentiels impacts négatifs.

L’attrait de l’IA conversationnelle

Le lancement de ChatGPT-3 a suscité un intérêt sans précédent avec plus de 100 millions d’utilisateurs actifs par mois. Le grand public comme les organisations reconnaissent à quel point les progrès de l’IA conversationnelle ont la possibilité de transformer pratiquement toutes les interactions de leur vie personnelle et professionnelle. L’application avancée de deep learning de ChatGPT-3 génère des conversations convaincantes, semblables à celles des humains, avec des résultats impressionnants. Lors de tests récents, ChatGPT-3 a réussi l’US Medical Licensing exam américain ainsi qu’un examen de MBA de l’une des plus prestigieuses écoles de commerce du pays.

Les avantages de l’IA conversationnelle sont immenses, à tel point que Microsoft a investi 10 milliards de dollars dans OpenAI pour accélérer les applications commerciales de ChatGPT-3. La firme de Redmond a d’ailleurs l’intention de renforcer ses produits avec les capacités conversationnelles de l’outil.

Attention à l’engouement irrationnel

Mais avant de laisser une telle technologie transformatrice nous dépasser, prenons une grande respiration. En dépit de son utilité potentielle, ChatGPT-3 n’en est encore qu’à ses débuts et présente, il est vrai, de nombreuses imperfections. Notre exubérance pourrait s’avérer prématurée. En l’absence d’une analyse sérieuse, l’adoption sans retenue de l’IA conversationnelle sans garde-fous réglementaires et sans surveillance humaine, peut nous conduire dans un monde dystopique, préfiguré par le romancier anglais Aldous Huxley. Une trop grande confiance dans la technologie sans compréhension de ses impacts socio-économiques peut avoir des conséquences graves, bien qu’involontaires, comme l’emploi, l’éducation, l’inclusion et l’équité.

Après tout, si Chat-GPT-3 constitue un progrès, ses capacités cognitives reposent sur des ensembles de données préexistants, avec des biais intégrés qui peuvent être amplifiés et entraîner une myriade de préjudices potentiels. ChatGPT-3 a un côté obscur qui devrait être une source d’inquiétude et nous inciter à actionner le bouton pause avant toute nouvelle prolifération d’une technologie aussi conséquente.

Risque ou opportunité ?

Il faut trouver un équilibre entre les risques associés à l’application de l’IA conversationnelle et ses opportunités potentielles. Si elle est déployée de manière réfléchie, avec une réglementation significative qui envisage une approche fondée sur les risques et une surveillance solide, ses avantages potentiels pourront voir le jour. Elle devrait être déployée en tant que partenaire de l’humain avec des applications qui enrichissent l’expérience du travail. Comme toutes les innovations qui l’ont précédée, l’IA a le potentiel de créer le besoin de nouvelles compétences et de rendre certains emplois plus gratifiants.

Quel est le rôle du législateur ?

La démocratisation des technologies d’IA implique que les pouvoirs publics aient un rôle proactif dans la régulation de leur utilisation. Les craintes liées aux innovations disruptives sont réelles.

Avec la potentielle adoption à grande échelle de l’IA conversationnelle, on observe un élan en faveur d’une réglementation et d’une gouvernance plus rigoureuses afin d’interdire toute application spécifique de l’IA qui porterait atteinte aux droits humains fondamentaux. En Europe, cela se traduit par l’AI Act qui est actuellement en cours de développement

Malgré ses prouesses, l’intelligence artificielle reste dépendante des humains, que ce soit pour l’utiliser ou pour la réguler. Il doit bien y avoir un pilote à la barre, mais nous ne savons pas encore exactement vers quel cap il se dirige.