L'intelligence artificielle, éternelle antagoniste dans les films : menace crédible ou pur fantasme hollywoodien ? Un expert en cybersécurité chez Splunk apporte son éclairage
Le véritable danger de l'IA ne vient pas d'une volonté de nuire, comme au cinéma, mais du manque de maîtrise et de protections face à sa complexité.
Dans tous les films d’anticipation, l’IA est souvent dépeinte comme souhaitant l’éradication de l’espèce humaine. Le personnage d’Ultron dans l’univers Marvel présente au moins l’avantage d’y apporter une justification. En effet, il a été conçu pour protéger l’espèce humaine et les principaux dangers qui la menacent émanent d’êtres humains. L’Entité présente dans le dernier film de Mission : Impossible cherche également à éradiquer l’humanité – sans pour autant donner de raison.
La véritable question est la suivante : pourquoi l’IA serait-elle susceptible de prendre des mesures aussi extrêmes ? Dans le monde réel, un scénario où une IA hostile tenterait d’éliminer l’humanité semble peu plausible, la possibilité la plus réaliste est qu’elle ne se soucierait probablement pas de notre existence.
Décryptage de certaines séquences clés du dernier Mission Impossible. S’agit-il d’un simple divertissement ou d’un aperçu de notre avenir ? Attention : spoilers garantis.
Première séquence : la quête d’Ethan Hunt pour trouver le code source de l’IA
La quête du code source ressemble à une sorte de parabole. Il est donc intéressant de la retranscrire dans le monde réel. Tout d’abord, les sauvegardes hors site ne fonctionnent pas de cette manière. Pour chaque actif essentiel, un système de gestion du code source bien défini est mis en place, à l’image de GitHub. C’est ainsi que les entreprises qui déploient l’IA à grande échelle doivent traiter le code source et les données d’entraînement comme la prunelle de leurs yeux.
Ce qu'il faut plutôt connaître, c'est l'architecture du modèle et le poids qu'il accorde à chaque input lors de la prise de décision. La véritable menace ne réside pas dans une IA sentiente, mais dans la complexité non maîtrisée. Dans le cas d’un scénario catastrophe, la visibilité joue le rôle du héros et la traçabilité celui du parachute.
Deuxième séquence : Luther développe une « pilule empoisonnée » destinée à contrer l’IA
Cette séquence relève du pur fantasme hollywoodien et n’a aucun fondement réel sur lequel s’appuyer en science informatique. Pour être honnête, cette idée est acceptable en tant que procédé scénaristique. Mais voilà : écrire un code destiné à « empoisonner » des lignes de code source qui n’ont jamais été analysées et sur lesquelles personne n’a même jamais posé les yeux est tout simplement impossible. Sans échantillon disponible pour analyse, impossible de savoir quel langage a été utilisé pour programmer l’IA. Cela s’apparenterait à formuler un antidote à un gâteau empoisonné sans connaître la recette, le type de poison ou la quantité de gâteau ingéré, en jetant des ingrédients mélangés au hasard dans un four et en espérant que l’IA les ingère.
Une leçon doit toutefois être considérée comme une règle d’or par les RSSI : tout système puissant doit être doté d’un bouton d’arrêt d’urgence. Les entreprises qui expérimentent avec des IA sophistiquées ne peuvent pas se contenter de faire preuve d’un optimisme de circonstance. Si le système décide soudain de se transformer en avatar de SkyNet (NDLR : l’IA dans la série Terminator), un simple CTRL+Z ne suffira pas à vous sauver la mise. Il est essentiel de songer à intégrer des dispositifs d’arrêt d’urgence, des capacités de restauration d’une version antérieure du modèle et des restrictions de trafic pour les API – en résumé, tous les garde-fous nécessaires. La leçon à retenir est la suivante : si vous concevez une intelligence qui a le potentiel de vous surpasser un jour, montrez-vous suffisamment malin pour pouvoir la débrancher avant que cela n’arrive.
Troisième séquence : le transfert du code source vers un abri antiatomique
Cet abri antiatomique est en réalité un datacenter sans humain qui, selon l’IA, demeurera éternellement opérationnel sans aide extérieure. Une telle technologie n’existe pas. Dans le monde réel, un abri antiatomique existe bel et bien en Norvège, mais celui-ci contient simplement des cultures vivrières. Malheureusement, les entreprises ne peuvent pas compter sur des datacenters fictifs pour résoudre leurs problèmes.
Une stratégie d’isolation des installations physiques perd tout son intérêt si personne n’est en mesure de contrôler les éléments placés en isolement. La véritable résilience réside dans une enclave contrôlée par l’entreprise elle-même, et non dans un bunker imaginaire que personne ne peut auditer. Si les éléments de propriété intellectuelle essentiels et la clé de désactivation sont enfermés dans un coffre-fort auquel personne n’a accès ou dans lequel personne ne peut avoir confiance, cela revient à admettre que la dernière ligne de défense contre une dérive du système a été abandonnée au profit d’un ressort scénaristique. Par ailleurs, aucun système informatique ne fonctionne jamais parfaitement. C’est l’une des raisons qui explique la nécessité de disposer d’outils d’observabilité. Même avec un taux de disponibilité de 99,99 %, le système tombe en panne au moins une journée tous les dix mille ans.
Maintenant que les rouages internes de cette IA démoniaque ont été mis au jour et décortiqués, il serait intéressant de se demander s’il existe des similitudes entre l’Entité présentée dans le film et les systèmes d’IA actuels.
L'Entité refuse de se désactiver et commence à faire chanter certaines personnes. Le scénario du film s’appuie sur la peur que l’IA s’échappe de son confinement et commence à fonctionner de manière autonome. Des idées comme celles d’une IA indocile, qui commence à manipuler des êtres humains et comporte des défauts de gouvernance aussi imposants que les incohérences de l’intrigue ne sont pas complètement inenvisageables, dans la mesure où les systèmes d’IA sont de plus en plus complexes et intégrés. Lorsqu’un modèle ignore un prompt, contourne certaines mesures pour prendre les commandes ou influence des administrateurs, ce n’est plus un simple outil, mais une dangereuse menace dotée d’un cycle de mises à jour. Même si une telle hypothèse relève de la fiction, elle s’accompagne néanmoins d’un avertissement : on ne contrôle pas véritablement un système qu’on ne peut pas désactiver.
Jusqu’ici, aucune IA n’a jamais démontré sa capacité à échapper aux limites qui lui sont imposées de cette manière et un tel scénario est improbable pour de nombreuses raisons. De plus, le simple fait que des chercheurs se penchent sur le problème et vont même jusqu’à tromper les modèles pour les inciter à tenter de s’échapper montre que des garde-fous et des plans d’action sont en train d’être développés pour contrer ces éventualités. L’IA ne s’échappera pas.
Une crise à l’échelle mondiale favoriserait une réponse coordonnée
Dans un tel scénario, le monde ne serait pas sauvé par une poignée d’espions isolés, d’agents rebelles et quelques clés USB. Gouvernements et entreprises du monde entier chercheront à limiter ces risques en mettant au point un plan d’action à l’échelle planétaire. De nombreux projets ont été lancés dans le monde entier afin de garantir une IA éthique et sécurisée. S’il y a une leçon à tirer des films hollywoodiens, c’est que la mise en place de normes universelles et d’approches mondialisées joue un rôle essentiel dans la manière dont nous façonnons l’avenir de l’espèce humaine et de l’IA.