Est-on aux prémices d'une guerre de l'IA entre les grandes puissances économiques mondiales ?

Ouverte à tous, l'IA a été adoptée par les entreprises afin de faciliter, optimiser des processus et automatiser des tâches de différents niveaux. Cependant le risque zéro n'existe pas.

Avec l’IA « grand publique » l’humain augmenté est déjà là, mais ce n’est pas le cyborg qu’on imaginait. Ce qui est menacé c’est ce qu’on pensait le plus difficile à concurrencer : le savoir, l’intelligence et les facultés cognitives liées à la maitrise du langage.
L’humain augmenté, oui, mais donc également les entreprises augmentées, les organisations (légales ou illégales) augmentées et finalement les nations dont l’économie sera augmentée… ou non.

Les grandes puissances économiques mondiales, telles que les États-Unis, la Chine et l'Union européenne, vont se livrer une course effrénée pour tenter de prendre des positions stratégiques voire dominer ce secteur. L’Union Européenne semble un peu dépassée puisqu’elle ne représente que seulement 4% de l’activité liée à l’IA dans le monde.

L'enjeu est de taille, l’IA a le potentiel d’apporter une valeur exponentielle aux activités digitalisées et une productivité inimaginable. Les nations qui ont massivement investit dans la recherche et le développement, les start-ups et les infrastructures technologiques ont prit une longueur d'avance qui devient déjà presque impossible à rattraper pour les autres. Comment imaginer alors que la concurrence entre nations pour la « survie digitale » n’est pas largement engagée ? Le rapport de l’université de Stanford « 2023 AI Index Report » le démontre : Le développement de l'IA a basculé dans les dernières années, passant d'une direction majoritairement académique à une direction principalement liée aux entreprises, les nations n’ont pas le contrôle. Les dirigeants d’Open AI (l’éditeur de Chat GPT) ont été reçus par les ministres Italiens pour discuter, comme s’il était agi de dirigeants d’un autre pays. Surprenant ? pas vraiment.

Peut-on réellement se fier à l'IA et ses créations ?

Même s'ils sont terriblement efficaces, les systèmes d'IA peuvent être biaisés, opaques et même vulnérables aux cyberattaques. Il est donc essentiel d’adopter des approches responsables et éthiques pour développer et déployer des solutions d’IA.

Ce n’est cependant pas nécessairement l’IA en elle-même qui est directement douteuse, c’est l’utilisation qu’on en fait. Manipuler les nations… ou les former ? Leur apporter de la richesse ou les noyer sous un tsunami numérique ?

Toujours dans rapport de l’université de Stanford « 2023 AI Index Report », l’analyse relève que Le nombre d'"incidents et controverses liés à l'IA" a augmenté d'un facteur 26 depuis 2012, ce qui semble en réalité encore même un peu faible comparé à ce qui est en train de se passer !

La transparence, l’explicabilité et la responsabilité sont des éléments clés pour établir la confiance dans l’IA.

En quoi un moratoire marque-t-il la prise de conscience des grands entrepreneurs de la tech mondiale de ce milieu ?

« Attendez, on n’est pas prêts » :  les 1300 chercheurs en intelligence artificielle qui ont souhaité ce moratoire, cette « prise de recul » suite à la mise en ligne de ChatGPT-4. Alertent sur la « course dangereuse vers des boîtes noires imprévisibles ».

Mais que dire de la reconnaissance faciale généralisée ou les armes autonomes, ou tout simplement Chat GPT utilisé à toutes les sauces dans tous les métiers et toutes les écoles ou universités ?

Malheureusement, un appel au moratoire souligne surtout l’impréparation, c’est-à-dire le retard dans la transformation digitale de nos institutions démocratiques et de nombre d’entreprises qui risquent de ne même pas comprendre pourquoi elles perdent des parts de marché. Le bouleversement et ses conséquences risquent de créer des vagues d’affrontements sociaux imprévisibles et en cascade.

Quelles sont les solutions d'encadrement juridique et déontologique de l'IA ?

L'encadrement juridique et déontologique de l'IA est essentiel pour garantir son utilisation responsable et éthique.  D’abord, les gouvernements doivent probablement créer des cadres législatifs et éthiques adaptés pour encadrer l'utilisation de l'IA, en veillant à protéger les droits des individus, la vie privée et la sécurité des données. On peut imaginer la création d'organismes de régulation indépendants et la mise en place de certifications pour attester de la conformité des systèmes d'IA aux normes éthiques et légales etc…

Mais la tâche semble bien vaine sans une collaboration complète de tous les pays, aucun moratoire, aucune norme ni aucune garantie ne pourra valablement apporter le contrôle recherché. Si les Américains légifèrent, qui empêchera la Chine, ou l’Inde d’avancer pour occuper une position stratégique ?