ChatGPT : l'intelligence artificielle peut-elle tenir ses promesses ?

L'IA fascine depuis l'invention du premier ordinateur au milieu du XXè siècle. ChatGPT, dernier exploit en date en matière d'IA, confirme cet intérêt grâce à sa capacité à simplifier notre quotidien

ChatGPT intègre des avancées impressionnantes en matière de machine learning. Ce chatbot délivre des résultats de haute qualité comparables à ceux d’un être humain. Les progrès qu'il représente en termes d'IA poussent à croire que des réalisations encore plus remarquables verront bientôt le jour. Même si ChatGPT laisse entendre que le plein potentiel de l'IA est en passe d’être atteint, celle-ci n'est pas encore tout à fait au point. Certes, il existe aujourd’hui de grandes opportunités pour que le machine learning améliore l'intelligence humaine, mais il n’est pas encore capable de remplacer totalement les compétences des experts humains.

Des obstacles entre ChatGPT et le futur qu’il promet

Pour avoir une confiance totale dans l’IA,  il faudrait qu’une technologie d’IA donnée soit plus efficace que tous les autres outils utilisés pour atteindre le même objectif.  Or, l’IA n’est pas encore suffisamment développée pour fonctionner de manière entièrement autonome. 

Narrow AI (ANI) décrit l'IA d’aujourd'hui comme étant conçue pour effectuer une seule tâche (un chatbot ou un générateur d'images, par exemple). Mais cette IA nécessite encore une supervision humaine, certaines configurations manuelles pour bien fonctionner et n'est pas toujours exécutée et formée sur la base des données  les plus récentes. Dans le cas de ChatGPT, c’est l’Apprentissage par renforcement avec rétroaction humaine (RLHF) qui permet d’entraîner l’outil à savoir identifier  les réponses correctes et incorrectes qu’il donne  aux utilisateurs. 

Les contributions humaines au sein des systèmes d'IA représentent également un défi de taille. Les modèles de machine learning peuvent en effet être influencés par nos opinions personnelles, notre culture, notre éducation et nos perspectives du monde, limitant ainsi notre capacité à créer des modèles qui éliminent les préjugés. Il s’agit d’un vrai enjeu, et nous avons même vu des programmes de  bug bounties conçus pour détecter et supprimer les biais des systèmes d’IA. Une dépendance complète vis à vis de  l’IA ne pourra pas être envisagée sans la mise en œuvre de systèmes d'IA suffisamment entraînés pour éliminer les biais humains. 

En matière de sécurité, se fier totalement à l’IA est une mauvaise idée !

Avec un paysage de la menace en perpétuelle évolution, une diversification des vecteurs d'attaque et des cybercriminels disposant de ressources de plus en plus importantes, il  devient  urgent d’adopter une approche qui optimise à la fois les capacités de l'intelligence humaine et celles des machines. 

Selon une enquête Debate Security, 90 % des experts en cybersécurité estiment que non seulement les technologies en matière de cybersécurité ne sont pas aussi efficaces qu'escompté, mais qu’elles sont partiellement responsables du succès de certaines cyberattaques. 

Certes, la technologie a sa place, mais rien n'est comparable à ce que peut produire un être humain qualifié. Les  vulnérabilités les plus critiques identifiées par des hackers éthiques exigent par exemple une certaine dose de créativité et de compréhension contextuelle. En comparant un rapport de vulnérabilité rédigé par ChatGPT  à un rapport produit par un hacker éthique, la différence est flagrante.  Le rapport de ChatGPT était répétitif et manquait de précision, tandis que le second offrait un contexte complet et des conseils détaillés sur les mesures d'atténuation.

L’IA en renfort des équipes de sécurité

Mais tout n’est pas tout noir ou tout blanc et ce n’est pas parce que l’IA nest pas entièrement autonome qu’elle n’est pas utile  Elle peut n effet accomplir des tâches plus rapidement et plus efficacement qu'une seule personne, et ainsi faciliter le travail des professionnels de la cybersécurité.

Les hackers éthiques utilisent déjà des outils d'IA  pour rédiger des rapports de vulnérabilité, générer des échantillons de code et identifier des tendances dans de grands ensembles de données. En retour, les compétences des hackers éthiques comblent les lacunes de l'IA. 

Selon un rapport sur la résistance aux attaques des organisations, près de la moitié des entreprises ne sont pas confiantes dans leur capacité à combler leurs lacunes en matière de sécurité.  Mais l'IA peut clairement jouer un rôle déterminant dans le renseignement des vulnérabilités.

Narrow AI pourrait aider à relever les principaux défis du secteur

Certains gouvernements reconnaissent déjà le potentiel de Narrow AI. L'Agence pour la cybersécurité et la sécurité des infrastructures (CISA) du gouvernement américain cite l'IA comme l'une des solutions possibles pour la sécurité de sa chaîne d'approvisionnement logicielle. L’IA élimine les tâches minutieuses réalisées par les équipes de sécurité, leur laissant plus de temps à accorder à leur surface d'attaque, à mieux remédier aux vulnérabilités et à élaborer des stratégies plus efficaces pour se défendre contre les cyberattaques. 

Bientôt, l'IA pourrait offrir encore plus de potentiel pour les hackers et les professionnels de la cybersécurité. Ces derniers ne devraient pas s'inquiéter d’être remplacés par l’IA, mais devraient plutôt développer un ensemble de compétences diversifiées qui complètent les outils de l'IA tout en ayant conscience de ses limites actuelles. 

L'IA est loin de remplacer l’humain, mais cela ne signifie pas qu'elle ne peut pas contribuer à créer un avenir meilleur. Dans un secteur où le manque de compétences est important, l'IA pourrait faire toute la différence en créant un internet plus sûr.