Centrer sa cybersécurité sur l'humain : Le levier pour contrer l'ingénierie sociale ?

Fake news, deep fakes, ingénierie sociale et encore harcèlement, pour de nombreuses personnes, Internet est devenu le nouveau Far West et de plus en plus de délits émergent dans l'espace numérique.

Une montée en puissance des manipulations en ligne qui tire parti des vulnérabilités humaines et souligne plus que jamais l’importance de prendre des mesures de prévention efficaces, par le biais de l'information mais aussi par le bouclier technologique.

Selon une étude de Norton, 53 % des adultes Français ont été confrontés à la cybercriminalité au moins une fois dans leur vie - un préjudice pour l’économie Française qui s’élève à 7,1 milliards de dollars en 2022. Si nous pourrions croire que ces attaques sont le fruit de failles techniques notamment due à la démocratisation du télétravail, la vérité semble toute autre. En effet, les techniques employées par les cybercriminels pour s’attaquer aux particuliers fonctionnent aussi très souvent sur les salariés des entreprises. Une tendance qui démontre que la faille trouve directement naissance dans le psychique humain.

C’est notamment le cas de l'ingénierie sociale qui s'appuie sur la manipulation interpersonnelle en exploitant délibérément des traits de caractère et des émotions pour inciter les victimes à divulguer des informations sensibles, à effectuer des virements bancaires ou encore à installer des logiciels malveillants sur leur ordinateur personnel ou sur le réseau de leur entreprise. À ce stade, les mesures de protection courantes ne suffisent plus : les pare-feu, les programmes antivirus et les mises à jour régulières protègent contre les attaques visant les points faibles techniques, mais aucunement contre les manipulations en ligne. En 2023, l'Humain est au cœur des cyberattaques modernes.

L’ingénierie sociale, une fraude aux multiples facettes

Si l’ingénierie sociale illustre la cybercriminalité actuelle, elle se présente sous de nombreuses formes comme l’hameçonnage, l’escroquerie au président ou encore le pretexting. Toutes ces escroqueries ont deux choses en commun : d'une part, elles ciblent les traits de caractère humains comme par exemple la curiosité, la peur, la nervosité et surtout la naïveté. D'autre part, elles ont pour objectif d'inciter la victime à livrer volontairement des informations, des mots de passe et autres données sensibles.

Chacun d'entre nous peut être la cible d'une telle campagne et il n'est pas toujours facile de reconnaître immédiatement la tentative d'escroquerie. Alors si les conséquences financières d'une campagne d'ingénierie sociale sont dévastatrices pour les entreprises et pour les particuliers, de nombreuses victimes éprouvent de la honte de ne pas avoir su mieux et voient leur moral impacté. C'est pourquoi les entreprises doivent non seulement sensibiliser leurs collaborateurs à reconnaître le mieux possible de telles campagnes d'escroquerie, mais aussi les encourager à signaler le plus rapidement possible les incidents de sécurité, malgré le sentiment de culpabilité et la honte.

Les entreprises de cybersécurité se voient donc dans l'obligation - d'un point de vue économique et moral - de fournir aux particuliers et entreprises les outils de prévention appropriées. Il ne fait aucun doute que l'intelligence artificielle (IA) doit faire partie de ces solutions. Pourtant, cette avancée technologique fait aussi partie du problème : les algorithmes basés sur l'IA constituent la base des deep fakes et diffusent la désinformation. Le fait que la technologie ne cesse de s'améliorer aggrave le problème de l’ingénierie sociale en rendant ces arnaques accessibles à un large public.

L’intelligence artificielle : force ou faiblesse de la cybersécurité centrée sur l’humain ?

Traditionnellement, les entreprises se sont surtout attachées à combler leurs lacunes techniques en matière de sécurité. Cependant, les menaces qui visent directement les personnes sont encore largement négligées alors même qu’elles sont en pleine expansion : Cyberintimidation, ingénierie sociale ou encore influence exercée non seulement sur les personnes, mais aussi sur les institutions par la propagation des "fake news" et les "deep fakes". Si les algorithmes de personnalisation ou les "deep fakes" ont montré que certains dangers présents sur le web reposent essentiellement sur l'intelligence artificielle et son analyse de l’humain, l’IA peut aussi contribuer à la lutte contre le développement massif de celle-ci. En effet, les progrès considérables réalisés dans le domaine de la compréhension du langage par les ordinateurs permettent de détecter automatiquement les arnaques potentielles, les conversations coercitives ou encore de vérifier qu'une affirmation n'est pas vraie en se fondant sur des preuves fiables.

Dans cette optique, l'Intelligence Artificielle offre diverses solutions pour se protéger contre l'ingénierie sociale, en nous aidant à gérer une masse considérable de menaces numériques dont la diffusion est amplifiée par des générateurs automatiques de textes et d'images. L’avantage majeur de cette technologie est que celle-ci peut suivre en temps réel le rythme du web. Par exemple, si une vidéo sur les réseaux sociaux devient virale en générant des millions de clics en quelques heures, les systèmes d'IA peuvent analyser les colonnes de commentaires de manière rapide, efficace et fiable pour détecter les contenus problématiques.

Suite à l’expansion de plus en plus marquée des arnaques se basant sur le psychique, la sécurité numérique centrée sur l'Homme devient un levier de plus en plus important pour faire d’internet un endroit plus sûr. Grâce à cette approche soutenue par l’intelligence artificielle, nous nous concentrons sur le "facteur humain" de la sécurité en plaçant l'éducation des personnes au cœur des priorités – limitant ainsi le risque de failles humaines.