Quelles alternatives à ChatGPT pour tirer le plein potentiel de l'IA en entreprise ?

Aujourd'hui, avec ChatGPT, Midjourney, ou encore Google Bard, l'IA Générative est devenue incontournable. Elle s'invite partout, y compris dans les entreprises. Pourtant, des alternatives existent.

Aujourd’hui, avec ChatGPT, Midjourney, ou encore Google Bard, l’IA Générative est devenue incontournable. Elle s’invite partout, y compris dans les entreprises qui y voient un moyen d’accroître leur productivité. Seulement, leurs dirigeants seraient avisés de faire preuve de prudence, s’ils tiennent à la confidentialité de leurs données. Beaucoup d’IA, ChatGPT en tête, ne la garantissent pas. Heureusement, il existe des alternatives sécurisées et tout aussi efficaces pour leur permettre d’accélérer leurs projets.

Des cas avérés de fuite de données sensibles

Il y a tout juste un an, Open AI dévoilait ChatGPT et depuis, les progrès accomplis ont été extraordinaires. L’agent conversationnel peut non seulement générer du texte, répondre aux questions des clients via des chatbots, éditer du code, mais aussi résoudre certains problèmes complexes. Un potentiel exceptionnel qui séduit évidemment les entreprises tout comme leurs salariés. Toutefois, autoriser aujourd’hui ChatGPT dans l’univers du travail, c’est introduire le loup dans la bergerie. Si cet outil se montre attirant, on ne sait rien de l’utilisation qu’il fait de nos données, ni même comment il a été entraîné. Dans sa politique de confidentialité, Open AI se contente d’indiquer qu’il partage le contenu des conversations avec diverses entités, notamment des fournisseurs, des acteurs juridiques ou encore des spécialistes de l’IA. 

Récemment, des employés de Samsung Electronics ont ainsi involontairement divulgué des informations sensibles : l’un d’eux avait notamment copié l’intégralité d’un code source, afin de débloquer un bug, sur une application ChatGPT dédiée à son métier. Une erreur aux conséquences graves, dans le domaine stratégique des semi-conducteurs. Cet écueil n’est d’ailleurs pas l’apanage de ChatGPT. Copilot, l’outil de Github à destination des développeurs, a lui aussi été sous le feu des critiques sur la thématique des droits d’auteurs. L’IA a été accusée de s’entraîner avec des lignes de codes qui, bien qu’en Open Source, étaient soumises à des conditions spécifiques d’utilisation.

L’Open source : un moyen de concilier l’IA et la confidentialité des données

Dans ces conditions, difficile pour les entreprises de laisser leurs salariés utiliser librement ChatGPT ou d’autres outils similaires. Pour autant, il serait dommage pour elles de se priver de leur formidable potentiel. 

Une solution est le recours à des IA Générative développées en Open Source. On peut citer LLaMA 2, dernière innovation de Meta ou encore Mistral AI, éditée par une entreprise française, et donc conforme à la réglementation RGPD. Deux outils dont les capacités rivalisent avec celles de ChatGPT. Leur gros avantage par rapport à un ChatGPT est de pouvoir les faire tourner directement sur les serveurs de l’entreprise, garantissant ainsi la confidentialité des données. Les informations qui y sont diffusées ne sortent jamais du contexte interne. 

Autre avantage : il est aussi possible de les améliorer en les entraînant à partir des données de l’entreprise. Nvidia, par exemple, a conçu sa propre IA en réalisant une implémentation de LLaMA 2 pour aider ses ingénieurs à répondre plus rapidement à leurs clients. 

Le PaaS, une alternative prometteuse

Pour les entreprises qui ne pourraient déployer de tels modèles en interne, une autre solution réside dans les PaaS, Platform as a Service. Celles-ci sont aujourd’hui déployées dans un nombre croissant de Data Centers. Elles mettent à disposition des entreprises un environnement d’exécution rapidement disponible, tout en leur laissant la maîtrise des applications qu’elles peuvent y installer. Un moyen efficace d’utiliser des IA comme LLaMA 2 ou Mistral AI, en disposant de garanties de confidentialité suffisantes. Si aujourd’hui, ces solutions sont encore très coûteuses, leurs prix ne cessent de chuter dans un contexte fortement concurrentiel. D’ici quelques mois, elles devraient devenir bien plus accessibles.

Quels que soient les outils utilisés, la pédagogie reste néanmoins de mise. Nous en sommes en effet aux prémices de l’IA Générative et de nombreux sujets restent à explorer. Sans garantie d’une parfaite protection des données, les salariés et les développeurs doivent être extrêmement attentifs à ne pas divulguer de codes propriétaires ou de sujets d’innovation qui risqueraient de mettre en péril leur entreprise. À terme, la réglementation viendra sans doute apporter un cadre supplémentaire dans ce domaine. Pour l’heure, l’IA Générative reste un immense terrain vierge, porteur de belles promesses mais aussi de risques qui ne doivent pas être sacrifiés sur l’autel de la productivité.