DeepSeek, Qwen… Les modèles d'IA chinois sont-ils vraiment plus dangereux ?

DeepSeek, Qwen… Les modèles d'IA chinois sont-ils vraiment plus dangereux ? La dangerosité des modèles d'IA chinois dépend notamment de leur nature, leur mode d'exploitation et des dispositifs de sécurité mis en place.

Utiliser un modèle d'IA chinois est-il par nature risqué ? Face à l'essor spectaculaire des modèles d'intelligence artificielle issus de l'empire du Milieu ces douze derniers mois, la question devient incontournable. La réponse est en revanche loin d'être simple et binaire. En réalité, la sécurité dépend de plusieurs facteurs : la transparence du modèle (open source ou propriétaire), son déploiement (en local ou dans le cloud), ainsi que les sécurité mises en place.

L'open source plus sécurisé par nature

De par leur conception ouverte, les modèles open source restent encore en 2025 les modèles les plus sécurisés pour les experts. "L'open source est généralement plus sécurisé. Même si l'on trouve la plupart des vulnérabilités sur les modèles open source, c'est justement grâce à cette transparence qu'ils sont sécurisés," explique Fred Simon, cofondateur et chief data scientist de JFrog. Cette analyse vaut également pour les modèles d'IA chinois comme DeepSeek ou YI dont les poids et l'architecture peuvent être examinés pour détecter d'éventuelles manipulations.

L'entreprise JFrog a d'ailleurs développé des systèmes de test complètement automatisés, notamment des honeypots, pour sécuriser les modèles d'Hugging Face et a déjà identifié "plus de 60 modèles problématiques." Parmi ces modèles, plus de 45 ont été créés par des chercheurs en sécurité qui voulaient tester si certaines vulnérabilités étaient possibles et fonctionnelles. Son équipe a également découvert quelques modèles qui étaient "réellement malveillants", sans que ces risques concernent spécifiquement des modèles d'origine chinoise. Ces derniers sont systématiquement signalés à Hugging Face et rapidement supprimés. D'ailleurs Fred Simon l'assure, aucune des versions open source des modèles de DeepSeek n'a pour l'instant révélé de faille de sécurité, hormis la censure chinoise intégrée.

Les modèles propriétaires, maillon faible de l'IA

Contrairement aux modèles open source, les modèles propriétaires sont de véritables boîtes noires. Leurs éditeurs ne divulguent ni les poids ni l'architecture interne, rendant impossible toute analyse approfondie de leur fonctionnement. Une opacité qui soulève de sérieuses inquiétudes, particulièrement lorsque ces modèles sont hébergés sur des clouds étrangers. Qu'ils soient américains ou chinois, les points d'inférence non contrôlés exposent les données des utilisateurs à des risques majeurs : portes dérobées ou collaborations forcées avec des régimes dont les pratiques en matière de protection des données divergent radicalement des standards européens.

Cette préoccupation s'accentue significativement avec les modèles hébergés par des éditeurs chinois. "Le problème avec les environnements chinois comme Alibaba, c'est qu'il n'y a aucun moyen de vérifier, même s'ils le prétendent, la confidentialité des données échangées avec leurs LLM. Il n'existe pas de cadre contractuel fiable pour cela", rappelle Fred Simon. Par ailleurs, les cadres juridiques occidentaux et chinois sont radicalement différents. "En cas de violation de données par OpenAI ou Anthropic, les entreprises disposent de recours légaux clairs : l'incident devient public et peut entraîner des poursuites judiciaires. A l'inverse, le système chinois impose une surveillance systématique. Toute donnée transitant par leurs serveurs peut être légalement analysée par les autorités gouvernementales, sans transparence ni contre-pouvoir", met en garde le spécialiste.

Les entreprises s'exposent à des risques importants en utilisant ces IA hébergées en Chine. "L'utilisation d'API constitue une véritable mine d'or pour les opérateurs chinois. Contrairement aux interfaces graphiques, les API génèrent un volume de requêtes nettement supérieur et beaucoup plus détaillé. Chaque appel devient alors une source précieuse de données permettant de cartographier précisément l'activité et les intérêts de votre entreprise", rappelle Michael Freeman, head of threat Intelligence au sein d'Armis, société spécialisée en cybersécurité.

Comment sécuriser les modèles ?

Alors comment faire face à tous ces risques lorsqu'on est une entreprise ? La première mesure consiste à privilégier l'exécution en local des modèles. "Les grandes sociétés de conseil utilisent de plus en plus l'intelligence artificielle, mais font tout tourner en interne", observe Fred Simon. Cette approche, bien que techniquement exigeante, limite considérablement les fuites de données sensibles vers des serveurs étrangers. La surveillance des environnements d'exécution constitue également un enjeu majeur. "Ce que nous avons découvert, c'est que les véritables dangers résident dans les environnements d'exécution des modèles", explique Fred Simon. JFrog s'intéresse particulièrement au code qui entoure les modèles d'IA. "Il s'agit des environnements Python, MLflow et TensorFlow. C'est là que se trouvent les problèmes de sécurité les plus importants", précise-t-il.

De son côté, Michael Freeman recommande une architecture multi-agents pour renforcer la sécurité : "Nous développons des systèmes basés sur des agents spécifiquement conçus pour surveiller et valider les performances d'autres agents."  Cette surveillance croisée permet d'identifier rapidement les comportements suspects ou les failles potentielles. "Pour les modèles générant du code, nous construisons d'autres agents qui recherchent automatiquement des vulnérabilités spécifiques, comme l'utilisation d'un IV statique (valeur aléatoire utilisée pour chiffrer des données, ndlr) dans une fonction cryptographique ou des méthodes inappropriées de stockage de clés", précise-t-il.

En définitive, les modèles chinois open source, s'ils sont correctement analysés, ne présentent pas plus de risques que leurs équivalents américains ou européens. Pour les modèles propriétaires, la distinction est plus subtile. Si théoriquement le niveau de risque devrait être comparable entre services américains et chinois, c'est le cadre juridique qui change la donne. La législation chinoise (et notamment la National Intelligence Law) impose aux entreprises une coopération obligatoire avec les autorités, sans les protections légales ou la transparence existantes dans les démocraties occidentales.