Comment LinkedIn contourne le consentement explicite pour nourrir son IA

Sylvain Montmory

Comment LinkedIn contourne le consentement explicite pour nourrir son IA Dès le 3 novembre, LinkedIn utilisera par défaut vos publications et interactions pour entraîner son IA. Une case discrète permet de s'y opposer, mais le principe renverse la logique du RGPD : sans refus explicite, vos données deviennent matière première algorithmique.

Fin 2024, LinkedIn a commencé à utiliser les données de ses utilisateurs pour entraîner son intelligence artificielle. La mesure ne concernait pas l'Europe, ni le Royaume-Uni ni la Suisse, officiellement protégés par le RGPD et sans doute aussi par la prudence de LinkedIn face aux autorités comme la CNIL. Annonces, félicitations aux collègues, commentaires ponctués d'émojis fusée, tout devenait matière première pour les modèles de langage maison. Aux Etats-Unis, la révélation a suscité quelques critiques dans la presse spécialisée, mais elle est restée relativement inaperçue du grand public. En Europe, nos données restaient à l'abri, du moins temporairement.

Qui ne dit mot consent

A partir du 3 novembre 2025, le verrou saute. LinkedIn met à jour ses conditions d'utilisation. Derrière le langage feutré de la "confidentialité", la réalité est limpide. Vos posts, vos interactions, vos recherches et vos signaux faibles d'activité vont être utilisés pour nourrir l'IA générative du réseau. Seule exception, vos messages privés, qui resteront... privés. Dans vos paramètres, une option existe déjà. Elle s'appelle "Données pour l'amélioration de l'IA générative". Elle est cochée par défaut.

Je n'ai rien demandé, rien signé, rien consenti. Et pourtant, si je ne fais rien, mes informations deviendront des briques de cet immense Lego algorithmique. En théorie, mes données m'appartiennent et tant que je ne dis pas oui c'est non (opt-in). Ici, LinkedIn dit l'inverse. Tant que vous ne dites pas non c'est oui (opt-out). Ce débat touche au cœur du consentement. Le RGPD le rappelle depuis 2018. Pour tout traitement qui n'est pas strictement nécessaire au service, le consentement doit être explicite, libre, éclairé. Pas de cases pré-cochées. Pas de silence interprété comme accord. L'opt-in reste la règle, l'opt-out l'exception.

LinkedIn revendique sa légalité

LinkedIn ne parle d'ailleurs pas de consentement. Le réseau revendique un autre fondement légal, l'intérêt légitime. Une base prévue par l'article 6 du RGPD qui permet à une entreprise de traiter des données si elle démontre que son intérêt est justifié, nécessaire et proportionné. Mais l'intérêt légitime n'est pas un joker universel. Il impose un test d'équilibre, une démonstration documentée, des garanties concrètes.

Interrogée, la Cnil nous répond qu'elle "veille particulièrement à ce que toute personne concernée soit informée de manière suffisamment claire de l'utilisation de ses données, et puisse à tout moment exercer ses droits sur ces dernières." Et d'ajouter : "La conformité de tels traitements dépend […] des garanties et solutions techniques mises en œuvre par le développeur, notamment afin d'empêcher que des données personnelles ne soient mémorisées puis divulguées par les modèles d'IA."

Autrement dit, LinkedIn peut invoquer l'intérêt légitime, mais il devra prouver que tout est solide. Transparence, anonymisation, droit d'opposition simple. L'instruction est en cours et c'est l'autorité irlandaise qui pilote le dossier puisque LinkedIn a son siège à Dublin.

Le cas Meta

Nous avons déjà vu ce scénario. En 2024, Meta a voulu nourrir ses IA avec les contenus de Facebook et d'Instagram. Onze plaintes déposées dans différents pays européens ont forcé l'entreprise à suspendre son projet. Quelques semaines plus tard, X, ex-Twitter, a tenté la même approche. Neuf plaintes plus loin, même résultat. L'Europe a fixé une ligne rouge, pas de consentement implicite et pas de collecte par défaut.

Pourquoi LinkedIn prend-il ce risque ? L'entraînement d'IA coûte cher. Les données publiques sont une manne gratuite, et les usages se banalisent. Une suggestion de rédaction de post, une aide à la formulation de profil, une optimisation du contenu, dit ainsi, cela paraît anodin. Mais chaque mot déposé sur la plateforme devient une ressource pour perfectionner des outils commerciaux. Tout bascule pendant que la majorité reste dans l'inconscience.

Et au fond, quelle valeur LinkedIn espère-t-il tirer de cette collecte massive. Une bonne partie du contenu qui circule sur son fil est déjà générée par des IA, comme l'a montré l'étude Originality ai. Des posts clonés, des interactions automatisées, des commentaires formatés. Entraîner une machine avec du contenu produit par d'autres IA ? C'est du recyclage de stéréotypes, likés en boucle par des pods. Une véritable consanguinité numérique. Résultat prévisible, un réseau où des algorithmes conversent entre eux dans une boucle infinie de banalités insipides.

La vraie question est simple. Quand avons-nous accepté que nos traces numériques soient captées, agrégées, réutilisées sans jamais un "oui, je veux." Certains diront que tout cela est transparent, que les conditions sont publiques, que la case est visible dans les paramètres. Mais combien d'utilisateurs vont réellement aller décocher cette option. LinkedIn compte plus d'un milliard de membres. La majorité oubliera de le faire, ce sont des centaines de millions de profils absorbés.

LinkedIn ne fait pas que modifier ses conditions générales. Il teste nos réflexes. Sommes-nous prêts à laisser filer nos données au nom d'une "expérience améliorée". Ou allons-nous revendiquer ce droit élémentaire à décider ce qui nourrit les machines. Derrière cette case se joue la question du "oui, je veux"… ou pas.