A peine lancé, bientôt condamné ? Le collier IA Friend dans le viseur de la Cnil pour non respect du RGPD
Un ami toujours là. Présent sans jamais s’imposer. Qui écoute sans interrompre. Et qui dit exactement ce que l’on a envie d’entendre. Friend se présente ainsi. Une présence continue, portée au cou, discrète, presque rassurante. Un pendentif numérique dessiné comme un bijou de start-up pressée, pensé pour nous accompagner partout.
Depuis fin janvier, Friend a investi le métro parisien avec des affiches minimalistes, "Je ne laisserai jamais la vaisselle dans l’évier", "Je regarderai tous les épisodes avec toi". Une application de rencontres en apparence. Ce qui se vend, pourtant, c’est un ami toujours disponible, porté comme un badge de solitude moderne.
Derrière le projet, Avi Schiffmann, jeune entrepreneur déjà connu pour avoir lancé en 2020 l'un des premiers tableaux de bord mondiaux de suivi du Covid. Une réussite construite sur la vitesse, l'intuition, l'utilité immédiate. Un principe très Silicon Valley. L'usage d'abord. Le doute ensuite, si vous insistez.
Une technologie fondée sur l’aspiration de l’intimité
Techniquement, Friend agit comme une sonde permanente. Un micro Bluetooth, appairé à un smartphone, capte en continu l’environnement sonore et transmet ces données vers une application mobile, puis vers des serveurs cloud situés hors d’Europe. L’analyse et la génération des réponses reposent sur des modèles de langage tiers, notamment Claude 3.5 d’Anthropic et Gemini de Google. Dans cette architecture, la requête volontaire s’efface. La vie quotidienne devient la matière première. Conversations, silences, intonations, rythmes de voix. L’expérience avec ce nouvel ami se construit sur une écoute continue, captée parfois à son insu, transformée et exploitée à distance.
Dans l’espace européen, ce mode de fonctionnement entre pleinement dans le champ d’application du RGPD. L’utilisateur principal peut consentir via les conditions générales, mais l’environnement sonore ne se limite jamais à cette relation contractuelle. Amis, collègues, proches ou inconnus, le collier capte des voix qui n’ont rien signé et agit comme un micro ouvert dans l’espace social. Cette captation s’opère sans médiation matérielle explicite. Aucun bouton de coupure physique. Aucun indicateur lumineux signalant qu’une écoute est en cours. A table, en réunion ou autour d’une machine à café, rien ne distingue l’enregistrement de l’ordinaire. Friend répond par son contrat d’utilisation, qui transfère à l’utilisateur l’entière responsabilité du respect des lois locales et de l’obtention du consentement des tiers. Le problème de conception, lui, demeure inchangé. Confortable pour eux. Juridiquement fragile. Pour Aurore Bonavia, avocate en propriété intellectuelle au barreau du Val-d’Oise, "entre le micro qui enregistre et l’oreille qui ignore être captée, il n’y a qu’un contrat signé par l’un et jamais lu par l’autre. Faire peser ces obligations sur l’utilisateur ne tient pas juridiquement".
Données sensibles et inférence émotionnelle
Le traitement opéré par Friend dépasse la simple reconnaissance vocale. L’appareil analyse l’intonation, la fatigue ou le stress afin d’en déduire des états émotionnels, des fragilités psychologiques et des éléments de santé. Le dispositif manipule ainsi des données sensibles. C’est sur ce terrain que l’AI Act européen fixe un garde-fou. Depuis février 2025, certaines pratiques sont encadrées, notamment l’inférence des émotions dans les contextes professionnels et éducatifs. La mobilité du dispositif rend cette frontière plus difficile à maintenir. Un collier s’utilise partout, au travail comme à l’école. Le cadre réglementaire s’attache au fonctionnement réel du système et à ses effets concrets, au-delà de la promesse commerciale.
Friend affirme chiffrer les échanges et limiter la conservation des données à une "fenêtre de contexte". En l’absence d’expertise indépendante publique, la portée réelle de ces garanties reste au stade de la promesse. Les flux audio transitent par des infrastructures situées hors d’Europe, plaçant les données sous d’autres cadres juridiques et ouvrant la voie à des usages secondaires difficiles à maîtriser.
Saisie du dossier, la Cnil nous confirme : "Le dispositif peut entraîner une collecte massive de données, possiblement sensibles, de santé, d’opinion politique ou d’orientation sexuelle, en fonction du contenu des conversations, tant de la personne utilisatrice que de ses interlocuteurs. De nombreuses questions se posent notamment sur le sort des données, leur lieu de stockage, leur sécurisation et leur possible réutilisation à des fins d’entraînement du système d’IA. La Cnil procède à l’analyse de ce dispositif et va se rapprocher de la société Friend.com afin d’examiner sa conformité au RGPD."
Une stratégie de lancement qui dit tout
Certaines digues éthiques tiennent. D’autres s’usent à force de passages répétés, sous couvert d’innovation. Le doute, lui, se banalise. Le déploiement de Friend en Europe, soutenu par des investissements publicitaires conséquents, s’inscrit dans une séquence désormais bien connue. Lancer. Observer. Ajuster. Une méthode déjà éprouvée dans l’écosystème de la tech américaine, notamment avec Grok, l’IA de X, et la génération d’images dénudées sans consentement. L’espace public devient un banc d’essai, où les réactions servent de mesure, la tolérance de seuil et l’accoutumance de validation.
Friend a de fortes chances de se heurter à la digue réglementaire européenne. L’opinion reste sceptique. Les premières ventes, aux Etats-Unis comme ailleurs, demeurent marginales. L’objet intrigue, sans s’imposer. Mais avec le temps, des produits boudés à leur lancement finissent par s’installer par l’usage. Les pratiques glissent. Les seuils se déplacent. Le "pourquoi pas" devient acceptable.
Friend n’est sans doute qu’une étape. D’autres objets suivront, plus intégrés, plus discrets, mieux ajustés aux cadres existants. OpenAI y travaille déjà, en collaboration avec Jony Ive, ancien designer d’Apple. L’IA quitte l’écran. Elle se rapproche du corps, du cerveau, du quotidien. La question dépasse largement Friend. Pourquoi les technologies numériques bénéficient-elles encore d’un régime d’exception ? Pourquoi le principe de précaution, appliqué sans hésitation dans le monde physique, s’efface-t-il dès qu’il s’agit de logiciels et d’algorithmes ? Pourquoi autoriser la commercialisation avant la conformité, en misant sur une régulation tardive ?
Certains plaident pour un assouplissement des règles afin de ne pas freiner l’innovation. Reste à définir laquelle. Et surtout selon quelles valeurs.