Label4.ai lève 1 million d'euros pour tracer et détecter les contenus générés par l'IA
Label4.ai annonce ce 7 juillet une levée d'environ 1 million d'euros auprès de business angels pour se lancer sur le marché français et européen avec ses solutions de traçabilité et de détection de contenus générés ou manipulés par l'IA. L'entreprise a été créée en toute discrétion en décembre 2024 par six cofondateurs, dont 4 chercheurs de l'INRIA et du CNRS avec des anciens de TF1 et Qwant. Le tour de table vient d'être finalisé.
La start-up entend servir de manière industrielle tous les secteurs d'activité ayant besoin de savoir si un contenu a été partiellement ou intégralement réalisé voire manipulé par une intelligence artificielle. "L'accès aux outils d'IA est tel que nous assistons à une perte généralisée de la capacité à contrôler la distinction entre organique et synthétique. Or, il est indispensable pour tout acteur économique et individu de connaître la nature du contenu à qui il a à faire. C'est une question de transparence mais également de sécurité, d'ordre public et dans notre cas ici en Europe, de souveraineté", déclare Nicolas Bodin Guittard, CEO de Label4.ai. "L'autre enjeu majeur est la cadence imposée par l'IA : la détection de contenus modifiés doit se faire de manière industrielle, automatisée et adaptée aux spécificités, outils et enjeux de chaque entreprise. C'est la proposition de Label4.ai", ajoute-t-il.
Les cas d'usage sont nombreux : détection de faux, de fraudes et d'intrusions, marquage de documents juridiques, lutte contre la cybercriminalité et fake news. Les clients potentiels sont tout aussi variés, entre moteurs de recherche, plateformes sociales ou e-commerce, banques & assurances, entreprises d'audit, legaltech, le secteur public et institutionnel, dont notamment la police et l'armée, et même le secteur industriel et portuaire... Cinq proof-of-concept sont en cours de réalisation, dans la recherche en ligne, les assurances et l'audit.
Label4.ai agit sur deux axes : l'analyse forensique avancée, soit la détection de contenus générés ou manipulés par IA et le digital watermarking ou tatouage numérique de tout type de contenu généré par IA, image, vidéo mais également texte et audio dès leur génération, de manière à pouvoir plus facilement les détecter une fois en ligne. Une des spécificités de Label4.ai est de tatouer le contenu au plus proche de l'utilisateur, lorsqu'il sort de l'outil d'IA créé par chaque entreprise pour ses besoins métiers. "Pour détecter la nature synthétique des contenus, nous nous sommes adossés à l'expertise des chercheurs du CNRS de Lille. Mais même la technologie de forensique la plus avancée implique un risque d'erreur, de l'ordre de 1 sur 1000. C'est pour cela qu'il faut la compléter par un système de tatouage appliqué aux contenus générés par IA où les chances de se tromper sont infimes. Nous atteignons une erreur sur un milliard avec notre technologie, développée avec l'expertise de l'INRIA de Rennes", explique Anthony Level, cofondateur et CSO de Label4.ai.
Label4.ai a un atout important en effet : son comité scientifique, qui réunit notamment Teddy Furon, directeur de recherche de l'INRIA de Rennes mondialement connu pour ses travaux en digital watermarking, ainsi que deux chercheurs au CNRS spécialisés dans l'analyse forensique et une chercheuse italienne basée à Naples experte dans la détection de deepfakes. "C'est l'adoption de l'IA Act, et tout particulièrement son article 50, qui nous a stimulés à créer Label4.ai", commente Anthony Level. "A partir d'août 2026 en Europe, tous les systèmes d'IA générative, quels qu'ils soient, devront marquer leur sortie de manière à ce que le public sache qu'il s'agit d'un contenu généré par intelligence artificielle", précise-t-il. Label4.ai déclare participer aux travaux du Bureau européen de l'IA "pour les assister à l'élaboration du standard de marquage des contenus générés par l'IA en vertu de l'IA Act".