Alix de Goldschmidt (M6) "Chez M6, nous nous servons d'une dizaine d'outils d'IA générative"
Génération d'images ou de vidéos promotionnelles, clonage vocal... Alix de Goldschmidt, directrice de l'innovation du groupe M6, détaille les nombreux exemples d'utilisation de l'IA générative par le groupe M6
JDN. Quel usage les médias du groupe M6 font de l'IA générative ?

Alix de Goldschmidt. Le cas d'usage le plus évolué et quotidien aujourd'hui au sein de nos rédactions est la transcription automatique (speech-to-text) de nos propres contenus. Cela se fait directement au sein de notre CMS et permet aux journalistes de nos chaines radio d'aller plus vite dans la conception de résumés de podcasts, de contenus éditoriaux et surtout dans le montage des sujets. Cette aide au dérushage commence aussi à être adoptée pour les sujets télévisuels dans nos filiales de production internes notamment chez Studio 89. Nos homologues chez RTL Group nous accompagnent sur ces sujets.
De manière générale, au sein des médias du groupe M6, l'IA générative est un outil d'aide à la reformulation de textes et de création d'images à partir de contenus existants chez nous. L'IA est également déployée pour aider les équipes qui réfléchissent à de nouvelles idées créatives et dans le brainstorming de nouveaux concepts d'émissions voire de maquettes de sujets télévisuels. C Productions a été l'un des premiers studios de production à utiliser l'IA générative pour écrire le premier jet des contenus d'information, retravaillé ensuite par nos journalistes qui s'en servent comme support de préparation avant d'attaquer une première phase de production. L'IA générative permet dans ce cas d'aller plus vite.
Enfin, nous avons également recours à l'IA générative pour reformater nos contenus vidéo afin de les diffuser sur les réseaux sociaux et pour produire des capsules vidéo d'autopromotion et de teasing de nos émissions pour diffusion sur nos antennes et les réseaux sociaux. A titre d'illustration, le dernier teaser des Apprentis Aventuriers a été conçu avec l'aide de l'IA générative, qui est venue animer des photos prises durant le tournage.
Faites-vous appel à l'IA générative dans la réalisation de contenus que vous diffusez à l'antenne ?
La génération à l'aide d'IA d'images, d'audio ou de vidéos pour nos contenus diffusés à l'antenne est encore à un stade embryonnaire. Car même si la technologie est très avancée, les vidéo IA n'arrivent pas encore à générer des images de la qualité de ce que nous diffusons sur nos antennes. Chaque vidéo générée par IA doit ensuite être retravaillée par nos équipes. Cette technologie n'est par conséquent pas encore adaptée à un usage généralisé pour les longs formats, sans compter le processus nécessaire et en cours pour intégrer ces IA dans nos phases de montage et de production.
Nous nous en servons néanmoins, en plus de production de capsules promotionnelles, dans quelques cas bien spécifiques. Parmi ces derniers, nous pouvons citer le recours au clonage vocal en radio : l'humoriste Alex Vizorek s'en sert pour ses chroniques chez RTL ; la technique est également utilisée parfois dans "Entrez dans l'Histoire". Une autre illustration est la production de backgrounds de nos émissions, comme pour la dernière National Football League. Enfin, l'IA nous aide à améliorer la qualité de l'image de nos propres contenus (upscaling) ou pour rendre anonymes des voix, afin de protéger nos témoins quand cela s'avère nécessaire.
Vous aviez fait en décembre une toute première expérimentation d'un avatar avec Mac Lesggy (E=M6). Où en êtes-vous sur ce sujet ?
L'avatar de Mac Lesggy a été utilisé pour faire la promotion d'une spéciale "Futur" de l'émission E=M6, qui traitait justement de l'intelligence artificielle avec une visée pédagogique. L'un des buts de ce teasing était aussi de sensibiliser nos publics aux risques du deep fake.
Nous faisons d'autres tests, accompagnés d'Argil.ai. Lorsque le concept créatif rendra le recours à un avatar pertinent, nous ne nous refuserons pas d'autres occasions de le déployer. On peut imaginer par exemple de créer l'avatar d'un de nos personnages de nos chaînes jeunesse qui viendrait en inter-programmes annoncer l'émission suivante. L'avatar pourrait aussi un jour s'avérer utile pour augmenter la présence de nos présentateurs, par exemple, en cas d'information chaude à diffuser sur les réseaux sociaux.
Ce sont des pistes de réflexion. Dans tous les cas un avatar doit venir pour agir en complémentarité, jamais pour remplacer. C'est très utile aussi dans les formations : mon avatar introduit toutes les formations sur l'intelligence artificielle dispensées dans le groupe.
De quels outils d'IA générative vous servez-vous aujourd'hui ?
Nous nous servons d'une dizaine d'outils dans le groupe, dont certains pour des cas d'usage très spécifiques pour les besoins de certaines équipes, comme Nijta, outil d'anonymisation vocale, ou comme les IA servant à améliorer les images que nous produisons (upscaling).
Au cœur du groupe, notre vaisseau amiral de l'IA générative, c'est Alfred, notre "ChatGPT" à nous. Alfred utilise Claude d'Anthropic mais rien ne nous empêche demain de nous servir aussi de Perplexity ou d'OpenAI. C'est un LLM sécurisé basé sur des serveurs en Europe très simple d'utilisation, disponible à l'ensemble des collaborateurs du groupe. Il sert à améliorer leur productivité dans leurs tâches quotidiennes, comme la préparation de réunions, le résumé de documents, la génération de textes, la traduction, etc. Alfred aide aussi au codage. Il nous permet également d'analyser par exemple les performances de nos émissions. Il est accessible à nos 2 000 collaborateurs par défaut depuis début mars.
Et pour la création d'images et de vidéos ?
Pour la création d'images et l'écriture de scénarios ou de contenus divers en texte, nous nous servons d'Awen depuis début 2024, qui a l'intérêt d'être un outil adapté aux usages collaboratifs. Cette start-up française nous permet d'accéder à différents modèles de LLM et de génération d'images, avec la facilité de pouvoir importer au sein de l'interface nos chartes graphiques et éditoriales ainsi que nos assets, inputs et références. Cela étant, nous pouvons aussi faire appel ponctuellement à Midjourney ou Stable Diffusion pour la génération d'images.
Enfin, pour la génération de vidéos promotionnelles et sociales, nous venons de signer un accord, via le groupe Bertelsmann (maison-mère de RTL Group et du groupe M6, ndlr), avec Runway, outil que nous estimons le plus abouti dans ce domaine. Des expérimentations sont en cours pour la production de vidéos publicitaires. A terme, Runway pourrait être envisagé dans la production de contenus télévisuels.