OpenAI, la visibilité à tout-va
OpenAI impose ses innovations via la "stratégie du fait accompli", au mépris des droits d'auteur et du droit à l'image. Sans régulation, la création s'appauvrit, menaçant l'écosystème créatif.
Au milieu de la surenchère permanente des acteurs de l’IA, la sortie de Sora 2 d’OpenAI a marqué les esprits. Au-delà de l’enthousiasme et des peurs que suscitent les incroyables vidéos de démonstration fleurissant sur TikTok ou X, la stratégie de l’entreprise OpenAI relance de manière spectaculaire le débat sur le respect du droit de propriété intellectuelle d’une œuvre et du droit à l’image.
La stratégie du fait accompli comme fer de lance
À chaque lancement d’une nouveauté OpenAI, son lot d’appropriations au mépris des droits des créateurs. Scarlett Johansson n’est pas d’accord pour que la future application « Sky » utilise sa voix pour interagir vocalement avec les internautes dans ChatGPT 4o ? L’entreprise n’en tient pas compte. Les vidéos circulent, les articles relaient l’affaire, le buzz et la notoriété enflent. Même approche lors du lancement du générateur d’images Sora : OpenAI introduit la fonction « Ghibli effect » sans se soucier de l’accord du studio. Résultat ? La société récolte un million de nouveaux utilisateurs en une heure.
La mécanique est simple : on laisse l’emballement se faire quelques jours pour avoir un maximum d’adhésion. Les nouveaux utilisateurs se prêtent volontiers au jeu de braver l’interdit, grisés par l’expérience. Une fois que les polémiques arrivent, la société s’excuse et propose des contrôles ou de retirer la fonction. Cette approche a permis à OpenAI d’obtenir, en termes d’adoption, d’usage quotidien et de visibilité grand public, une domination sans partage. ChatGPT comptait 400 millions d’utilisateurs hebdomadaires avant le lancement de Sora. Trois mois plus tard, ils sont au nombre de 800 millions…
Cette technique appelée « stratégie du fait accompli », utilisée notamment par Uber à ses débuts, a pour but de créer une dépendance économique et sociale en devenant incontournable. Une fois établie, l’entreprise peut négocier en position de force une régularisation avec les États.
Une entreprise à l’image de son époque : outrancière
Pour la sortie de son nouveau modèle appelé Sora 2, OpenAI assume sa nouvelle marque de fabrique : s’inspirer d’univers de la pop culture pour faire la démonstration de sa puissance et attirer l’attention. Cette fois-ci, on prend pour référence les franchises Avatar et Game of Thrones. Qu’importe si les auteurs sont d’accord ou non, l’entreprise n’en est plus à son coup d’essai et est devenue un mastodonte financier qui ne semble plus avoir de limites. Seule compte la recherche de visibilité, quitte à piétiner délibérément les droits de propriété intellectuelle.
Au-delà du manque d’exemplarité de cette entreprise, le message envoyé par OpenAI à ses utilisateur·rice·s est catastrophique : il les légitime à utiliser son outil pour s’approprier une œuvre à leurs propres fins, sans se soucier des règles, des cadres juridiques et des conséquences pour les créateur·trice·s des œuvres originales. Il devient donc monnaie courante de voir le détournement de personnages de la pop culture comme Mario ou Pikachu généré ad nauseam sur les réseaux sociaux. Les vidéos qui en ressortent détruisent l’image de ces créations patiemment construites.
Mais comme si cela ne suffisait pas, on franchit encore un cap en exploitant l’image de Stephen Hawking sur des rampes de skate, en combat MMA ou dans des courses de Formule 1. Ce trend s’est rapidement diffusé avec d’autres célébrités comme Michael Jackson et Martin Luther King. Leur point commun ? Ils sont tous morts, donc pas besoin de leur consentement. Cela ouvre une nouvelle bataille judiciaire sur le droit à l’image. Leurs ayants droit ont beau supplier de respecter l’image des défunts, difficile de contrôler la situation, même pour OpenAI.
Ne pas perdre de vue la précarité des auteurs.
Face à ce pillage en règle, il est encore bien difficile de faire valoir son droit. L’IA Act, qui devait servir de régulateur à partir de 2025, est sans cesse repoussé pour cause d’enjeux politiques et financiers. Hormis préciser sur les deepfakes que le contenu a été généré avec de l’IA, rien n’est encore imposé ni mis en place d’un point de vue juridique. Les entreprises attendent des jurisprudences pour agir, notamment le procès intenté par Disney et NBC Universal à Midjourney. Ils accusent ce dernier d’avoir entraîné leur produit en utilisant leurs contenus sans autorisation. En attendant l’issue au long cours de ce procès, certains poids lourds du secteur tentent de réagir, voire d’être des garde-fous.
C’est le cas d’Adobe, qui propose aux créateurs de revendiquer la propriété de leur travail via un système de watermark sur les images. L’application gratuite « Adobe Content Authenticity » est en bêta publique et devrait apporter un timide début de réponse. En attendant mieux, que peut-on faire à notre échelle pour protéger la création ? On présente souvent l’IA comme une révolution, mais ce n’est pas une excuse pour faire sauter toutes les règles et s’affranchir de l’ordre établi. Voyons-la plutôt comme une évolution. Le droit d’auteur et de propriété intellectuelle s’applique toujours, IA ou pas. À nous d’être responsables et d’y veiller. Pourquoi est-ce important ? Si on bafoue leurs droits, combien de personnes créatives vont persister si elles ne pensent pas pouvoir en vivre ? Et sur le long terme, qui dit moins de créateur·trice·s dit moins de création. Paradoxal pour OpenAI, quand on sait que c’est la matière première pour alimenter la partie créative de ses moteurs IA…