Quand l'IA pollue le marketing avec de nouvelles questions juridiques

Les questions d'ordre éthique ou légal que l'IA ravive compliquent la tâche des professionnels du marketing qui doivent s'adapter.

L’une de nos campagnes marketing les plus réussies a vu le jour bien avant que l’IA ne soit dans tous nos ordinateurs. Si nous rééditions cette campagne aujourd’hui, à grand renfort d’intelligence artificielle, les questions d’ordre éthique ou légal nous compliqueraient beaucoup la vie. Alors, fait-il vraiment laisser l’IA embrouiller les choses ?

Un peu de contexte

J’ai mis en place une campagne marketing pour une marque il y a dix ans, alors que l’IA n’était pas encore très répandue.
Si je devais refaire cette campagne aujourd’hui, j’utiliserais l’IA. Mais, les questions éthiques arriveraient en cascade.
Retour vers le futur du marketing
L’histoire se déroule au sein d’une marque de vêtements pour hommes. Contrairement à tous ses concurrents, la marque ne dispose pas de carte de fidélité permettant à ses détenteurs de bénéficier d’avantages tels que des ventes en avant-première, des prix préférentiels, des promotions exclusives, etc.
De multiples opérations de collecte d’e-mails ont permis de constituer une base de données de 1,2 million de profils clients, comprenant chacun :
– le nom
– le prénom
– l’adresse électronique
– le numéro de téléphone portable.
– l’adresse postale du client.
Une idée de campagne marketing (vraiment) innovante
Et si, au lieu de souhaiter un bon anniversaire à nos clients, comme le font tous nos concurrents, nous leur souhaitions une « bonn e fête ». Et comme la marque est créative et astucieuse, nous avons imaginé un message sympa en utilisant les prénoms de ses clients. Voici le message :
Bonjour |Prénom|,
Je n’en reviens pas ! Je suis responsable de la base de données de la marque XXXXX et je porte le même prénom que vous.
Mais il y a une tradition ici. Chaque employé doit trouver quelque chose de gentil pour nos clients le jour de leur prénom.
Alors, comme c’est ma fête, j’ai pensé offrir une réduction de 15 % (valable pendant 5 jours) à tous nos clients dont le prénom est |Prénom|, comme vous et moi.
C’est sympa, non ?
Bonne fête à tous les |Prénom| encore une fois,
|Prénom|
L’idée est d’envoyer cette même offre promotionnelle tout au long de l’année, mais avec une campagne par jour, adressée exclusivement à ceux dont c’est la fête le jour en question. Le jour de la Saint Antoine, tous les Antoine enregistrés dans la base de données reçoivent un courriel dans lequel un certain Antoine de la marque leur dit qu’il s’appelle Antoine et leur envoie ce message. Le jour de la Saint Stéphane, tous les Stéphane reçoivent un e-mail dans lequel un certain Stéphane de la marque leur dit qu’il s’appelle Stéphane et leur envoie ce message. Le jour de la Saint Pierre, chaque Pierre reçoit un e-mail dans lequel un certain Pierre de la marque lui dit qu’il s’appelle Pierre et lui envoie ce message. Et ainsi de suite.
Imaginons maintenant que nous devions refaire cette campagne aujourd’hui. Nous utiliserions l’IA pour leur offrir une réduction de 15 % plutôt sur une sélection d’articles correspondant à leurs goûts et préférences (et si possible en sur-stocks, ou bénéficiant d’un taux de marge confortable, histoire de ne pas trop dégrader le compte d’exploitation tout de même…).
C’est bien, mais cela pose quelques problèmes éthiques.

Les questions éthiques liées à l’utilisation de l’IA

Elle soulève diverses questions juridiques et éthiques liées à l’utilisation de l’intelligence artificielle (IA) et des données à caractère personnel.

Protection des données et de la vie privée : La campagne utilise des données personnelles, notamment des noms, des anniversaires et des adresses électroniques. En tant que responsable du traitement des données, l’entreprise doit veiller au respect du Règlement général sur la protection des données (RGPD), de la loi française sur la protection des données de 2018 et de la directive ePrivacy (2002/58/CE) qui s’appliquent au traitement des données à caractère personnel. Veillez à fournir des informations claires sur les activités de traitement des données, à obtenir un consentement valide si nécessaire et à respecter les droits des personnes concernées. Il est également conseillé d’anonymiser ou de pseudonymiser les données utilisées dans les algorithmes d’IA afin de mieux protéger la vie privée.

Équité et partialité : le système d’IA ne doit pas discriminer ou exclure un client sur la base de son prénom ou de tout autre attribut personnel. Si le jour du prénom n’est pas reconnu pour un client particulier, un mécanisme alternatif doit être mis en place pour s’assurer qu’il n’est pas injustement exclu des avantages de la campagne.
Propriété intellectuelle : Le modèle d’IA utilisé pour les recommandations personnalisées pourrait potentiellement enfreindre les brevets liés aux systèmes de recommandation. Il est essentiel de procéder à une vérification préalable de la propriété intellectuelle afin d’identifier les risques potentiels d’infraction.
Transparence et responsabilité : L’utilisation de l’IA doit être transparente pour les clients. Informez-les que des algorithmes d’IA sont utilisés pour personnaliser les recommandations de produits. L’entreprise doit également disposer de mécanismes permettant d’enquêter et de répondre à tout problème découlant du système d’IA.
Responsabilité juridique : L’entreprise est légalement responsable des résultats de la campagne, même ceux générés par le système d’IA. Tout préjudice ou dommage résultant de l’utilisation de l’IA peut entraîner des responsabilités juridiques.

Pire, l’IA pourrait discriminer ou exclure certains clients

Les systèmes basés sur l’IA apprennent des modèles à partir des données et utilisent ces modèles pour faire des prédictions ou prendre des décisions. Si les données d’entrée sont biaisées, le système d’IA reproduira et amplifiera potentiellement ce biais. Dans le contexte de la campagne de marketing que vous avez décrite, le système d’IA ne doit pas discriminer ou exclure un client sur la base de son prénom ou de tout autre attribut personnel.
Voici quelques exemples de ce qui pourrait se produire :

Biais dans la reconnaissance des noms : Supposons que votre base de clients contienne davantage de clients portant certains noms (par exemple, « Jean ») que des noms moins courants (par exemple, « Evariste »). Si le système d’IA est formé sur ces données, il peut être plus efficace pour reconnaître et envoyer des offres à « Jean » le jour de la Saint Jean, mais peut négliger « Evariste » le jour de la Saint Evariste parce qu’il y a moins de données pour ce nom dans l’ensemble de formation. Cela pourrait conduire à une discrimination involontaire, les clients portant des noms moins courants ne recevant pas les mêmes offres.

Biais dans les recommandations de produits : Si le système d’IA apprend à recommander des produits en se basant sur le comportement d’achat des personnes portant le même prénom, il pourrait en résulter un traitement inéquitable. Par exemple, si la plupart des « Marie » ont toujours acheté des articles à bas prix, le système d’IA pourrait ne recommander que des articles moins chers à toutes les « Marie », ce qui ne correspondrait pas forcément aux souhaits de toutes les « Marie ». Cela pourrait conduire involontairement à une discrimination fondée sur le prénom.

Discrimination fondée sur d’autres attributs personnels : En essayant de personnaliser l’expérience du client, l’IA pourrait involontairement opérer une discrimination fondée sur d’autres attributs. Par exemple, si le système d’IA tient également compte du sexe, de l’âge ou de la situation géographique pour générer des recommandations personnalisées, il pourrait en résulter des résultats discriminatoires. Par exemple, si le système apprend que les jeunes préfèrent un certain style de vêtements et les personnes plus âgées un autre, il risque de perpétuer ces stéréotypes et de ne pas recommander une plus grande variété de produits à chaque groupe.

Comment éviter de tels préjugés et une telle discrimination ?

  • Veillez à ce que le système d’IA soit formé à partir de données équilibrées représentant tous les noms de la même manière. Pour ce faire, vous pouvez suréchantillonner les noms sous-représentés ou intégrer à votre modèle des méthodes permettant de gérer le déséquilibre des classes.
  • Envisagez de mettre en œuvre des mesures d’équité dans l’évaluation de votre modèle d’IA afin de vous assurer qu’il ne favorise pas un groupe au détriment d’un autre.
  • Utilisez des techniques d’IA explicable pour comprendre pourquoi votre système d’IA fait certaines recommandations et surveillez-le pour vous assurer qu’il ne favorise pas injustement certains groupes.
  • Veillez à obtenir et à documenter le consentement explicite de vos clients pour l’utilisation de leurs données personnelles, et informez-les de la manière dont leurs données sont utilisées, y compris l’utilisation de l’IA.

Quel plan d’actions pour le PDG et ses équipes

Le PDG :

  • Veillez à ce que tous les services soient conscients de l’importance de l’éthique des données et des lois sur la protection de la vie privée dans les campagnes basées sur l’IA.
  • Fournir les ressources nécessaires pour garantir le respect de l’éthique des données et des lois sur la protection de la vie privée.
  • Participer activement aux sessions de formation pour comprendre les implications juridiques et éthiques de l’IA.
  • Examiner régulièrement les rapports des autres responsables concernant la conformité des données et l’éthique de l’IA.
  • Créer une culture d’entreprise qui respecte la vie privée des clients et encourage l’utilisation éthique de l’IA.

Directeur du marketing (CMO) :

  • Travailler avec l’équipe de développement IT/AI pour s’assurer que la conception de la campagne de marketing prend en compte les implications éthiques et respecte les lois sur la protection des données.
  • Se coordonne avec le responsable juridique et le responsable de la protection des données pour comprendre et respecter les réglementations en matière de confidentialité des données.
  • Mettre en œuvre des stratégies pour s’assurer que le consentement des clients à l’utilisation des données est obtenu de manière appropriée.
  • Contrôler et évaluer régulièrement la campagne de marketing afin de détecter et de rectifier tout problème d’ordre éthique ou juridique.
  • Examiner et approuver toutes les communications avec les clients liées à la campagne afin de garantir la transparence et l’équité.

Responsable juridique :

  • Effectuer des audits réguliers pour contrôler le respect des lois sur la protection des données.
  • Effectuer des contrôles préalables en matière de propriété intellectuelle afin d’identifier les risques potentiels d’infraction.
  • Fournir des conseils juridiques au CMO et au CEO concernant toute modification des lois sur la confidentialité des données susceptible d’affecter la campagne.
  • Travailler avec le DPD pour former le personnel à la protection des données et aux implications juridiques de la campagne pilotée par l’IA.
  • Préparer des rapports réguliers pour le PDG détaillant la conformité légale et tout risque ou problème identifié.

Délégué à la protection des données (DPD) :

  • Collaborer avec l’équipe de développement de l’IA pour veiller à ce que la confidentialité des données soit préservée pendant le traitement des données.
  • Mener des évaluations de l’impact sur la protection des données afin d’identifier et d’atténuer tout risque potentiel.
  • Fournir des conseils au CMO et au responsable juridique sur la manière de se conformer aux réglementations en matière de confidentialité des données dans le cadre de la campagne.
  • Informer régulièrement le directeur général et les autres responsables des procédures de protection des données.
  • Former le personnel à la protection des données et à l’importance de la conformité.

Comité consultatif d’éthique de l’IA (s’il existe) :

  • Examiner régulièrement les implications éthiques du système d’IA, y compris les préjugés et la discrimination potentiels.
  • Veiller à la transparence du système d’IA et s’assurer qu’il est conforme aux directives éthiques.
  • Faire des recommandations au CMO et à l’équipe de développement de l’IA sur la manière d’améliorer l’utilisation éthique de l’IA dans la campagne.
  • Procéder à des examens réguliers afin d’évaluer l’impact du système d’IA sur l’équité et la discrimination.
  • Rendre compte au PDG des questions éthiques et des recommandations relatives à l’utilisation de l’IA.

Équipe de développement IT/AI :

  • Travailler avec le CMO pour comprendre les objectifs de la campagne et s’assurer que le système d’IA s’aligne sur ces objectifs.
  • Mettre en œuvre les changements apportés au système d’IA pour résoudre les problèmes éthiques et garantir la conformité avec les lois sur la protection des données.
  • Contrôler régulièrement le système d’IA afin de détecter et de rectifier toute partialité ou discrimination.
  • Veiller à ce que les données soient rendues anonymes ou pseudonymisées avant d’être utilisées dans le système d’IA.
  • Fournir des mises à jour régulières au directeur général et aux autres responsables concernant les performances du système d’IA et les problèmes rencontrés.

Que de travail additionnel pour une simple campagne ! S’il l’on suppose que tout ce petit monde est normalement constitué et qu’il ne court pas après du travail supplémentaire, venant s’ajouter à des agendsa déjà bien remplis, il y a fort à parier que notre projet de campagne ne sera jamais validé. A moins que la campagne ne soit limitée à un envoi uniquement le 30 février des années bissextiles.