Peut-on faire confiance à l’IA pour améliorer la qualité des données produit ?

Dans le domaine de la gestion de la qualité de l’information produit, introduire de l’IA impose de porter une attention particulière à l’interaction entre l’IA et l’humain, pour préserver la confiance.

En tentant de reproduire l’intelligence humaine, l’homme a constaté avec les premiers projets l’intelligence artificielle (IA) que la machine, comme l’homme, commettait des erreurs. Tombée en désuétude, l’IA est réapparue depuis quelques années grâce à un retour de la confiance que l’homme accorde à la machine. Dans le domaine de la gestion de la qualité de l’information produit, introduire de l’IA impose de porter une attention particulière à l’interaction entre l’IA et l’humain, pour préserver la confiance.

La réapparition de l’IA

L’intelligence artificielle n’est pas quelque chose de nouveau. Cette discipline scientifique trouve son origine au début des années 50 avec les travaux d’Alan Turing, pour connaître un âge d’or dans les années 60-70. S’en est suivie une longue période d’hibernation. Devenue presque "has-been", l’IA n’intéressait plus. J’ai personnellement connu la fin de l’enseignement des cours d’intelligence artificielle dans mon école d’ingénieur aux débuts des années 2000. Nos futurs employeurs n’étant plus intéressés par le sujet, l’IA a été retirée des enseignements après ma promotion en 2003.

Pourquoi l’intelligence artificielle réapparait depuis quelques années comme la technologie incontournable pour notre futur ?

Beaucoup avancent que la puissance de calcul, technologie aujourd’hui disponible et accessible au plus grand nombre, permet de faire (enfin) fonctionner des projets d’intelligence artificielle. C’est un point essentiel, mais il y a d’autres facteurs qui expliquent le retour de l’IA sur le devant de la scène.

La confiance est de retour

Facteur essentiel dans le domaine de l’IA, la confiance que l’homme accorde à la "machine" est la base sur laquelle tout projet d’IA doit être fondé.

Le projet "MYCIN"

Développé dans les années 70 au sein de Stanford University, ce système expert était capable d’élaborer les diagnostics médicaux de patients à partir de leurs symptômes et résultats de tests médicaux. Des analyses ont été menées pour vérifier les capacités du système MYCIN. Le niveau de fiabilité du diagnostic atteint par MYCIN était d’environ 65%. Un niveau bien supérieur à celui des experts du domaine qui était compris entre 42,5% et 62,5%. Malgré ce niveau élevé de fiabilité du diagnostic, MYCIN n’a jamais été utilisé. Il a été considéré comme n’étant pas parfaitement fiable et posant de nombreux problèmes juridiques quant à la responsabilité en cas de diagnostic erroné. Pour résumer, l’Homme n’était pas prêt à faire confiance à une machine, certes imparfaite, mais déjà bien meilleure que lui.

Le couple homme/machine

L’objectif de l’intelligence artificielle est de reproduire le plus fidèlement possible l’intelligence humaine. Le dicton "l’erreur est humaine" illustre bien que nous sommes conscients des limites de nos propres capacités. En conséquence, l’IA doit, elle aussi, bénéficier de ce "droit à l’erreur". Il n’est finalement que le reflet de l’erreur humaine.

De nos jours, la technologie est omniprésente. Elle est même devenue essentielle à notre vie quotidienne, du moins elle est perçue comme telle. La confiance que l’homme accorde aux machines a énormément progressée. L’utilisation et la confiance accordée aux comparateurs de prix pour trouver le billet d’avion, l’hôtel ou le voyage le moins cher en est l’exemple. L’homme évite ainsi un travail long et fastidieux même s’il est simple. Dans ce cas, le degré de fiabilité pour l’homme sera fondé sur sa "capacité" à comparer dans l’instant toutes les offres disponibles. Une capacité très limitée si elle est comparée à celle de la machine à laquelle il accorde sa confiance.

C’est le développement considérable de l’Internet qui a naturellement rapproché l’homme de la machine. Une machine avec laquelle il dialogue quotidiennement. Les projets d’IA sont réapparus dans ce contexte.

Une confiance limitée

Prenons l’exemple de la conduite autonome, l’un des sujets les plus suivis dans le monde de l’IA.

Les récents accidents des Tesla en mode "autopilot" ont augmenté la crainte des conducteurs. En 2018, 73% des Américains avaient peur d’effectuer un trajet dans une voiture autonome. Pourtant, les statistiques présentées par Tesla montrent qu’avec un accident mortel pour 209 millions de kilomètres parcourus en mode autonome, leur véhicule est plus fiable que tous les véhicules aux Etats-Unis qui ont une moyenne d’un accident mortel tous les 152 millions de kilomètres parcourus.  Au niveau mondial, ce chiffre tombe à un accident mortel tous les 97 millions de kilomètres parcourus !

Malgré ces craintes, l’IA s’est imposée dans ce secteur. Le véhicule autonome est une réalité. Celle de demain. L’homme sera conduit par une intelligence artificielle.

Le paradoxe de l’IA

La confiance envers l’IA a considérablement progressé. Alors quelle limite ? L’Homme n’accepte pas que la machine fasse des erreurs à sa place. Le paradoxe est que la conscience que l’homme a de ses propres limites le pousse à inventer des machines qui réduiront son taux d’erreurs.

L’IA et la qualité des informations produit

Dans le domaine de la gestion de la qualité des informations produit, des solutions informatiques sont apparues ces dernières années (PIM, MDM, DAM…). Elles permettent de gérer finement toutes les caractéristiques des produits (marketing, techniques, logistiques, commerciales,...) par la mise en place d’un référentiel centralisé unique.

L’objectif principal de ces systèmes est d’optimiser la qualité de l’information produit.

Une erreur d’image (photo du modèle bleu avec la référence du modèle rouge) sur un site de vente en ligne engendre des conséquences : commentaires négatifs des acheteurs, retours produits, coûts de traitement importants. L’erreur sur le prix est également un grand classique aux conséquences parfois très lourdes.

Pour améliorer la qualité, donc la fiabilité de l’information produit et éviter ces problèmes, ajouter de l’IA dans les PIM / MDM semble pertinent. L’IA pourrait analyser les images des produits et vérifier leur cohérence avec le reste de la fiche produit. 

Mais si l’IA fait des erreurs et les injectent dans le référentiel produit, elle va ruiner les efforts des équipes qui ont constitué cette base centralisée d’informations. Dans le domaine du PIM / MDM, l’IA ne peut être mise en place comme un "autopilot" qui analyse les données, détecte les erreurs et les corrige.

Pour les solutions PIM / MDM, une interaction entre l’IA et l’humain doit obligatoirement être mise en place. Le contrôle et la prise de décision doivent rester à l’humain. A l’instar des récents outils de diagnostic en médecine, l’IA doit être considérée comme une assistance à l’humain pour accroitre sa performance pas comme une machine autonome qui remplace l’humain. L’IA peut doit être associée à des algorithmes traditionnels dont la fiabilité n’est plus à prouver et qui ont la confiance des utilisateurs. Enfin, l’IA doit systématiquement pouvoir estimer son propre niveau de fiabilité. Et ainsi, savoir aussi "se taire" plutôt que dire n’importe quoi.

L’introduction de l’IA dans les solutions de PIM et MDM nécessitent la mise en place d’interfaces d’échanges, de contrôle et validation si nous ne voulons pas qu’elle soit déconsidérée pour des questions de confiance mal interprétées.

Autour du même sujet

Peut-on faire confiance à l’IA pour améliorer la qualité des données produit ?
Peut-on faire confiance à l’IA pour améliorer la qualité des données produit ?

En tentant de reproduire l’intelligence humaine, l’homme a constaté avec les premiers projets l’intelligence artificielle (IA) que la machine, comme l’homme, commettait des erreurs. Tombée en désuétude, l’IA est réapparue depuis quelques années...