Comment les modèles d'IA peuvent s'inspirer des étiquettes alimentaires ?
Les étiquettes comme le Nutri-score guident les choix alimentaires. Pour l'IA, des cartes modèles transparentes sont essentielles pour garantir confiance, sécurité et éthique des outils.
Par Nat Ives, directeur commercial Entreprise France chez NVIDIA
Les étiquettes alimentaires comme le Nutri-score fournissent des informations essentielles sur la valeur nutritionnelle d'un produit. Sans eux, les consommateurs n'auraient pas de moyen facile de savoir quelle quantité de matières grasses, de protéines ou de sucre se trouve dans leurs aliments. Mais cela n'a pas toujours été le cas. Cette évaluation de 5 niveaux allant de A à E n’a été mise en place qu’en 2016 dans le cadre de la loi de modernisation du système de santé.
Ces étiquettes alimentaires offrent une transparence sur le contenu d'un produit. Cela permet ainsi au consommateur de prendre des décisions éclairées et de faire confiance à ses produits. Bien qu'un outil d'intelligence artificielle de pointe et un paquet de céréales puissent sembler ne pas avoir grand-chose en commun, l'industrie pourrait en apprendre beaucoup sur les principes et la nécessité de la transparence de l'IA.
Qu'entendons-nous par confiance et transparence, dans le domaine de l'IA ?
La confiance dans l'IA ne peut se résumer à une seule action ou approche ; C'est un cadre qui construit et maintient continuellement la confiance. L'IA digne de confiance est une approche du développement de l'IA qui donne la priorité à la sécurité et à la transparence comme fondement – elle doit être intégrée à chaque aspect de la chaîne de valeur et ne peut pas être négligée.
Les principes clés d'une IA digne de confiance sont la confidentialité, la sécurité, la transparence et la non-discrimination. Les modèles d'IA fiables doivent éviter les biais et la discrimination involontaires, être conformes aux réglementations et protéger les données, et fonctionner comme prévu.
La transparence est une caractéristique de la confiance. Pour que les créateurs, les utilisateurs et l’ensemble des parties prenantes fassent confiance aux modèles d'IA, ils doivent comprendre comment ils fonctionnent. La meilleure pratique consiste à décrire comment le modèle a été formé et à identifier les risques connus. Non seulement cela garantit que les bons modèles sont utilisés pour des cas d'utilisation appropriés par des experts en IA, mais cela permet également aux parties prenantes de comprendre et d'utiliser efficacement ces outils.
Comment pouvons-nous améliorer la fiabilité de l'IA ?
En amont et en aval de la chaîne de valeur, toutes les parties prenantes doivent bénéficier d'une IA transparente. Le moyen le plus efficace d'améliorer cette transparence et de démontrer sa fiabilité est d'utiliser des cartes de modèle d'IA, de courts documents qui fournissent des informations clés en un coup d'œil sur les modèles de machine learning.
Or, les cartes de modèle d'IA peuvent apprendre beaucoup des étiquettes alimentaires. Elles doivent être faciles à comprendre et offrir des informations claires sur le modèle d'IA. Vous n'avez pas besoin d'être un nutritionniste pour voir si un certain produit alimentaire est sain et vous ne devriez pas avoir à être un développeur d'IA pour comprendre le fonctionnement d'un certain modèle d'IA. Cela signifie que les cartes de modèle doivent être exemptes de jargon et standardisées. Bien que nous ayons constaté des progrès dans ce domaine, nous devons nous efforcer d'obtenir une plus grande harmonisation dans l'ensemble de l'industrie. Les outils d'IA jouent déjà un rôle fondamental dans notre société et il est donc essentiel que ces outils se démocratisent.
Sans cartes de modèle, il est difficile de déterminer si un modèle est adapté à l'utilisation souhaitée par une organisation particulière. Les cartes de modèles évitent de perdre du temps inutilement, en travaillant à rebours pour obtenir des informations qui auraient dû être transmises dès le départ et tout au long de la chaîne de valeur. Elles permettent également aux organisations et aux utilisateurs de prendre des décisions éclairées en fonction de leurs besoins.
Il est vrai que la connaissance appelle la connaissance. En ce qui concerne les cartes de modèle, la rétention d’information n’est en aucun cas constructive. En fait, nous constatons que les entreprises exigent et attendent de plus en plus d'explications en matière d'IA. Lorsque nous avons affaire à des outils aussi puissants, il est important de reconnaître la responsabilité de chaque maillon de la chaîne de valeur.
Construire un avenir transparent et digne de confiance
Bien qu'il reste encore des progrès à faire, nous sommes heureux de constater qu'il y a un consensus parmi les acteurs de l'industrie pour mettre en œuvre ces cartes modèles.
L'utilisation de cartes modèles, par le biais d'initiatives telles que Model Card ++ permet de rendre les modèles d'IA plus transparents. Des recherches ont même démontré qu’elles augmentent l'utilisation des modèles. Pour tirer le meilleur parti des modèles actuels et futurs, nous devons comprendre leurs limites, avoir une visibilité sur les données sur lesquelles ils ont été formés et avoir une clarté sur les considérations éthiques. Ces cartes contiennent également des informations sur les identifiants de version du modèle, les restrictions de licence et d'autres informations qualitatives. Pour faire confiance aux outils de l'IA, il faut améliorer la transparence pour les utilisateurs.
Quand nous étions plus jeunes, nous choisissions les céréales que nous voulions en fonction de la couleur de la boîte ou du jouet gratuit qu'elle contenait. En tant qu'adultes, nous comprenons que pour prendre une décision éclairée, nous devons être attentifs aux informations sous-jacentes sur ce que la boîte contient réellement. Dans le contexte des modèles d'IA, les cartes de modèle accessibles permettent de prendre ces décisions éclairées et in fine d'accroître la confiance dans le développement et le déploiement de l’IA.