Décoder les solutions SaaS superficielles : comment les experts en informatique peuvent démasquer l'"IA washing"

De nombreuses solutions d'IA prétendument avancées sont en réalité des imposteurs sans véritables capacités d'IA.

Nous aimons tous les pronostics, n'est-ce pas ? Eh bien, je prédis que cette année, les solutions d'IA superficielles seront révélées pour ce qu'elles sont vraiment : des imposteurs.
De nombreuses entreprises SaaS qui se présentent comme étant orientées vers l'IA n'ont en réalité pas de véritables capacités d'IA. Aux Etats-Unis, la SEC a mis en garde contre le "AI washing" en décembre et la FTC, en février dernier, a averti les spécialistes du marketing et les entreprises qu’ils devaient "contrôler leurs revendications en matière d'IA", afin de déjouer cette pratique trompeuse qui deviendra probablement courante à mesure que l'IA gagnera en popularité et que les organisations chercheront à capitaliser sur cette tendance.
Les professionnels de l'informatique doivent toutefois être capables de faire la différence pour conserver leur intégrité lorsqu'il s'agit de donner à leur entreprise les outils dont elle a besoin.

Un peu de discernement et de bon sens

De nombreux professionnels de l'informatique s'appuient désormais sur l'IA pour prendre en charge leurs tâches. Cette dépendance croissante à l'égard de l'IA s'accompagne d'un plus grand discernement et d'une moins grande facilité à se laisser influencer par les déclarations sur les performances de l'IA. Trop de déceptions passées avec des solutions exagérées (le "cloud washing", par exemple) et une sensibilisation accrue aux technologies de l'IA ont conduit à cette évolution. 
Conscients du rôle essentiel de l'IA dans leurs activités, les professionnels de l'informatique font désormais preuve de prudence et exigent des preuves concrètes avant d'adopter de nouveaux outils basés sur l'IA. L'importance croissante accordée à la responsabilité de l'IA les incite à rationaliser les applications, en veillant à ce que les solutions adoptées ne se contentent pas d'améliorer la productivité, mais apportent également une valeur tangible.

Chatbot piloté par l'IA ou non ?

Prenons l'exemple des chatbots de support client. Certaines offres de chatbots peuvent être commercialisées comme étant pilotées par l'IA, mais elles sont en fait superficielles en termes de capacités - ce qui signifie que le fournisseur SaaS annonce ses chatbots comme étant dotés d'IA, ce qui suggère que les chatbots peuvent comprendre les clients et leur répondre avec une intelligence semblable à celle des humains. En réalité, les chatbots s'appuient souvent sur des réponses préprogrammées et des algorithmes de base fondés sur des règles plutôt que sur de véritables technologies d'IA telles que le traitement du langage naturel ou l'apprentissage automatique. S'ils permettent d'automatiser le traitement des demandes des clients, ils ne disposent pas de capacités d'IA avancées permettant d'engager des conversations constructives. 

S'il existe un réel besoin d'IA dans les interactions avec les clients, les entreprises doivent examiner attentivement les options disponibles pour s'assurer qu'elles obtiennent une véritable IA et pas seulement des réponses préprogrammées. Pour déterminer si un chatbot utilise véritablement l'IA, les informaticiens doivent d'abord le tester en interne, puis le présenter progressivement à de vrais clients, en surveillant ses performances. Ces étapes permettront au chatbot de s'améliorer au fil du temps et d'offrir aux clients une meilleure expérience.

Les assistants virtuels atteints du syndrome de l'imposteur

Qui ne voudrait pas d'un assistant virtuel doté d'une IA capable de planifier et de gérer des calendriers ? Il s'agit là d'un outil d'IA formidable qui améliorera sans aucun doute la productivité, n'est-ce pas ? Mais attention à ceux qui l'adoptent. Bien que ces assistants virtuels soient souvent présentés comme dotés d'IA et prétendent être capables de comprendre les commandes en langage naturel et de gérer de manière autonome l'emploi du temps d'un utilisateur, un examen plus approfondi de l'imposteur révèle que ces assistants virtuels s'appuient généralement sur des algorithmes de base fondés sur des règles et sur des modèles prédéfinis pour gérer les tâches de planification. Ainsi, bien qu'ils soient capables de reconnaître certains mots-clés et phrases et d'effectuer des actions de planification simples, ils n'ont pas les capacités d'IA avancées pour comprendre les préférences de planification complexes, s'adapter aux changements ou prendre des décisions au nom de l'utilisateur. En fin de compte, les utilisateurs risquent de devoir ajuster manuellement leur emploi du temps.

Un véritable assistant virtuel doté d'une IA s'adapte et fait des choix intelligents en fonction de ce qu'il apprend. Pour le tester, il faut l’analyser en fonction de ce qu’il comprend et comment il réagit à la façon dont votre équipe lui parle naturellement. S'il est capable de gérer des tâches compliquées et s'il apprend au fil du temps en faisant preuve d'intelligence dans ses réponses.

Trouver ce qui est authentique et ce qui ne l'est pas prend du temps, mais il est préférable de faire le travail en amont pour économiser du temps et des coûts. Pour démasquer les solutions d'IA superficielles, les informaticiens doivent s'engager dans une rationalisation incessante des applications - en évaluant et en examinant minutieusement les outils d'IA qu'ils adoptent, afin de s'assurer qu'ils améliorent réellement la productivité. L'élimination progressive des modules SaaS trop complexes et l'ajout de solutions qui améliorent réellement la productivité et apportent une valeur réelle à l'entreprise est la voie à suivre en 2024 et au-delà.