Des profils littéraires pour réussir vos projets d’IA

Si cela peut paraitre contre-intuitif, l’intelligence artificielle offre de nouvelles opportunités pour les profils littéraires, spécialistes métiers ou profils issus des sciences sociales.

Car si les ingénieurs, data-scientist et mathématiciens s’attachent à concevoir la structure des algorithmes d’apprentissages et à bâtir des systèmes de plus en plus "auto-apprenant", il revient à d’autres experts de penser leur usage et de donner confiance aux utilisateurs.

Il y a d’abord quelques évidences : toute conception de logiciel passe par la coopération entre experts "métier" qui comprennent et connaissent très bien les besoins des utilisateurs, et d’ingénieurs qui sauront concevoir une solution technique y répondant. Mais l’on pourrait croire, un peu naïvement, que pour l’IA ce n’est pas tout à fait la même chose : il pourrait suffire de faire "apprendre" le domaine à la machine pour se débarrasser de l’expert ensuite.

Cette vision idéalisée des capacités de l’intelligence artificielle se heurte à trois problèmes.

Limites de l’intelligence artificielle faible 

Premièrement, les "intelligences artificielles" d’aujourd’hui sont ce que l’on appelle des intelligences artificielles faibles : la machine est capable de battre l’humain sur des taches uniques, simples, sur lesquels on l’aura entraînée avec de grandes quantités de données. La machine n’est pas capable aujourd’hui de véritable raisonnement, elle ne fait que "simuler le raisonnement". Elle n’est pas capable de création, d’improvisation, ou d’apprentissage en totale autonomie sans supervision. Le moment où l’IA prendra le pouvoir et agira en autonomie à la Terminator ou HAL n’est pas pour demain. Pour des taches complexes, il faut mêler intelligemment les approches par apprentissage automatique et par "système expert", qui codent l’expertise métier à travers des approches par règles (et nécessite donc d’avoir des experts sous la main pour les concevoir et les faire évoluer) avoir de l’autre.

En corolaire du point précédent, l’IA contient par essence les biais de ses concepteurs à travers les choix d’algorithmes utilisés d’une part, mais aussi des données et des variables qui lui ont servi à s’entraîner. Un exemple ? Récemment, Amazon a abandonné son IA de recrutement à cause des biais sexiste que celle-ci a pris… à cause du jeu de données initial et de la non supervision de la sélection des variables "acceptables". Prenons le pari qu’aucun responsable RH n’a pas participé activement à la conception de cette IA. Autre cas d’école : le chatbot Tay de Microsoft. L’idée était de mettre en place un chatbot totalement "auto-apprenant" sur Twitter. Il a fallu seulement 8 heures pour que le robot "apprenne" à devenir raciste, sexiste et complotiste…

Ces deux exemples mettent en évidence le troisième problème : au-delà des prouesses potentielles des algorithmes, nous fabriquons in-fine des services, des outils au service des humains. Pour qu’ils soient utiles, ces services doivent être acceptables par les utilisateurs (qui n’a pas déjà pesté contre un chatbot de relation client qui ne comprend rien à nos requêtes et ne permet pas l’escalade vers un humain ?), compréhensibles (peut-on accepté une décision faite par une IA sans que l’on comprenne les ressorts de cette décision ?) et éthiques.

La collaboration forte entre profils multiples est la clé de réussite des projets d’IA. Que ce soit pour la conception d’un chatbot ou d’un assistant virtuel, où la partie "communication" est aussi fondamentale que l’expérience utilisateur et le bon niveau de compréhension du langage naturel, ou  pour bâtir des moteurs de recommandation ou d’aide à la décision auditables, compréhensibles et avec le moins de biais possibles.

Tout particulièrement avec l’avènement de l’IA conversationnelle, notre industrie a résolument besoin des profils littéraires…