Traitement automatique du langage : Google Cloud impose sa marque

Traitement automatique du langage : Google Cloud impose sa marque AWS, GCP, IBM Watson et Azure se distinguent en matière de langues supportées. Mais aussi en termes de traitements : de l'extraction d'entités à la classification en passant par l'analyse des émotions.

Le traitement automatique du langage naturel n'a rien de nouveau. Les premiers travaux de cette discipline mêlant méthodes stochastiques ou statistiques ont débuté dans les années 1950, en pleine guerre froide, dans le but de développer la traduction automatique. Par la suite, les solutions de natural language processing (NLP) ont été longtemps réservées au monde de la recherche ou aux entreprises pouvant acquérir une licence perpétuelle tarifée en général de 100 à 150 000 euros. Une fois encore, la démocratisation vient du cloud. Ces dernières années, les principaux fournisseurs de la place se sont engagé dans le NLP as a Service. Recherche d'information, taggage, catégorisation de documents, reconnaissance d'entités nommées, résumé automatique de textes, analyse de sentiments… Leurs offres permettent d'expérimenter différents scénarios sans engager d'investissements élevés.  Face à Amazon, IBM et Microsoft, Google tirent, comme souvent dans l'IA, son épingle du jeu sur ce segment.

Comparatif des services cloud de NLP d'Amazon, Google, IBM et Microsoft.
  AWS Comprehend Azure API Analyse de texte  Google Cloud Natural Language IBM Watson Natural Language Understanding
Année de sortie 2017 2016 2016 2015
Nombre de langues supportées 6 5 10 pour l'analyse syntaxique 13
Fonctionnalités Extraction de phrases clés, analyse syntaxique, reconnaissance d'entités, détection de la langue, classification personnalisée. Analyse d'opinions, extraction des expressions clés, détection de la langue, reconnaissance d'entités nommées. Classification de contenus,      analyse syntaxique, analyse des entités, analyse des sentiments. Catégorisation de contenus, identification de concepts, analyse des émotions et des sentiments, recherche d'entités et de mots-clés.
Références LexisNexis, PwC, Deloitte, Roche. Prism Skylabs. DocuSign, Meredith, News UK, Iron Mountain. Box, Guardio, Influential, Audiense.
Tarification Offre gratuite jusqu'à 5 millions de caractères. Ensuite, le prix unitaire dépend de la fonction retenue. Exemple : à partir de 0,0001 dollar pour l'extraction de phrases clés. Offre gratuite jusqu'à 5 000 transactions par mois. Le prix dépend ensuite du type d'instance. Compter 1,687 euros pour 1 000 enregistrements de texte (jusqu'à 500 000 enregistrements) Offre gratuite jusqu'à 5 000 unités par mois. Le prix dépend ensuite de la fonction retenue. Exemple : à partir de 0,50 dollars l'analyse syntaxique (jusqu'à un million d'unités par mois) Version gratuite (Lite) jusqu'à 30 000 articles analysés. Ensuite, à partir de 0,003 dollar par article analysé jusqu'à 250 000 articles.

Pour Arnaud Cassaigne, responsable produit pour les solutions IA, NLP et NLU chez Mondeca, éditeur de solutions logicielles de gestion des données métier et d'analyse sémantique, le premier critère de sélection d'un service cloud de NLP porte sur les langues supportées. "C'est en anglais (qui est de facto la première langue proposée, ndlr) que les résultats sont les plus pertinents", estime-t-il.  Dans son étude comparative des offres cloud de NLP d'Amazon, Google, IBM et Microsoft, Arnaud Cassaigne évalue quatre langues dont le français dans quatre domaines : la détection de la langue, la détection des entités nommées et des concepts, la détection des mots-clés, et la détection d'informations morpho-syntaxiques. Dans le cas du français, les quatre fournisseurs sont au coude-à-coude.

"Derrière Google, Amazon monte en compétences et Microsoft est en retard"

Autre critère de choix évoqué par l'expert : le type de contenu à traiter. "Certaines offres cloud sont calibrées pour ingérer de longs textes verbeux, grammaticalement bien formés, d'autres pour des contenus courts au langage informel comme un post sur Facebook", note son collègue, François Thibault, responsable des ventes chez Mondeca.

Pour Arnaud Cassaigne, ces services cloud souffrent de plusieurs limites. La première : l'absence de référentiels et de corpus métier. "De façon générale, les algorithmes sont forts pour cerner des noms de lieux ou de personnes mais pas pour traiter des mots-clés et des terminologies métier tels des marques ou des sociétés", rappelle Arnaud Cassaigne. "Amazon propose bien un vertical dans le médical. Mais il en faudrait également dans l'industrie, la banque-assurance ou encore la pharmacie." Manque aussi à ces environnements de NLP des workflows avancés pour traiter des contenus multimodaux mêlant sons, images et vidéo au sein d'un même pipeline. Autre grand absent : un calculateur de coûts pour évaluer le budget à consentir pour bâtir un modèle de NLP. Pour finir, Arnaud Cassaigne regrette l'effet boîte noire des solutions. "Non seulement l'utilisateur ne maîtrise pas le fonctionnement des algorithmes mais il dépend des mises à jour réalisées par les providers et des évolutions qu'elles peuvent engendrer sur le comportement des modèles."

Arnaud Cassaigne estime que Google est en avance sur ses concurrents compte tenu de la performance de ses algorithmes de machine learning. "Derrière, Amazon monte en compétences et Azure est en retard. Quant à l'offre d'IBM, elle repose sur la technologie d'Alchemy que Big Blue a peu fait évoluer depuis le rachat de ce dernier", analyse l'expert.

Amazon, pour les contenus courts

Pour une fois, le traitement automatique du langage naturel est un domaine sur lequel Amazon Web Services (AWS) s'est positionné plus tardivement que ses concurrents (fin 2017). Pour l'heure, son service de NLP, baptisé Comprehend, supporte six langues : l'allemand, l'anglais, l'espagnol, le français, l'italien et le portugais.

"La tarification est relativement simple et semble bien adaptée au traitement d'un grand nombre de contenus courts", souligne Arnaud Cassaigne.

Google, pour la performance

Sur le plan du NLP, Google Cloud Platform (GCP) propose la même technologie de machine learning que celles utilisées par son moteur de recherche et son assistant intelligent, Google Assistant. Ce qui peut expliquer en grande partie la maturité de son service en termes d'algorithmes comparé à la concurrence. Baptisée Natural Language, la brique en question pourra en outre être associée aux autres APIs commercialisées par le groupe dans l'IA vocale, autour du speech-to-text, de la reconnaissance optique de caractères ou de la traduction automatique.

Comme pour Azure, le nombre de langues supportées dépend du service retenu. Pour Arnaud Cassaigne, la documentation de Google Natural Language disponible en français est claire et agréable à utiliser. "Cette offre est notamment intéressante si elle est couplée au module d'automatisation du machine learning de Google." Encore en version bêta, Cloud AutoML permettra d'entraîner des modèles de NLP personnalisés.

IBM , pour les documents volumineux

IBM a bâti son offre de NLP à partir d'AlchemyAPI, technologie qu'il a acquise en 2015 et intégrée la même année à son offre cloud Watson. Elle a été rebaptisée pour l'occasion Watson Natural Language Understanding (Watson NLU). De la catégorisation de contenus à l'analyse de sentiments en passant par la détection de mots-clés, Watson NLU est relativement étendue. Le service prend en charge 13 langues, dont l'arabe et le chinois simplifié. Pour compléter l'édifice, IBM commercialise Watson Discovery, un moteur de requêtage pour gérer l'extraction d'informations et la détection de relations entre ces dernières. Mais également Watson Knowledge Studio qui permet, lui, de personnaliser ces processus à l'aide de modèles d'apprentissage automatique.

Pour Arnaud Cassaigne, "la documentation de Watson NLU a le mérite d'être claire et en français". En revanche, l'API est uniquement disponible en anglais. Selon l'expert, il s'agit de l'offre la plus intéressante pour traiter les documents volumineux.

Microsoft, pour les contenus généralistes

L'API d'analyse de textes de Microsoft Azure (API Analyse de texte) propose un démonstrateur particulièrement clair. Quant à son périmètre fonctionnel, il se limite à quatre domaines : l'analyse d'opinions, la détection de la langue, l'extraction des expressions clés et la reconnaissance d'entités nommées. Le nombre de langues supportées dépend du service retenu. L'interface peut détecter jusqu'à 120 langues mais se limite à cinq pour les autres fonctionnalités, à savoir l'allemand, l'anglais, le chinois simplifié, l'espagnol et le français.

Si l'offre d'Azure est peu plus onéreuse que celle d'AWS, "elle est intéressante pour traiter les contenus généralistes, tels les articles de presse, surtout en anglais", reconnait Arnaud Cassaigne. "En revanche, il est impossible de l'adapter aux spécificités d'un métier. C'est là sa principale limitation."