Notion lance son nouvel assistant intelligent

Notion lance son nouvel assistant intelligent La plateforme de collaboration orientée gestion de contenu a pour ambition de mettre l'IA à la portée de tous. Elle s'outille notamment d'un RAG compatible avec Slack et Google Drive.

"Nous avons créé une nouvelle version de notre assistant Notion AI permettant à nos clients de recourir à l'IA sans avoir à apprendre à l'utiliser, avec à la clé une approche plus humaine de l'interaction", souligne d'emblée Akshay Kothari, co-fondateur et patron de l'équipe produit de Notion. Ce nouvel assistant, qui permet donc des prompts beaucoup plus naturels, est déployé au niveau mondial ce 24 septembre. Il est disponible dans l'offre éponyme au prix de 10 dollars par personne et par mois.

En coulisse, Notion met en œuvre un système de RAG (pour retrieval augmented generation ou génération augmentée de récupération). Objectif affiché : intégrer à son assistant les contenus produits sur sa plateforme. Sachant que ce système inclut également ceux issus des espaces Google Drive ou des canaux Slack, le tout par le biais de connecteurs ad hoc créés pour l'occasion. "L'ambition est de pouvoir interroger les bases de connaissances de l'entreprise depuis un point d'accès unique", précise Akshay Kothari. Partant de-là, Notion avance un outil de recherche avancée pouvant répondre à toute une série de prompts simples. Exemples :

  • "Informes-moi du projet de refonte du site web et de tout changement notable survenu au cours des dernières 24 heures sur cette plateforme, y compris de la préparation de la réunion avec mon responsable."
  • "Tiens-moi au courant de l'état d'édition du projet Albatross. Ecris-moi une liste de tâches prioritaires sur la façon de réaliser ce projet."
  • "Quels sont les call to action pour notre campagne de lancement au Brésil ? Résumes les exigences de cette campagne."
  • "Quelle police dois-je utiliser pour mon image de marque personnelle et mon site web ?"

Avec cette nouvelle version, Notion intègre par ailleurs les large language model (LLM) GPT-4 et Claude Sonnet. Parmi les principaux cas d'usage mis en avant, l'éditeur propose la possibilité de générer un document en se basant sur le style d'un autre, voire de répondre à des problématiques opérationnelles de gestion de projet. Ici aussi, le RAG entre évidemment en action. Voici quelques exemples de prompts auxquels les deux modèles peuvent répondre :

  • "Réécris ce script pour qu'il soit conforme aux directives de voix et de ton de @Acme."
  • "Suggères des révisions à ce brouillon en fonction de la page de commentaires de mon responsable."
  • "Trouves des espaces pour inclure notre campagne de call to action de manière organique."

Pourquoi avoir choisi deux LLM plutôt qu'un seul ? "Nous nous sommes rendu qu'il s'agissait des modèles de langue les plus performants dans le cadre de ces cas d'usage. Avec des différences néanmoins", reconnaît Akshay Kothari. "Nous avons observé que Claude était meilleur pour les tâches de rédaction et que GPT-4 se détache plus largement dans les scénarios de questions-réponses orientés RAG. Nous les utilisons donc chacun dans ces domaines respectifs." Mais ces LLM permettent aussi de répondre à des questions plus généralistes qui sortent de ces deux scénarii :

  • "Quelles sont les meilleures pratiques pour éditer une vidéo YouTube virale ?"
  • "Je me sens épuisé. Pouvez-vous évoquer avec moi la manière d'améliorer mon équilibre travail/vie privée ?"

Pour éprouver ces LLM, Notion pratique de l'A/B testing quotidiennement. Il éprouve certaines tâches en s'appuyant sur Claude, et d'autres sur GPT-4, et inversement, et ce en sondant la satisfaction des clients à chaque étape. Cette méthode lui permet d'affiner sa politique de large language model. "Nous envisageons d'enrichir dans le futur les LLM que nous supportons pour proposer un panel plus riche de possibilités d'IA générative. L'objectif étant de déployer le meilleur modèle de langue pour chaque type d'action à réaliser", confie Akshay Kothari.