Comment créer son assistant IA personnalisé gratuitement avec HuggingChat

Comment créer son assistant IA personnalisé gratuitement avec HuggingChat Hugging Face a dévoilé son alternative open source et gratuite aux GPTs d'OpenAI. Un store recense l'ensemble des assistants créés par les utilisateurs.

La communauté open source continue de talonner les géants propriétaires de l'IA. Après avoir mis à disposition les meilleurs modèles open source de sa plateforme sur HuggingChat, Hugging Face annonce l'arrivée d'une alternative gratuite et libre aux GPTs d'OpenAI. Annoncé sur X vendredi 2 février par Phillip Schmid, technical lead & LLMs director d'Hugging Face, les Assistants sont d'ores et déjà disponibles dans HuggingChat. Le fonctionnement est très simple et permet de configurer rapidement un assistant en personnalisant son prompt, le tout gratuitement. A noter qu'il est indispensable de disposer d'un compter Hugging Face (gratuit) et d'être connecté pour créer son assistant.

Comment créer son assistant sur HuggingChat ?

Créer son assistant avec HuggingChat est en réalité plus simple qu'avec l'interface d'OpenAI. Le configurateur d'assistant est intégré directement dans HuggingChat, l'équivalent open source de l'interface de ChatGPT chez Hugging Face. Pour y accéder, rendez-vous sur huggingface.co/chat/ et cliquez sur "Assistants" et enfin "Create New assistant".

Les différentes étapes pour arriver sur le créateur d'assistants. © Capture d'écran

L'interface exige de renseigner plusieurs champs :

  •  Avatar : l'image de présentation de votre assistant
  •  Name : le nom
  • Description : la description de la/les tâche(s) réalisées par votre bot
  • User start messages : le message d'exemple qui peut être adressé à votre assistant
  • Model : pour choisir le modèle open source à utiliser
  • Instructions : c'est le cœur du réacteur, là où il est nécessaire de renseigner votre prompt
L'interface du créateur d'assistant d'Hugging Face. © Capture d'écran

Quel modèle utiliser ?

Les deux actions les plus importantes sont le choix du modèle et l'ajout des instructions. Pour l'heure, en février 2024 six LLMs sont proposés : Mixtral-8x7B-Instruct-v0.1 (le modèle phare de Mistral AI), Llama-2-70b-chat-hf (le modèle open source de chat de Meta), Nous-Hermes-2-Mixtral-8x7B-DPO (modèle développé par Nous Research à partir d'une version fine-tunée de Mixtral-8x7B), CodeLlama-70b-Instruct-hf (le modèle de code Meta), Mistral-7B-Instruct-v0.2 (le modèle à 7 milliards de paramètres de Mistral AI) et enfin openchat-3.5-0106 (la dernière version du modèle open source optimisé pour le chat développé par Alignment Lab AI, un laboratoire issu de l'université Tsinghua de Shanghai). Bien qu'assez complexe aux premiers abords, le choix du modèle en réalité assez simple.

Pour la majorité des cas d'usage et pour une utilisation en français, nous vous recommandons d'utiliser Mixtral-8x7B-Instruct-v0.1. Basé sur une architecture SMoE, Mixtral-8x7B est sans conteste le LLM généraliste le plus performant et polyvalent dans l'écosystème open source en début 2024. Un Llama 2 peut également convenir et apporter de très bons résultats notamment en anglais. Enfin, pour des usages autour du code, nous vous conseillons de privilégier CodeLlama-70b-Instruct-hf. Dernier modèle en date à avoir été développé par les équipes de Meta, le modèle convient parfaitement pour les tâches les plus complexes sur une grande variété de langages (c++++, PHP, Javascript, C#...).

Instructions : comment bien prompter son assistant ?

Cœur de l'assistant, les instructions orientent le modèle sur les tâches qu'il doit réaliser. De préférence en anglais, les instructions doivent être rédigées dans un langage clair et simple. Pour maximiser l'efficacité et la pertinence de votre assistant, nous vous conseillons de lui donner un rôle précis. Exemple : "Tu es spécialiste des systèmes de tableur depuis plusieurs années". Second conseil : décrire rapidement la tâche attendue ("Ton rôle sera de m'aider à rédiger des macros pour un système Excel".) Précisez ensuite les différentes tâches à accomplir et le moyen d'y parvenir ("Analyse attentivement la consigne que je vais te donner et génère le code de la Macro. Pose moi des questions si nécessaire pour préciser.").

Petit tip supplémentaire : utilisez des exemples de résultats corrects attendus. Les LLMs offrent de meilleurs performances en sortie lorsque le résultat attendus est illustré par un exemple. (Ex : ''Voici un exemple de résultat attendu : [INSERER RESULTAT]'').

Enfin, pour affiner encore un peu plus la compréhension de votre prompt par l'IA, demandez directement au modèle que vous souhaitez utiliser de reformuler le prompt à sa manière. ("Analyse et allonge ou reformule ce prompt pour maximiser son efficacité : [PROMPT]"). Une fois la configuration terminée, il suffit de cliquer sur "Create" pour publier son assistant.

Attention, pour l'heure, les assistants créés avec l'outil d'Hugging Face sont visibles par défaut publiquement. Il n'est pas possible de changer ce paramètre. Ne renseignez donc aucune information personnelle ou confidentielle dans les instructions.

Un store d'assistant également disponible

En bonne copie des GPTs d'OpenAI, HuggingChat propose également un store où sont répertoriés les nombreux assistants déjà créés par les utilisateurs. Les bots sont classés par modèle utilisé et il n'est pas possible d'effectuer une recherche. Quelques dizaines d'assistants sont déjà disponibles, avec des cas d'usage divers et variés.

Pour l'heure, les assistants d'Hugging Face sont limités et ne permettent que de traiter du texte. Aucune intégration avec des APIs tierces n'est encore possible. Les équipes de la start-up new-yorkaise planchent cependant sur une flopée de nouvelles fonctionnalités : possibilité de paramétrer la température,  repetition penalty, configurateur automatisé par chat (comme OpenAI), intégration des APIs externes, support du RAG… La compétition entre l'open source et les géants commerciaux de l'IA semble encore un peu plus se durcir en ce début d'année.