13 modèles d'IA générative chez Mistral AI : lequel est fait pour vous ?

13 modèles d'IA générative chez Mistral AI : lequel est fait pour vous ? Mistral propose une panoplie de LLM open source et propriétaires adaptés à tous les cas d'usage en entreprise.

Développer une stratégie d'IA générative avec un modèle souverain, c'est possible en 2024. Basé à Paris, le français Mistral AI propose aujourd'hui une gamme de modèles d'IA adaptés pour l'ensemble des cas d'usage : des grands et petits modèles de langage, des modèles open source ou propriétaires, des modèles spécialisés ou multimodaux.. Lequel est fait pour vous ?  Voici comment s'y retrouver.

Comprendre les licences Mistral AI

Mistral AI a une double approche pour la distribution de ses modèles : certains modèles sont disponibles sous licence Apache 2.0, offrant une utilisation totalement libre et sans restriction à la communauté. C'est la licence open source par excellence. D'autre part, les modèles les plus avancés sont proposés sous un système de double licence : la licence de recherche Mistral, qui permet une utilisation non commerciale sans contrainte, et la licence commerciale Mistral, nécessaire pour tout déploiement à des fins commerciales.

Seuls les modèles sous licence Apache 2.0 voient leurs poids librement accessibles et téléchargeables sur des plateformes comme Hugging Face, permettant une utilisation totalement libre par la communauté. Pour les modèles sous licence commerciale, Mistral AI donne accès au poids de manière privée, si nécessaire.

Mistral AI propose plusieurs modalités de déploiement :

  • via son API développeur "La Plateforme" (hébergée en Europe) pour tous les modèles
  • via les principaux cloud providers (GCP, AWS, Azure, IBM, Snowflake, NVIDIA, Outscale) pour les modèles Apache 2
  • via Azure AI Studio, AWS Bedrock, Google Cloud Model Garden, IBM Watsonx et Snowflake pour Mistral Large 2
  • l'auto-déploiement sur cloud privé ou sur site pour tous les modèles

Les modèles Mistral sous licence Apache 2

Modèle

Utilisation

Taille

Contexte (en tokens)

Modalité

Pixtral 12B

Analyse/compréhension d'images

12B

128k

Texte, Image

MathΣtral

Mathématiques avancées

7B

32K

Texte

Codestral Mamba

Programmation

7.3B

256K

Texte

Mistral NeMo

Généraliste et multilingue

12B

128K

Texte

Mistral 7B

Généraliste

7B

4k

Texte

Mixtral 8x7B

Généraliste et multilingue

45B (12.9B actifs)

32k

Texte

Mixtral 8x22B

Généraliste et multilingue

141B (39B actifs)

64k

Texte

Pour un usage en chatbot généraliste, Mixtral 8x7B apparaît comme le meilleur compromis avec des capacités multilingues et une taille de contexte de 32 000 tokens et une architecture efficace de 45B paramètres dont seulement 12,9B actifs (architecture MoE). Bien que Mistral 7B ait été le modèle fondateur de l'entreprise, avec sa fenêtre de contexte limitée à 4 000 tokens et ses capacités plus basiques, il est maintenant considéré comme dépassé. Mistral NeMo (développé en partenariat avec Nvidia) offre une alternative intéressante en tant que modèle généraliste et multilingue de taille moyenne et un large contexte de 128 000 tokens.

Pour des cas d'usage spécifiques, Mistral propose des modèles spécialisés : Pixtral 12B pour l'analyse d'images, Mathstral pour les mathématiques avancées, et Codestral Mamba pour la programmation avec une belle fenêtre de contexte de 256 000 tokens.

Le Mixtral 8x22B représente l'option la plus puissante avec 141B paramètres (39B actifs) et un contexte de 64 000 tokens, mais son utilisation n'est justifiée que pour les tâches les plus complexes nécessitant des capacités de raisonnement avancées.

Les modèles Mistral sous licence commerciale

Modèle

Utilisation

Taille

Contexte (en tokens)

Modalité

Mistral Small

Généraliste

22B

32k

Texte

Mistral Large 2

Généraliste avancé, multilingue, code

123B

128K

Texte

Codestral

Programmation (80+ langages)

22B

32K

Texte

Mistral Embed

Embeddings (uniquement en anglais)

NC

8k

Texte

Ministral 3B

Edge computing

3B

128K

Texte

Ministral 8B

Edge computing avancé, raisonnement

8B

128K

Texte

Pour un usage professionnel polyvalent (en mode chatbot par exemple), Mistral Large 2 (123B) s'impose comme le modèle le plus complet, combinant des capacités multilingues avancées, du raisonnement complexe et de la programmation, avec une large fenêtre de contexte de 128 000 tokens.

Le Mistral Small (22B) offre un excellent compromis pour des tâches plus basiques comme la traduction, le résumé ou l'analyse de sentiment, tout en restant plus économique. Pour la programmation spécifiquement, Codestral (22B) est idéal avec plus de 80 langages de programmation supportés.

Enfin les Ministral 3B et 8B, malgré leur taille modeste, peuvent atteindre des performances remarquables lorsqu'ils sont fine-tunés et / ou intégrés dans une architecture RAG bien conçue. Leur fenêtre de contexte de 128 000 tokens les rend particulièrement adaptés pour le traitement de longs documents. Pour les tâches spécifiques d'embedding, Mistral Embed est optimisé pour l'anglais avec une fenêtre de contexte de 8 000 tokens, idéal pour les systèmes de recherche sémantique.

Mistral AI propose aujourd'hui – et depuis l'arrivée des Ministraux - une gamme complète de modèles répondant à la majorité des besoins business d'une entreprise. Néanmoins, malgré la présence de Pixtral dans sa gamme open source, Mistral AI accuse encore un retard dans le domaine multimodal.