Mistral AI dévoile son premier LLM open source et vante ses performances

Mistral AI dévoile son premier LLM open source et vante ses performances La start-up fondée par Guillaume Lample, Arthur Mensch et Timothée Lacroix propose un modèle de langage à 7 milliards de paramètres. Le LLM est disponible en open source, sous licence Apache 2.0.

Mistral IA dégaine enfin. Après de longs mois de silence, la start-up censée concurrencer les géants américains de l'IA générative a dévoilé son premier modèle de langage ce mercredi 27 septembre.

7 milliards de paramètres

De petite taille, "Mistral 7B" a été entraîné pendant trois mois et dispose de plus de 7 milliards de paramètres. Un volume modeste qui, selon Mistral AI, n'affecte pas les performances finales du modèle. Mistral 7B serait le "meilleur modèle du monde" dans sa catégorie et surpasserait même un modèle similaire de 13 milliards de paramètres. Une prouesse technologique qui s'accompagne d'une optimisation totale du compute. Pour fonctionner, le modèle demanderait une puissance moindre de 46%, affirme Mistral. Cet avantage technologique majeur pourrait  séduire les entreprises de tailles moyennes qui souhaitent implanter un LLM à moindre coût.

Mis à disposition sous licence Apache 2.0 dès sa sortie, le modèle offre une première alternative open source française crédible. Pour rappel, avec Apache 2.0, les développeurs peuvent utiliser, modifier et commercialiser le modèle librement. Mistral 7B serait en capacité d'effectuer un large panel de tâches sur du texte.

"Nous sommes heureux de dévoiler aujourd'hui notre premier modèle de langage open-source à destination des développeurs, un peu plus de quatre mois après notre lancement et en avance sur notre calendrier. L'immense engagement de notre équipe fondatrice cet été a permis ce développement rapide", s'est félicité Arthur Mensch, CEO de Mistral.

Mistral 7B est le premier d'une longue liste. Dans les prochains mois, Mistral AI étoffera sa gamme de LLM et devrait proposer des modèles plus puissants, avec à la clef la hausse du nombre de paramètres utilisés. "Mistral 7B n'est qu'une première étape. Ses performances excèdent très largement celles des modèles comparables disponibles, et annoncent de très belles performances pour nos modèles plus grands, aujourd'hui en cours d'entraînement", promet Arthur Mensch.