Nick Frosst (Cohere) "Cohere Command est huit à seize fois plus efficace que DeepSeek"

Figure montante de l'IA, Nick Frosst a cofondé Cohere après un passage remarqué chez Google Brain aux côtés de Geoffrey Hinton. Pour le JDN, il décrypte la stratégie résolument "enterprise focus" qui guide Cohere.

Cohere © Nick Frosst est le co-fondateur de Cohere.

JDN. Vous présentez votre famille de modèles "Command" comme conçue nativement pour les entreprises. Concrètement, qu'est-ce qui distingue vos modèles des autres éditeurs ?

Nick Frosst. Nous avons une réponse très concrète à cette question : notre modèle est extrêmement facile à déployer. Il peut fonctionner sur seulement deux GPU. Si vous comparez cela à un autre modèle public comme DeepSeek, que nous surpassons de manière significative, DeepSeek nécessite entre 16 et 32 GPU pour être déployé. Nous sommes donc huit à seize fois plus efficaces en termes de déploiement que DeepSeek. C'est crucial pour nous car nous proposons des déploiements on-premise. Quand nous fournissons une copie de notre modèle à une entreprise, elle doit disposer du matériel nécessaire pour le faire fonctionner. C'est pourquoi nous avons conçu un modèle aussi facile à déployer.

OpenAI et Anthropic, par exemple, ne proposent pas de déploiements privés et n'ont pas publié les poids de leurs modèles, donc nous ne connaissons pas leur taille exacte. Mais ils sont vraisemblablement plus volumineux que DeepSeek. C'est vraiment un point central pour nous.

"Nous ne nous focalisons pas sur les fonctionnalités dont les entreprises n'ont pas besoin"

Enfin, nous avons d'autres priorités : nous entraînons notre modèle uniquement sur des éléments pertinents pour l'entreprise. Notre modèle excelle dans de nombreux langages de programmation anciens qui ne sont pas essentiels pour le grand public mais restent critiques pour certaines grandes entreprises. Par exemple, notre modèle maîtrise bien le COBOL, ce qui peut sembler anachronique, mais cela illustre le type de besoins sur lesquels nous nous concentrons.

A l'inverse, nous ne nous focalisons pas sur les fonctionnalités dont les entreprises n'ont pas besoin. Notre modèle ne génère pas d'images, par exemple, car ce n'est pas une priorité pour les entreprises. Cette approche nous permet d'économiser des paramètres et c'est ainsi que nous parvenons à créer un modèle qui obtient d'excellents résultats sur les benchmarks qui nous importent, tout en ne nécessitant que deux GPU.

Une particularité intéressante, vous rendez vos modèles open source, mais uniquement à des fins de recherche. Pensez-vous que l'open source soit la bonne voie pour favoriser l'innovation ?

Nous rendons les poids de nos modèles open source pour que tout le monde puisse les consulter. Nous proposons également une licence de recherche pour contribuer au développement de la communauté. Cela facilite vraiment l'adoption. Si des personnes sont curieuses de notre modèle, veulent évaluer ses performances ou comprendre comment se passerait son déploiement, nous pouvons leur dire : les poids sont disponibles, vous pouvez l'essayer dès maintenant. Cette approche a permis de construire une relation de confiance avec les utilisateurs.

Parlons de votre clientèle. Visez-vous plutôt les multinationales, les ETI, ou avez-vous aussi des PME parmi vos clients ?

Nous couvrons tout le spectre. Nous comptons parmi nos clients certaines des plus grandes entreprises mondiales : LG, Fujitsu, Oracle, RBC, STC, pour n'en citer que quelques-unes. En Europe, SAP est un client majeur, probablement notre plus gros client.  Mais nous travaillons également avec des entreprises de taille plus modeste. Certaines de ces entreprises plus petites sont intéressées par nos déploiements North (une plateforme agentique, ndlr). D'autres utilisent simplement une copie du modèle. Nous proposons aussi une API que des développeurs utilisent pour créer des startups et développer divers projets.

Comment monétisez-vous votre technologie aujourd'hui ? Quels sont vos principaux modèles de revenus ?

Une grande partie de nos revenus provient du travail avec de grandes entreprises. Nous leur fournissons soit une copie du modèle, comme nous l'avons fait pour Oracle ou Fujitsu, soit nous adaptons ce modèle aux langues qui les intéressent. Nous avons beaucoup investi dans le multilinguisme – notre modèle maîtrise bien 23 langues, dont le français. Nous personnalisons ensuite davantage selon les besoins du client. Par exemple, nous avons développé une version améliorée de notre modèle en japonais pour Fujitsu, et une version optimisée en coréen pour LG. Aujourd'hui, l'essentiel de nos revenus provient de ces contrats importants avec les entreprises, pour lesquels nous créons un modèle sur mesure ou nous redéployons North dans leur environnement. Notre produit principal est notre modèle Command, c'est celui que nous commercialisons. Mais quand nous travaillons avec un partenaire pour le personnaliser, il obtient un modèle unique.