Damien Lucas (Scaleway) "Scaleway dispose de la plus grosse capacité de calcul dédiée à l'IA en Europe"

Le CEO du cloud d'Iliad revient sur sa stratégie de développement dans l'intelligence artificielle, et détaille sa feuille de route en recherche et développement sur ce terrain.

JDN. Scaleway souhaite devenir le premier fournisseur de cloud européen dédié au développement d'IA. Vous comptez notamment sur votre investissement dans le système DGX SuperPOD de Nvidia ?

Damien Lucas est CEO de Scaleway. © Scaleway / Cedric FAIMALI/GFA

Damien Lucas. Exact. Ce système est aujourd'hui installé dans notre data center DC5 basé en région parisienne à Saint-Ouen l'Aumône (dans le Val-d'Oise, ndlr). Cette ambition de devenir leader européen des clouds d'IA, nous souhaitons la mettre en œuvre de manière responsable. Cette responsabilité prend en premier lieu la forme d'un engagement environnemental. L'infrastructure GPU en question est extrêmement énergivore. Partant de là, c'est important de l'héberger dans un centre de données bien conçu et efficace énergétiquement. D'où son installation dans notre DC5. C'est l'un des points qui nous différentie des hyperscalers américains.

A quels cas d'usage s'adresse ce SuperPOD de NVidia ?

Il s'agit d'une infrastructure équipée de 1 016 GPU NVidia de dernière génération, à savoir les fameux H100. Une infrastructure doublée d'une connexion réseau très haut débit de type NVLink. Avec cette puissance, nous disposons de la plus grosse capacité de calcul dédiée à l'IA en Europe. Elle sera consacrée à la conception et à l'entrainement de large language models. Cette offre sera lancée en novembre 2023. Nous commercialiserons cette infrastructure dans son intégralité, sous la forme d'un supercalculateur. Elle sera mise à la disposition des clients pour la durée nécessaire à l'apprentissage de leurs méga modèles de langue, soit sur un temps long. Avec à la clé des durées adaptées en fonction du volume de traitement à réaliser : trois mois, six mois, un an, deux ans, trois ans...

En attendant, nous commercialisons déjà un mini Pod basé sur la même architecture. L'idée étant de proposer une plateforme de 16 GPU H100, correctement dimensionnée pour valider les modèles avant de lancer un entrainement à grande échelle sur le SuperPOD. Elle permet d'avoir un aperçu intermédiaire en amont de l'apprentissage massif. Ce mini Pod permet également de réaliser des réentrainements (par transfert learning, ndlr) de LLM pour les spécialiser sur des cas d'usage plus précis.

Quels sont les profils de client que vous ciblez avec votre supercalculateur ?

Nous ciblons prioritairement des organisations européennes. Toujours dans notre logique de responsabilité, après l'engagement environnemental vient l'engagement réglementaire. Dans un certain nombre de cas, les données d'entraînement peuvent être sensibles. D'où la volonté de certains de nos clients de ne pas exporter leur data d'apprentissage à l'étranger. Un hébergement local permet de les conserver sous une législation territoriale française et par extension européenne. Pour les sociétés européennes, cette proposition de valeur se traduit par une garantie de la protection de leurs données qui ne seront soumises à aucune loi extraterritoriale. L'objectif est notamment de les soustraire du Cloud Act américain.

"Aller jusqu'à une certification SecNumCloud, rien ne l'empêche aujourd'hui"

En matière d'IA, nous nous adressons à deux grandes catégories de client. En premier lieu, nous ciblons les start-up qui développent de nouveaux modèles, avec à la clé d'importantes levées de fonds pour financer la phase d'apprentissage de leur IA. En second lieu, nous nous centrons sur les grands groupes qui créent des applications d'IA dans de très nombreux domaines. C'est le cas d'acteurs dans le secteur automobile pour concevoir les véhicules autonomes, mais aussi dans la banque et la finance, dans la santé ou encore dans l'industrie cinématographique. Demain, toutes les scènes de cascade seront générées par l'IA. On imagine toutes les industries françaises et européennes de pointe qui auront besoin d'accéder à des ressources de calcul pour gérer du machine learning intensif.

Pour des raisons de confidentialité, les administrations centrales font aussi partie de nos cibles. On pense notamment à la direction générale des impôts qui pourrait tirer parti de l'IA, mais également à la DGSI ou à la DGSE.

Est-ce que vous pourriez envisager, pour cette infrastructure, de vous tourner vers la certification SecNumCloud ?

Si ce besoin est exprimé par nos clients, nous n'y serions absolument pas opposés. Nous disposons déjà d'une infrastructure qui correspond à tous les critères d'un cloud de confiance tels que les directives (de l'ANSSI, ndlr) l'ont défini. Nous sommes une entreprise française avec un actionnariat français. Nous sommes une filiale du groupe Iliad dont les actionnaires sont eux-mêmes français. Aller jusqu'à une certification SecNumCloud, rien ne l'empêche aujourd'hui.

Proposez-vous des services pour gérer le stockage des data sets d'entrainement ?

Nous ciblons effectivement, aussi, les problématiques de stockage et de structuration des données d'entrainement. Et en aval, nous répondons également à l'enjeu de l'inférence des modèles, c'est-à-dire à leur mise en production sur le terrain. Un cas d'usage qui est beaucoup moins gourmand en capacités de calcul que l'entrainement de LLM. Pour répondre à cet enjeu, nous avons lancé au début de l'été une nouvelle gamme d'instances H100 utilisables de manière unitaire pour faire de l'inférence. Cette offre est actuellement proposée en bêta privée. Nous prévoyons de la lancer commercialement dans le mois qui vient.

Prévoyez-vous d'accompagner vos ressources de calcul dédiées à l'IA de services à valeur ajoutée de type plateforme ou PaaS ?

C'est le cas. Pour construire un système cloud orienté vers l'IA, la première couche à construire est le cloud d'infrastructure. C'est ce que nous sommes en train d'accomplir avec les investissements que nous avons annoncés (à hauteur de 200 millions d'euros, ndlr).

L'ambition de Scalway sera ensuite de développer les différents outils de PaaS qui permettront de faciliter le développement d'applications autour de l'IA. Rendez-vous lors de notre conférence du 17 novembre prochain pour avoir plus d'informations sur notre feuille de route à ce sujet. A l'occasion de cet événement, nous présenteront également le laboratoire de recherche d'Iliad consacré à l'intelligence artificielle et l'équipe qui le compose. Nous prévoyons aussi de communiquer pour l'occasion sur notre entrée dans le classement Top 500 des supercalculateurs les plus puissants au monde.

Quid de la question éthique autour de l'IA ?

Nous sommes extrêmement sensibles et sensibilisés aux débats en cours sur cette question. Nous ne sommes pas dans la logique d'attendre un cadre réglementaire, mais plutôt dans celle de favoriser son émergence. L'objectif est de s'assurer que la puissance de calcul ne soit pas mise à la disposition de n'importe qui et de n'importe quel usage.

Damien Lucas est le CEO de Scaleway depuis mai 2023. Cet entrepreneur fonde en 2003 Anevia, un éditeur de logiciels pour la distribution en OTT et IPTV ciblant à la fois la vidéo en direct et en différé et la vidéo à la demande (VOD). En 2020, Anevia est acquise par Ateme, un autre spécialiste des infrastructures de diffusion vidéo. Suite à ce rachat, Damien Lucas est promu chief product officer du nouvel ensemble. Il conserve ce poste jusqu'à sa nomination à la tête de Scaleway en 2023.