Rechercher :         

Sociétés Prestataires Carnet Formations Progiciels Encyclo Fonds Guide d'achat Téléchargement
Interviews

Renaud Larsen
Chief marketing officer
FastTango

"Les clusters NT sont trop complexes dans leur déploiement et leur gestion"
          

Depuis avril dernier, le petit monde des fournisseurs de solutions de clusters clef en main sous Linux compte un nouvel acteur. Créé notamment par des anciens de VA Linux lors d'une période de turnover chez ce dernier, l'américain FastTango dirige pour l'instant ses opérations en France depuis la Belgique. D'ici quelques semaines devrait avoir lieu l'ouverture du bureau parisien, avec actuellement une petite dizaine de prospects dans l'Hexagone, dont certains en bonne voie de concrétisation selon la société.

Pour faire le point sur l'offre, qui comprend des clusters pour Oracle 9i et des serveurs de reconnaissance vocale sous Linux, nous avons interrogé Renaud Larsen, son Chief marketing officer (directeur marketing) basé jusqu'à présent à Bruxelles, et qui fait partie des co-fondateurs. Au passage, celui-ci défend la position selon laquelle Linux constitue l'environnement idéal pour mettre en place des clusters et garantir la haute disponibilité d'applications web.

Propos recueillis par François Morel le 11 octobre 2001 .

JDNet Solutions: Pourquoi avez-vous choisi de vous lancer dans l'aventure FastTango ?
Renaud Larsen: Nous avions identifié un besoin auprès des entreprises qui n'étaient pas satisfaites des autres solutions de clusters du marché, pour la plupart fournies non clef en main dans le monde Linux. Actuellement, nous fournissons la solution la plus complète, composée de serveurs, d'une baie de stockage et de l'installation du système d'exploitation et des applications. La solution que nous fournissons pour Oracle, 9i Rac sous Linux, se compose de 4 serveurs en clusters avec 4 processeurs par serveur, qui sont connectés à un filer F840 de NetApp.

Pour cela, nous utilisons deux types de connexions à la fois: GigaEthernet et Myrinet. Cette dernière, développée par la société Myricom, est une technologie de connexion dix fois plus rapide que la première. Elle est abondamment utilisée dans le monde des clusters scientifiques, qui ont aussi besoin d'un nombre de noeuds plus importants. Avec un seul commutateur, Myrinet permet de monter des clusters de 128 noeuds. Par "noeud", il faut comprendre un serveur dont la hauteur peut varier entre 1u et 7u (u est l'unité qui mesure la hauteur des serveurs empilables dans des baies de taille limitée, ndlr). Pour 9i Rac sous Linux, nous utilisons des serveurs de type 4u avec 4 processeurs, car il n'est pas possible de mettre 4 processeurs dans une hauteur de 2u pour des raisons de dissipation de chaleur.

Cette solution se situe donc au centre de votre alliance avec Oracle et Network Appliance... ?
Oui, et en utilisant NFS (Network File System) pour la gestion de la base de données. Il s'agit du protocole qui permet d'exploiter une infrastructure de type NAS (Network Attached Storage). NFS permet de connecter directement une baie de stockage à un réseau. L'avantage ? Au lieu de travailler le bloc physique, il travaille au niveau des fichiers.

Lorsqu'il faut passer par le bloc physique, l'on doit souvent repartitionner la base de données car cela ne se fait pas en transparence. Or, avec NFS, il est possible d'ajouter directement de la capacité de stockage et le système reçoit de manière transparente le nouvel espace disque, ce qui simplifie l'administration des bases de données et des architectures. Les fichiers sont gérés entre plusieurs serveurs au sein d'un réseau, comme s'ils se trouvaient sur le même disque local. Il n'y a pas besoin de savoir où se trouvent physiquement les fichiers, ce qui en facilite l'accès.

Quel est l'avantage de votre solution sur celles proposées par vos concurrents ?
Notre solution clef en main répond au besoin de déployer des architectures à haute disponibilité pour un coût moindre que celles revendues par Sun. Le coût matériel de notre serveur de base à 4 clusters se situe aux alentours de 300 000 dollars, contre près du million de dollars pour Sun.

Ensuite, le déploiement de solutions clef en main tournant sous Linux permet de ne plus devoir payer de licences Microsoft ou Solaris, ni même de payer la maintenance en liaison avec ces licences. Du coup, le coût de maintenance peut être affecté à l'évolution de l'architecture. Si nous éliminons le coût de la licence, le coût total pour la maintenance est inférieur à Sun et à Microsoft. Et ce, pour la raison suivante: Linux est plus stable pour une architecture à haute disponibilité que Microsoft et Sun, et nettement moins complexe à gérer. Nous permettons aux directions informatiques de reprendre le contrôle de l'architecture et de bien la maîtriser. L'un des aspects importants est que Linux reste Linux, mais quand Microsoft sort un nouveau système d'exploitation, il n'est pas toujours compatible avec l'ancien.

Windows NT n'a-t-il pas aussi ses spécialistes capables d'en tirer le meilleur parti ?
En général, les entreprises rencontrent de gros problèmes avec Microsoft dans la gestion d'infrastructures et le fait de pouvoir déployer des clusters. Les clusters NT sont trop complexes dans leur déploiement et leur gestion. C'est pourquoi les inconditionnels de NT, je n'en ai jamais rencontrés. Quand on effectue des comparaisons de performances, leur raisonnement commence à s'infléchir.

Que pensez-vous des Unix traditionnels (HP/UX, IBM AIX...) ? Ne sont-il pas reconnus pour leurs capacités à gérer des serveurs avec un très grand nombre de processeurs ?
Nous les retrouvons effectivement sur les projets où un grand nombre de processeurs sont en jeu. Mais nous proposons aussi, avec du failover, la capacité de gérer un nombre important de processeurs. Les systèmes HP/UX et AIX en eux-mêmes dépassent les 300 000 ou 400 000 dollars. Bien sûr, il y aura toujours des grands systèmes, mais en a-t-on besoin pour toutes les applications et toutes les bases de données.

Encore une fois, nous retrouvons ici la problématique de surdimensionnement. Ces deux dernières années, nombre de rapports ont mis en évidence que beaucoup d'entreprises avaient acheté des architectures surdimensionnées face à leurs besoins. Il s'agit du discours classique conservateur. Avec un nouveau noeud, nous pouvons augmenter le nombre de clusters de façon illimitée. En attendant, avec un gros système, si vous n'avez qu'un serveur et qu'il tombe en panne, vous n'avez plus accès à vos applications. C'est la différence entre les architectures Single Point Failure, et les autres basées sur du failover. Dans le deuxième cas, si un noeud tombe vous pouvez toujours exécuter vos tâches. Le failover signifie que l'on passe la main à un autre noeud.

Vos systèmes rendent-ils possibles la répartition de charges, et le "geographic failover" pour le fait de passer la main à un serveur distant ?
En général, nous combinons la répartition de charges et le failover qui rentre dans la logique des clusters. Le geographic failover, quant à lui, est dans les cartons et nous avons prévu de l'implémenter pour début 2002. Là, ce sont des architectures plus importantes avec des centaines de noeuds, des clusters de clusters et des architectures de type Grid (lire les articles sur l'initiative d'IBM et la "grille remplacera la toîle"), où l'on peut allouer des ressources de New-York sur d'autres à Barcelone avec une sauvegarde située à Paris.

Côté produits, que préparez-vous en ce moment ?
Nous sommes en train de développer des logiciels de gestion dynamique de clusters, tant au niveau matériel que applicatif. Pour vous fournir un exemple concrêt, vous avez un cluster de 100 noeuds et nos logiciels permettront de le déployer dynamiquement sur les 100 noeuds. Actuellement, il est possible de gérer manuellement deux, quatre voire huit noeuds, mais après cela devient un casse-tête chinois et provoque une perte de temps. Ensuite, sur les 100, nous pourrons allouer les noeuds de 1 à 10 à Apache, ceux de 30 à 40 à tel ou tel type d'application, etc. tout en pouvant effectuer la mise à jour de manière transparente. Pendant un temps donné, nous pourrons dire que les ressources processeurs dédiées à Apache seront allouées à la base de données.

Enfin, nous offrirons l'exécution de la file d'attente en différé de manière intelligente, avec la possibilité de réaffecter une tâche donnée vers un ensemble d'autres si le moindre problème se présente. Ces logiciels sont prévus pour la fin de l'année et le début 2002, et sortiront en même temps aux Etats-Unis et en Europe.

Avant de prendre le poste de Chief marketing officer chez FastTango, Renaud Larsen occupait celui similaire de directeur marketing EMEA (Europe, Moyen-Orient, Afrique) chez VA Linux. Parmi ses précédentes fonctions, il a notamment été directeur de la recherche marchés et de la localisation chez Adaptec, et responsable du marketing produits chez SAP.

  Nouvelles offres d'emploi   sur Emploi Center
Auralog - Tellmemore | Publicis Modem | L'Internaute / Journal du Net / Copainsdavant | Isobar | MEDIASTAY



Gratuit - L'actualité des technologies
e-business

Toutes nos newsletters
 
 
 
 
 
 
Logiciels libres
Retours d'expérience, panorama, analyses.
Sommaire
 
Failles de sécurité
Vulnérabilités des logiciels & évaluation des risques.
Sommaire
 
 

Les entreprises de l'Internet
Plus de 5000 sociétés référencées

Les prestataires
Plus de 2600 prestataires

Les fonds
Plus de 100 fiches descriptives

Le carnet des managers Internet
Plus de 1500 dirigeants

Guide des solutions
Plus de 310 briques logicielles