Clé du succès de l'IA : une architecture centrée sur les données

La quatrième révolution industrielle, menée par l'Intelligence artificielle (IA) et l'apprentissage automatique, va transformer notre société et cette révolution a déjà bien commencé.

Certes, l'IA n'est pas une technologie nouvelle. Elle existe depuis les années 1950, mais était jusqu’à très récemment réservée aux projets académiques et à quelques grandes entreprises à travers le monde. Il aura fallu attendre l’époque actuelle pour qu’elle devienne accessible à tous, grâce à l'alliance de trois technologies clés : les logiciels d'apprentissage profond, les unités de traitement graphique (GPU) et le Big Data.

Créer les fondations de l’IA

Inspiré du cerveau humain, l'apprentissage profond utilise des réseaux de neurones massivement parallèles et crée son propre logiciel en se nourrissant d'un nombre considérable d'informations. Les GPU, quant à elles, permettent d’exécuter des algorithmes complexes similaires à ceux du cerveau humain. Ces deux technologies révolutionnaires ont permis des avancées majeures. Et lorsque la troisième pièce du puzzle, le Big Data, s’y ajoute, on obtient un potentiel d'innovation incroyable. Cependant, alors que les deux premières progressent rapidement, les architectures traditionnelles du Big Data qui s’appuient sur des technologies de stockage classiques sont devenues un véritable frein à l’innovation. Un fossé s'est ainsi creusé en matière de performance entre les éléments de calcul (apprentissage profond et GPU) et le stockage, limitant les possibilités pour les entreprises de capitaliser sur leurs données, dont la croissance a été exponentielle.

Libérer le potentiel des données en réinventant les infrastructures

Le développement de l’IA repose sur un traitement des données immédiat et rapide, mais dans une architecture traditionnelle, déplacer et répliquer les données est synonyme de coût prohibitif et de goulet d'étranglement. La croissance exponentielle des données nécessite impérativement de repenser les approches traditionnelles afin de placer les données au cœur de l’infrastructure et d’éviter de les déplacer de l’ancien vers le nouveau système. Ainsi les éléments de calculs sont amenés directement aux données plutôt que l'inverse. C’est un gain de temps et des économies assurées qui permettront aux entreprises de se concentrer sur l'exploitation des données et la création de valeur.

Le système doit pouvoir fonctionner en temps réel, prendre en charge la nouvelle génération de solutions analytique, être disponible à la demande et se gérer tout seul (pour ne pas nécessiter une administration permanente), permettant ainsi aux services informatiques de jouer le rôle d'un fournisseur de services de stockage pour le reste de l'entreprise. Consolider et simplifier l’architecture à l’aide de la technologie flash permettra aux équipes IT de se concentrer sur les technologies de l’IA.

Quand le stockage permet d'exploiter le Big Data, les GPU et l'apprentissage profond

En optimisant ainsi l'association du calcul et du stockage, les entreprises peuvent définir une architecture de référence en matière de déploiement. Celle-ci fournit aux GPU l'infrastructure de stockage idéale, qui combine la rapidité des systèmes de stockage locaux avec la simplicité, les avantages et la consolidation du stockage partagé.

Des entreprises comme Paige.AI utilisent déjà cette approche optimisée du calcul et du stockage pour soutenir leurs projets d'IA. Paige.AI est une organisation qui a révolutionné le diagnostic clinique et le traitement en oncologie grâce à l’IA. La pathologie est la pierre angulaire de la plupart des diagnostics de cancer. Pourtant, les diagnostics pathologiques reposent en majorité sur des processus manuels et subjectifs développés il y a plus d’un siècle. En exploitant le potentiel de l’IA, Paige.AI entend transformer le secteur de la pathologie et du diagnostic, pour en faire une discipline rigoureuse reposant sur une approche quantitative plutôt que qualitative.

Ayant accès à l'une des plus grandes archives de pathologie tumorale au monde, l'entreprise nécessitait l'infrastructure d'apprentissage profond la plus avancée qui soit, pour transformer rapidement des quantités massives de données en applications d’IA validées cliniquement.

Avec l'IA et l'apprentissage profond, les possibilités de l'analytique atteignent un niveau supérieur et ce dans tous les secteurs. Gartner prévoit, dès l'an 2020, l'omniprésence de l'IA dans la plupart des produits et services logiciels disponibles. Pour que cela devienne une réalité, les entreprises doivent s'assurer que les données sont au cœur de leur stratégie IT. Si elles n'adoptent pas une architecture centrée sur les données, les entreprises peuvent toujours essayer d'exploiter la puissance de calcul offerte par l'apprentissage profond et les GPU, mais les résultats seront moindres. La véritable réussite de l'IA dépend de l'alliance parfaite entre puissance de calcul et stockage. Sans cela, les données ne pourront pas révéler leur plein potentiel.