Elargissement du champ d'application de l'intelligence artificielle : la course aux matériels est lancée

Au-delà d'un simple concept à la mode, le champ d'application de l'IA s'élargit nécessitant plus de puissance. Les développeurs partent à la recherche de matériels toujours plus performants.

L’intelligence artificielle ne fait plus simplement office de concept à la mode et la récente capitalisation de 1 200 milliards de dollars de NVIDIA montre bien que le marché s’est définitivement tourné vers cette technologie d’avenir. Avec ces puces d’une capacité de calcul très supérieure à celle d’un ordinateur classique, les développeurs d’intelligence artificielle (IA), se sont rapidement intéressés à ses GPU et à juste titre.

Le champ d’application de l’intelligence artificielle est particulièrement large allant de la reconnaissance vocale au contrôle qualité en passant par l’identification des individus, l’analyse en profondeur de vastes quantités de données ou encore la reconnaissance des objets et de leur positionnement dans l’espace.

Toutefois, l’IA reste extrêmement exigeante en termes de puissance de calcul.

Des approches différentes en matière d‘IA

La transformation numérique et l’Industrie 4.0 nécessitent une refonte systémique afin de s’écarter des structures centralisées au profit du traitement décentralisé des données. Afin de ne pas dépendre de la bande passante pour la transmission des données, des opérations particulièrement urgentes, telles que les calculs d’inférence de l’intelligence artificielle, sont de plus en plus fréquemment réalisées au niveau de l’appareil, en « périphérie » des usines.

À ces fins, les principaux fabricants de semi-conducteurs proposent d’ores et déjà des processeurs puissants (Central Processing Units ou CPU) dotés de fonctions directement intégrées pour le traitement dédié d’applications d’IA. Etant donné que les calculs d’inférence sont relativement similaires au traitement de l’image, des processeurs graphiques puissants (Graphic Processing Units ou GPU) sont encore mieux adaptés que les processeurs traditionnels pour le traitement d’un grand nombre de tâches d’IA. Certains fabricants de cartes graphiques renommés se sont donc mêlés à la course et proposent avec leur matériel des outils de développement complémentaires spécifiquement conçus pour les applications d’IA.

De plus, récemment, de nombreux fabricants de semi-conducteurs ont procédé au lancement d’accélérateurs spécifiques pour l’IA, appelés Tensor Processing Units (TPU), à l’image du coprocesseur Coral de Google. Encore plus que les processeurs graphiques, ceux-ci déchargent le processeur principal des opérations d’IA particulièrement gourmandes en puissance de calcul, car ils sont pré-entrainés pour gérer une partie d’entre elles. Certains TPU, comme l’accélérateur Hailo-8TM, avec ses 26 téra-opérations par seconde (TOPS), sont particulièrement rapides en raison de leurs mémoires intégrées.

L’indépendance via l’IA locale

Dans le même temps, les principaux fabricants de cartes de développement, d’ordinateurs monocartes et de Computer-on-Module proposent des produits de toutes tailles avec des niveaux de performance différents équipés de TPU intégrés. Cela permet l’exécution d’applications d’IA en temps réel en périphérie des réseaux, voire au niveau de l’appareil, c’est-à-dire directement à l’endroit où l’action a lieu. Cela implique que des machines et des appareils extrêmement compacts peuvent être dotés de capacités de machine learning ou de deep learning.

La décentralisation de l’intelligence artificielle ouvre des horizons applicatifs qui auraient été inimaginables auparavant. Cela permet aux développeurs d’appareils et de machines de les concevoir de telle manière que leur panel de fonctionnalités augmente au cours de leur fonctionnement. Il devient alors possible de couvrir un champ d’applications qui aurait été impossible à atteindre à l’aide de méthodes de programmation classiques, sinon au prix d’efforts titanesques.