Catherine Jestin (Airbus) "L'objectif est de généraliser Google Gemini à l'ensemble des employés d'Airbus d'ici la fin de l'année pour les cas d'usage non critiques"

Catherine Jestin est la directrice de l'information d'Airbus. Elle explique la stratégie du groupe pour tirer parti des meilleurs cas d'utilisation de l'intelligence artificielle.

JDN. L'intelligence artificielle générative a-t-elle pris le pas chez Airbus sur les approches d'intelligence artificielle plus traditionnelles comme le machine learning ?

Catherine Jestin est la directrice de l'information d'Airbus (CIO). © AIRBUS

Catherine Jestin. Chez Airbus, l'intelligence artificielle n'est pas une discipline nouvelle. Cela fait plus de 20 ans qu'Airbus utilise l'IA, notamment dans le domaine de l'imagerie satellite. Cependant, jusqu'à récemment, l'utilisation de l'IA était concentrée dans les bureaux d'études, avec un petit groupe travaillant sur le sujet. L'arrivée de l'IA générative a permis une démocratisation de l'usage de l'IA dans l'entreprise. En effet, avec l'IA générative, il n'est plus nécessaire de développer soi-même les modèles, on peut simplement les récupérer sur l'étagère et les utiliser. Cela a permis à de nombreux métiers, de la finance au RH, de s'emparer de l'IA et de proposer des cas d'usage.

Airbus n'a pas abandonné pour autant les approches plus traditionnelles d'IA comme le machine learning

Airbus n'a pas abandonné pour autant les approches plus traditionnelles d'IA comme le machine learning. Ces techniques sont toujours utilisées, en particulier pour des cas spécifiques comme l'optimisation des stocks et des contrats. Mais l'IA générative a clairement permis une généralisation de l'usage de l'IA à l'ensemble de l'entreprise, y compris auprès des opérateurs sur le terrain.

Comment évaluez-vous la pertinence des cas d'usage ?

A travers un processus en entonnoir. Tous les cas d'usage proposés par les différentes fonctions de l'entreprise sont d'abord collectés. Ensuite, un comité composé de data scientists, d'experts en IA mais aussi de représentants des différents métiers étudie ces cas d'usage. Ils évaluent deux éléments principaux : d'abord quel type d'IA serait le plus pertinent pour développer ce cas d'usage, que ce soit de l'IA générative ou du machine learning par exemple. Ensuite le niveau de risque associé au cas d'usage, en s'assurant notamment du respect des aspects éthiques, de responsabilité et de durabilité de l'IA. Pour cela, ils s'appuient sur les catégorisations du règlement européen sur l'IA.

Les cas d'usage classés comme "à faible risque" sont généralement validés et développés, par exemple pour automatiser des tâches de reporting. En revanche, les cas jugés à "très haut risque", notamment lorsqu'ils touchent à la sécurité des avions, font l'objet de davantage de précautions et de contrôles avant d'être éventuellement retenus. Nous avons ainsi identifié une douzaine de cas pilotes génériques cette année, couvrant des domaines variés comme la génération de documents, l'analyse de documents, ou encore l'assistance sur des données techniques. Pour chacun de ces cas génériques, nous sélectionnons un cas d'usage spécifique sur lequel nous développons et mettons en œuvre une solution. L'objectif est ensuite de pouvoir déployer cette solution sur les 10, 15 ou 20 autres cas identifiés dans la même catégorie.

De temps en temps, de nouvelles catégories de cas d'usage émergent. Dans ce cas, ce sont les équipes spécialisées en IA qui interviennent pour définir la meilleure approche pour les traiter.

Quelles mesures prenez-vous pour garantir que des données critiques ou sensibles ne sont pas transmises à des services d'IA externes ?

La gestion et la gouvernance des données sont des sujets clés, en particulier depuis le lancement du projet Skywise de data analytics. Airbus a mis en place un système de classification de ses données en deux catégories principales : Les données "Amber", qui ne sont pas particulièrement sensibles et peuvent être utilisées dans le cadre de projets d'IA, y compris avec des services d'IA externes. Les données "Red", qui sont très sensibles, par exemple pour des raisons de sécurité nationale ou de contrôle des exportations. Ces données "Red" ne sont pas éligibles pour être utilisées avec des services d'IA externes. Elles ne peuvent être exploitées qu'avec des modèles d'IA développés en interne chez Airbus.

Vous avez développé au niveau du groupe votre assistant d'IA générative. Sur quelle brique technologique repose-t-il ?

Nous menons un pilote avec Gemini qui concerne 3 000 employés

Actuellement, nous menons un pilote avec Gemini qui concerne 3 000 employés. L'objectif est de généraliser cette solution à l'ensemble des employés, pour les cas d'usage non critiques, d'ici la fin de l'année, après avoir démontré son intérêt business, notamment sur des tâches chronophages comme la rédaction de comptes-rendus de réunion ou la génération de code. Les prochaines étapes clés seront donc le déploiement et la mise à l'échelle de ces solutions de gen AI d'ici début 2025.

Nous avons fait le choix de Google Workspace, en termes de suite collaborative. Ce choix a été fait de manière naturelle, car la plupart de notre documentation est déjà dans Google Workspace. Donc nous nous appuyons principalement sur Google et Gemini pour tout ce qui est génération de contenu. Nous avons d'ailleurs un rapport de partenariat privilégié avec Google, ce qui nous permet d'être toujours à la pointe des dernières versions de leurs solutions, adaptées à nos cas d'usage.