2025 sera-t-elle l'année des projets d'IA pour les entreprises françaises ?

Depuis 2 ans déjà, l'IA générative est sur toutes les lèvres. Pour autant, les résultats de leurs investissements dans l'IA se font encore attendre.

Les RSSI, les DSI et les directeurs techniques poursuivent leurs conversations sur cette nouvelle technologie avec leur conseil d’administration et font le point sur leurs progrès et les changements survenus au cours de l’année écoulée. Pour autant, les résultats de leurs investissements dans l’IA se font encore attendre.

Entre résultats attendus et évolution des grands modèles de langage (LLM), l’IA restera une tendance forte pour 2025 pour les entreprises qui cherchent toujours à atteindre la résilience numérique.

Fin de l’exploration de l’IA, l’heure est aux résultats

En 2023, les investissements dans le domaine de l’IA ont atteint environ 154 milliards de dollars à l’échelle mondiale. Cette année, l’IA a été ajouté dans presque tout, que cela soit nécessaire ou non. Et ce n’est pas tout : selon Goldman Sachs, les grandes entreprises technologiques sont en passe, à elles seules, de débourser plus de 1 000 milliards de dollars dans les années à venir.

La pression pour concrétiser les avantages de l’IA est aujourd’hui importante, mais la définition des infrastructures nécessaires au fonctionnement de l’IA en est encore à ses débuts. Les organisations expérimentent et ajustent leurs stratégies par tâtonnements. Mais les conseils d’administration s’inquiètent du retour sur investissement et leur enthousiasme faiblit. L’engouement initial pour l’IA commence à s’estomper : les entreprises veulent des résultats et non d’un battage médiatique.

En France, les entreprises ambitionnent d’accélérer leurs projets d’automatisation et l’IA n’est finalement qu’une des technologies facilitant ces projets. Cette vision plus pragmatique et prudente a été forgée lors de l’arrivée du cloud. Ces dernières réfléchissent en premier lieu au retour sur investissement et à la sécurité AVANT de mettre en œuvre toute nouvelle technologie. D’autant que le poids de la réglementation pèse lourd sur leurs épaules et freine les projets de transformation. Cela explique le décalage entre les pays très en avance sur leurs projets d’IA et les entreprises françaises qui sont encore en phase d’apprentissage et ne l’implémentent pas encore. Au lieu de cela, elles font davantage l’expérience de l'IA au travers d'outils externes.

L’année prochaine, il s’agira donc surtout de réfléchir aux outils qu’elles souhaitent exploiter, les domaines dans lesquels il manque le plus d’experts et surtout si elles ont vraiment besoin de faire appel à l’IA pour réaliser ces projets. Cela aura un impact direct sur le retour sur investissement et sur le problème du déficit de compétences.

L’avenir des LLM sera limité

À l’image d’une bibliothèque, les LLM actuels renferment tout le savoir. Mais avons-nous vraiment besoin de repartir avec l’ensemble des livres que nous ne lirons probablement pas ? Pourquoi donc ne pas réduire le modèle à une taille raisonnable qui correspond à un scénario d’utilisation spécifique ?

L’année prochaine, les entreprises opteront pour des petits modèles de langage (SLM) spécialisés pour trois raisons principales : ils consomment moins d’énergie, ne dépendent pas des données accessibles au public (qui atteignent leurs limites) et sont plus précis.

D’un point de vue environnemental, la consommation d’énergie de l’IA devrait atteindre 1 000 térawattheures d’ici 2026. Une transition vers des modèles plus petits et plus efficaces réduit considérablement les exigences des modèles d’IA sur leur infrastructure de calcul sous-jacente. Du point de vue des coûts, moins d’énergie signifie plus d’économies d’autant que les SLM sont généralement moins chers à former et à déployer. En ce qui concerne les limites des données, les recherches suggèrent que des données d’entraînement de grande qualité et accessibles au public pourraient manquer d’ici 2026. Cela incitera les entreprises à rechercher des modèles plus petits, formés sur des ensembles de données spécifiques à un domaine, pour se spécialiser dans un domaine particulier.

Étant donné que les SLM sont beaucoup plus précis pour un scénario d’utilisation donné, ils pourraient aider à réduire le risque d’hallucinations de l’IA, qui se produisent lorsqu’un LLM, qui alimente une application d’IA générative, produit des informations fictives.

Cependant, pour certains scénarios d’utilisation, les organisations continueront de s’appuyer sur les LLM pour accomplir leur travail. En 2025, les entreprises utiliseront les LLM pour les requêtes de connaissances générales, l’analyse de données et la planification stratégique, tandis que les SLM seront exploités pour les tâches d’automatisation de niche, les applications de sécurité spécialisées et la génération de contenu sur mesure.

Aller de l’avant

Au cours de l’année à venir, les dirigeants et les responsables technologiques collaboreront plus étroitement dans leur recherche de solutions essentielles favorisant une croissance durable, l’innovation et la résilience.

2024 a prouvé que l’IA générative n’est pas une mode passagère. L’influence de l’IA est omniprésente et ne fera que s’intensifier l’année prochaine, mais, quelle que soit la forme que prendra l’IA, elle va devoir prouver sa valeur.