L'IA va-t-elle provoquer un chômage de masse ? Creuser les inégalités ? Renforcer les GAFA ?

Quel va être l'impact de l'IA sur l'emploi et l'économie ? En cinq questions, nous allons tordre le cou à quelques idées reçues et voir les raisons d'être optimiste.

Depuis le succès fou de ChatGPT lancé en novembre dernier, on ne compte plus les articles qui partagent des exemples d'utilisation plus impressionnants les uns que les autres, conduisant certains à dire  qu'une vague sans précédent de destruction d'emplois se profile à l'horizon, que cela ne pourra que favoriser les plus éduqués et expérimentés, et qu'enfin ce sera encore un moyen pour les géants américains de la tech de cimenter toujours plus leur emprise sur notre monde.

Rien n'est moins sûr, et dans pareilles circonstances il semble indiqué de détailler les raisons de penser le contraire afin de mieux appréhender cette révolution annoncée de toutes parts.

Penchons-nous sur le sujet en cinq temps :

  • L'IA va-t-elle augmenter notre productivité ?
  • L'IA va-t-elle conduire à un chômage de masse ?
  • L'IA va-t-elle accentuer les inégalités entre une élite surpayée et le reste des actifs sous-payés ?
  • L'IA sera-t-elle monopolisée par Google et OpenAI ?
  • Et quid du jour où l'IA et les machines pourront faire tout ce que savent faire les humains ?

1. L'IA va-t-elle augmenter notre productivité ?

Il y a beaucoup de raisons de le croire, voici quelques études concluantes :

  • Cette étude de 2023 réalisée par des chercheurs d'OpenAI et de l'Université de Pennsylvanie nous dit qu'environ 80% de la main-d'œuvre américaine pourrait voir au moins 10% de ses tâches professionnelles affectées par l'introduction des Large Language Models (derrière des outils comme ChatGPT), tandis que pour 19% des travailleurs cela pourrait concerner 50% de leurs tâches.
  • Cette autre étude de 2022 constate que les ingénieurs peuvent coder jusqu'à deux fois plus vite en utilisant un outil appelé Codex, dérivé du Large Language Model GPT-3
  • Celle-ci, de 2023, conclut que de nombreuses tâches d'écriture peuvent également être effectuées deux fois plus vite grâce à l'IA générative.
  • Cette expérience d'un professeur américain qui a réussi à condenser plusieurs jours de travail qualifié en 30 minutes en utilisant l'IA pour créer un site web, une campagne email, un logo, un visuel, une vidéo, des campagnes social media.
  • Cette autre étude de 2023 tend à montrer, sur la base de 25 cas d'usage, que les économistes peuvent être 10 à 20% plus productifs en utilisant les Large Language Models.
  • Cette étude de septembre 2023 réalisées auprès de centaines de consultants BCG : Les consultants utilisant l’IA ont terminé 12,2 % de tâches en plus en moyenne, ont terminé les tâches 25,1 % plus rapidement et ont produit des résultats de qualité 40 % supérieure à ceux qui n’en avaient pas.

Citons aussi cet article d'OpenAI datant de mai 2023 : "Il est concevable qu'au cours des dix prochaines années, les systèmes d'intelligence artificielle dépassent le niveau de compétence des experts dans la plupart des domaines et réalisent autant d'activités productives que l'une des plus grandes entreprises d'aujourd'hui."

Ces dernières innovations en IA se démocratisent à une vitesse inédite. ChatGPT est devenu le premier produit, toutes catégories confindues, à atteindre les 100 millions d'utilisateurs deux mois seulement après son lancement. N'importe qui, même avec un smartphone à bas prix, peut accéder à la version gratuite, et l'interface de chat rend l'utilisation facile et intuitive y compris pour les enfants et les seniors peu à l'aise avec la technologie habituellement. Cette révolution se fait depuis la base, en mode "bottom up". Ethan Mollick, professeur à l'université de Wharton, explique qu'il ne compte plus les retours qu'il reçoit d'employés qui utilisent ChatGPT en secret sans le dire à leur patron.

Il semble donc très probable que la productivité augmente dans une série de tâches, emplois et secteurs, et sans doute au niveau de l'économie toute entière, au sens de produire plus ou mieux par heure travaillée.

Tempérons toutefois ce propos en soulignant certains vents contraires :

  • Si l'IA générative peut nous produire du divertissement sur mesure toujours plus additictif, certains ne seront-ils pas encore plus distraits au travail qu'ils ne le sont déjà du fait des réseaux sociaux ?
  • L'IA générative ne va-t-elle pas rendre le spam plus difficile à détecter ? Ne court-on pas de ce fait là vers un monde où il y aura toujours plus de bruit et de difficulté à discerner des signaux utiles ? Comment cela ne pourrait-il pas nuire au développement économique ?
  • Les banques, entre autres, ne vont-elles pas devoir dépenser plus pour se protéger contre les risques  accrus de fraude ? Induisant une hausse de leurs frais, autant de frictions de plus dans les échanges, et réduction du pouvoir d'achat des consommateurs ?
  • Si l'IA générative permet de générer des plaintes et réclamations en justice bien plus facilement que jusque-là et pour bien moins cher, ne risquons-nous pas d'assister à un judiciarisation croissante de l'économie ? Causant toutes sortes de frictions susceptibles de la ralentir ? Le journal The Economist citait un avocat en ce sens : "Dans les années 1970, vous pouviez conclure une transaction de plusieurs millions de dollars en 15 pages parce que tout refaire à la machine à écrire était un casse-tête", explique Preston Byrne de Brown Rudnick, un cabinet d'avocats. "L'IA nous permettra de couvrir les 1,000 cas les plus probables dans le premier projet, puis les parties se disputeront pendant des semaines."

2. L'IA va-t-elle conduire à un chômage de masse ?

L'agriculture employait près de 42 % de la main-d'œuvre en 1900 aux Etats-Unis, grâce aux progrès technique elle n'en représentait plus que 2 % en l'an 2000. Cela n'a pas entraîné pour autant un chômage généralisé. Une étude montre que 60 % des emplois aujourd'hui aux Etats-Unis n'existaient pas il y a 80 ans.

Est-ce que ce sera différent cette fois-ci avec l'IA ? Va-t-on assister à du chômage de masse ? C'est a priori ce que peuvent laisser penser des annonces comme celle de British Telecom en mai 2023 qui prévoit de licencier 55,000 personnes d'ici à 2030, dont jusqu'à 20% remplacées par l'IA.

Pour dire les choses simplement, non, du moins pas tant que l'IA et les machines ne parviennent pas à remplacer TOUT ce que font les humains, ce qui nous laisse beaucoup de répit. Ce n'est pas parce qu'on pourrait soudainement produire grâce à l'IA autant qu'avant avec bien moins d'employés qu'on assisterait en net à de vastes destructions d'emplois.

En effet, produire une quantité donnée avec moins d'employés signifie dans une économie relativement concurrentielle qu'on vend moins cher, si bien que d'une part on vend beaucoup plus en général, ce qui limite voire évite les pertes d'emlois dans le secteur en question, et d'autre part les économies faites par les consommateurs peuvent être dépensées dans d'autres secteurs, y créant de l'emploi en compensation. Ainsi rien ne dit que le progrès technique doit nécessairement détruire massivement des emplois en net, tant que l'IA et les machines ne peuvent pas entièrement nous remplacer, précision importante.

Détaillons quelque peu.

Si les employés d'un secteur deviennent collectivement bien plus productifs grâce aux nouveaux agents conversationnels intelligents (du type ChatGPT) et à l'IA en général, et cela, rapidement et sans grand investissement en formation, cela implique que le coût de production d'un bien/service dans ce secteur doit baisser à qualité égale ou sa qualité augmenter à coût égal, voire un mélange des deux. Autrement dit, on peut produire plus et/ou mieux à coût total égal.

Dans un monde relativement concurrentiel qui est celui des économies prospères et innovantes comme la nôtre, cela signifie que le prix de vente finit par baisser à qualité égale, ou rester constant voire augmenter mais avec un meilleur rapport qualité/prix (voire un mélange de meilleur prix et meilleure qualité). Les consommateurs apparaissent ainsi comme les grands gagnants.

S'il existait une demande latente pour ces biens/services, alors la consommation explose jusqu'à saturation. C'est ce qu'on appelle l'effet rebond, que wikipedia définit comme "l’augmentation de consommation liée à la réduction des limites à l’utilisation d’une technologie, ces limites pouvant être monétaires, temporelles, sociales, physiques, liées à l’effort, au danger, à l’organisation".

Si toutes les tâches ne sont pas encore automatisables, cela signifie que l'emploi peut même augmenter dans ce secteur pour un temps (et non pas nécessairement que pour les plus diplômés, tout dépend de ce que la machine/l'IA n'arrive pas encore à faire, voir section suivante).

L'exemple typique est celui des distributeurs de billets, qui, loin de détruire des emplois en banque, en ont en fait créé de nombreux d'après cette étude : si les succursales bancaires nécessitaient moins d'agents, elles devenaient du même coup moins chères à opérer. Les banques en ont donc ouvertes davantage. Le personnel en agence s'est aussi moins concentré sur le comptage des espèces et plus sur la relation client et la vente de produits comme les cartes de crédit.

Les progrès en IA devraient aussi permettre de proposer de nouveaux biens et services qui jusque-là étaient inconcevables ou non rentables. Si toute la production n'est pas encore automatisable, encore une fois cela crée de l'emploi. Et on peut faire confiance à Homo sapiens pour s'inventer de nouveaux besoins sitôt satisfaits tous les autres. Nous vivons objectivement dans un monde d'abondance en France si on compare à il y a 300 ans, finies les famines, mais pourtant la plupart des gens continuent de ressentir des besoins à plein de niveaux. L'appétit pour la nouveauté semble intarissable, on ne compte plus ces applis ou appareils dont on s'était bien passé jusque-là mais qui nous deviennent indispensables.

En théorie, si l'on figeait l'offre de biens et services du moment en qualité et quantité produite par an, une productivité accrue permettrait de fournir autant, mais avec moins d'heures de travail. On aurait alors effectivement moins besoin de travailler, il y aurait moins de travail et donc moins de revenus du travail, mais parallèlement biens et services coûteraient moins chers. En agrégat on profiterait des mêmes biens et services en travaillant moins. Nos revenus baisseraient, mais pas notre niveau de vie qui augmenterait puisqu'on profiterait d'autant en échange de moins d'effort.

Et en pratique, nouveauté, meilleure qualité et meilleurs prix offerts par l'IA (et le progrès technique en général) permettent aux consommateurs de consommer plus et/ou mieux et/ou de faire des économies à dépenser dans d'autres secteurs. Quand le prix d'un bien/service baisse par exemple, plus de consommateurs peuvent en profiter, certains de ceux qui achetaient déjà en achètent davantage, et d'autres profitent des économies pour consommer d'autres biens et services, permettant le maintien voire le développement de l'emploi en agrégat, tant que tout ne peut pas être automatisé.

Il est probable aussi que le temps de travail moyen continue de diminuer, il était d'après l'OCDE d'environ 60 heures par semaine en moyenne à la fin du XIXème siècle en France, et en dessous de 40 heures aujourd'hui. En 1930 déjà John Maynard Keynes écrivait dans “Economic Possibilities for our Grandchildren” qu'en 2030 on ne travaillerait que 15 heures par semaine grâce au progrès technique.

Je parle en agrégat, mais dans les faits il y aura évidemment un certain nombre de personnes pour qui ces transitions seront compliquées, les états vont avoir plus que jamais un rôle à jouer pour les accompagner.

Et bien sûr, le jour où l'IA et les machines peuvent faire tout ce qu'un humain peut faire, cela change tout, nous y reviendrons en toute dernière partie.

3. L'IA va-t-elle accentuer les inégalités de revenus, entre une élite surpayée et le reste des actifs sous-payés ?

Admettons que le chômage de masse ne soit pas pour tout de suite, quel impact de l'IA sur la qualité des emplois, leur rémunération et répartition ?

Le tableau à ce jour

Les économistes nous disent que passés les abus des débuts, dans les pays occidentaux l'ère industrielle et les progrès techniques qui l'ont accompagnée ont largement profité à tous et contribué à constituer de solides classes moyennes. 

Par contre depuis près de 40 ans, les preuves s'accumulent pour démontrer que la révolution informatique, elle, semble avoir conduit à une polarisation des emplois affaiblissant la classe moyenne : les tâches répétitives, manuelles et surtout cognitives, ont pu être abondamment automatisées, laissant, pour schématiser, d'un côté les emplois techniques et de services difficiles à robotiser mais souvent mal payés, et de l'autre les emplois les plus qualifiés toujours mieux rémunérés. Les inégalités de salaires se sont accrues sur cette période, surtout aux Etats-Unis.

Faisons abstraction un instant des bienfaits du progrès technique pour les consommateurs qui profitent de biens et services plus divers, moins chers et de meilleure qualité dans les secteurs assez ouverts à la concurrence mais assez réglementés pour éviter les abus. Si on se concentre sur le seul volet de l'emploi, à ce jour il faut reconnaître que les entreprises de la tech ont contribué à accroître les inégalités de salaires en ce sens qu'elles détruisent plus d'emplois dans les industries "disruptées" qu'elle n'en crée directement. Un bon exemple est la comparaison entre Kodak qui employait 145,000 personnes à son apogée et Instagram, 13 employés lors de son acquisition par Facebook en 2012 (19,000 aujourd'hui).

On n'a pas pour autant assisté (aux Etats-Unis du moins) à une explosion du chômage car beaucoup de ceux qui ont perdu leur emploi dans les secteurs disruptés ont pu en retrouver un, très souvent moins payé, dans d'autres secteurs pas encore bouleversés par la tech, dont la productivité reste faible et n'augmente que très peu. Les économistes expliquent que l'offre de travail, par les actifs, est inélastique, c'est-à-dire peu sensible, aux variations de salaires, les gens ont besoin de travailler, surtout dans les pays à protection sociale réduite.

Le secteur de la tech est lui, bien sûr, de plus en plus productif, avec une part croissante dans l'économie. Il crée des emplois bien payés, certes, mais pas tant que cela. Cela explique pourquoi la productivité totale au niveau macroéconomique ces dernières décennies augmente bien plus lentement qu'on n'aurait pu espérer. 

Si beaucoup de la valeur des récents progrès est assez largement capturée par les consommateurs, le reste l'est en bonne partie par les entreprises de la tech et ses employés qualifiés, pendant que de plus en plus d'actifs se retrouvent dans des emplois moins productifs et moins bien payés qu'avant : les inégalités de salaires se creusent.

Enfin c'est le tableau à ce jour, la question est maintenant de savoir si l'IA va amplifier cette polarisation de l'emploi.

Et pour la suite ?

Il est trop tôt pour trancher, mais il est très intéressant de noter que de récentes études pointent vers le contraire !

Les moins expérimentés et diplômés seront possiblement avantagés dans certains cas, comme le montre cette étude de 2023 de l'université de Stanford et du MIT : "L'accès aux outils d'IA générative augmente la productivité, mesurée par le nombre de problèmes résolus par heure, de 14 % en moyenne, avec le plus grand impact sur les travailleurs novices et peu qualifiés, et un impact minimal sur les travailleurs expérimentés et hautement qualifiés."

Dans une autre étude de 2023, des chercheurs du MIT ont testé l'usage de ChatGPT sur diverses tâches d'écriture. Leur conclusion ? "Les inégalités entre travailleurs diminuent car ChatGPT fait davantage augmenter la productivité des personnes moins qualifiées et expérimentées"

Et dans cette étude de 2023 des chercheurs des universités de Princeton, Pennsylvanie et New York montrent que "les emplois de cols blancs hautement qualifiés et bien rémunérés pourraient être les plus exposés à l'IA générative".

Cette étude de septembre 2023 encore, réalisées auprès de consultants BCG : "L'IA fonctionne comme un niveleur de compétences. Les consultants qui ont obtenu les pires résultats lorsque nous les avons évalués au début de l’expérience ont vu leurs performances augmenter le plus, soit une augmentation de 43 %, lorsqu’ils ont commencé à utiliser l’IA. Les meilleurs consultants ont quand même bénéficié d’un coup de pouce, mais moins important."

Comme disait Sam Altman récemment, il y a encore 5 ans, tout le monde pensait que l'IA achèverait d'automatiser en priorité les tâches à la portée du plus grand nombre, comme la conduite, et ne toucherait qu'en dernier les tâches créatives, d'analyse et de synthèse. Sauf que c'est l'inverse qui est en train de se produire. L'IA générative peut résumer des textes, décrire des graphiques, inventer des images et des chansons, mais elle ne sait toujours pas conduire (à ma décharge, j'écrivais en 2017 cette tribune dans le JDN "Dans moins de 20 ans l’IA saura générer un épisode de Game of Thrones en une seconde").

Si ces enseignements devaient se confirmer et se généraliser à des pans plus complets de l'économie, cela pourrait bien inverser le creusement des inégalités.

Non pas parce que les actifs moins qualifiés seraient nécessairement mieux payés cependant, mais plutôt car ceux qui l'étaient très bien jusque-là le seraient potentiellement moins.

Prenons un exemple un peu extrême. Imaginons qu'avec une IA spécialisée une infirmière puisse remplacer un docteur. L'infirmière n'aurait pour cela pas besoin d'étudier plus longtemps qu'avant. Pensez-vous que l'infirmière serait alors payée autant qu'un docteur aujourd'hui ? A priori non, elle gagnerait à peu près autant qu'avant, quand le médecin devrait accepter une baisse de salaire ou se reconvertir. Ce serait le public qui y gagnerait le plus, en profitant d'expertise médicale plus accessible. Si toutefois, face à la baisse du coût d'accès à la médecine, la demande en infirmières explose plus vite qu'on ne peut en former, alors le temps que cela se stabilise le salaire des infirmières pourrait augmenter tant que cela reste moins cher que ne coûtent les médecins aujourd'hui.

Un médecin qui voit 4 patients par heure, 8 heures par jour, aura tenu près de 250,000 consultations en 30 ans. C'est sans doute un maximum, mais comment rivaliser avec une IA qui dès son entrée en service aura eu accès à des dizaines de millions de cas lors de son entraînement, et qui en parallèle aura "en tête" toutes les dernières études ? 

L'empathie, dernier rempart ?

Certains dirons que le médecin l'emportera toujours sur l'empathie, mais c'est une qualité qu'une infirmière peut maîtriser tout aussi bien, voire mieux. Et par ailleurs il n'est pas dit que l'IA ne puisse pas en faire peuve également. Une étude de 2023 montre que ChatGPT est parvenu à répondre à des questions de patients avec autant de précision mais plus d'empathie que des médecins. Et le New York Times rapportait en juin 2023 que "des médecins demandaient à ChatGPT de les aider à communiquer avec les patients de manière plus compatissante".

Il y a aussi ces exemples de personnes âgées en maison de retraite qui préfèrent se confier à un robot humanoïde qui ne les jugera pas plutôt qu'au personnel, ces étudiants qui préfèrent interagir avec un tuteur virtuel à la patience infinie plutôt que de prendre le risque de poser des questions bêtes à un humain, ou encore cette étude qui montre que "60% des répondants en France préfèreraient parler de leurs problèmes de stress et d’anxiété au travail à un robot plutôt qu’à leur manager". Sans parler de ces utilisateurs qui confiaient au chatbot Replika leur fantasmes sexuels et ont basculé dans la déprime quand la startup a désactivé ces sujets de conversation.

On aurait ainsi pu penser que l'IA permettrait aux meilleurs dans un domaine de capter une part encore plus grande des revenus, mais peut-être qu'au contraire elle permettra un rééquilibrage, cela sera sans doute tranché au cas par cas, secteur par secteur, domaine par domaine.

4. L'IA sera-t-elle monopolisée par Google et OpenAI ?

Il est permis d'en douter. Force est de constater que l'écosytème est en plein développement.

Si Bill Gates par exemple pense que les enjeux sont énormes, il considère que rien n'est décidé. Il disait récemment : "Celui qui parviendra à imposer son agent personnel virtuel gagnera gros, car vous n'irez plus jamais sur un site de recherche, vous n'irez plus jamais sur Amazon". Bill Gates pense que les chances que le grand gagnant de l'IA soit une startup vs un géant de la technologie sont de 50-50. "Je serai déçu si ce n'est pas Microsoft, mais je suis impressionné par quelques startups, dont Inflection"

OpenAI avait été créée en 2015 pour contrer justement le supposé monopole de Google sur l'IA. Depuis, des cadres d'OpenAI sont partis en 2021 monter Anthropic, qui a levé 1.45 milliards de dollars à ce jour, et dont le chatbot Claude vient de dépasser celui d'OpenAI en mémoire contextuelle.

Notons aussi Inflection AI, lancée par un ancien fondateur de GoogleDeepmind et qui impressionne Bill Gates. Sans oublier bien sûr Meta, dont le Français Yann LeCun, un des trois "parrains" du deep learning, dirige la recherche en IA. On pourrait aussi citer la canadienne Cohere, valorisée à 2 milliards de dollars et dans laquelle a investi Geoffrey Hinton, un autre des parrains du deep learning. Ou encore Character AI, valorisée 1 milliard de dollars, fondée par des anciens de Google ayant travaillé sur son Large Language Model LaMDA, et dans laquelle a investi le célèbre fonds Andreessen Horowitz. 

Les géants de la tech se font concurrence entre eux et créent des ponts avec certaines startups : via des investissements, comme Microsoft avec OpenAI, Google avec Anthropic AI, ou des parteneriats, comme AWS d'Amazon qui permet à ses utilisateurs d'accéder aux Large Language Models d'Anthropic, Cohere et d'autres.

Sans parler d'Elon Musk qui s'est décidé cette année à lancer une nouvelle boîte (il en gérait déjà 5 : SpaceX, Tesla, Neuralink, The Boring Company, Twitter) dédiée à l'IA : X.ai. Il a recruté pour cela une pointure de chez Alphabet et acheté beaucoup de puissance de calcul. Il compte sur les flux d'informations émanant de Twitter et du parc de voitures Tesla en circulation pour rattraper son retard et bâtir des modèles les plus capables de comprendre le monde.

Ainsi, même si OpenAI fait la course en tête, il semble qu'on est très loin d'une situation de monopole.

Et Alphabet/Google, Meta/Facebook ont joué jusque-là la transparence, ce qui a profité à tout le secteur et même au-delà !

Les succès récents d'OpenAI ne seraient possibles sans l'innovation majeure des "Transformers" produite et rendue publique par Google en 2017. Cette innovation a ceci de révolutionnaire qu'elle permet de développer rapidement des modèles du langage qui vont apprendre et générer des associations entre mots et concepts même s'ils sont éloignés les uns des autres dans les textes utilisés lors de l'apprentissage.

Google DeepMind a révélé en 2022 un programme d'IA qui a créé une cartographie 3D des 200 millions de protéines connues. Jusque-là, il fallait le temps d'un doctorat, soit 5 ans, pour déterminer expérimentalement la structure d'une protéine, donc l'avoir fait pour les 200 millions de protéines équivaut à un milliard d'années de temps de doctorat ! Google n'a pas cherché à garder pour elle cette innnovation, la nouvelle base de données de protéines est publique. Elle a été utilisée par différents acteurs tiers pour développer des vaccins contre le paludisme, des enzymes capables de digérer les déchets plastiques et de nouveaux antibiotiques, a déclaré son PDG Demis Hassabis.

FAIR (Facebook AI Research, dirigée par Yann LeCun) a rendu public en février 2023 le Large Language Model LLaMa, développé par 14 chercheurs dont 10 Français basés à Paris. Ce modèle, qui devait au départ être disponible juste pour les chercheurs dans le monde, a fuité et précipité une explosion d'innovation open-source sans précédent depuis trois mois. Le chatbot Hugging Chat de la startup Hugging Face (fondée par 3 Français) n'existerait pas sans LLaMa. 

Meta a récidivé quelques mois plus tard en juillet dernier, avec LLaMa 2. Mais cette fois, le modèle est open source et gratuit pour un usage commercial dès le départ. "Je pense qu'on peut arguer que Llama 2 est le plus grand événement de l'année en matière d'IA", déclare un chercheur de l'entreprise Hugging Face. LLaMa 2 a été réalisé en utilisant 40 % de données en plus que l'original. Un chatbot construit avec ce modèle est capable de générer des résultats comparables à ceux du ChatGPT d'OpenAI, affirme Meta.

LLaMa 2 va permettre aux petites entreprises ou aux codeurs isolés de créer plus facilement de nouveaux produits et services, accélérant potentiellement le boom actuel de l'IA.

On peut citer également le mémo interne édifiant d'un chercheur de chez Google, rendu public début mai et qui a fait grand bruit, expliquant à quel point Google et OpenAI étaient démunis face à l'essor de l'AI open source, extrait : "Bien que nos modèles détiennent toujours un léger avantage en termes de qualité, l'écart se réduit étonnamment rapidement. Les modèles open source sont plus rapides, plus personnalisables, plus privés et plus capables. Avec 100 dollars et 13 milliards de paramètres ils font des choses que nous trouvons difficiles nous avec 10 millions de dollars et 540 milliards de paramètres. Et ils le font en semaines, pas en mois." 

"La barrière à l'entrée pour l'entraînement et l'expérimentation est passée de la production totale d'un grand organisme de recherche à celle d'une personne le temps d'une soirée, avec juste une ordinateur portable costaud" , affirme encore le mémo. Un Large Language Model peut maintenant être peaufiné pour 100 $ en quelques heures. Avec son modèle rapide, collaboratif et peu coûteux, "l'open source présente des avantages significatifs que nous ne pouvons pas reproduire". 

Autre exemple récent parmi tant d'autres, des développeurs dans leur coin ont peaufiné LLaMA et mis un point à moindre coût un modèle qui fait mieux que GTP-4 sur les tâches arithmétiques.

La concurrence s'intensifie encore, trois Français, l'un des chercheurs derrière LLaMa, avec un autre ancien de Facebook et un de DeepMind, viennent de fonder Mistral AI en France, avec une levée de 100 millions d'euros. 

Encore plus surprenant, en septembre 2023, un institut technique aux Emirats Arabes Unis a partagé un nouveau modèle open source, Falcon 180B, qui fait mieux que LLaMa 2 a mesuré Hugging face, rapporte The economist.

OpenAI a été relativement transparent jusqu'à GPT-3 avant de se refermer. Cela a suffi à faire éclore EleutherAI, un centre de recherche à but non lucratif qui joue un rôle central dans la communauté open source aujourd'hui. Sans EleutherAI, Stability AI (aussi connue pour son IA génératrice d'images Stable Diffusion) n'aurait pas pu sortir son language model open source StableLM.

L'IA est en train de devenir une "commodity", un produit de base, disponible via interface de programmation d'application (APIs) ou à s'approprier en open source, et que toutes les autres entreprises pourront intégrer à leur processus. OpenAI a ainsi divisé par 10 en mars dernier pour les développeurs d'applications le coût d'accès à ChatGPT par "token" (unité d'information correspondant à un mot ou groupe de caractères textuels).

C'est notre cas chez Yelda, la startup que j'ai cofondée, où nous utilisons les Large Language Models disponibles pour nos intelligences artificielles vocales dont nous équipons notamment les mairies, permettant de prendre charge la moitié des appels à la ville de Plaisir par exemple, ce qui laisse plus de temps aux opérateurs pour les requêtes plus compliquées.

Même scénario pour les IA génératrices d'images. La technologie la plus en pointe n'est pas Dall-E d'Open-AI mais celle de MidJourney, celle à qui on doit les images du pape en doudoune. MidJourney a été créée en juillet 2022, ne compte que 11 employés à plein temps et n'a pas levé de fonds ! On pourrait aussi parler de Runway, spécialisée dans l'IA générative et l'édition vidéo, valorisée à 1.5 milliards de dollars.

Les modèles d'IA deviennent plus performants, et sont reproduits en open-source de façon de plus en plus compact, si bien que très bientôt on pourra même les faire tourner sur nos téléphones sans être connecté à internet !

Sam Altman partageait que les dernières innovations d'OpenAI et d'autres, bien loin de conduire à un oligopole, offrent des opportunités sans précédent aux entrepreneurs : "Il n'y a jamais eu un meilleur moment pour lancer une startup, mieux même qu'après le lancement de l'iphone (...). Les entrepreneurs vont pouvoir bâtir toutes sortes de produits grâce à ces nouveaux outils. Si vous voulez simplement copier ChatGPT, c'est que votre imagination est limitée, l'univers des possibles est si vaste. (...) Il y a tant à faire, si vous pensez que nous monopolisons l'IA, c'st que vous n'avez pas pris la mesure de la situation."

Sam Altman prêche bien sûr pour sa paroisse, mais c'est indéniable, l'écosytème est en plein boom, les compétences circulent d'une entreprise à l'autre, les acteurs et les investissements se multiplient, le secteur open-source est très dynamique. 

Et il y a une autre bonne raison pour laquelle il est très dur pour le premier de la classe de prendre le large et laisser dans autres dans la poussière, comme l'explique The Economist : le coût le plus important n’est pas l'entraînement des modèles mais l’expérimentation préalable. De nombreuses idées n’ont pas abouti, avant d'arriver à celle qui mérite de passer au stade de l'entraînement. Sur les 500 millions de dollars qu'OpenAI aurait perdu l’année dernière, la phase d'entraînement de GPT-4 ne représenterait "que" 100 millions de dollars. Le reste du secteur entend très vite parler des nouvelles d’idées qui ne mènent nulle part. Tout se sait très vite. Cela aide les concurrents d’Openai à éviter de s’engager dans des impasses coûteuses. En bref, le leader s'épuise à faire la R&D pour les autres.

Beaucoup de raisons de penser qu'il va être difficile pour quelques entreprises de monopoliser le secteur.

Il y a tout de même quelques nuages à l'horizon...

OpenAI s'est refermé, n'a quasiment rien partagé des détails de son Large Language Model le plus avancé, GPT-4, qui est sous le capot de la version la plus performante de ChatGPT et Bing AI de Microsoft, tous deux bien supérieurs à Bard de Google d'après de nombreux testeurs chevronnés dont Ethan Mollick, professeur à l'université de Wharton.

Si les grands acteurs du secteur cessent de partager autant qu'ils l'ont fait jusque-là, l'open source ne parviendra pas à suivre, disent certains. Ilya Sutskever, le Chief Scientist d'OpenAI explique que les modèles privés auront toujours un temps d'avance sur l'open source, et que cela devrait même s'accentuer du fait des besoins croissants en recherche, développement et ingénieurie. Yann LeCun de Meta/Facebook disait la même chose.

Et beaucoup de spécialistes expliquent que pour franchir encore un cap en intelligence, compréhension de notre monde et bon sens, les prochains modèles devront être entraînés au-delà du langage textuel, notamment en digérant du contenu vidéo en masse : après les Large Language Models, les Large Video Models ? Cela supposera encore plus de puissance de calcul et de serveurs, c'est sans doute de nature à favoriser les entreprises qui auront levé le plus de fonds ou se seront rapprochés des géants. L'explosion cambrienne du moment pourrait laisser place à une sélection sans merci.

La régulation de l'IA enfin, bien que souhaitable à plein d'égards, pourrait introduire de nouvelles barrières qui freineraient l'innovation et compliqueraient plus la tâche aux startups qu'aux géants en place.

Quoi qu'il arrive, même si l'innovation devait s'arrêter du jour au lendemain, l'intégration de ce qui est déjà possible à tous les pans de l'économie devrait occasionner des changements incroyables, profitant à tous, à nous les utilisateurs finaux partout dans le monde. 

5. Quid du jour où l'IA et les machines pourront faire tout ce que savent faire les humains ?

Et peut-être qu'un beau jour l'IA et les machines feront aussi bien voire mieux que sapiens à tous les niveaux !

Cela suppose des progrès incroyables en IA mais aussi en robotique, qui ne semble pas avancer au même rythme, nous avons sans doute le temps. Mais peut-être qu'on finira par y arriver, que se passerait-il alors ?

À partir de ce moment-là, quels que soient le type et le niveau de production considérés, il y aura nécessairement de grandes destructions d'emplois. Mais comme détaillé plus tôt, les revenus du travail perdus iront de pair avec de grandes baisses des prix. Une palette incroyable de biens et services sera disponible à très bas prix car n'incluant plus de main d'oeuvre humaine. Un revenu minimum relativement modique pourrait permettre d'accéder à ce monde de proto-abondance. 

Pour autant, dans un tel monde où l'IA et les machines peuvent techniquement tout faire, y compris répondre à des besoins émotionnels, il y aura toujours des consommateurs qui voudront profiter de services intégrant de la main d'oeuvre humaine, ne serait-ce que pour se démarquer. C'est aussi déjà la logique à l'oeuvre dans le secteur du luxe, un diamant artificiel est strictement identique à un diamant sorti du sol par exemple, mais se paie 70% moins cher, différence purement psychologique.

Pour obtenir des services faisant intervenir des humains, on peut imaginer que ces consommateurs aient eux-mêmes à monnayer leur temps auprès d'autres comme eux intéressés par les services humains. 

Par exemple, Léo acceptera de travailler dans un restaurant où Gabriel est client pour gagner de quoi acheter le pain que produit Gabriel. Léo pourrait acheter un pain de même qualité mais bien moins cher car produit par l'IA et les machines. Et Gabriel pourrait aller dans un restaurant de même standing mais bien moins cher car opéré sans humain. Sauf qu'ils valorisent par choix ces services offerts par des humains et sont prêts à travailler eux-mêmes pour se les fournir. 

Autre exemple, la musique : il y a fort à parier que même dans un monde où l'IA et la machine peuvent tout faire il y ait encore de la demande pour assister à des concerts de musiciens humains. Léo vendra ainsi peut-être son pain "made by human" à Gabriel pour acheter sa place de concert où joue Noémie qui elle gagnera ainsi de quoi aller au restaurant où travaille Gabriel. 

Bien sûr beaucoup préfèreront la facilité et se contenteront des biens et services d'excellente qualité fournis par l'IA et les machines. C'est pourquoi dans un tel monde, même si une économie humaine devrait perdurer, difficile d'imaginer qu'on travaillerait autant.

Homo sapiens pourra passer son temps à s'amuser, voyager, apprécier les arts, la romance et le sport. Et ceux qui rechercheront toujours à améliorer leur statut et à se démarquer sans travailler au sens évoqué plus haut pourront le faire...justement par le sport, les arts, l'aventure. En effet, une voiture va plus vite qu'un être humain, et pourtant la finale du 100 mètres continue de captiver. L'IA bat Homo sapiens à plate couture aux échecs, mais sapiens continue de jouer aux échecs avec sapiens. En fait on n'a jamais autant joué aux échecs !

Mais attention !

Tout ce qui précède fait l'hypothèse que les pires risques à craindre des progrès en IA ne se matérialisent pas, en particulier :
 

  • le risque de fracturation des sociétés du fait notamment du cybercrime, des biais algorithmiques, de la désinformation dopée aux deepfakes, et de l'isolement lié à l'addiction aux mondes et avatars virtuels,
  • le risque de guerre totale dopée aux armes autonomes,
  • le risque de basculer dans des régime totalitaires en mesure de contrôler nos moindres faits et gestes en permanence,
  • le risque existentiel enfin, risque que l'IA échappe à l'humanité le jour où elle deviendrait plus intelligente que nous tous réunis, et nous fasse disparaître, par dessein, indifférence ou accident.

Sur ce dernier point, Yann LeCun considère comme évident qu'on mettra au point une superintelligence, et que ce sera pour le meilleur, sans danger majeur. 

Son aîné et autre des trois parrains du deep learning, Geoffrey Hinton, pense aussi qu'on court tout droit vers la superintelligence, probablement avant 20 ans, mais lui considère que le risque de disparaître n'est pas inconcevable. C'est pour cela qu'il vient tout juste de signer (avec le troisième parrain Yoshua Bengio ainsi que les fondateurs de Deepmind et OpenAI et plus de 300 autres chercheurs et personnalités) une déclaration appelant à faire de la gestion du risque d'extinction de l'espèce humaine par l'IA une priorité mondiale. 

Certains sont encore plus inquiets, comme le chercheur Eliezer Yudkowsky, que Sam Altman dit respecter, qui écrit dans le Time Magazine : "De nombreux chercheurs, dont moi-même, s'attendent à ce que le résultat le plus probable de la mise au point d'une intelligence artificielle surhumaine, dans les circonstances actuelles, soit que littéralement tout le monde sur Terre mourra. Non au sens de "peut-être une chance lointaine", mais "c'est la chose évidente qui se produirait"."

On croise les doigts pour que Yann LeCun ait raison !