Google Bard : le moteur de recherche répond à ChatGPT !

En peine déferlante ChatGPT, Google a présenté son propre chatbot dopé à l'IA. Que nous dit Google Bard de l'avenir des moteurs de recherche ?

Après l’annonce de Microsoft concernant l’intégration prochaine de ChatGPT-3 à Bing, Google a présenté son propre chatbot conversationnel à base d’intelligence artificielle, Bard. Et confirmé ce que l’on entrevoit depuis plusieurs mois : les moteurs de recherche du futur ne ressembleront pas à ceux d’aujourd’hui.

Une rude bataille vient de commencer, et bien malin celui qui saurait prédire son issue. En annonçant Bard peu de temps après la sortie de Microsoft au sujet de ChatGPT-3 (l’outil d’OpenAI mis à disposition du grand public depuis novembre 2022, que l’entreprise de Bill Gates souhaite intégrer à son moteur de recherche), Google a clairement affirmé son ambition d’occuper une place de choix sur la scène de l’intelligence artificielle. 

Malgré une présentation en demi-teinte (et manifestement précipitée par l’actualité), la firme de Mountain View a néanmoins frappé un grand coup dont les répercussions sur les résultats de recherche risquent d’être durables. Car Google Bard permet au moteur de franchir un nouveau pas en direction de l’objectif qu’il s’est fixé des années en arrière : passer de moteur de recherche à moteur de réponse.

Google Bard, ou la réponse de Google à ChatGPT et Microsoft

Bard, c’est le nom donné par Google à son propre chatbot conversationnel alimenté à l’intelligence artificielle, sur un principe proche de ChatGPT. Comme ce dernier, Google Bard s’appuie sur des modèles d’apprentissage dans le but de fournir des réponses claires et structurées aux questions qui lui sont posées. Grâce à une couche d’IA, l’outil est en mesure d’interpréter la demande formulée par l’utilisateur et de rédiger une réponse avec ses propres mots.

Bien entendu, cette réponse ne vient pas de nulle part. Les modèles d’apprentissage s’entraînent préalablement avec de vastes corpus de données, puis utilisent des "grands modèles de langage" (Large Language Models) pour formuler des réponses qui imitent – mais ne reproduisent pas – la manière humaine. On peut le voir avec ChatGPT : la capacité de l’outil à générer du contenu à la volée, sans fautes, et agréable à la lecture, est pour le moins bluffante.

Ici, la principale différence entre le programme conçu par OpenAI et Google Bard se fait jour : alors que le corpus d’informations du premier s’arrête à mi-2021, le moteur de recherche entend connecter son outil au web pour lui permettre d’aller puiser les données dont il a besoin. Sur ce point, l’exemple donné par Google dans son communiqué du 6 février, puis repris lors de sa présentation (une question au sujet des découvertes du télescope spatial James Webb) n’a clairement pas été choisi au hasard : il s’agissait de montrer au public la capacité de l’outil à puiser dans des données plus récentes que son concurrent direct, le télescope ayant été lancé en fin d’année 2021.

Autre distinction majeure entre les deux IA : Google Bard est alimenté par une version light du modèle de langage de la firme, nommé LaMDA (pour Language Model for Dialogue Applications), qui nécessite moins de ressources techniques pour fonctionner. Un point important dans la perspective d’un déploiement massif de l’outil une fois son intégration au moteur de recherche effective, lorsque des centaines de millions de personnes souhaiteront l’utiliser en simultané. Surtout face à un adversaire qui expérimente régulièrement des pannes en raison d’un trop grand nombre de connexions…

La suite logique des travaux de Google sur l’IA

La précipitation avec laquelle Google a annoncé, puis présenté Bard – avec, à la clé, une erreur factuelle glissée dans la réponse donnée par l’outil, qui a contribué à faire plonger l’action d’Alphabet en bourse – ne doit pas nous faire oublier que l’intérêt du groupe pour l’intelligence artificielle n’a rien de nouveau. Le succès inattendu de ChatGPT a brusqué les choses, certes ; l’annonce faite par Microsoft à propos de son intégration prochaine à Bing a fait l’effet d’un tremblement de terre, c’est vrai ; Google aurait peut-être dû respirer un bon coup et compter les points à distance pendant quelques semaines avant de se lancer, sans doute ; mais cela ne retire rien aux efforts consentis ces dernières années par l’entreprise pour développer ses propres applications à base d’IA.

Deux mises à jour de l’algorithme du moteur de recherche ont d’ailleurs été bâties sur un modèle de deep learning appelé Transformer : BERT en 2018 et MUM en 2021. Deux évolutions qui ont pour objet de mieux comprendre les demandes formulées en langage naturel et de répondre avec toujours plus de précision et de pertinence à des requêtes complexes, dans des langues différentes. L’année de MUM, Google a également dévoilé LaMDA, lui aussi construit sur Transformer, destiné spécifiquement à alimenter un outil conversationnel comme Bard. L’ironie du sort, c’est que ChatGPT, lancé avant Bard, utilise aussi… le modèle Transformer créé par Google !

Ce qu’il faut comprendre, c’est que Google Bard s’inscrit pleinement dans la volonté du moteur de recherche de développer des technologies capables de l’aider à mieux faire son travail – à savoir : proposer des réponses plus complètes et plus pertinentes aux internautes. Quitte à modifier en profondeur la façon dont ces réponses sont affichées… et consultées.

Un chatbot dans la SERP, ça change quoi ?

De fait, l’intégration d’un chatbot dopé à l’IA dans la SERP (la page des résultats du moteur de recherche) n’a rien d’anodin. Ce "petit" changement est même susceptible de chambouler complètement la présentation des résultats, et par conséquent, de transformer du tout au tout le comportement des utilisateurs face à ces réponses. Pour les moteurs de recherche, c’est un enjeu de taille – qui n’aura pas échappé à la communauté SEO.

Pour saisir cet enjeu, il faut imaginer une page de résultats qui fait la part belle au contenu généré par l’intelligence artificielle. Google a laissé entrevoir à quoi pourrait ressembler la SERP dans un futur pas si lointain :

Confronté à une question complexe qui fait intervenir deux problématiques (une comparaison entre la pratique du piano et celle de la guitare, puis une indication du temps nécessaire pour maîtriser l’un et l’autre instrument), Google Bard mobilise son apprentissage pour formuler une réponse qui synthétise les informations accessibles sur Internet. Cette réponse puise dans les contenus existants, crawlés puis indexés par les robots de Google, mais elle est générée de façon spontanée par l’outil dans le but de se mouler parfaitement sur la question posée par l’internaute.

Du point de vue de l’utilisateur, l’avantage est sensible : Google Bard affiche une réponse unique à la question posée, ce qui lui évite d’avoir à cliquer sur différents liens pour se faire un avis (ce qui peut prendre plus ou moins de temps en fonction de la complexité de la requête). Pour aller plus loin, on peut tout à fait envisager une version évoluée de cette technologie capable de formuler des réponses personnalisées, adaptées au profil socio-démographique de l’internaute, ainsi qu’à son historique de recherche. Et qui, à la question du choix entre la guitare et le piano, répondrait peut-être « Essaie plutôt le banjo » !

Cette fonctionnalité pose aussi beaucoup de questions. Est-ce la fin des liens organiques dans la SERP ? Quid des choix multiples et de l’exercice du libre arbitre ? Devra-t-on se contenter d’une réponse unique, éventuellement adossée à une liste de ressources qu’il sera possible de consulter ? Et comment s’assurer de la fiabilité de cette réponse ?

À ce stade, il est impossible d’affirmer quoi que ce soit, sinon que Google Bard s’inscrit pleinement dans l’ambition du moteur de recherche de devenir ce fameux moteur de réponse dont on nous parle depuis un moment. Pour autant, les difficultés rencontrées par ChatGPT depuis son lancement public, et notamment sa faculté à proposer des réponses absolues – mais fantaisistes – avec aplomb, et ce indépendamment de toutes ses qualités, devraient plutôt pousser Google a trouver un équilibre subtil entre ce que dit la machine et le choix offert aux internautes.

Autrement dit, il faut s’attendre, pour une version future de la SERP, à une coexistence du nouveau et de l’ancien, avec le point de vue de l’IA d’un côté, mais aussi avec une liste de liens organiques de l’autre, sur lesquels l’utilisateur sera libre de cliquer manuellement. En ménageant la chèvre et le chou, Google maintiendrait son modèle économique (essentiellement basé sur la publicité digitale) tout en laissant aux internautes la possibilité de faire leurs propres choix. Mais cette vision de l’avenir est forcément amenée à changer en fonction de ce que fera Microsoft avec Bing, et de la manière dont les utilisateurs vont s’approprier le principe d’une IA intégrée à la SERP.