Q* : cette IA (trop intelligente ?) qui aurait conduit à l'éviction de Sam Altman d'OpenAI

Q* : cette IA (trop intelligente ?) qui aurait conduit à l'éviction de Sam Altman d'OpenAI Quelques jours avant l'éviction de Sam Altman, des chercheurs d'OpenAI ont alerté le board sur l'arrivée d'un projet de recherche à un stade avancé proche de l'AGI, l'intelligence artificielle générale.

Des chercheurs d'OpenAI sont-ils parvenus à développer une intelligence artificielle proche de l'intelligence artificielle générale (AGI), une IA à l'intelligence proche de celle de l'être humain ? Selon Reuters, peu avant l'éviction, temporaire, de Sam Altman, plusieurs chercheurs d'OpenAI auraient adressé une lettre au conseil d'administration dans laquelle ils s'inquiétaient des récents progrès du projet "Q*." La lettre en question, aurait constitué un des éléments déclencheurs importants dans la décision du conseil d'administration de se séparer de Sam Altman (revenu aux affaires depuis). D'autres griefs étaient également reprochés au dirigeant, notamment des inquiétudes liées à la commercialisation trop rapide de certaines avancées, en contradiction avec le modèle initial de l'entreprise (nonprofit).

Q*, un modèle dotés de capacités mathématiques avancées

Le projet controversé, nommé "Q*" et jusqu'alors tenu secret, serait considéré par certains chez OpenAI comme une possible percée majeure vers l'"intelligence artificielle générale" (AGI), ont confirmé plusieurs sources à Reuters. Grâce à des ressources informatiques conséquentes, ce nouveau modèle serait capable de résoudre certains problèmes mathématiques très complexes, suscitant un grand optimisme parmi les chercheurs quant à son potentiel futur. La lettre pointait également les capacités et les dangers potentiels de l'IA pour l'humanité, sans pour autant préciser la nature exacte des risques pour la sécurité.

La conquête des mathématiques étant perçue comme une frontière clé du développement de l'IA générative, la capacité de Q* à résoudre certains problèmes mathématiques laisserait présager de futures capacités de raisonnement se rapprochant de l'intelligence humaine. OpenAI a reconnu, dans une communication interne, l'existence du projet Q* et de la missive adressée au conseil avant l'éviction de Sam Altman.

Une querelle interne sur les méthodes pour atteindre l'AGI

Plus tôt cette semaine, une source interne de l'entreprise nous a confirmé l'existence d'un projet visant à atteindre l'AGI au sein d'OpenAI. En réalité, la start-up aurait travaillé sur deux modèles d'IA adverses pour atteindre l'AGI : A-bit pour l'optimisation de l'utilité, et B-bit pour l'alignement avec les valeurs humaines. Ilya Sutskever, chef de la section scientifique chez OpenAI, était mécontent des progrès insuffisants sur le modèle B-bit (aligné sur les valeurs humaines) et l'aurait signalé à plusieurs reprises lors de la dernière réunion générale.

Or, Ilya Sutskever également membre du board aurait voté pour l'éviction de Sam Altman à la tête de l'entreprise. Officiellement, le conseil d'administration d'OpenAI s'inquiétait du manque de transparence de Sam Altman dans sa communication et ses plans à long terme. Reste à voir si Sam Altman, revenu à la tête d'OpenAI, en dira plus sur le sujet.