Shadow AI en santé : canaliser l'adoption sauvage sans casser l'innovation

Dans beaucoup de services, des équipes testent des IA grand public "pour gagner du temps". Le risque n'est pas qu'un sigle RGPD : c'est la qualité clinique, la traçabilité.

Dans beaucoup de services, on voit naître des “débrouilles” d’IA : une IDE qui traduit des consignes, un interne qui résume un dossier, un cadre qui relit un courrier… tout cela avec des outils grand public, parce que c’est là, tout de suite, et que ça fait gagner du temps. Le risque n’est pas qu’un sigle RGPD : c’est la qualité clinique, la traçabilité et l’équité d’accès entre équipes. Interdire ne marche pas ; canaliser oui. L’ambition est simple et opérationnelle : offrir un guichet d’usage, publier un catalogue d’outils approuvés, écrire des règles lisibles, monter des rails techniques sobres, puis piloter l’ensemble avec quelques indicateurs qui assainissent sans freiner.

Quand ça aide… mais fuit le cadre

Midi, salle d’attente pleine. Une jeune mère ne parle qu’un arabe dialectal ; son enfant a besoin d’une consigne précise de prise d’antibiotique. L’infirmière ouvre un chatbot public sur son téléphone, traduit, reformule, mime le geste. La famille acquiesce ; le soin passe. L’utilité est incontestable. Dix minutes plus tard, au moment d’écrire la trace : où consigner le contenu exact transmis ? Quelle version de l’outil a été utilisée ? L’a-t-on paramétré pour ne pas exposer d’élément sensible ? Personne ne sait répondre. L’initiative n’est pas “hors la loi”, elle répond à une urgence pratique ; c’est l’organisation qui est muette.
La Shadow AI ne naît pas d’une tentation de transgression, mais d’un vide de service : pas de guichet où déposer une demande, pas de oui mais encadré, pas de rails techniques prêts. Le résultat est paradoxal : d’un côté de vrais gains de temps et un service rendu ; de l’autre, un angle mort de traçabilité et d’équité — certains services disposent d’IA utiles parce qu’ils osent “bricoler”, d’autres s’en privent faute de cadre. La question n’est donc pas “interdire ou laisser faire”, mais “donner un chemin officiel à ce qui aide déjà”.

Mettre la clinique au volant : le guichet unique IA

Un dispositif frugal suffit à renverser la dynamique. Il commence par un guichet : un formulaire court, dix questions maximum, qui demande la finalité clinique, les types de données envisagées, les bénéficiaires, le bénéfice attendu, les risques pressentis, la façon dont on compte tracer l’usage et à qui escalader en cas de doute. Ce guichet ne promet pas la lune ; il promet une réponse en cinq jours ouvrés, même si c’est “oui, mais dans une version bridée” ou “non, essayons plutôt tel outil”.
En face, un Comité IA court — soixante minutes par mois, pas plus — réunit un référent clinique (qui porte la finalité), un cadre (qui pense les flux), la qualité (qui voit les risques), la DSI/RSSI (qui dessine les rails) et un juriste/DPO (qui clarifie les limites). L’ordre du jour est toujours le même : un cas d’usage prioritaire à trancher ; les points qualité/risques mis en exergue ; les arbitrages d’accès (qui, quand, comment) ; un rapide retour sur incidents du mois précédent et les corrections effectivement fermées.
Très vite, deux voies s’imposent. La première, fast-track, concerne les usages à faible risque clinique — éducation, traduction, reformulation pédagogique — et délivre un “oui, maintenant” avec un petit kit prêt à l’emploi. La seconde, parcours renforcé, touche directement le soin : elle impose une traçabilité des prompts et sorties, une double lecture humaine et, si la thérapeutique est en jeu, une validation pharmacien. L’important n’est pas la lourdeur du processus, c’est la prévisibilité : on sait en amont ce qui arrive à sa demande, sous quel délai, et avec quel garde-fou.

Ce qui doit être écrit, simplement : le one-pager BYOAI

Par BYOAI (“Bring Your Own AI”), on entend l’usage informel d’outils d’IA générative par les équipes, souvent en avance sur la gouvernance officielle — d’où la nécessité d’un cadre simple pour canaliser sans freiner. 

Le cadre se tient sur une page lisible par tous. Elle commence par ce que l’IA a le droit de faire chez vous : informer, structurer, vulgariser, préparer — mais jamais décider sans revue humaine identifiée. Elle précise ce que l’on ne met jamais dans une requête : identifiants patients, éléments sensibles non anonymisés ; et rappelle que l’anonymisation est la position par défaut, pas une option.
Elle décrit à quoi ressemble une bonne trace : qui a généré quoi, quand, dans quel but, avec quelle version de l’outil ; et ce que l’on fait de cette trace si le contenu a influencé le soin (intégration au dossier, sinon purge rapide). Elle rend tangible l’escalade : un bouton, un numéro, un canal clair pour joindre un pharmacien ou un chef de clinique sous des délais écrits ; pas un vœu pieux, un engagement. Enfin, elle assume les sorties de route : des sanctions proportionnées quand on s’entête hors cadre, mais aussi un droit à l’essai encadré — une sandbox — parce qu’on ne freine pas l’innovation, on la canalise.

Poser des rails techniques sobres : un chemin sûr par défaut

Côté SI, la tentation est de construire une cathédrale. Ce n’est pas nécessaire. Il faut d’abord un catalogue interne d’outils approuvés — modèles de langage, traducteurs, OCR — avec des versions affichées, un propriétaire responsable, quelques cas d’usage illustrés et une porte d’entrée unique. À l’entrée, un proxy fait le ménage : il masque d’éventuels identifiants par défaut, limite les volumes, gère les secrets, trace les appels lorsque l’usage a un impact clinique.
La journalisation n’est pas un piège ; c’est une assurance. Lorsqu’une sortie influence un parcours de soin, on garde le prompt, la sortie et le contexte ; sinon, on purge rapidement. Les modèles suivent une logique simple : on privilégie l’on-prem ou des environnements souverains / certifiés pour les usages cliniques sensibles ; on peut s’appuyer sur des API en lecture seule lorsqu’un simple enrichissement suffit (par exemple, reformater un texte destiné au patient). Enfin, on documente des policy packs très concrets, par cas d’usage : ce que l’on fait, ce que l’on évite, deux exemples validés, trois erreurs fréquentes et l’escalade en cas de doute. Le tout en langage ordinaire, pas en jargon de spécialistes.

Mesurer là où la valeur se crée : moins de sauvage, plus d’équité

On n’apaise pas une adoption sauvage par de grands principes, mais par des preuves de service rendu. Les premières semaines, l’indicateur qui compte est la part d’usages approuvés par rapport aux usages “sauvages” : si les équipes trouvent plus vite un outil qu’elles peuvent utiliser sans risquer la faute, elles l’adoptent. Vient ensuite le délai médian entre la demande et la mise à disposition : un fast-track qui dépasse 30 jours n’en est plus un ; un parcours renforcé qui franchit 60 jours décourage.
On surveille aussi la sécurité : nombre d’incidents ou de near-miss attribuables à des IA non approuvées, mais surtout le pourcentage d’actions correctives fermées en moins de trente jours — seule preuve que la boucle s’améliore. Deux signaux “humains” complètent ce tableau : la satisfaction des équipes (un score court suffit, recueilli chaque mois) et la lisibilité côté patient (comprend-on mieux ? suit-on mieux ?). Enfin, pour ne pas oublier l’origine de ce mouvement, on estime le temps gagné sur un ou deux cas phares : lettres, consignes traduites, résumés. L’objectif n’est pas la précision scientifique, c’est la trajectoire : moins de bricolage, plus de temps clinique, pas d’incident.

Ouvrez un guichet IA ce mois-ci. 

Donnez une promesse de délai, publiez le one-pager qui dit ce qui est autorisé et ce qui ne l’est pas, offrez un catalogue d’outils approuvés et des rails simples pour y accéder. Au bout de trente jours, regardez deux courbes : la part d’usages approuvés qui monte et les usages sauvages qui baissent. Ce n’est pas spectaculaire ; c’est ainsi que l’innovation devient sûre, équitable et traçable.