To bot or not to bot : l'intelligence artificielle entre dans le prétoire
Le Conseil national des barreaux (CNB) a lancé une enquête auprès de la profession pour cartographier les usages, comprendre les attentes et anticiper les défis que pose l'IA aux avocats.
L’intelligence artificielle (IA) s’impose comme une révolution silencieuse mais profonde dans la pratique du droit, et le pénal n’échappe pas à cette mutation. Le Conseil national des barreaux (CNB) vient d’ailleurs de lancer une vaste enquête auprès de la profession pour cartographier les usages, comprendre les attentes et anticiper les défis que pose l’IA aux avocats français. Quelles implications pour le pénaliste, sa déontologie et l’égalité des armes ?
Un bouleversement des pratiques, une opportunité à encadrer
L’IA générative permet aujourd’hui d’automatiser la recherche documentaire, d’assister la rédaction d’actes ou d’anticiper certaines décisions judiciaires, promettant un gain de temps et une productivité démultipliée. Selon une étude relayée par le CNB, jusqu’à 44 % des tâches du secteur juridique pourraient être automatisées dans les années à venir. Pour l’avocat pénaliste, cela signifie la possibilité de se concentrer davantage sur l’analyse stratégique, la défense en audience et la relation avec le client.
Mais cette révolution technologique s’accompagne d’incertitudes majeures. Les outils d’IA, en particulier génératifs, fonctionnent comme des « boîtes noires » : il est souvent difficile de comprendre la logique qui sous-tend leurs suggestions ou analyses. Or, dans le domaine pénal, la moindre approximation peut avoir des conséquences graves pour les libertés individuelles.
Déontologie : vigilance et devoir de contrôle
L’utilisation de l’IA par l’avocat pénaliste doit s’inscrire dans le respect strict des règles déontologiques : secret professionnel, devoir de compétence, de prudence et d’indépendance. Le CNB insiste sur la nécessité de former les avocats à ces nouveaux outils et de leur fournir des guides pratiques pour garantir une utilisation responsable. L’avocat reste responsable du contenu produit ou validé par l’IA ; il doit donc exercer un contrôle rigoureux sur les sources, la fiabilité des analyses et l’adéquation des solutions proposées à la situation concrète du client.La jurisprudence récente rappelle d'ailleurs les risques d'une confiance aveugle : en 2023, deux avocats américains ont été sanctionnés pour avoir produit de fausses jurisprudences générées par IA, soulignant la nécessité d'une vérification humaine systématique.
Égalité des armes et accès à la justice : un enjeu démocratique
L’IA peut être un formidable levier pour l’égalité d’accès à la justice, en démocratisant l’accès à l’information juridique et en réduisant les coûts pour les justiciables. Mais elle risque aussi d’accentuer les inégalités : tous les cabinets n’ont pas les moyens d’investir dans des outils performants, et la qualité des solutions varie fortement selon les ressources disponibles. Le CNB travaille à une mutualisation des solutions et à la formation de l’ensemble de la profession pour éviter une « fracture numérique » entre avocats.
Enfin, l’IA ne saurait remplacer le discernement humain, essentiel dans la défense pénale. Les algorithmes, aussi sophistiqués soient-ils, peinent à prendre en compte les circonstances atténuantes, l’intuition de l’audience, ou la singularité de chaque dossier. L’avocat doit donc rester maître de ses outils, et non l’inverse.
Apprivoiser l'IA ?
L’intelligence artificielle impose une transformation profonde de la pratique pénaliste, à condition d’être apprivoisée avec rigueur, éthique et discernement. C’est à ce prix que l’IA pourra devenir un allié du droit et de la justice, et non un facteur d’injustice ou de déshumanisation.