Les outils d’intelligence artificielle bouleversent le quotidien des avocats : elle leur confère un gain de temps, une assistance documentaire, une aide à la rédaction. Néanmoins, l’apparition régulière de fausses jurisprudences générées par les IA révèle un danger bien réel : celui d’un usage non maîtrisé qui est susceptible d’engager la responsabilité professionnelle de l’avocat.
La responsabilité engagée peut être disciplinaire, pénale ou civile.
Si l’avocat choisit d’utiliser un outil d’IA, il doit en assumer pleinement les conséquences. Le Règlement Intérieur National impose un principe de prudence : l’avocat doit veiller à la fiabilité de toute information qu’il avance, y compris celle fournie par une machine.
Le Livre blanc du barreau de Paris (2025) affirme que la vérification des résultats de l’IA incombe à l’avocat lui-même. Il s’agit pour lui d’une obligation déontologique.
À l’étranger, plus de 560 sanctions disciplinaires ont déjà été recensées. L’affaire MATA/AVIANCA illustre ces dérives, puisqu’un avocat américain a été sanctionné pour avoir intégré dans ses conclusions plusieurs décisions fictives générées par une IA, sans en vérifier l’authenticité.
En France, la sanction peut aller jusqu’à la radiation (art. 184 du décret n°91-1197 du 27 novembre 1991).
L’avocat qui reproduit une jurisprudence inexistante, sans contrôle préalable, méconnaît son devoir de prudence et s’expose à une procédure disciplinaire.
En effet, produire un document inexact pour influencer une décision de justice pourrait être qualifié d’escroquerie au jugement et relève de la responsabilité pénale. Le fait de générer une fausse jurisprudence par IA pourrait constituer l’élément matériel de l’infraction.
En conclusion, l’intelligence artificielle peut assister l’avocat, mais jamais se substituer à lui. L’usage de l’IA exige donc un contrôle systématique des références produites. L’avocat demeure seul responsable des informations qu’il présente, quel que soit l’outil utilisé pour les obtenir.