
L’intelligence artificielle (IA) est en passe de transformer radicalement le métier d’avocat, générant à la fois des opportunités et des tensions. À Paris, l’Ordre des avocats observe déjà l’émergence de contentieux entre confrères ou avec leurs collaborateurs, témoignant des tâtonnements numériques actuels.
Louis Degos, bâtonnier de Paris élu pour 2026-2027, anticipe une intrusion massive de l’IA dans la profession. Il souligne que « aucun pan du droit n’est épargné, si ce n’est le droit pénal, faute de bases de données suffisantes pour l’instant ». Les avocats utilisent l’IA pour diverses tâches, allant de la recherche juridique rapide à la rédaction de conclusions et l’analyse documentaire.
Cependant, l’utilisation de l’IA n’est pas sans risques. L’un des problèmes majeurs est la tendance de l’IA à « halluciner », c’est-à-dire à générer des informations fausses ou trompeuses, y compris de fausses jurisprudences ou l’application erronée de lois étrangères. Ces erreurs peuvent entraîner des sanctions pour les avocats, comme l’a montré le rejet de demandes par des tribunaux en raison de formulations imprécises ou de références inexistantes. Le bâtonnier Degos mentionne que des saisines déontologiques ont déjà eu lieu suite à l’usage de conclusions bâties avec l’aide de l’IA.
Outre les erreurs factuelles, l’IA soulève des questions de responsabilité professionnelle, de confidentialité des données et de biais algorithmiques. Le Règlement européen sur l’IA (IA Act) de 2024 vise à encadrer ces usages, en exigeant notamment un contrôle humain effectif des systèmes d’IA et en interdisant certaines pratiques jugées inacceptables. Les avocats doivent faire preuve d’un esprit critique aiguisé pour vérifier les informations générées par l’IA et garantir la fiabilité de leurs travaux. L’IA, bien qu’un outil puissant, ne remplace pas l’expertise humaine, l’intuition ou l’art de la plaidoirie.






