« Une IA fondée sur la culture juridique européenne doit émerger »
Alors que l’utilisation de l’intelligence artificielle prend de plus en plus d’ampleur dans le secteur juridique, le professeur Pierre Berlioz explique à la LJA pourquoi il est nécessaire de ne pas laisser cet outil puissant de diffusion de la culture juridique entre les mains de n’importe qui.
Du point de vue du raisonnement juridique, on accuse parfois l’IA d’avoir un fonctionnement inductif contraire au raisonnement déductif traditionnel de droit continental. Qu’en est-il ?
Tout d’abord, je considère que l’opposition entre le raisonnement juridique continental et le raisonnement juridique anglo-saxon n’est plus qu’un mythe. Le droit continental est devenu casuistique. La différence, c’est que conformément à notre culture, nous l’avons introduite dans la loi. J’en ai fait l’expérience lorsque j’étais conseiller ministériel, les plus farouches partisans de la simplification, ceux qui se plaignent d’être étouffés par la norme, sont souvent aussi ceux qui veulent que la règle prévoie tous les cas de figure. Au lieu d’accepter l’aléa et de faire confiance aux juristes et à leur interprétation de la règle, ils la rigidifient en voulant tout anticiper dans les textes. On est loin de la loi qui fixe les grands principes.
Et s’il est vrai que notre droit n’est pas basé sur le système du précédent, comme dans le système anglo-saxon, il existe indéniablement un système d’usage jurisprudentiel, notamment cristallisé par les décisions de principe de la Cour de cassation qui ont pour but d’aboutir à une jurisprudence stable et unifiée. Ce schéma est certes différent de celui du précédent anglosaxon, mais c’est tout de même un schéma inductif : sur des cas d’espèces similaires, différentes décisions sont rendues, convergeant progressivement pour former une sorte d’usage, une jurisprudence unifiée, éventuellement consacrée par une décision de la Cour de cassation.
Le raisonnement algorithmique de l’IA est-il contraire à notre raisonnement juridique ?
De ce point de vue, l’IA, qui cherche des lignes de force constantes au sein d’un mouvement plural correspond davantage, selon moi, à un raisonnement juridique de droit continental qu’anglo-saxon. C’est assez cohérent avec notre système de jurisprudence français, puisque l’IA va aller chercher la solution qui a le plus de chances de se reproduire. Elle relève les constantes, grâce à l’analyse des probabilités et trouve une homogénéité dans une masse qui ne semble pas en avoir. On peut donc aisément utiliser l’IA dans notre schéma de raisonnement traditionnel puisqu’elle fait exactement ce que le juriste fait, lorsqu’elle est bien paramétrée, c’est-à-dire trouver la ligne de force.
Quel avantage peut y trouver le juriste ?
L’IA facilite une recherche plus globale et plus élargie, avec un grand nombre de données et permet justement d’éviter la recherche « de facilité » d’un précédent rendu par la juridiction saisie de la question. Pour cela cependant, il faut que la communauté des juristes soit ferme sur une exigence de raisonnement et d’analyse, pour que l’on ne se contente pas d’utiliser l’IA comme un simple moteur de recherche pour trouver « la » décision favorable. Nous devons être très attentifs à cela, car l’open data met tous les résultats sur le même plan, sans les hiérarchiser. Les avocats comme les magistrats ne doivent pas perdre de vue la question de la qualité des données, paramètre essentiel pour une IA permettant d’enrichir le raisonnement juridique plutôt que de l’appauvrir.
À quoi d’autre faut-il être attentif ?
Ce qui est inquiétant, c’est le problème des biais liés aux données d’entraînement des IA. Beaucoup d’outils viennent des États-Unis et sont entraînés sur de la jurisprudence américaine, qui manie des concepts différents des nôtres. On peut penser, par exemple, à la notion de liberté d’expression, totalement différente des deux côtés de l’Atlantique. Il faut donc que les IA employées par nos juristes soient entraînées sur des données de droit continental, ne pas s’arrêter simplement aux pelles et aux pioches, mais aussi voir dans quelles mines nous creusons. Là-dessus, l’enjeu de souveraineté est très important et nous devons entraîner nos outils avec des données imprégnées de culture juridique française. C’est exactement comme s’il s’agissait d’un juriste : il a beau exercer en France, s’il a étudié le droit à l’université de Yale, il n’aura pas un raisonnement à la française au début de sa carrière. C’est pour cette raison que les LLM doivent être entrainés sur des fonds de culture européenne. Je pense que les universités ont un rôle à jouer en la matière.
Quel est le danger ?
J’ai eu l’occasion d’assister récemment à une démonstration du système d’IA conçu par l’université Renmin de Pékin, qui peut être utilisé pour plusieurs choses. C’est au premier chef un instrument de formation, alliant des outils de recherche comme de simulation d’arbitrage ou de médiation, mais il comporte également tout un volet professionnel, avec notamment des assistants pour l’analyse juridique et la rédaction d’acte. Entraîné sur une base de droit chinois et donc imprégné de culture juridique chinoise, ce système produira des résultats fondés sur des concepts juridiques chinois. Or, comme il est multilingue, grâce aux capacités de traduction de l’IA, c’est un puissant outil de soft power. Cela doit donc faire réfléchir.
La question que tout utilisateur d’un système d’IA doit se poser est celle de ce qu’il y a derrière les outils d’IA, sur quels concepts juridiques le système a été entraîné.
Le règlement IA insiste à juste titre sur ce point : une compétence minimale est nécessaire pour utiliser l’IA, sous peine d’obtenir des résultats inadaptés, parce qu’issus de systèmes juridiques trop différents. Je pense par exemple à un chef d’entreprise non averti qui voudrait générer des statuts de société avec l’IA et qui le ferait avec des outils qui ont été conçus à partir de systèmes étrangers. De ce point de vue, les juristes ont un rôle important à jouer de garants de la culture juridique européenne et devront être très vigilants à ne pas utiliser n’importe quoi, n’importe comment. Il faut qu’une IA fondée sur la culture juridique européenne émerge. Nous en sommes tous les garants, également parce que c’est avec les ressources issues de notre activité que peuvent être entraînées les IA souveraines. C’est d’ailleurs l’un des objectifs du projet Legal data space.