Connexion

Deuxième édition du Paris Legal Makers 2023

Par Aurélia Granel

Après une première édition du Paris Legal Makers dédiée au thème du « droit comme acteur économique », celle de 2023, organisée par le barreau de Paris en partenariat avec Le Point, a choisi de réunir des acteurs issus de divers horizons sur la thématique centrale de « L’intelligence artificielle : un avenir prometteur, un engagement responsable ». Aperçu d’un véritable show, qui s’est tenu le 23 novembre 2023 au Palais Brongniart, sous le haut patronage du président de la République, Emmanuel Macron.

Cet événement avait tout pour séduire sur le papier : il se tenait dans un lieu prestigieux, le fil conducteur de l’IA, plus que jamais d’actualité, était prometteur de belles discussions, des personnalités du monde économique et politique, des juristes, patrons d’industrie, philosophes et experts en sécurité s’étaient déplacés pour en débattre. Mais la qualité des discussions de toutes les plénières et conférences n’aura pas toujours été à la hauteur des attentes. La LJA en a tout de même retenu les meilleurs moments.

C’est avec le thème de « L’intelligence artificielle : risque systémique ou juste une révolution de plus ? » que s’est ouverte cette journée de débats. La nouvelle génération d’IA, lorsqu’elle sera arrivée à maturité, promet de multiples découvertes et progrès scientifiques, notamment dans le domaine médical. Cette technologie sera aussi utilisée pour relever le défi de la transition écologique, permettant une réduction de l’empreinte carbone de notre habitat ou encore de notre industrie, et de mieux s’armer, pour s’adapter plus aisément aux conséquences du dérèglement climatique. Alors que la France a manqué, ces dernières années, l’étape de simplification qu’aurait pu engendrer la numérisation des services publics, l’IA générative a vocation à faciliter la réalisation de démarches administratives en quelques instants, ainsi que l’accès au droit, simplifiant notamment le fonctionnement de la justice et déchargeant le personnel judiciaire et hospitalier de ses lourdes tâches administratives.

Cette technologie est bien sûr porteuse de promesses, mais son utilisation grandissante soulève quatre questionnements majeurs. Le premier est son impact sur le monde du travail – c’était d’ailleurs l’un des thèmes d’une autre conférence de la journée. Une note d’analyse publiée en mars dernier par la banque Goldman Sachs prédit que jusqu’à 300 millions d’emplois à temps plein seront automatisés dans le monde, en raison de la dernière vague d’IA. Ces destructions d’emploi, qui toucheront essentiellement les métiers les plus qualifiés, pourront-elles être compensées par la création de nouveaux ? « 90 % des tâches seront impactées, mais peu de métiers seront touchés, enfin beaucoup moins que l’on ne le pense », estime Luc Ferry, philosophe, écrivain et ancien ministre. Une autre interrogation concerne la conscientisation de la machine, à l’instar du projet Blue Brain, qui a pour objectif de créer un cerveau synthétique par processus de rétro-ingénierie. À cette question, les intervenants sont unanimes : il n’y a pas de volonté artificielle, donc l’IA ne supplantera pas l’intelligence humaine.

La question de l’impact de l’IA dans le monde universitaire et scolaire a également été abordée. Si un étudiant sur trois utilise déjà ChatGPT pour réaliser ses travaux dirigés, y compris en faculté de droit, les universités françaises et les écoles de droit sont-elles prêtes à s’adapter aux nouveaux enjeux ? « Pour un certain nombre de raisons systémiques et institutionnelles, il est compliqué d’innover à grande échelle dans l’université publique française, même si cela n’empêche pas qu’il y ait des innovateurs, plus ou moins encouragés par le système. J’en connais qui ont été découragés, voire poussés à changer d’institution parce que le système écrasait leur volonté d’innover », confesse Christophe Roquilly, professeur, directeur de l’EDHEC Augmented Law Institute et vice-président du Cercle de la compliance, dans le cadre de la conférence intitulée « Justice augmentée : comment l’IA redéfinit le rôle des acteurs du droit ? ». Et puis, comment faire entrer, de manière intelligente, l’utilisation des technologies dans les salles de cours ou amphithéâtres, tant en faculté que dans une grande école ? « Il faudrait encourager l’esprit critique par rapport aux outils d’IA, plus que l’esprit analytique qui est inhérent à la machine, ajoute le professeur. Mais cet enjeu éducationnel majeur demande un autre type d’enseignement, notamment par petits groupes, comme en travaux dirigés ».

Les utilisateurs doivent non seulement garder à l’esprit les potentiels biais liés à la machine, mais surtout leur libre arbitre. Concernant le procès et l’IA générative, sujet qui a fait l’objet de débats lors d’une conférence pendant la matinée, Frédéric Baab, procureur européen, a indiqué que l’IA allait entrer en compétition avec l’intelligence humaine dans la préparation du procès et plus particulièrement au stade de l’enquête dont cette technologie est un support. « Au moment du procès lui-même, l’IA va se heurter à des principes fondamentaux de la justice et du droit pénal, à commencer par la liberté de décision du juge et l’appréciation qu’il va porter au cas par cas sur les dossiers, déclare-t-il. Si un système d’IA indique au magistrat la direction dans laquelle il doit prendre sa décision, il y aura bientôt un sérieux problème ».

Réguler, mais pas trop vite

Le sujet de la régulation, tant au niveau national qu’européen, est le quatrième et dernier grand enjeu lié à l’utilisation de l’IA. C’est celui qui a inquiété unanimement les intervenants qui se sont succédé tout au long de la journée. Serge Tisseron, psychiatre et membre du Conseil national du numérique, souligne : « Toutes les technologies sont porteuses de risques et il est très important de construire les pare-feu au fur et à mesure qu’elles se construisent. Il y a des domaines où il va falloir que l’on soit protégé par toute une législation ». L’IA peut en effet devenir une arme de guerre, comme toutes les technologies, et servir à la déstabilisation des systèmes démocratiques. Elle est déjà au cœur du fonctionnement des réseaux sociaux, qui ont tendance à mettre en avant des contenus clivants ou de la désinformation poussés par les algorithmes. Sujet de craintes maintes fois évoqué, les deepfakes peuvent littéralement ruiner, à la suite d’une diffusion sur les réseaux sociaux, la réputation d’une entreprise, briser la vie de personnes fragiles ou influencer des élections. Ici, la question de la transparence sur le contenu généré est au cœur de la régulation. A été proposée, comme piste de réflexion majeure, l’obligation de toujours indiquer lorsqu’il s’agit d’un contenu généré par l’IA.

La plénière de clôture, intitulée « L’avenir de l’IA : concilier ambition technologique et enjeux éthiques », s’est ouverte sur le discours de Jean-Noël Barrot, ministre délégué chargé de la Transition numérique et des Télécommunications. « Il va falloir discipliner cette IA et que l’on imprime sur elle un certain nombre de grands principes auxquels nous sommes particulièrement attachés », indique-t-il. Le premier est le respect de la dignité humaine, personne ne devant être trompé ou piégé par un automate et l’IA n’être jamais conçue ou utilisée pour dégrader l’individu dans ses droits et attenter à sa dignité. Ensuite, a été évoqué le principe de concurrence équitable. « Nous avons trop souffert de grands monopoles de l’économie numérique qui ont imposé à nos entreprises, collectivités et concitoyens leurs règles, leur vision du monde, de la vie privée et des données personnelles, ainsi que du droit d’auteur et nous en sommes aujourd’hui les prisonniers, poursuit Jean-Noël Barrot. Il nous faut donc, dans l’ère de l’IA générative, une concurrence équitable de l’ouverture de l’open source, de manière à toujours avoir le choix de se tourner vers un autre prestataire, un autre développeur de systèmes d’IA, si l’on considère que celui que l’on utilise n’est pas respectueux d’un certain nombre de grands principes ». Enfin le ministre délégué ajoute qu’il nous faudra veiller à la préservation du droit d’auteur, de la vie privée, des données personnelles, pour faire en sorte que cet outil respecte l’ensemble des règles que nous nous sommes démocratiquement données au fil des années et qui garantissent la solidité de notre contrat social. « On serait tenté de réguler le plus vite possible, mais cela serait une erreur parce que nous avons, après 15 ans d’expérience dans l’économie numérique, constaté que celui qui forge l’outil a toujours plus de pouvoir que celui qui le régule, déclare Jean-Noël Barrot. Si nous voulons que ces outils respectent la dignité humaine, les droits d’auteur et la vie privée, et soient conçus dans un marché où la concurrence équitable prévaut, alors il faut que nous les forgions en France et en Europe, sans quoi nous régulerons en défensive et essaierons d’obtenir, comme nous l’avons fait depuis 15 ans, des concessions de la part de grands acteurs très puissants, situés bien loin des frontières de l’Union européenne. Nous régulerons dans un second temps, une fois que nous disposerons de ces outils ». Le comité national pour l’éthique du numérique est sur le point d’être pérennisé, qui permettra au gouvernement d’éclairer son effort de régulation le moment venu. Mais, Luc Ferry de prévenir : « Plus on régule, plus on rend service à la Chine, parce qu’ils ne le font pas de leur côté, donc ils peuvent continuer à travailler et progresser pendant ce temps-là. Il convient donc de faire très attention à ne pas stopper la recherche en régulant un peu trop ».

Mettre la France et l’Europe
sur le devant de la scène

L’Europe est la première démocratie du monde à s’être dotée d’un règlement traitant de la question de la responsabilité de celui qui distribue un système d’IA, notamment lorsque celui-ci peut porter atteinte à la sécurité et la santé publique ou susciter des problématiques d’égalité des chances ou de discrimination. « Le Parlement européen est en train de proposer un certain nombre de règles extrêmement lourdes, qui décourageraient inévitablement tout développeur et innovateur de concevoir en Europe les modèles d’IA de dernière génération, indique Jean-Noël Barrot. C’est pourquoi nous nous y opposons. Nous sommes très attachés à ce règlement produit, à ce que la responsabilité de celui qui va concevoir un système d’IA […] ait des obligations d’audit préalables à sa mise sur le marché, mais nous ne voulons pas inhiber cet élan que nous constatons depuis cinq ans en France de développement de l’IA, en assommant les innovateurs et les créateurs de normes nouvelles dès aujourd’hui ».

Comment construire un avenir innovant, en anticipant les défis et en favorisant la recherche et l’innovation en France et en Europe ? L’hexagone détient un vrai savoir-faire en matière d’IA et des talents (auteurs, chefs d’entreprise, chercheurs) dont les compétences sont recherchées dans le monde entier. « Ces sociétés se délocalisent souvent, car elles attirent des financements étrangers, dont les ordres de grandeur n’ont rien à voir avec les nôtres et nous sommes, d’une certaine manière, un peu suiveurs, car nous n’avons pas de fonds d’investissement capables de mobiliser de telles sommes sur notre territoire, même s’il y a eu énormément de progrès avec l’éclosion de la french tech notamment, regrette Nicolas Gaudemet, chief AI officer de Onepoint. Nous devons également laisser sa chance à notre écosystème français en faisant confiance à nos start-ups françaises pour accélérer la transformation numérique par l’IA de nos grands acteurs industriels et entreprises de services ».