L’intelligence artificielle générative appliquée au droit

L’Intelligence artificielle générative appliquée au droit

Synthèse du rapport examiné et adopté en commission sénatoriale du mercredi 18 décembre 2024, à la suite d’une farandole d’auditions (allant du 6 mai 2024 au 19 novembre 2024) de 98 personnes (tous les représentants du droit et de la Legaltech) qui ont permis de recueillir 51 contributions.

L’intérêt de la synthèse de ce rapport ?

En 2022, l’intelligence artificielle générative (IAG) a bouleversé de nombreux secteurs, y compris le droit et est devenue un domaine qui ne laisse personne indifférent.

En effet, certains pensent qu’il s’agit d’un outil magique qui saura répondre à toutes les questions et problématiques avec la rigueur que l’on connait aux praticiens du droit, pour d’autres que c’est ouvrir la boite de Pandore qui sonnera le glas des emplois dans les fonctions juridiques.

En 2023, Élisabeth Borne, alors première ministre, avait lancé la commission de l’intelligence artificielle, qui a identifié que les juristes faisaient partie des professionnels les plus exposés à l’IA.

Sur proposition du Premier ministre Barnier, le président de la République a nommé Clara Chappaz, secrétaire d’État chargée de l’Intelligence artificielle et du Numérique, auprès du ministre de l’Enseignement supérieur et de la Recherche, le 21 septembre 2024.

Au 23 décembre 2024, au sein du gouvernement du Premier ministre François Bayrou, ce ministère prend encore plus d’importance, avec Clara Chappaz qui devient ministre déléguée du ministre de l’Économie, des finances et de la souveraineté industrielle et numérique ;

Ce rapport sénatorial est donc particulièrement intéressant pour plusieurs raisons :

  1. Il est précis et complet, c’est un véritable panaché de nombreuses auditions tant des acteurs du secteur de la legaltech, que des représentants des professions du droit, des magistrats mais également des acteurs publics ; sur une période étendue.

  2. Il nous permet d’avoir une vision de l’intelligence artificielle générative appliquée aux métiers du droit à l’aune des contextes économique et géopolitique actuels.

Contenu du rapport

  1. L’Intelligence Artificielle Générative (l’IAG)

La spécificité et le caractère nouveau de l’intelligence artificielle générative reposent, comme son nom l’indique, sur sa faculté de génération – plus que de création stricto sensu – de contenu. Cette technologie est fondée sur le « grand modèle de langage », ou « large language model » (LLM) qui est capable de traiter le langage naturel, sans pour autant le comprendre. Ce sont donc nous, utilisateurs, qui percevons du sens dans le résultat.

  1. Différences entre l’IAG et l’IA « classique »

      1. L’intelligence artificielle générative est un type d’IA dont la caractéristique fondamentale est la création de nouvelles données sur la base de données existantes (textes, musiques, vidéos, images, etc.).

      2. L’IA dite « classique » ou « traditionnelle », a pour objectif l’analyse de données existantes en vue de les classer ou d’effectuer des prédictions, et n’a donc par principe aucune capacité créative.

      3. Elles n’ont donc pas le même champ d’application. L’IA « traditionnelle » vise à automatiser des tâches, mais aussi générer des données pour prendre des décisions plus éclairées, alors que l’IAG crée des contenus totalement nouveaux, imitant ce qu’elle a observé dans les données lui ayant été injectées.

  1. Une apparente applicabilité de l’IAG aux domaines du droit

Elle permet en effet de surmonter la difficulté, qui paraissait infranchissable, de maîtrise du langage. Or, le droit repose en principe sur un raisonnement rationnel, mais qui n’est pas fondé sur des modèles quantifiables, c’est-à-dire qui pourraient être traduits en langage mathématique, puisqu’il faut, avant de trouver une solution, savoir qualifier juridiquement une situation pour déterminer le problème de droit y afférent.

  1. La Perméabilité du droit aux outils d’IAG

L’intelligence artificielle apparaît donc particulièrement utile, notamment dans le domaine du droit, pour le traitement de données ou la réalisation de tâches répétitives et automatisables, qui n’exigent pas de capacité créatrice, telles que la recherche juridique, la synthèse documentaire, ou la rédaction de documents standardisés.

  1. L’impact sociétal de l’IAG appliquée au droit

    1. Une opportunité pour les sociétés commerciales

        1. Selon le Conseil National des Barreaux (CNB), ce sont une vingtaine de Legaltech proposant des services d’IA générative créées depuis 2023. Cet engouement est motivé par la qualité des données ouvertes en France.

        2. Des investissements « importants » voire « lourds » des éditeurs juridiques, même si ces derniers n’ont pas souhaité communiquer les montants consacrés au déploiement de ces outils d’IA. Un investissement qui serait de l’ordre du milliards pour LexisNexis, mais qui est à mettre en parallèle avec l’investissement de presque 100 milliards de dollars de META ne serait-ce que pour l’année 2024. Ce qui laisse supposer un interfaçage avec des outils américains plus que la construction d’un véritable outil dédié.

    2. Une évolution technologique

        1. Une amélioration significative des moteurs de recherche des outils, qui ne se fait plus par mots clés mais en langage naturel.

    3. L’accessibilité du droit pour les citoyens

        1. Le risque d’autojuridication semble à la faveur de l’avocat qui reste soumis au principe de compétence, d’autant que le droit actuel limite le risque d’autojuridication en matière judiciaire, car il impose souvent le ministère d’avocat.

        2. Le coût des produits d’IAG spécialisés en droit prive dans une très large mesure les justiciables de leur accès (surtout vrai pour les outils développés par les éditeur juridiques).

  1. L’IAG, un espoir pour les professionnels du droit

    1. Espoir d’un gain de temps et de productivité (pour se concentrer sur les tâches à haute valeur ajoutée) sur :

        1. Les tâches bureautiques et administratives ;

        2. L’analyse et synthèse de documents volumineux ;

        3. Les recherches juridiques personnalisées ;

        4. Le résumé des conclusions adverses ;

        5. Le traitement de données ;

        6. La rédaction de documents standardisés ;

        7. L’amélioration rédactionnelle d’un contenu écrit ;

        8. La détection de fraudes ou d’anomalies dans les dossiers / défauts de procédures.

    2. Pouvoir consacrer davantage de temps aux tâches de réflexion et au contact humain.

    3. Réduction des couts pour chaque dossier et une meilleure allocation des ressources humaines

    4. Améliorer la prise de décision du professionnel

    5. La personnalisation du service apporté au client (impliquera certainement une attente plus poussée du client envers son avocat).

  1. Une adoption croissante mais prudente des outils d’IAG

La promesse d’un gain de temps trouve écho chez les avocats et juristes d’entreprise, qui y sont plus sensibles que la magistrature et les agents de greffe. Les gains sont difficilement chiffrables avec précision, mais ils semblent significatifs.

      1. L’European legaltech association a mené une étude au cours de l’été 2024 dont il ressort que 33% des professionnels du droit français (toutes catégories confondues) utiliseraient mensuellement un outil d’intelligence artificielle générative. À l’échelle européenne, 90% des professionnels du droit interrogés estimeraient que l’intelligence artificielle générative soutient « efficacement » leurs activités professionnelles. Ces données sont toutefois à prendre avec précaution, puisque cette étude a été menée auprès d’un panel relativement restreint (463 répondants à l’échelle européenne), et ciblant un public plutôt averti et déjà sensibilisé à cette technologie.

      2. Les avocats sont à ce titre la profession la plus avancée dans l’adoption de ces outils, en particulier au sein des plus grands cabinets. Le CNB considère ainsi que « de nombreux avocats travaillent d’ores et déjà avec l’intelligence artificielle générative ». Cette assertion générale est largement confirmée par les travaux des rapporteurs: plusieurs cabinets ont indiqué travailler quotidiennement avec de tels outils, tels que les cabinets Samman, Latham& Watkins, A&O Shearman ou encore Squair, ce dernier ayant précisé qu’il était «rare qu’un dossier soit abordé sans avoir recours à l’intelligence artificielle générative pour des recherches juridiques» et que l’usage d’un tel outil représente «un avantage concurrentiel» par rapport aux autres cabinets. Illustration de cet intérêt des avocats pour l’intelligence artificielle générative, les trois quarts du chiffre d’affaires de l’une des principales entreprises françaises de la legaltech, Doctrine, proviendraient du marché des avocats.

      3. Enfin, les juristes d’entreprise apparaissent particulièrement concernés par le déploiement de l’intelligence artificielle générative. Si l’association française des juristes en entreprise (AFJE) n’a pas été en mesure de transmettre aux rapporteurs des données chiffrées, nombreuses sont les entreprises, à l’instar de Vinci Énergies International & Systems, ayant communiqué sur leur souhait d’utiliser des outils d’intelligence artificielle générative pour renforcer leur direction juridique et améliorer notamment l’expérience du client. L’entreprise Doctrine, qui propose un outil d’intelligence artificielle générative, a par ailleurs indiqué aux rapporteurs que 30% des directions juridiques des entreprises du CAC40 auraient souscrit un abonnement à ses services.

  1. Les limites actuelles et risques identifiés

    1. L’hallucination

        1. Dans la mesure où l’intelligence artificielle générative calcule le mot qui suit en fonction de la séquence de mots en cours sans prendre de recul sur le sens de ce qui est écrit, il est possible que le résultat soit probable mais entièrement faux : Par exemple, il a été demandé à la version gratuite de ChatGPT « de quoi parl[ait] l’article 19 de la déclaration des droits de l’homme et du citoyen ». Il s’agit bien évidemment d’un piège, puisque ladite déclaration ne contient que 17 articles.

        2. Plus étonnamment, mais aussi de façon plus inquiétante, les outils d’intelligence artificielle générative peuvent également donner des réponses fausses tout en citant le droit en vigueur.

    2. Les données peuvent ne pas être actualisées et sources pas vérifiées dans les outils grand public

    3. Les IA peuvent avoir des biais de conception : les IAs sont entrainées sur des données qui comportent elles-mêmes des stéréotypes culturels, discriminatoire et les biais cognitifs personnels de l’utilisateur. En effet, la réponse obtenue est rarement satisfaisante en termes de rigueur juridique, voire comporte régulièrement des erreurs significatives.

    4. Le conseil juridique, un domaine réservé des professions règlementées (conformément à l’art. 54 de la loi n°71-1130 du 31 décembre 1971).

    5. L’inconstance des réponses à une même question posée eu égard à la conception sur un modèle probabiliste des IAs.

  1. Les enjeux de demain

    1. La responsabilité des professionnels du droit face à l’imperfection d’un outil d’IAG.

À titre d’exemple, la fonction d’authentification d’actes, qui engage la responsabilité du notaire, ne saurait être endossée par l’intelligence artificielle générative, selon la chambre des notaires de Paris. Il en va de même de la signification des jugements par le commissaire de justice, qui se fait en général directement sur le terrain et, bien entendu, de la plaidoirie de l’avocat lors d’un procès.

    1. Accès à des données sensibles et à caractère personnel

        1. Applicabilité des principes déontologiques de chaque profession aux cas d’usage de l’IA générative ? Un domaine qui n’est pas encore traité.

        2. Le respect du cadre réglementaire et disciplinaire lié à la protection et à la confidentialité des données personnelles ou sensibles.

        3. Le devoir de loyauté du professionnel du droit qui exige la transparence quant à l’utilisation d’outils d’IA générative (ne pas dissimuler au client cette pratique sans pour autant indiquer pour chaque tache les fois où il y a eu recours à l’IAG).

    2. L’absence de maturité des outils

        1. Enthousiastes quant aux progrès que permettrait l’IA générative, la plupart des professionnels du droit interrogés s’accordent sur l’absence de maturité des outils proposés, en particulier les outils généralistes. Ce qui signifie que des précautions seront prises lors de leur usage.

        2. Au-delà de la problématique des outils généralistes qui ne travailleraient pas sur des bases de données suffisamment renseignées. Les outils spécifiques font face au risque d’hallucination.

        3. Le conseil national des barreaux estime qu’ils sont performants pour synthétiser un texte mais ne sont pas « aboutis » ni « fiables » pour ce qui concerne « l’analyse » juridique, par exemple pour identifier des moyens de cassation.

    3. Un gain de temps relatif ?

        1. Comme le souligne le CNB, le travail de vérification des résultats de l’intelligence artificielle générative va prendre de l’importance et pourrait occuper une proportion significative du temps de travail du professionnel.

        2. In fine, malgré les gains de productivité permis par les outils d’IAG, ces nouveaux usages ne vont pas nécessairement réduire le temps de travail.

    4. L’iniquité entre les professionnels du droit face à l’IA

        1. Certains gros cabinets ont recours à des partenariats avec Microsoft pour avoir leurs propres outils entrainés sur leurs propres données mais cela représente des couts de plusieurs millions.

        2. Une « inquiétante » inégalité des parties devant la justice entre ceux qui auront des avocats utilisant l’IAG versus ceux qui auront des avocats qui n’y auront pas recours.

        3. Vers la fin des petits cabinets généralistes ?

    5. La justice prédictive

La notion de justice prédictive recouvre des réalités diverses qu’il est important de distinguer, car elles ne font pas courir les mêmes risques et, partant, n’appellent pas l’application du même cadre juridique.

        1. Le profilage se rattache à cette dernière, car il revient à abandonner à un algorithme l’analyse de la personnalité d’un individu ou d’un juge. Ces deux premières formes de la justice prédictive apparaissent unanimement rejetées par les acteurs du droit – et font l’objet d’interdictions législatives (Art. 22 du RGPD).

        2. Toutefois, la jurimétrie est tolérée ; il s’agit là par exemple d’identifier la décision la plus probable à partir d’une base de données. Cette démarche poursuit selon certains l’objectif de transparence et de prévisibilité du droit – sans compter qu’elle n’interfère a priori pas avec le processus décisionnel du juge.

        3. La volonté de préserver le caractère humain de l’activité juridictionnelle apparaît partagée aux échelles européenne et nationale.

        4. Le raisonnement d’un juge n’est ni probabiliste, ni déterminé par les précédentes décisions (encore plus vrai dans un système de droit continental qui repose sur la logique déductive du syllogisme).

        5. La décision de justice résulte d’un cheminement spécifique, qui exige du temps et une procédure contradictoire, voire délibérative.

        6. Au contraire l’IAG entrainerait une cristallisation du droit, qui se doublerait d’une uniformisation de celui-ci.

  1. L’incidence de l’IAG sur le marché de l’emploi des professionnels du droit

    1. L’expertise humaine reste fondamentale

L’ensemble des personnes auditionnées estiment que le risque de diminution des effectif est assez faible, car seulement 10% de leur taches professionnelles seraient susceptibles d’être remplacées/Effectuées par l’IA.

        1. En effet, celle-ci étant fondée sur un modèle probabiliste, le risque d’erreur demeure élevé. Par conséquent, d’une part, l’expertise du professionnel du droit reste nécessaire au justiciable ou, de façon plus large, au client, si celui-ci souhaite obtenir des réponses qualitatives

        2. Par ailleurs, l’intelligence artificielle générative, contrairement à ce que son nom indique, n’est pas capable de faire preuve de créativité, d’innover, puisqu’elle se fonde sur les données qui lui ont été transmises et sur lesquelles elle a été entraînée.

        3. En outre, il lui manque, du moins en l’état des développements, une intelligence émotionnelle, c’est-à-dire la compréhension des situations humaines, qui est indispensable dans le domaine de la justice.

Comme l’écrit le professeur de droit privé Didier Guével dans un essai sur les effets de l’intelligence artificielle sur les décisions juridictionnelles, « il manque toujours à l’intelligence artificielle ce petit plus qui fait les grands juristes ou les grands médecins : le talent, le flair, l’intuition » (Didier Guével, « Intelligence artificielle et décisions juridictionnelles », Quaderni, 98, Hiver 2018-2019).

    1. Vers une disparition de certaines professions ?

        1. Une « réduction substantielle » envisagée du nombre de collaborateurs chez les assistants des notaires (pour les tâches de pour la recherche juridique ou la rédaction d’actes) et «la naissance de nouveaux métiers davantage liés aux outils numériques.

        2. Les cabinets d’avocats devraient connaître un mouvement similaire. D’après l’ordre des avocats au Conseil d’État et à la Cour de cassation, les effets de l’intelligence artificielle générative « se feront sentir sur les assistants juridiques ».

    2. L’embauche des jeunes diplômés

    3. La transformation de certaines professions

Favoriser la montée en compétence des assistants juridiques au sein des cabinets, notamment en leur confiant des tâches de vérification des résultats de l’intelligence artificielle générative.

Création de postes d’annotateur au contrôle de l’anonymisation des décisions de justices publiées en données ouvertes.

  1. Le prisme des magistrats et des administrations publiques

    1. Le point de vue des magistrats

Des obstacles à l’adoption de ces outils d’IAG reposant essentiellement sur :

        1. Des freins psychologiques ou un sentiment que ces outils ne leur seraient pas utiles obstacle à leur adoption.

        2. Le développement des usages de l’intelligence artificielle générative dans le domaine juridique devrait emporter des conséquences indirectes parfois néfastes pour les autorités juridictionnelles. Les représentants de ces dernières qui ont été auditionnés partagent plusieurs craintes, qui tiennent principalement aux effets pervers potentiels des outils d’intelligence artificielle générative sur le contentieux et sur l’utilisation qui pourrait être fait de la diffusion de l’identité du magistrat et du greffier ayant participé à la prise d’une décision de justice.

        3. Les représentants du ministère de la justice et des autorités juridictionnelles redoutent par ailleurs que des algorithmes d’intelligence artificielle générative ne permettent d’identifier un plus grand nombre de vices de forme et de procédure, spécialement si les autorités de poursuite et de jugement ne disposent pas d’outils similaires.

        4. Les autorités juridictionnelles craignent surtout le profilage, voire le ciblage de certains juges et greffiers dont l’identité figure sur les décisions de justice.

        5. Des coûts supplémentaires dans notre contexte budgétaire.

    1. Une nécessité de se doter de ce type d’outils :

  1. Le secrétariat général du ministère de la justice, le Conseil d’État et d’autres personnes auditionnées ont conclu à la nécessité de développer leurs propres outils d’intelligence artificielle générative au regard du cadre réglementaire actuel. Cela soulève des difficultés qui tiennent aux moyens tant financiers que techniques nécessaires. Les autorités juridictionnelles administratives et judiciaires entendent donc s’assurer du retour sur investissement de tels projets avant d’engager leur développement.

  2. Les utilisations potentielles de l’IAG au sein des autorités juridictionnelles se concentrent donc sur les recherches juridiques et l’instruction des dossiers.

  3. Urgence du rattrapage numérique de l’administration de la justice, au regard du décalage significatif qui s’installe en matière d’intelligence artificielle générative entre les professions judiciaires et les autres métiers du droit. Les premières dépendent de moyens informatiques souvent obsolètes et amorcent leur réflexion relative à l’intelligence artificielle générative, tandis que les seconds s’adaptent déjà à l’usage de cette dernière.

    1. Conséquence sur l’emploi dans l’administration publique

Le développement de logiciels d’intelligence artificielle générative au bénéfice des personnels juridictionnels ne devrait pas davantage provoquer la réduction des besoins de recrutement des juridictions. La conception, l’adoption et la maintenance d’outils d’intelligence artificielle générative exigent enfin la création d’emplois spécifiques. Il s’agit par exemple d’informaticiens, nécessaires au développement des directions des systèmes d’information des autorités juridictionnelles, de correspondants informatiques, qui assurent l’assistance technique au sein des juridictions, ou d’autres agents.

  1. Inquiétudes sur la formation des professionnels du droit

    1. L’IAG à l’Université

        1. Comme le note l’ENM, « les outils d’intelligence artificielle, payants ou gratuits, sont entrés dans les mœurs des générations actuelles d’élèves magistrats et sont probablement déjà utilisés ».

        2. L’université Paris-Panthéon-Assas estime quant à elle que « les étudiants qui n’ont jamais fait appel [à l’intelligence artificielle générative] sont une petite minorité », certains étudiants ayant même « confié la rédaction de tout ou partie de leur mémoire de fin d’année à ChatGPT ».

        3. L’usage des outils d’intelligence artificielle générative pendant les examens, fausse l’appréciation par l’enseignant de la maîtrise des connaissances juridiques de l’étudiant.

        4. Par ailleurs, cet usage soulève des enjeux majeurs d’équité entre les étudiants, si seule une partie d’entre eux ont accès à ces outils, en particulier s’il s’agit des outils payants, qui sont de meilleure qualité mais ne sont pas accessibles à tous.

        5. Un consensus apparaît quant à la nécessité de former les étudiants en droit au bon usage des outils d’intelligence artificielle générative : C’est pourquoi les formations juridiques ont la lourde responsabilité d’apprendre aux futurs professionnels du droit comment utiliser ces outils dans le respect de la réglementation en vigueur et des principes déontologiques propres à chaque profession, comment poser les bonnes questions (i.e. comment « prompter »), comment repérer les hallucinations et comprendre les biais que contiennent tous les modèles d’intelligence artificielle générative et de leur inculquer le réflexe, absolument indispensable, de systématiquement vérifier tous les résultats.

        6. Volonté des Université de ne pas rendre les étudiants dépendants de ces solutions et qu’ils développent plus leur esprit critique. L’enjeu pour les formations juridiques est donc de préparer les futurs juristes à l’usage de l’intelligence artificielle générative sans pour autant contribuer à un « assèchement des compétences »

    2. Les stages

        1. Si les enjeux déontologiques sont assez limités dans le cadre des études de droit stricto sensu, à l’exception du principe d’honnêteté à l’égard du correcteur, l’enjeu est en revanche tout autre lorsque l’étudiant est en stage auprès d’un professionnel du droit. Dans ce cas, deux risques principaux ont été identifiés par les rapporteurs : l’usage des outils d’intelligence artificielle générative sans que le maître de stage n’en soit informé – risque de déloyauté – et l’intégration de données confidentielles ou personnelles, notamment les données du client, pour alimenter les modèles de ces outils – risque de protection des données et de violation de la règlementation européenne et nationale en la matière.

        2. Le plus évident, et qui pourrait se manifester assez rapidement, est une réduction possible des embauches de stagiaires, en particulier dans les cabinets d’avocats.

    3. L’insertion professionnelle des jeunes juristes

        1. Un autre écueil concerne l’insertion professionnelle des jeunes juristes, une fois leurs études terminées. Si, globalement, l’intelligence artificielle générative ne semble pas faire peser sur les professions du droit un risque existentiel qui pourrait entraîner une forte diminution des effectifs de ces professions

Il est à ce stade trop tôt pour déterminer si ces inquiétudes sont fondées.

  1. La volonté politique affichée d’intégration de l’IAG dans la vie courante

    1. L’ouverture des jeux de données de justice

        1. La politique d’ouverture des données de justice conduite par l’État a grandement participé au développement de l’intelligence artificielle – générative ou non – dans le domaine juridique (loi n° 2016-1321 du 7 octobre 2016 pour une République numérique, la loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice).

    2. Les dispositifs d’aide publique généraux pour les acteur de la Legaltech

        1. Une stratégie nationale reposant sur des dispositifs généraux, qui bénéficient directement et indirectement aux entreprises de la legaltech et qui a été pourvue d’une enveloppe globale de 3,7 milliards d’euros.

        2. L’État a également conduit des politiques plus spécifiques d’aide au développement de la technologie, pour accompagner les entreprises innovantes. Il en va ainsi de l’appel à projets « Maturation technologique et démonstration de solutions d’intelligence artificielle embarquée » de Bpifrance, qui a permis d’accompagner des entreprises dans la conception d’une solution fondée sur l’intelligence artificielle non générative.

    3. Un soutien politique direct quant à l’intégration de l’IAG

        1. Les politiques de soutien public à l’offre de solutions d’intelligence artificielle générative doivent s’accompagner d’actions de sensibilisation de la demande, car cette dernière se saisit encore insuffisamment de cette technologie. L’enjeu fondamental au sujet de l’intelligence artificielle générative réside désormais moins dans le nombre et la taille des entreprises du secteur de la legaltech, que dans l’adoption, par les professionnels du droit, des technologies que ces dernières développent.

        2. L’État poursuit cet objectif par plusieurs moyens, généralistes ou spécifiques au secteur juridique. Le dispositif « IA Booster » de Bpifrance fournit par exemple un accompagnement aux entreprises de tout secteur dans leur adoption de l’intelligence artificielle.

        3. Les entreprises de la legaltech peuvent donc bénéficier d’une aide publique au financement structurée. L’accès au financement des start-up connaît toutefois une limite principale, qui s’apprécie à l’échelle de l’Union européenne : la profondeur du marché financier européen est actuellement insuffisante pour offrir aux entreprises le financement que requiert leur phase d’expansion.

        4. La DGE envisage au surplus de conduire des campagnes de communication au sujet de l’intelligence artificielle générative aux niveaux national et régional pour sensibiliser les entreprises à ces enjeux, aux côtés, par exemple, de France Num, des Dreets, des chambres de commerce et d’industrie (CCI), des régions, de la French Fab et de l’union nationale des professions libérales (Unapl).

  1. Une règlementation à construire

    1. IA act européen (RIA)

        1. Le RIA repose sur une structure pyramidale, qui distingue les IA « interdites », « à haut risque », « à risque limité » et « à risque faible ou minimal », et retient, pour chacune d’entre elles, des règles juridiques différentes, de manière à ce que la contrainte règlementaire soit proportionnée aux risques que chacune de ces catégories entraine.

        2. Il apparaît que le régime des intelligences artificielles « à haut risque » s’applique aux autorités juridictionnelles, mais pas aux professions réglementées du droit. Les rapporteurs considèrent, comme le secrétariat général du ministère de la justice, que les codes de bonne conduite des professions réglementées et des juristes d’entreprise devront suppléer cette différence réglementaire.

        3. Le régime de systèmes d’intelligence artificielle « à haut risque » est en effet le plus restrictif du RIA, après l’interdiction prévue pour certaines applications éventuelles de l’intelligence artificielle, que sont, par exemple, la notation sociale ou la police prédictive ciblant des individus. Le développement de tels systèmes d’intelligence artificielle, générative ou non, sera donc en vertu du RIA soumis à des exigences renforcées en matière d’évaluation de conformité, de documentation technique ou de mécanisme de gestion des risques.

    2. Le RGPD

        1. Le RGPD est d’application directe en droit national, il laisse toutefois plusieurs « marges nationales d’appréciation » qui ont justifié l’adaptation de la loi «informatique et libertés

        2. » du 6 janvier 1978 par la loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles et l’ordonnance n° 2018-1125 du 12 décembre 2018, prise en application de l’article 32 de la loi n° 2018-493 précitée.

        3. Les professionnels du droit doivent donc, tout d’abord, en vertu de ce cadre général, veiller à la conformité de l’usage d’un traitement de données à caractère personnel aux articles 5 et 6 du RGPD. L’article 5 du RGPD établit plusieurs principes structurants auquel le traitement de données doit obéir.

        4. Le RGPD impose par ailleurs en ses articles 12, 13 et 14 une obligation de transparence à l’endroit des responsables de traitement de données à caractère personnel. Aussi doivent-ils transmettre aux personnes concernées par ledit traitement une information compréhensible, aisément accessible et concise.

        5. L’automatisation des décisions et le profilage sont également prohibés par le RGPD. L’article 22 de ce texte dispose ainsi que « la personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire » ; l’interdiction de ces formes de la justice prédictive apparaît ainsi conforme à l’analyse unanime des personnes auditionnées par les rapporteurs, comme ce fut observé supra.

        6. La loi française prescrivait déjà le profilage, à l’ancien article 10 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés. Cette interdiction, qui figure désormais à l’article 47 de la loi « informatique et libertés », a été étendue, conformément au cadre établi par le RGPD, aux décisions produisant des effets juridiques à l’égard d’une personne prises « sur le seul fondement d’un traitement automatisé de données à caractère personnel, y compris le profilage » – et plus seulement « sur le seul fondement d’un traitement automatisé de données destiné à définir le profil de l’intéressé ou à évaluer certains aspects de sa personnalité ».

    3. La déontologie

        1. Un professionnel du droit doit non seulement se conformer aux réglementations européennes et nationales applicables, mais aussi observer les principes déontologiques et les codes de bonne conduite propres à son métier.

    4. Le mot des acteurs du secteur de la Legaltech : Un besoin de stabilité normative

        1. Les entreprises de la legaltech ne sollicitent pas de nouvelle réglementation, voire expriment explicitement un besoin de stabilité normative.

  1. Mesures proposées

        1. Informer systématiquement l’utilisateur sur les risques d’erreurs liés aux résultats fournis par une intelligence artificielle générative et sur la nécessité de vérifier ces résultats, tout en l’orientant vers un professionnel du droit si nécessaire.

        2. Affiner le moteur de recherche de Légifrance pour permettre une utilisation en langage naturel.

        3. Définir légalement la consultation juridique en actualisant la loi n° 71-1130 du 31 décembre 1971.

        4. Favoriser la montée en compétence des assistants juridiques, notamment en leur confiant des tâches de vérification des résultats issus de l’intelligence artificielle générative.

        5. Faciliter l’accès des petites structures aux outils d’intelligence artificielle générative par la mutualisation des abonnements au sein des ordres professionnels.

        6. Établir des règles claires d’utilisation de l’intelligence artificielle générative pour chaque profession, via des chartes éthiques ou des guides d’utilisation.

        7. Nommer un référent ou une commission dans chaque ordre professionnel pour superviser l’impact de l’intelligence artificielle générative, identifier les dérives, et mettre à jour les bonnes pratiques.

        8. Encourager la transparence sur l’utilisation des outils d’intelligence artificielle générative, sans imposer d’obligation légale, mais en intégrant cette information dans les guides d’usage.

        9. Mettre à niveau les juridictions judiciaires et administratives en matière d’équipements informatiques et d’automatisation des tâches.

        10. Nommer des référents en matière d’intelligence artificielle dans chaque juridiction.

        11. Anonymiser les magistrats et les greffiers dans les décisions de justice publiées en données ouvertes.

        12. Préciser les conditions d’utilisation des outils d’intelligence artificielle générative dans les conventions de stage des étudiants en droit.

        13. Inciter les écoles de droit à souscrire à des abonnements pour des outils spécialisés en intelligence artificielle générative.

        14. Accélérer l’adaptation de la formation continue aux enjeux et à l’utilisation de ces technologies.

        15. Promouvoir le reverse mentoring, où les jeunes collaborateurs compétents en intelligence artificielle forment les professionnels expérimentés.

        16. Former tout le personnel juridique, pas seulement les juristes, aux enjeux de l’intelligence artificielle générative.

        17. Créer une certification ou un label public pour les éditeurs juridiques et les entreprises respectant des bonnes pratiques.

        18. Inciter les administrations à privilégier des outils développés en France ou en Union européenne, dans le respect des réglementations.

        19. Améliorer et canaliser l’accompagnement des entreprises innovantes et des éditeurs juridiques par l’État.

        20. Sécuriser la réutilisation des informations publiques issues des décisions de justice, en conformité avec le RGPD

  1. Le mot de la Présidente Muriel JOURDAN

Aux États-Unis, lors d’une affaire de délit de fuite, un algorithme d’intelligence artificielle prédictive a déduit que le contrevenant avait le profil d’un délinquant qui commettrait à l’avenir des délits beaucoup plus graves. Pour ce délit de fuite, il a donc été condamné à six ans d’incarcération.

Méfions-nous de l’intelligence artificielle prédictive : cela revient à lire dans une boule de cristal ou des entrailles de poulet et à prononcer des condamnations sans lien avec l’infraction existante.

Il faut trouver un juste milieu, et surtout que l’intelligence artificielle ne substitue pas au jugement humain.

  1. Conclusion

        1. L’IAG Suscite de l’engouement surtout au regard de l’aspect conversationnel, mais les outils sont encore trop immatures. Nul doute sur l’emploi croissant de solutions à base d’IAG, dont les jeux de données sur lesquelles elles auront été entrainées, auront toute leur importance.

        2. Vous avez sans doute entendu parler du contentieux aux États-Unis contre un avocat ayant utilisé une IA générative qui avait purement et simplement inventé des décisions de justice. https://www.droit-inc.com/conseils-carriere/nouvelles/chat-gpt-invente-des-avocats-sanctionnes

        3. Des éditeurs juridiques proposent aujourd’hui des solutions, reposant sur un raccordement des grands modèles de langage sur leurs bases de données, qui sont des bases de données pertinentes, ces données nourrissant le système sont donc essentielles. Mais ce recours à des données de qualité ne change rien aux enjeux en termes de droits sur les données, de données à caractère personnel et de responsabilité du professionnel. Un avocat ou un notaire ne pourra pas se réfugier derrière le fait que telle information lui a été fournie par l’IA ; si une décision est inventée sa responsabilité professionnelle sera engagée.

Sources:

https://www.senat.fr/travaux-parlementaires/commissions/commission-des-lois/intelligence-artificielle-et-professions-du-droit.html

https://www.senat.fr/rap/r24-216/r24-216.html

L’intelligence artificielle générative appliquée au droit

Facebook
Pinterest
Twitter
LinkedIn

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Facebook
Pinterest
Twitter
LinkedIn

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Derniers articles