Commission de l'éthique en science et en technologie

L’IA et l’accès à la justice

Dans un Éthique Hebdo précédent, nous nous sommes intéressés aux enjeux éthiques soulevés par les travaux législatifs pour améliorer l’accès à la justice au Québec en accordant une attention particulière aux effets structurants des réformes du Code de la Procédure civile sur la preuve d’expertise scientifique. Aujourd’hui, nous explorons le rôle que l’intelligence artificielle (IA) peut jouer dans la tâche cruciale d’améliorer l’accès à la justice.

5 mai 2023 Intelligence artificielle, Sciences et politiques publiques

Partager cette page

Il n’est pas nouveau que les systèmes d’IA assistent les membres des professions juridiques. Il y a déjà presque 40 ans, l’Association internationale pour l’intelligence artificielle et le droit discutait du potentiel de l’IA pour l’extraction d’information et l’automatisation de la décision judiciaire lors de sa première conférence. Les premiers usages de l’IA dans l’administration du droit reposaient sur des systèmes d’IA qui résolvaient des problèmes en suivant des règles explicites programmées par des humains. Aujourd’hui, les techniques plus récentes d’apprentissage profond ont donné naissance à des IA qui, plutôt que de suivre des règles explicites, développent leurs propres algorithmes statistiques afin d’identifier des relations entre des données par induction à partir de vastes ensembles de données et d’essais-erreurs. Cette nouvelle génération d’IA permet notamment d’effectuer des prédictions ainsi qu’un traitement automatisé des langues naturelles, deux types de fonction qui ont le potentiel d’améliorer l’accès à la justice en assistant tant les membres des professions juridiques que les justiciables.

L’analyse prédictive dans le droit

Tout d’abord, l’apprentissage profond libère d’importantes capacités d’analyse prédictive fondées sur un traitement statistique de données massives. Utilisées dans le système de justice, ces fonctionnalités permettent d’assister la décision des juges et des parties en litige. L’analyse prédictive permet notamment d’évaluer les risques de récidive et d’ainsi porter assistance dans la prise de décision relative à la remise en liberté ou à la sentence d’un criminel ou encore à l’éligibilité pour différents statuts d’immigration. L’analyse prédictive sert aussi à prédire l’issue de certains litiges, ce qui peut notamment éviter des actions en justice inutiles en redirigeant les parties litigantes vers d’autres solutions (l’arbitrage, le règlement à l’amiable) lorsque les chances de victoires sont minces.

Analyse statistique et raisonnement judiciaire

L’usage de l’analyse prédictive par l’IA soulève toutefois d’importants risques éthiques. Tout d’abord, certains soulignent que la décision judiciaire doit fermement être ancrée dans les aspects spécifiques et uniques à un cas particulier et que cette exigence s’harmonise mal avec le caractère statistique de l’analyse prédictive. Par exemple, on note souvent que le droit a une texture ouverte au sens où les juges doivent toujours interpréter les lois à la lumière de nouveaux cas inédits et non-prévus par la loi, ce qui les invitent à réfléchir aux finalités du droit et à ses principes fondamentaux. Or, il n’est pas clair que des algorithmes d’apprentissage profond puissent répondre adéquatement à de tels cas difficiles.

Discrimination algorithmique

Cette tension entre le point de vue statistique et le caractère spécifique de la décision judiciaire est d’autant plus importante que l’analyse prédictive déployée dans l’univers de la justice peut contribuer à renforcer certaines inégalités face à la loi et son application. Par exemple, des études ont démontré que les stratégies déployées aux États-Unis pour optimiser le travail des forces policières en prédisant les endroits et les moments où des crimes étaient le plus susceptibles d’être commis avaient en réalité pour effet d’amplifier certains biais à l’œuvre dans les pratiques policières et d’accroître la surveillance de groupes sociaux marginalisés déjà victimes de discrimination dans le système de justice, comme les Afro-américains.

Utilisés lors de prises de décisions relatives aux sanctions et aux remises en liberté, les mêmes outils risquent de désavantager les membres de groupes surreprésentés dans les statistiques relatives aux arrestations et aux convictions criminelles. De même, puisque la capacité à obtenir une représentation légale adéquate est un facteur important permettant de prédire l’issue des procès, on peut facilement voir comment, étant donné le caractère contradictoire des contentieux en justice, l’analyse prédictive risque d’être utilisée par des compagnies, des individus et des gouvernements d’une manière qui surexpose à d’éventuelles poursuites ceux qui sont les plus susceptibles de se représenter eux-mêmes en justice (par exemple ceux dont les revenus sont trop élevés pour bénéficier de l’aide juridique, mais pas assez pour payer des frais d’avocats).

Transparence des décisions

Enfin, l’analyse prédictive introduit une dose d’opacité dans la décision judiciaire. En effet, les systèmes d’apprentissage profond établissent automatiquement leurs propres formules de prédiction en analysant des ensembles très vastes de données sans que ces formules ne soient nécessairement transparentes pour les utilisateurs humains. Cette opacité met en cause la possibilité d’une justification publique (appuyée par des raisons accessibles à tous les citoyens) des décisions judiciaires, laquelle est essentielle pour maintenir la légitimité de ces décisions dans une société démocratique.

 

Les IA génératives dans les professions juridiques

L’apprentissage profond a également rendu possible le développement de modèles de traitement automatisé des langues naturelles très performants qui permettent maintenant de générer et d’analyser du texte. ChatGPT est sans contredit le plus célèbre de ces modèles. Ce type d’IA générative promet de réduire les délais de l’administration de la justice en améliorant l’efficacité du travail des juges, greffiers et avocats. Aujourd’hui, une pléthore d’applications et de plateformes web, comme Neolegal, Spellbook et Westlaw Edge, propose des services alimentés par des IA génératives permettant d’assister à la rédaction et à l’analyse de documents légaux qui peuvent être utilisés en justice (contrats, affidavits, avis de recouvrement, lettre d’éviction, etc.). Ces IA peuvent faire économiser beaucoup de temps aux avocats en prenant en charge des aspects de la rédaction de documents et en révisant des textes écrits par des humains en proposant des formulations alternatives et en soulignant des points manquants (comme des clauses absentes d'un contrat). Elles peuvent également assister les avocats et les juges qui doivent effectuer de recherches juridiques en facilitant l’extraction d’information de grandes bases de données (cas similaires, cadres législatifs, etc.) ou de preuves volumineuses. Ces IA peuvent même proposer des stratégies de défense et rédiger des argumentaires. Ces progrès sont tels qu’une étude réalisée par Goldman Sachs estime que 44 % du travail effectué par les professionnels du droit pourrait être automatisé et une autre étude récemment réalisée par des chercheurs américains classe les professions légales au sommet des industries impactées par la nouvelle génération de modèles linguistiques de grande taille.

Risques de surcharge du système de justice

S’il est incontestable qu’une telle automatisation du travail juridique peut contribuer à réduire les délais liés à l’administration de la justice, il ne faut pas perdre de vue que dans le contexte de procès dont la structure est contradictoire, l’IA peut aussi contribuer à augmenter la capacité des acteurs prêts à déployer des stratégies agressives qui minent l’accès à la justice. Aux États-Unis, par exemple, on a commencé à observer un haut volume de poursuites relatives à des recouvrements de dettes alors que des organisations créancières ont commencé à faire usage de l’IA pour faire des envois massifs et largement automatisés d’avis de recouvrement, une tendance qui risquerait d’engorger les tribunaux si elle se répandait. De plus, grâce à l’analyse prédictive, ces actions pourraient arriver à cibler des personnes peu susceptibles de se présenter au tribunal (ce qui, en contexte américain, entraîne une victoire par défaut du demandeur, lequel peut même, dans certains États, saisir le salaire de personnes en défaut de paiement).

L’IA et l’éducation populaire au droit

Une version optimiste du potentiel de l’IA pour améliorer l’accès à la justice met de l’avant l’idée que ces outils sont aussi à la disposition des citoyens ordinaires et qu’ils peuvent aider les plus vulnérables à mieux comprendre le système de justice. Par exemple, le site web d’une compagnie offrant des services de rédaction et d’analyse automatisée de contrats consulté dans le cadre de nos recherches prétend pouvoir résumer des contrats en proposant une interprétation plus concise des clauses et formulée dans un jargon moins obscur. Différents robots conversationnels permettent par ailleurs d’orienter les citoyens en extrayant de l’information juridique pertinente et en offrant des conseils. Au Québec, JusticeBot fournit ainsi une assistance en droit du logement aux locataires et propriétaires et des services similaires ont émergé ailleurs dans le monde. Toutefois, ces services ne doivent pas se substituer à la possibilité de consulter en personne des professionnels du droit si l’on veut éviter d’exclure les personnes qui n’ont pas accès aux nouvelles technologies numériques. Enfin, comme les IA génératives n’offrent pas toujours des réponses exactes et adaptées aux situations particulières, l’usage de robots conversationnels visant à mieux informer les justiciables sur leurs recours présuppose un bon degré de littéracie numérique dans l’ensemble des justiciables, incluant notamment une compréhension des limites des IA génératives, celles-ci pouvant donner des réponses erronées ainsi que des références inexistantes.

En somme, il faut se méfier d’une conception étroite de l’accès à la justice qui ne miserait que sur l’optimisation du travail juridique et la modernisation des professions juridiques. Les besoins en ressources humaines restent centraux et on ne saurait dissocier l’accès à la justice à l’ère numérique de la promotion de la littéracie numérique. Enfin, il faudra probablement réfléchir à l’encadrement des applications prédictives et génératives dans l’administration du droit afin d’éviter certaines dérives esquissées dans ce texte.

 

Si l’enregistrement des fichiers de témoins est activé sur votre navigateur, la visite de ce site placera un fichier de témoins sur votre ordinateur, ou un fichier de témoins sera lu si vous avez déjà visité ce site auparavant. Notre utilisation des fichiers de témoins vise uniquement à améliorer votre expérience comme utilisatrice ou utilisateur sur le site Web de la Commission.