Un juge utilise l’intelligence artificielle ChatGPT pour statuer : “Une machine n’a pas de démarche critique”, réagit le juge Hennart, très sceptique
Les défenseurs des droits civiques montent au créneau.
Publié le 03-02-2023 à 19h40 - Mis à jour le 03-02-2023 à 20h47
Le juge colombien Juan Manuel Padilla a utilisé ChatGPT pour rendre une décision de justice en faveur d’un enfant autiste. Une méthode surprenante qui inquiète les défenseurs des droits civiques.
“Le mineur autiste est-il dispensé de payer des frais de modération pour ses thérapies ?”. C’est la question qu’un juge colombien, Juan Manuel Padilla, a posée au chatbot d’intelligence artificielle ChatGPT pour rendre une décision de justice ce lundi 30 janvier 2023.
Comme l’indique la question du juge, la décision concernée portait sur la possibilité pour un petit garçon autiste d’être exempté de frais médicaux dans le cadre de son traitement. Heureusement pour l’enfant et sa mère, l’intelligence artificielle (IA) a tranché dans son sens : “Oui, c’est exact. Selon la loi en vigueur en Colombie, les mineurs ayant reçu un diagnostic d’autisme sont exemptés du paiement de frais de modération pour leurs thérapies”.
Une méthode contestable
Visiblement très porté sur la technologie et les méthodes pouvant accélérer le travail de la justice colombienne, Juan Manuel Padilla considère que de tels outils pourraient être couramment utilisés par ses homologues. “Cela ouvre des perspectives immenses, aujourd’hui ça peut être ChatGPT, mais dans trois mois ça pourrait être n’importe quelle autre alternative pour faciliter la rédaction de textes juridiques sur laquelle le juge peut s’appuyer”, explique le magistrat en précisant que ce travail était autrefois fait par les secrétaires des juges.
Toujours selon Juan Manuel Padilla, cela n’entrave en rien le travail de la justice ni ne supprime sa dimension humaine : “Les juges ne sont pas des imbéciles, ce n’est pas parce que nous posons des questions à l’application que nous cessons d’être des juges, des êtres pensants”. Une vision que ne partagent pas du tout les défenseurs des droits civiques. Et pour cause, Chat GPT donne parfois des réponses différentes à une même question. Pire encore, il lui arrive de créer des informations de toutes pièces.
Le juge Luc Hennart, ancien président du tribunal de première instance de Bruxelles, n’est pas très fan non plus.
“Je suis extrêmement sceptique. Déjà, à la base, une intelligence artificielle a des failles. Elle est le résultat des données qu’on lui confie, de ce qu’on met à manger dans la machine. Elle dépend de l’ampleur de sa banque de données. Elle n’a aucune démarche critique. Un juge peut toujours lui poser une question pour avoir une indication mais cette démarche ne sera jamais autosuffisante. Elle n’empêchera pas la nécessité de faire quand même des recherches. Un juge n’est pas omniscient. Il peut faire appel à des experts qui, notamment, feront des fouilles en matière de jurisprudence. L’un penchera plutôt pour telle interprétation d'une loi, l’autre pour une autre. Il peut aussi trouver des voies de traverses qui permettront d’aboutir à un autre verdict. C’est une illusion de croire que la justice sera plus rapide et plus efficace avec cet outil qui n’est qu’un clone de justice. Par ailleurs, lors d’un procès, le juge tient compte d’éléments liés à la nature humaine. Ce qui se dit à l’audience, sous quelle forme, le langage corporel. Et puis, la grandeur de la Justice est aussi, parfois, le fruit de ses imperfections comme lorsque nous avons des points pas très précis dans une décision. C’est oeuvre humaine qui n’est jamais parfaite.”
Dans le monde judiciaire, la tendance est pourtant à l’automatisation. Le 27 mars 2020, un décret autorisait le ministère français de la Justice à développer DataJust. Il s’agit d’un algorithme qui permettrait “l’élaboration d’un référentiel destiné à guider les juges dans leur décision d’indemnisation des préjudices corporels” .
Concrètement, on devait collecter toutes les décisions de justice liées à des dossiers d’indemnisation de victimes entre 2017 et 2019. Et, à partir de là, on devait créer cet algorithme.
En Belgique, pour les indemnisations de victimes, les avocats et les magistrats disposent de tableaux indicatifs pour fixer les montants.
De nombreux avocats, outre-Quiévrain, ont dénoncé “une barémisation de la vie humaine” qui risque de déboucher sur “une uniformisation des indemnisations, sans tenir compte des spécificités de chaque dossier” . Un avocat, pour qui le spectre de la robotisation des juges planait, avait d’ailleurs saisi le Conseil d’État pour faire suspendre DataJust. En vain… Sauf qu’au final, le ministère de la Justice vient de mettre un terme au développement de son algorithme polémique, officiellement en raison de “la complexité du chantier”.
En Belgique, les avocats et les magistrats disposent de tableaux indicatifs, “mais qui ne tiennent compte que du sexe, de l’âge et du pourcentage de handicap” , illustrait l’avocat Christophe Redko, spécialisé en roulage, dans la DH du 8 juin 2020. Par exemple, un préjudice esthétique lié à une cicatrice se chiffre à entre 250 et 750 euros s’il est “minime” , à au moins 24 789 euros s’il est, à l’autre extrême, “répugnant” .
Mais ces tableaux n’empêchent pas de grandes disparités dans les décisions d’indemnisation entre les tribunaux, voire entre juges d’un même tribunal. “En Flandre, on indemnise beaucoup moins qu’en Wallonie” , disait aussi l’avocat. “Une machine n’est pas à même d’estimer une souffrance humaine. La justice doit être rendue par des hommes. Un pianiste qui perd un doigt, ce n’est pas la même chose que pour une autre personne.”
De fait, les juges peuvent toujours se détacher de ces grilles, selon leur appréciation : “D’un côté, elles peuvent sembler garantir une équité de traitement partout en Belgique, de l’autre leur simple existence pousse tout de même à l’uniformisation des décisions alors que chaque cas humain est unique”, conclut Luc Hennart.