Justice : Peut-on faire confiance au jugement d’un robot?

Revue de Presse

INTELLIGENCE ARTIFICIELLE La justice prédictive croit pouvoir prédire les décisions des magistrats…

  • Pour ses partisans, la justice prédictive doit pouvoir remplacer les juges par des robots dotés d’une intelligence artificielle.
  • A l’inverse, la société Case Law Analytics évite la justice prédictive en développant des juges virtuels pour aider à la décision. 
  • L’intelligence artificielle n’a pas les moyens de remplacer les magistrats. 
    Tiens, et si des robots prenaient la place de nos juges ? On entrerait dans un tribunal peuplé d’intelligences artificielles qui décideraient de notre futur. L’idée n’est pas très reluisante, mais elle en fait fantasmer plus d’un, surtout du côté des partisans de la justice prédictive -des algorithmes qui analysent les décisions rendues par les tribunaux dans le passé pour anticiper la solution d’un litige. Si une intelligence artificielle peut prévoir l’issue d’un procès, ne pourrait-elle pas piquer la place d’un magistrat ? Dit comme ça, on se dit «  bonne idée », mais ce n’est pas si simple.

1000000000000136000000be3c167edacf0ca9e9.jpgDes robots du film « I, robot»

«  On a confiance en un juge parce qu’il est indépendant et humain », souligne Maître Winston Maxwell, avocat associé chez Hogan Lovells, spécialiste en régulation numérique. «  En Angleterre, au XVIIe siècle, il existait deux formes de justice, l’application de la loi pure et dure, et le tribunal en équité sous la responsabilité du roi, qui permettait de pallier la rigidité de la première », poursuit-il. La justice mécanique n’est pas acceptable, car chaque cas est unique. Et qu’on le veuille ou non, un robot n’est pas capable de rendre un jugement équitable.

Un algorithme n’évite pas les erreurs humaines

L’objectivité n’est-elle pas justement ce qui pourrait faire la force d’un robot ? Il ne tomberait pas dans le piège des préjugés comme cela peut arriver à l’homme. «  L’intelligence artificielle s’appuie, pour beaucoup, sur une analyse du passé. Même si un algorithme n’est pas biaisé, en principe, il réintègre les biais humains », reprend Me Winston Maxwell. Souvenez-vous de Tay, l’intelligence artificielle lancée par Microsoft en mars 2016 qui s’est mise à tenir des propos racistes, antisémites et misogynes en quelques heures. Censée apprendre au fil de ses échanges avec les internautes, elle s’est mise à ressembler à ceux qu’elle a côtoyés en ligne.

Non seulement l’algorithme n’évite pas les erreurs humaines, mais l’imaginer dans la chaise du juge, en admettant qu’un algorithme puisse s’asseoir (mais on s’écarte du sujet), c’est oublier la fonction sociale de la justice. «  A un moment, il faut que les gens puissent parler, et on ne peut pas faire l’économie d’un débat contradictoire », insiste Jacques Lévy Vehel, ancien chercheur à l’Institut national de recherche en informatique et en automatique (Inria), qui a cofondé Case Law Analytics avec le magistrat Jérôme Dupré.

Cent juges virtuels

«  La justice prédictive est un concept non seulement vide de sens car il n’y a rien à prédire, mais dangereux car la machine ne va pas prédire mais prescrire », poursuit le mathématicien spécialisé dans la quantification du risque. «  Et dans une décision de justice subsiste un aléa irréductible ». D’un jour à l’autre, le même juge ne va pas prendre la même décision.

Si l’outil développé par Case Law Analytics ne compte pas se substituer à l’humain, il peut aider à désengorger les tribunaux en incitant le client à accepter un accord à l’amiable. Mais là encore, il s’agit de faire confiance à une intelligence artificielle. «  On va entraîner cent juges virtuels et essayer de mimer ce qui se fait dans une cour d’appel à un moment donné », détaille Jacques Lévy Vehel. «  On ne peut pas prédire la décision, mais par exemple, une personne licenciée, on peut lui dire, j’ai 20 juges qui ont pris telle décision, 40 qui en ont pris une autre », explique le scientifique. Cela permet de négocier et d’éviter un procès long et coûteux. Car, comme on dit, mieux vaut un mauvais accord qu’un bon procès.

«  L’IA est un outil d’aide à la décision, mais elle ne va pas remplacer le juge. Elle ne passera jamais le test de constitutionnalité », observe enfin Me Winston Maxwell. Le système doit avoir des garanties. Il y a toujours quelqu’un pour regarder par-dessus l’épaule d’un juge, il est soumis à une instance supérieure (la cour d’appel, la Cour de Cassation) et il doit motiver sa décision. On est à des années-lumière de voir les robots piquer le boulot des juges. Ils n’en sont tout simplement pas capables.

Source : 20minutes.fr (4 janvier 2018)