UTILISATION DES COOKIES : en poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer une navigation personnalisée, des publicités adaptées à vos centres d’intérêts et la réalisation de statistiques. Pour en savoir plus et paramétrer vos cookies, cliquez ici 

Faut-il réguler l’utilisation de l’intelligence artificielle dans le domaine de la justice ?

Décryptages
Outils
TAILLE DU TEXTE

Les usages de l’intelligence artificielle dans le domaine de la justice se multiplient, ce qui pose de plus en plus la question de sa régulation.

L’impact de l’intelligence artificielle dans le domaine de la justice soulève de nombreuses interrogations. Quels usages, aujourd’hui et demain ? Faut-il réguler l’intelligence artificielle ? Si oui, comment ? Faut-il simplement encadrer cette utilisation par des instruments de droit souple ? Autant de questions auxquelles ont tenté de répondre les intervenants du séminaire « Intelligence artificielle et justice » qui s’est tenu le 2 avril 2019 à l’Université Paris 5 Descartes, sous la présidence de Pierre Berlioz, professeur de droit et Directeur de l’EFB.

Des outils puissants de collecte et d’analyse de données

Anne Souvira, Commissaire divisionnaire, chargée de mission aux questions liées à la cybercriminalité au cabinet du préfet de police, estime que ces technologies sont d’une aide précieuse, notamment en matière pénale où les preuves sont de plus en plus numériques. « Aujourd’hui, en police judiciaire, nous sommes aidés par la cobotique, c'est-à-dire que nous avons des instruments qui nous permettent d’aller plus vite ne ce serait-ce pour passer en revue les fichiers, des millions d’octets, saisis chez un individu ». Ces outils permettent de collecter et analyser des données massives qui dépassent les capacités humaines. Pour autant, elle considère qu’il faut se demander dans quel type de démocratie l'on veut vivre, si l'on veut pouvoir faire tout parce que la technique le permet ou bien si on se limite. « Ces outils sont indéfiniment développables. On aura toujours de plus en plus de choses si aujourd’hui on ne se mêle pas d’envisager par anticipation leu régulation »

Automatisation de certaines tâches

Cependant, Romain Cousin, Directeur du Développement et des données éditoriales de l’éditeur juridique LexisNexis, fait remarquer que « nous sommes très loin des robots-juges, de la justice prédictive, de la machine qui se substitue au juriste ». Ce qu’il est possible de faire aujourd’hui, c’est automatiser des tâches « sur lesquelles on peut entraîner la machine pour faire gagner du temps, comme par exemple la relecture des contrats ».
Entre 150.000 et 200.000 décisions de justice par an sont disponibles dans les bases de données des éditeurs juridiques. Dès que l’on pourra accéder aux jugements des tribunaux de grande instance (950.000 par an) et à ceux des tribunaux de commerce (150.000 à 200.000 par an), un traitement humain ne sera plus possible. 

L’Etat est en France le premier producteur de données. Avec l’open data, l’Etat va mettre à disposition du public des quantités immenses de données. Ce qui fait dire à Thomas Andrieu, Directeur des affaires civiles et du Sceau que l’Etat doit avoir ses propres outils. « Il faut que les juges aient à leur disposition les meilleurs algorithmes qui existent parce que sinon ils vont se retrouver déposséder de leur office ». Ainsi, à la Direction des affaires civiles et du Sceau, le premier projet d’intelligence artificielle du ministère de la Justice a été lancé, Datajust, dont l’ambition est de créer et d’exploiter une base de données sur l’indemnisation du préjudice corporel. On pourra donc consulter toutes les décisions des cours d’appel judiciaires et des cours administratives d’appel en matière corporel. Cela pourra faire apparaître à court terme un référentiel indicatif d’indemnisation. Puis, cela permettra de « modéliser les évolutions législatives et évaluer la législation actuelle (ex : impact financier, évaluation des modifications comportementales) ».

La régulation de l’intelligence artificielle

La régulation de l’intelligence artificielle est nécessaire selon Xavier Ronsin, Premier Président de la cour d’appel de Rennes et expert auprès de la CEPEJ, par du droit dur en amont l’open data, et « la diffusion de ce nouvel or noir que constituent les données judiciaires avant de le donner sans aucune précaution aux acteurs juridiques et au grand public. Il faut bien sûr réguler les tentatives ou les espoirs de certains d’une justice qui se passerait de juges et qui serait purement algorithmique ». Ainsi, serait préservé le droit fondamental de la protection des données personnelles et éviterait des manquements aux principes fondamentaux de la Convention européenne de sauvegarde des droits de l’Homme.

Par ailleurs, cette régulation peut être le fait du droit souple, comme la charte européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires de la CEPEJ qui fixe un cadre de principes destinés à guider les décideurs politiques, les juristes et professionnels de la justice dans la gestion du développement rapide de l’IA dans les processus judiciaires nationaux.
« Aujourd’hui, rien ne permet, en termes de droit dur, de réguler de manière complètement transverse l’intelligence artificielle », explique Jérémy Bensoussan, Avocat au sein de Lexing Alain Bensoussan Avocats. Néanmoins, quand on regarde le type d’algorithme qu’on utilise, le type de données qui sont en jeu, les hypothèses d’usages, on alterne de la régulation qu’elle soit dure ou souple. Par exemple, dès qu’on va venir vouloir entraîner des algorithmes avec des données à caractère personnel, l’ensemble de la réglementation des données à caractère personnel a vocation à s’appliquer avec « RGPD/Loi informatique et libertés/Décrets d’application » (Droit dur) et les instruments de droit souple de la CNIL.

Bertrand Warusfel, Avocat chez FWPA Avocats et Professeur à l’Université Paris 8, évoque quant à lui trois raisons qui justifient une régulation de l’IA :
- L’intelligence artificielle tend à pousser à l’extrême l’automatisation qui est induite par le numérique. Le risque est d’avoir une frontière floue entre l’outil d’aide à la décision et la décision elle-même et d’aboutir à une mauvaise décision qui engendre un préjudice ;
- Le caractère « boite noire de l’intelligence artificielle » : on ne sait pas très bien comment l’outil a pris sa décision ;
- « La justice est une activité sensible ».

« Si on laisse les algorithmes prospérer sans les contrôler, ils peuvent introduire énormément de biais et se substituer au droit » conclut le professeur de droit.

Arnaud Dumourier (@adumourier)