Datajust ou la loi de l’algorithme ?

Décryptages
Outils
TAILLE DU TEXTE

Odile Jami-Caston, directrice du pôle Data et RGPD Compliance chez ITLaw Avocats, livre son analyse sur le décret Datajust ainsi que sur ses potentiels risques.

Quelques jours avant la publication de la recommandation du Conseil de l’Europe sur les impacts des systèmes algorithmiques sur les droits de l’Homme1, le décret Datajust2 a été publié au journal officiel de la république française.

Ce traitement, porté par le ministère de la justice, vise à développer, pour une durée de deux ans, un dispositif algorithmique permettant de recenser par type de préjudice le montant des indemnisation des préjudices corporels. Il permettra ainsi l'élaboration d'un référentiel indicatif d'indemnisation de tels préjudices, sera une aide à leur évaluation pour les justiciables, mais aussi un outil d’'information et de documentation pour les juges.

Les décisions rendues en appel par les juridictions administratives et les formations civiles des juridictions judiciaires entre les années 2017 et 2019, recensées respectivement dans les bases de données de la Cour de cassation et du Conseil d’état, alimenteront ce traitement par extraction automatique des données. Malgré leur pseudonymisation avant leur transmission au ministère de la justice (occultation des noms et prénoms des personnes physiques parties aux instances concernées), le maintien d’autres éléments d’identification (date de naissance, lien de parenté), soumet le traitement Datajust au dispositif européen de protection des données personnelles (RGPD) et à la loi Informatique et libertés. En ce qu’il porte sur des données sensibles, il relève de la procédure de décret en Conseil d’Etat après avis de la CNIL, laquelle consultée à deux reprises, s’est prononcée par délibérations  des 13 juin 20193 , puis du 9 janvier 2020.

Au-delà de l’alerte quant aux risques de voir le développement du traitement algorithmique biaisé par des pratiques discriminatoires, l’autorité de protection des données française a rappelé les principes cardinaux de vigilance et de loyauté. Elle a demandé, dans l’hypothèse de la pérennisation du dispositif à des fins de mise à disposition du public, que lui soit transmis le bilan de la phase de développement la description détaillée des algorithmes.

Le décret ainsi publié détermine les différentes finalités de traitement, donne la liste des informations traitées par catégories, limite leur durée de conservation à celle nécessaire au développement de l’algorithme, et circonscrit leur accès aux seuls agents du ministère de la justice ayant le besoin d’en connaître.

Les droits des personnes concernées, parties au litige, sont maintenus du fait de la pseudonymisation (et non de l’anonymisation) des données. En raison des efforts disproportionnés qu’exigerait une information individuelle, une information collective sera diffusée via le site du ministère de la justice notamment. L’exercice des droits conférés aux intéressés nécessitera, en l’absence de mention des noms dans les décisions, la communication du numéro de la décision. Enfin, l’objectif général d’intérêt général d’accessibilité au droit que présente le dispositif, ne permettra pas aux intéressés d’invoquer leur droit d’opposition.

Face à l’ampleur des développements des algorithmes et à leur complexité, la récente recommandation du Conseil de l’Europe met en garde les États sur la nécessité de veiller à ce que leurs systèmes algorithmiques intègrent, dès leur conception, des dispositifs aptes à protéger les droits fondamentaux de l’individu parmi lesquels le droit au procès équitable et à l’égalité des traitements. Au centre de ces enjeux, le contrôle de la qualité et de la provenance des jeux de données et les risques inhérents à leur utilisation de manière inappropriée ou décontextualisée.

Mais au-delà des enjeux liés aux droits et libertés des justiciables, c’est le nécessaire encadrement de la justice prédictive qui a conduit plusieurs députés à présenter une proposition de résolution à la date du 11 mai dernier.

Odile Jami-Caston, directrice du pôle Data et RGPD Compliance au sein du cabinet ITLaw Avocats


1. https://search.coe.int/cm/pages/result_details.aspx?ObjectId=09000016809e1124

2. https://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000041763205&categorieLien=id

3. https://www.legifrance.gouv.fr/affichCnil.do?id=CNILTEXT000038629823

Nous utilisons des cookies pour nous permettre de mieux comprendre comment le site est utilisé. En continuant à utiliser ce site, vous acceptez cette politique.