En juin dernier, à la suite de la diffusion de deux notes de la direction de l’administration pénitentiaire (DAP) relatives à « la mise en œuvre de la politique nationale d’implantation d’outils d évaluation » des personnes placées sous main de justice, nos deux organisations adressaient une lettre ouverte au directeur de l’administration pénitentiaire pour faire part de leurs interrogations et inquiétudes.
En réponse, le directeur de l’administration pénitentiaire nous faisait part de son souhait d’engager une réflexion sur le sujet et proposait une rencontre bilatérale sur la question.
Ce n’est que près de quatre mois plus tard que cette rencontre entre nos organisations syndicales et la DAP s’est tenue, en l’absence du directeur de l’administration pénitentiaire. Cet échange s’est conclu par des engagements de l’administration à plus de transparence.
Lors de notre échange, l’administration a exprimé son étonnement quant à la co-signature de la lettre ouverte et de l’intérêt porté par le Syndicat de la magistrature (SM) à l’évaluation du risque de récidive et son corollaire l’outil actuariel, arguant que la question était « pénito-pénitentiaire » et n’impactait pas l’aide à la décision judiciaire.
Cette analyse ne nous a pas convaincu·es, les enjeux de tels travaux étant, selon nous, beaucoup plus vastes. En effet, l’introduction d’un outil – que la DAP se refuse à qualifier d’actuariel – d’évaluation du risque de récidive en service pénitentiaire d’insertion et de probation (SPIP) emporte des conséquences sur les méthodes de travail des agent·es, la conception du métier, le lien et le rendu-compte aux magistrat·es ou encore la relation avec le public dont nous avons la charge. Il emporte plus largement des conséquences et tend vers un modèle de justice basé sur la gestion du risque qui s’écarte de l’individualisation de la peine. S’il revient effectivement à l’administration pénitentiaire de mener ces travaux, elle ne saurait se passer de l’expertise et de la collaboration de la DACG, ni davantage de la présentation de ces travaux en CSA et de la consultation des organisations représentatives des personnels.
Passée cette entrée en matière, l’administration a exprimé sa volonté de nous « rassurer », estimant notre positionnement beaucoup trop alarmiste et souhaitant faire œuvre de pédagogie.
* Sur la création d’un outil français : une démarche scientifique et neutre ?
La DAP se défend de vouloir se précipiter et déployer un outil qui ne répondrait pas aux pratiques des SPIP, assurant ne pas vouloir entrer dans le jeu d’achat de licence et de la « commercialisation de la science ». Si elle a expliqué, en conséquence, ne pas avoir fait le choix de l’utilisation généralisée du LSC-MI1, il n’en demeure pas moins que, dans l’attente du déploiement d’un outil « propre à la probation française », elle forme déjà des agent·es des SPIP au LSC-MI (v. infra).
Signe de sa prise de conscience des enjeux éthiques et commerciaux de l’outil, elle admet en outre être gênée par le fait que l’ensemble des données générées soient accessibles à la maison d’édition qui en assure la commercialisation du LSC-MI.
N’ayant pas pour autant changé de perspective, l’administration travaille actuellement à l’élaboration du cahier des charges pour la création de son outil. Elle a déjà pris attache avec des universités françaises pour qu’elles en évaluent la faisabilité et contribuent à l’élaboration de ce cahier. Plutôt que de fixer un cadre pour que l’appel d’offre réponde à des contours, des besoins, des attentes, des critères de l’administration, la DAP préfère se conformer aux demandes des universités pour s’assurer d’obtenir des candidatures. La CGT IP et le SM ont dénoncé cette présélection qui entache la neutralité de la démarche.
De plus, faute de données statistiques françaises, pourtant essentielles au développement d’un outil ancré dans la réalité du fonctionnement du système judiciaire français et de sa « délinquance », cet outil se fondera sur des statistiques étrangères,. Plusieurs chercheurs2 avec lesquels la CGT IP a pu échanger critiquent cette absence de rigueur et les biais insurmontables induits par un tel outil. Par la suite, l’outil s’auto-alimentera de statistiques françaises – possiblement erronées – qu’il génèrera et évoluera en conséquence.
Enfin, la DAP a lourdement insisté sur le caractère non-prédictif de ces outils. Mais qu’est-ce donc qu’envisager les probabilités qu’un individu récidive dans l’avenir en tenant compte du partage de certaines caractéristiques avec un groupe témoin pour lequel le risque de récidive est envisagé en pourcentage ?
En résumé, pas de statistiques nationales mais une adaptation d’outils déjà existants dans d’autres pays malgré des différences notables de systèmes judiciaires, de populations et de conditions de travail des utilisateurs de ces outils ainsi qu’une démarche de marché public à contresens.
* Sur les formations aux outils dans les directions interrégionales des services pénitentiaires (DISP): homogénéité et éthique de la méthode ?
La Règle Européenne de Probation n° 71 précise que si un système national opte pour l’utilisation d’outils d’évaluation, les agent·es doivent être formé·es à leur utilisation ainsi qu’à leurs limites. Or, nous constatons la multiplication tous azimuts de formations à l’utilisation d’outils divers et variés en fonction des DISP, sans vision critique impliquant que les questions éthiques propres à la construction de ces outils, à leur fonctionnement, à l’impact sur les pratiques professionnelles, soient exposés. La DAP se défend en précisant n’avoir, pour 2023, formé qu’une quarantaine d’agents au LSC-MI. Pour ce qui est de l’absence de cohérence dans les outils actuellement présentés, utilisés dans certains services, elle en attribue la responsabilité aux départements des politiques d’insertion, de probation et de prévention de la récidive (DPIPPR) des directions interrégionales, expliquant n’avoir jamais demandé à ce que de telles formations se tiennent ni avoir jamais avalisé les outils présentés. Peut-être, toutefois, ne les a-t-elle jamais dénoncée ou recadrés.
Une situation qui n’est pas sans impact. La variété d’outils interroge en effet l’homogénéité des pratiques, qu’elle a pourtant érigée comme cheval de bataille depuis le RPO13. En outre, la compatibilité des outils objets de ces formations avec le système juridique français et ses principes directeurs fondamentaux peut largement être questionnée. Par exemple, ODARA demande une évaluation du risque de récidive sur des personnes non encore condamnées et donc présumées innocentes. Quant à lui, le STATIQUE 99R fait fi de la décision judiciaire en préconisant la cotation des affaires pour lesquelles l’accusé a été relaxé comme « antécédent judiciaire ».
Autant de risques éthiques doivent nécessairement être pris en considération, surtout au stade de la formation.
* Sur la mise en place de l’outil : expérimentation ou déploiement d’un outil coûte que coûte ?
Alors qu’une expérimentation suppose une phase d’évaluation de son impact (positif, négatif ou nul) pour décider in fine d’une généralisation ou de l’abandon du dispositif, la DAP s’est bornée à indiquer qu’elle ne pouvait prédire les arbitrages du prochain directeur.
Interrogée sur l’objectif affiché d’améliorer la prise en charge qualitative, l’administration a été dans l’impossibilité de préciser les contours de ce « contrôle qualité ».
Pour finir, elle s’est montrée sourde aux arguments tant de la CGT IP que du SM du risque de déqualification de nos métiers engendré par ces outils et de la perte de sens en découlant.
Quant au risque, pourtant démontré par des chercheurs et universitaires étrangers de pays où ce type d’outils est utilisé depuis des décennies, que le professionnel « efface » son jugement à l’aune des résultats produits par l’outil pour se « déresponsabiliser », la DAP argue de la bienveillance de la hiérarchie intermédiaire pour redonner confiance en l’agent et améliorer l’outil le cas échéant.
Lors de cet entretien, la DAP n’est ainsi pas parvenue à nous rassurer quant à l’utilisation de ces outils. A la suite de cet échange, elle n’a pas répondu à notre courrier du mois de décembre, dans lequel nous demandions à être associés à l’expérimentation.
Malgré des engagements pris quant à la transmission du cahier des charges en cours d’élaboration, le calendrier des travaux concernant ce qui est qualifié d’expérimentation, ou encore les modalités de désignation du conseil scientifique, aucun élément ne nous a été transmis, y compris après deux relances adressée au DAP en fin d’année 2023 ainsi qu’en février.
La CGT et le SM exigent que de véritables espaces de dialogue et de concertation avec les organisations syndicales s’ouvrent pour prévenir les dérives documentées et avérées de l’actuariel.
1 Pour en savoir plus : Le journal sur les risques de l’évaluation & SPIP/ Recherche-évaluation outils d’évaluation PREVA vous avez dit scientifique ?
2 Pour en savoir plus : Le journal sur les risques de l’évaluation
3 http://www.cgtspip.org/deploiement-du-rpo1-tout-azimut-et-sans-homogeneisation-entre-disp-les-reperes-revendicatifs-de-la-cgt/