L’utilisation d’algorithmes dans la justice pénale est plus avancée que le public ne le pense. Cela n’est pas sans conséquences pour le personnel judiciaire et pour l’Etat de droit1. La thèse de départ de cette contribution est énoncée dans le titre: actuellement, l’utilisation d’algorithmes dans la justice pénale constitue – comme dans d’autres domaines aussi2 – un hype, suscitant beaucoup d’espoirs, en particulier en ce qui concerne leur validité et l’efficacité qu’ils permettent d’atteindre dans la gestion des risques de la délinquance. En l’absence de mesures élémentaires de précaution, les principes de l’Etat de droit risquent d’être mis à mal.
Des algorithmes sont à la base d’un bon nombre d’instruments actuellement appliqués dans la justice pénale en Suisse. En soi, cela n’est rien de nouveau. Des logiciels à base d’algorithmes, par exemple pour l’évaluation de la dangerosité des auteurs de crimes, existent depuis des décennies3. Ils doivent leur rôle renforcé à l’évolution d’une justice actuarielle4 et au développement d’une prévention punitive5: soumis à une «tyrannie du probable»6, le principe directeur est «scan – screen – intervene»7. En effet, on peut assister, ces dernières années, à une extension de leurs domaines d’application, à une augmentation de leur nombre et, surtout, à un accroissement de leur importance sans précédent, dans un contexte plus large que la justice pénale: on parle même d’une «nouvelle gouvernementalité algorithmique»8.
VRAG, SORAG, ODARA, DyRIASEcole, DyRIASIslam, etc.: il semblerait qu’on puisse les adapter presque sans limites aux tendances politiques du moment. Ainsi, certains logiciels sont en mesure d’apprécier généralement la dangerosité, tandis que d’autres l’évaluent dans des contextes particuliers: la délinquance sexuelle, la délinquance violente, le terrorisme, les tueries scolaires ou la violence domestique. Les méthodes de la police prédictive se basent également sur des algorithmes (Predpol, Precobs) et, c’est finalement aussi un algorithme – certainement celui le plus souvent appliqué en Suisse – qui est intégré dans l’outil de sélection de cas (Fall-Screening-Tool FaST) du nouveau régime ROS (concept de l’exécution des sanctions orientée vers les risques9), afin de classer un maximum des cas selon trois catégories: catégorie A – aucune nécessité d’évaluation; catégorie B – nécessité d’évaluation du risque de récidive concernant la délinquance générale; catégorie C – nécessité d’évaluation du risque de récidive concernant les délits de violence et les délits sexuels10.
Dans cette contribution, on ne s’intéressera ni à la validité prédictive de ces instruments, ni à leur fiabilité, ni à leur mauvaise calibration, ni au fait qu’il s’agit parfois de boîtes noires11. En effet, même le meilleur des algorithmes imaginable – et nous en sommes loin12 – ne fait de toute façon que calculer la probabilité, fondée sur l’appartenance à un groupe: il vous dira que X% des autres individus recensés par le système et disposant des mêmes caractéristiques – exprimés en nombre de points – ont récidivé ou sont devenus violents, etc. En se basant sur le constat que de tels outils dits actuariels sont utilisés de plus en plus et par une pluralité de professions dans notre système de justice pénale (par des psychiatres, des psychologues, des assistants sociaux, des policiers, des employés des institutions pénitentiaires et autre personnel des autorités d’exécution des peines et mesures), cet article s’interroge sur les raisons de cette expansion (1.) et s’intéresse à la question de savoir comment ces logiciels à base d’algorithmes influencent l’activité des utilisateurs (2.)
1. Champs d’application et but postulé dans l’application des logiciels à base des algorithmes
Certes, il y a beaucoup de champs d’applications pour des algorithmes, car nous vivons, comme il a été constaté, dans une sorte d’«algocratie»13: en effet, c’est un fait notoire, nous sommes sans cesse confrontés à des résultats produits par des algorithmes en activité constante, et l’industrie tente d’en tirer les avantages: mentionnons juste les algorithmes dans le domaine publicitaire, l’algorithme de Facebook et celui de reconnaissance d’images de Google ou l’exemple de Swatch qui veut faire les yeux doux aux 400 millions de Chinois nés après 1980 et les rendre attentifs à ses produits avec l’aide d’un algorithme14. Il en existe beaucoup d’autres. Ainsi, on entend souvent dire que les algorithmes constituent le moteur des analyses de «Big Data»15, car, sans eux, l’exploitation de la quantité énorme de données générées sur internet serait impossible. Les algorithmes sont dès lors utiles lorsque la pure quantité de données dépasse les capacités du cerveau humain. Dans ces constellations, ils disposent d’une masse de données avec un nombre limité de variables. C’est facile à imaginer dans le cas concernant les 400 millions de Chinois, dans celui de Facebook ou de Google. Dans le domaine de la justice pénale, cependant, cela pose un problème. Les utilisateurs de ce genre de logiciels ne travaillent pas avec une quantité ingérable de données, bien au contraire: par rapport à des comportements criminels, nos sources de données sont malheureusement plutôt rares, ce qui constitue précisément un des problèmes fondamentaux. Il ne s’agit jamais d’une foule immense, mais toujours d’un individu à qui un nombre infini de comportements possibles sont ouverts.
Le but doit dès lors être différent lorsqu’on choisit de recourir à des algorithmes au sein de la justice pénale. En effet, l’objectif postulé est d’identifier le plus grand nombre possible d’auteurs potentiels avec le moins d’efforts possible. La description officielle de l’algorithme FaST en est un exemple illustratif: «Le tri par FaST est objectif, car les données saisies n’ont pas besoin d’être interprétées, simple car l’utilisation ne nécessite pas de connaissances spécialisées, rapide car l’utilisation ne prend que 5 - 20 minutes environ.»16 L’automatisation permet d’économiser du personnel, du personnel qualifié et ainsi de l’argent, semble-t-il. On veut des résultats rapides.
Or, cela pourrait amener à la question suivante: pourquoi alors n’existe-t-il pas encore de logiciel fondé sur des algorithmes qui crache des jugements pénaux? A ce jour, environ 97% des décisions en matière pénale sont prises par ordonnance pénale. Pour bon nombre de délits, les règles au sujet de la fixation de la peine sont établies de manière très étroite par des directives internes et intercantonales – il s’agirait de données limitées et simples à entrer dans un système. Et, sérieusement, cela présenterait l’avantage d’un traitement plus égal. En matière de délits contre la loi sur la sécurité routière, nous serions ainsi presque au stade de l’automatisation totale: le radar automatique recense le dépassement de vitesse, le système identifie automatiquement le détenteur du véhicule et la peine est fixée et notifiée de manière automatique. Affaire liquidée, sans intervention humaine. Une justice télématique17, déshumanisée: une perspective plutôt sécurisante ou inquiétante?
2. L’influence des logiciels à base d’algorithmes sur l’activité des utilisateurs
Pour l’instant, ce sont toujours les humains qui agissent, même là où les logiciels basés sur des algorithmes sont appliqués. Des études ont été menées en médecine, dans les domaines de l’aviation et des chemins de fer, pour déterminer de quelle manière des outils de travail qui contiennent des processus automatisés influencent les professionnels18. Or, il n’en existe aucune concernant la justice pénale: une recherche empirique et interdisciplinaire fait défaut. Pour accomplir une première démarche, deux hypothèses pertinentes pour la justice pénale seront présentées: 1) la vision tunnel et 2) la perte de compétences par rapport à la prise de décision19.
2.1. L’application d’algorithmes altère
la perception: le risque d’une vision tunnel
Les algorithmes doivent être alimentés par des données. Or, chaque algorithme peut uniquement exploiter ce qu’il sait lire, ce qui signifie que les données doivent être recensées et entrées d’une manière adaptée à l’algorithme. Parfois, le logiciel n’accepte que des chiffres, parfois également un oui ou un non. Quoi qu’il en soit, nous parlons toujours d’informations présélectionnées et prédéfinies, par conséquent fortement délimitées. Ainsi, dans la gouvernementalité algorithmique, le potentiel auteur d’un crime ou d’un délit appartient à certaines catégories: la catégorie d’âge; de genre; avec ou sans emploi; avec un emploi temporaire ou fixe; marié, célibataire ou divorcé; avec un casier judiciaire vierge, avec un antécédent ou deux ou plusieurs. Au bout de l’analyse, la somme de ces évaluations standardisées est attribuée à une certaine catégorie prédéfinie. Par cette standardisation numérisée, toute forme d’individualisation devient impossible. Un ex-prisonnier sans emploi, par exemple, pourrait être engagé dans la recherche d’un emploi ou heureux à la maison en train d’exécuter des tâches ménagères; au-delà de la case de l’état civil, il pourrait être fraîchement tombé amoureux ou dans un mariage malheureux. Il ne s’agit pas de données que l’algorithme est capable de saisir. Mais sont-elles pour autant non pertinentes?
Dès lors, le risque est que le recensement de données tel que dicté par l’algorithme influence le travail de la police, des fonctionnaires chargés de l’exécution de la peine et des agents de probation, des psychiatres forensiques et des juges, de sorte que cela rétrécisse leur perception et que des informations autrement pertinentes soient perdues ou négligées, juste parce que l’algorithme ne les recense pas. L’application d’algorithmes pourrait ainsi altérer la perception, aboutir à une vision restreinte. Car une des compétences clés de l’humain est de juger des informations en fonction d’un certain contexte. Autrement dit d’être capable de différencier, tout ce dont un algorithme est incapable.
Certes, tout partisan de l’usage de logiciels basés sur des algorithmes répliquera que de tels outils ne sont qu’un des éléments pris en compte! On ajoutera ultérieurement les informations éliminées dans ce processus de simplification et de réduction! Mais a-t-on le temps de laisser les dossiers à traiter s’empiler sur le bureau?
2.2. La perte de compétences par rapport à la prise de décision
S’agissant de l’évaluation de certains risques, les agents de police, les Ministères publics, les personnes chargées de l’application des peines et les tribunaux doivent prendre des décisions qui, parfois, sont entachées d’inconnus20. Par moment, la formation, l’expérience ou l’intuition aideront à les gérer. Quid si le résultat affiché par le logiciel ne correspond pas à l’estimation du psychiatre forensique, fondée sur son expérience professionnelle? S’il est contraire à l’intuition du juge? Et quelles sont les conséquences à long terme, si cette situation se présente de manière répétée? L’agente de police sera restreinte dans sa force décisionnelle, le collaborateur de l’office de l’exécution des peines doutera de ses compétences. Et les jeunes collègues s’habitueront dès le début à ce que le logiciel prenne les décisions, à pouvoir dès lors s’épargner cette activité pénible. Par conséquent, nous deviendrons dépendants de cette technologie, et cela d’une manière démesurée, ce qui entraînera une perte de pouvoir décisionnel – il faut entendre par là la capacité d’observer, d’évaluer, de tirer des conclusions, de pondérer, pour prendre, à la fin, une décision adaptée à la situation.
3. Conclusion
En matière d’algorithmes, il y a des champs d’application qui ne sont pas du tout problématiques, mais la justice pénale n’en fait pas partie. Pour ce domaine, les atteintes aux droits humains de nos concitoyens sont trop intenses, la supervision absolument insuffisante, le contrôle pour ainsi dire inexistant. Certains chercheurs britanniques revendiquent l’introduction d’un concept «Algocare»21, consistant à définir les domaines dans lesquels l’application des algorithmes serait à exclure par principe, à rendre leur création et leur mise en œuvre transparentes. D’autres chercheurs, en l’occurrence allemands, en appellent à l’introduction de labels de qualité: des mesures d’assurance qualité et de prévention qui sont censées améliorer les possibilités de vérification des décisions basées sur les algorithmes22. Une évidence qui, toutefois, n’est pas reconnue dans notre justice pénale, en raison de la prévention punitive telle qu’elle est pratiquée à ce jour, à savoir une méthode provoquée par la tyrannie des probabilités. y
*Droit pénal et procédure pénale, Université de Neuchâtel.
1Cet article est rédigé à partir d’une intervention à la conférence annuelle de l’ONG humanrights.ch du 4.9.18 à l’Université de Berne et d’un article en allemand dans le journal Republik, publié le 19.9.18 (https://www.republik.ch/2018/09/19/die-tyrannei-des-wahrscheinlichen-in-der-justiz) – le dernier suivi par une réplique de l’Office pénitentiaire du canton de Zurich du 10.10.18. https://www.republik.ch/2018/10/10/die-checkliste-siegt
2McCall Carol J, Big Data in Healthcare: Hype or Hope? https://www.the-digital-insurer.com/wp-content/uploads/2016/03/641-The-Learning-Clinic-Big-Data-in-Healthcare-Hype-or-Hope.pdf
3Pour un aperçu de l’évolution des instruments pronostics cf. Nedopil Norbert, Müller Jürgen Leo, Forensische Psychiatrie, 4e éd., Stuttgart 2012, pp. 346 ss.
4Feeley Malcom, Simon Jonathan, Actuarial Justice: The Emerging New Criminal Justice, in: Nelken D. (éd.), The Futures of Criminology, Sage Publications, London 1994, 173-201; Capus Nadja, Die Fragmentierung der Kriminalitätskontrolle. Ihre Ursachen und Bedingungen in Rahmen des Versicherungsdenkens, Recherches criminologiques suisses, vol. 11, Berne, 2001, pp. 16 ss., 24 s; Kuhn André, Perrier Depeursinge Camille, Brun Delphine, Dangerosité, mesures et droit pénal – Un ménage à trois voué au divorce, RPS 132/2014, pp. 353-366.
5Harcourt Bernard, Against prediction: profiling, policing and punishing in an actuarial age, Chicago 2007, p. 1 s.
6Garapon Antoine, Un nouveau modèle de justice: efficacité, acteur stratégique, sécurité, Revue Esprit, novembre 2008, 98-122, p. 109; Amoore Louise, The Politics of Possibility: Risk and Security Beyond Probability, Duke University Press, Durham 2013; Amoore Louise, Data Derivates. On the Emergence of a Security Risk. Calculus of Our Times, Theory, Culture & Society 2011 vol. 28(6), 24-43.
7Capus Nadja, Der Umgang mit der Verbrechenswahrscheinlichkeit in der Sicherheitsgesellschaft - unter besonderer Berücksichtigung der Kriminalprognose, in: Arbeitsgemeinschaft Strafrecht im DAV (D)/Forum Strafverteidigung (CH)/Organisationsbüro Strafverteidigervereinigungen/Vereinigung Österreichischer StrafverteidigerInnen (éd.), Strafverteidigung und Sicherheitswahn, Schriftenreihe der Vereinigung Österreichischer StrafverteidigerInnen, vol. 21, Vienne, 2014, pp. 85 ss.
8Rouvroy Antoinette, Stiegler Bernard, Le régime de vérité numérique. De la gouvernementalité algorithmique à un nouvel Etat de droit, Socio 4/2015, 113-140.
9Depuis janvier 2018, tous les cantons alémaniques ont adhéré à ce concept, cf. https://www.rosnet.ch/de-ch/ros-aktuell; pour un aperçu critique cf. Delacrausaz Philippe, L’exécution des peines et des mesures orientée vers les risques en Suisse romande, point de vue d’un psychiatre forensique, Revue suisse de criminologie 1/2017 pp. 50-57.
10https://www.rosnet.ch/fr-ch/processus/tri
11Killias Martin, Brüngger Raquel Rosés, Modellversuch: Risikoorientierter Sanktionsvollzug. Bemerkungen und Analysen zum Projekt des Amtes für Justizvollzug des Kantons Zürich, Lenzburg 2014 et Walser ... avec une critique de la validité de l’algorithme FaST utilisée dans le régime ROS et une critique de l’intransparence du même algorithme: Grossenbacher Timo, Schneider Christof, Die grosse Screening-Maschine. Schweizer Justizbehörden prüfen jährlich tausende Insassen auf ihre Gefährlichkeit – mit einem umstrittenen Algorithmus, émission de la SRF du 18.6.18; Pour une critique de la calibration dans le contexte suisse: Gerth Juliane et al., Assessing the Discrimination and Calibration of the Ontario Domestic Assault Risk Assessment in Switzerland, in: Partner Abuse, Volume 8, Number 2, 2017, 168-189; Rossegger Astrid et al., Examining the Predictive Validity of the SORAG in Switzerland, Sexual Offender Treatment, Volume 8 (2013), Issue 2 (http://www.sexual-offender-treatment.org/123.html).
12Nathan James, Risk and Needs Assessment in the Criminal Justice System, 13.10.2015 et le même, Risk and Needs Assessment in the Federal Prison System, 10.7.2018, p. 2 (https://fas.org/sgp/crs/misc/R44087.pdf) avec la citation suivante des auteurs Edward J. Latessa and Brian Lovins, «The Role of Offender Risk Assessment: a Policy Maker Guide», Victims and Offenders, vol. 5, 2010, p. 212: «although statistical risk assessment reduces uncertainty about an offender’s probable future conduct, it is subject to errors and should be regarded as advisory rather than peremptory. Even with large data sets and advanced analytical techniques, the best models are usually able to predict recidivism with about 70% accuracy – provided it is completed by trained staff.»
13Kaeser Eduard, Beherrschen uns Algorithmen wirklich?, NZZ du 23.11.17.
14Müller Matthias, Swatch umgarnt 400 Millionen chinesische Millennials, NZZ du 4.3.18.
15Grossrieder Lionel, Intégration des méthodes computationnelles en renseignement criminel. Application sur la détection de problèmes à travers les tendances dans les activités criminelles, thèse, Lausanne 2017; Müller-Eiselt Ralph, Algorithmen, die Motoren der Digitalisierung: Wie können wir sie in den Dienst der Gesellschaft stellen?, 8.6.17, https://www.bertelsmann-stiftung.de/es/themen/aktuelle-meldungen/2017/juni/algorithmen-big-data-und-co-wie-koennen-wir-den-durchblick-behalten/
16https://www.rosnet.ch/fr-ch/processus/tri; Jendly Manon, «Performance, transparence et accountability: une équation (dé)responsabilisante des professionnels exerçant en prison?», Déviance et Société 2012/3 (vol. 36), pp. 243-262 pour une description dans le système pénitentiaire canadien d’un point de vue du New Public Management.
17Cf. O’Malley Pat, Simulated Justice. Risk, Money and Telemetric Policing. British Journal of Criminology (2010) 50, 795-807.
18Cf. pour la médecine: Cabitza Federico, Breeding electric zebras in the fields of Medicine, 2017 https://www.researchgate.net/publication/312468366_Breeding_electric_zebras_in_the_fields_of_Medicine
19Cf. pour ces deux conséquences (et autres) dans le domaine de la médecine: Cabitza (n. 23).
20Concernant la complexité de l’évaluation de la dangerosité d’un point de vue juridique cf. Parein Loïc, La présomption de non-dangerosité en procédure pénale suisse: une consécration nécessaire, Revue de droit suisse vol. 137 (2018) 1 cahier 3, pp. 367-389.
21Oswald Marion et al., Algorithmic risk assessment policing models: lessons from the Durham HART model and ‘Experimental’ proportionality, Information & Communications Technology Law, 2018 27:2, pp. 223-250, DOI: 10.1080/ 13600834.2018.1458455
22https://www.bertelsmann-stiftung.de/de/unsere-projekte/ethik-der-algorithmen/