Accueil A la une Algorithmes de risques de récidive : quand l’IA détermine votre peine de prison

Algorithmes de risques de récidive : quand l’IA détermine votre peine de prison

par Edern Rio
algorithme prison récidive

Alors que de plus en plus de secteurs intègrent dans leurs usages le big data et l’intelligence artificielle, les limites de cette manière de programmer se font également de plus en plus tangibles. La preuve par l’exemple avec son utilisation par les institutions judiciaires américaines.

La puissance publique se retrouve face à un dilemme : réduire la population carcérale sans augmenter l’insécurité et le nombre de crimes.

Encore plus que chez nous, les Etats-Unis font face à une surpopulation carcérale. Fin 2016, 2,2 millions d’Américains étaient derrière les barreaux… Mais ce n’est pas tout car, au total, ce sont 6,6 millions de personnes qui sont sous surveillance judiciaire d’une manière ou d’une autre. Au final, 1 Américain sur 38 est dans le viseur de l’institution judiciaire.

Forcément tous les politiques s’accordent sur le fait qu’il faut réduire ces chiffres qui pèsent sur les finances publiques et sont le signe d’une société répressive. La puissance publique se retrouve face à un dilemme : réduire la population carcérale sans augmenter l’insécurité et le nombre de crimes.

Tout naturellement, elle s’est tournée vers des solutions techniques permettant d’optimiser le travail de la police et de la justice. Ainsi la police utilise la reconnaissance faciale et des algorithmes pour optimiser les patrouilles. Quant à la justice, elle est assistée par des algorithmes d’évaluation des risques de récidive dans la majorité des Etats.

Le plus célèbre d’entre eux est utilisé depuis le début des années 2000 et porte le nom de COMPAS, acronyme de Correctional Offender Management Profiling for Alternative Sanctions. Nous pourrions traduire pas “gestion et qualification des délinquants pour des sanctions alternatives”.

Le Parcoursup de la délinquance

Voici à quoi servent ces logiciels : à partir du profil d’une personne arrêtée et des big datas dont ils disposent, ils sortent un score de récidive : le prévenu est-il susceptible de commettre un nouveau délit ? Parmi les paramètres connus et exploités par COMPAS : l’âge, le sexe, la géographie, les antécédents familiaux et le rapport à l’emploi. Bref, des données socio-économiques.

Sur la base de ce chiffre, le juge pondèrera la condamnation et rendra son verdict. Evidemment, vous l’aurez compris, si vous avez un petit score, le juge sera plus clément.

algorithme risque de récidive

Exemple de résultats de l’algorithme de risque de récidive. Source : ProPublica. 

Or, suite à plusieurs études, il apparaît clairement que certaines populations sont stigmatisées par ces algorithmes qui renforcent les déterminismes sociaux, même si elles ont un taux de réussite dans leur prédiction de 60 à 70 %.

Il a notamment été démontré que parmi les prévenus recevant un score de récidive élevé, les noirs avaient deux fois plus de chance de ne pas récidiver. L’inverse est également vrai, parmi les personnes ayant un faible score de récidive, les blancs ont deux fois plus de chance de récidiver. Ce qui indique clairement un biais.

Blancs Noirs
Score de récidive élevé, mais qui n’ont pas récidivé 23,5 % 44,9 %
Score de récidive faible, mais qui ont récidivé 47,7 % 28,0 %

Résultats de l’analyse de ProPublica sur les données du Broward County, Floride.

L’IA enfonce les portes ouvertes sous couvert de neutralité algorithmique

Alors que nous aurions naturellement tendance à penser que l’analyse des données est neutre, il n’en est rien. Une autre étude du janvier 2018 a d’ailleurs démontré que les résultat fournis par le logiciel étaient les mêmes que ceux fournis par des personnes n’ayant aucune formation judiciaire.

Il faut le répéter, il n’y a pas de neutralité algorithmique.

C’est important car une des raisons invoquées pour l’utilisation du big data est une forme de scientificité rationnelle basée sur les données. Or, si l’opinion commune arrive au même résultat, on ne voit pas bien la plus-value.

Au-delà de ces écueils, il faut surtout comprendre que ce n’est pas parce qu’il y a une corrélation statistique, qu’il y a un lien de cause à effet. Finalement, cela ne fait qu’amplifier le déterminisme social : si vous êtes noir et pauvre, le système vous traitera plus durement car vous avez statistiquement plus de chance de récidive.

Il faut le répéter, il n’y a pas de neutralité algorithmique. Les algorithmes sont le résultat d’arbitrages sur ce que leur concepteur souhaite remonter. La pondération des facteurs y joue un rôle important.

En ce qui concerne l’intelligence artificielle, nombre de concepteurs reconnaissent ne pas savoir comment l’algorithme parvient à son résultat. Les IA sont des boîtes noires. Les utiliser pour statuer sur l’avenir de criminels est au mieux délicat, au pire injuste.

Vous me direz que les juges, par leur humaine nature, ne sont pas exempts de biais et de préjugés. Au moins ont-ils été formés pour éviter de se laisser aller à leurs préjugés.

Cette exemple, pour sinistre qu’il soit, permet surtout de comprendre ce qu’est un logiciel d’intelligence artificielle. C’est un logiciel qui a été développé à partir de données et qui a cherché des corrélations statistiques afin d’arriver à un résultat. Et si les données peuvent être biaisées, elles peuvent surtout faire ressortir des corrélations qui n’ont pas lieu d’être ou qu’il n’est pas souhaitable de prendre en compte.

Comme en Bourse, rien ne prouve que les résultats passés se reflètent dans les résultats futurs. S’il est certains domaines où l’analyse statistique automatisée peut se révéler efficace, notamment dans les univers fermés, dans d’autres, cette démarche est extrêmement dangereuse.

L’utilisation des IA dans le domaine judiciaire, comme dans le domaine militaire, appelle a minima une transparence des processus.

Soyez le premier informé des dernières Opportunités Technos directement dans votre boîte mail

Articles similaires

Laissez un commentaire