Accueil A la une L’IA chargée de mener des interrogatoires aux frontières

L’IA chargée de mener des interrogatoires aux frontières

par Etienne Henri
IA frontière

Souriez (mais pas trop), vous êtes filmé par une IA. Crédit : iBorderCtrl.

Nous vous parlons fréquemment, dans ces colonnes, des nouveaux usages de l’intelligence artificielle.

Beaucoup relèvent de la simple optimisation (tri de données automatisé), d’autres sont plus ludiques (assistants vocaux Google et Amazon), et certains se rapprochent de la science-fiction.

Parmi les usages futuristes, certains ont une dimension orwelienne incontestable. Cette semaine, une “avancée” spectaculaire a lieu dans ce domaine avec l’annonce du premier déploiement de nouveaux agents de sécurité aux frontières de l’Europe.

Leur particularité ? Il ne s’agit ni de douaniers assermentés, ni d’intérimaires embauchés par des sociétés civiles de sécurité. Ces nouveaux agents sont des IA.

Les interrogatoires aux frontières, ineffable plaisir des voyageurs 

“Qui êtes-vous ? Pourquoi avez-vous quitté l’Europe ? Pourquoi revenez-vous ? Qu’avez-vous fait entretemps ?” 

Le passage de frontières n’est jamais une partie de plaisir.

Les plus honnêtes citoyens, souvent éreintés par un long et fatiguant voyage, doivent montrer patte blanche et se soumettre à une série de questions qui oscillent entre la banalité la plus complète et la franche intrusion dans la vie privée.

Un passage de frontière peut se faire en quelques secondes ou relever du parcours du combattant. La seule différence entre les deux situations ? La décision de l’agent qui vous reçoit.

L’Europe a décidé de tester, au travers du programme iBorderCtrl, une solution automatisée pour distinguer les honnêtes voyageurs des personnes suspectes lors de leur entrée dans l’espace européen.

Doté d’une enveloppe de 4,5 M€, le projet a pour mission de développer un système complet de gestion de la circulation des personnes. Il englobe la prise d’empreintes biométriques, le suivi des passages de frontières dans le temps et, cerise sur le gâteau, la détection automatisée de comportements suspects.

iBorderCtrl, laboratoire de la sécurité autonome 

“Qu’y a-t-il dans votre valise ? Si vous l’ouvrez, est-ce que son contenu confirmera la véracité de votre déclaration ?” 

Ce qui intéresse iBorderCtrl n’est pas tant vos réponses aux questions posées que vos micro-expressions faciales. En analysant en temps réel les imperceptibles mouvements de vos muscles lorsque vous répondez à ces questions conçues pour être stressantes, l’IA décide si vous êtes honnête ou suspect. En cas de doute, un agent en chair et en os prend le relai et vous soumet à un interrogatoire classique.

IBorderCtrl est conçu pour fluidifier les passages aux frontières en permettant de ne pas solliciter de ressources humaines pour l’écrasante majorité des citoyens qui entrent sur le territoire en toute bonne foi.

Ne mobiliser des douaniers que pour les personnes suspectes est, sur le papier, un excellent moyen de faciliter la vie des personnes tout en réduisant les coûts pour les Etats… Le diable, comme toujours, se cache dans les détails.

L’IA d’iBorderCtrl ne pourra pas se défaire de ses biais. Le fait qu’elle n’ait été entraînée que sur une trentaine de sujets pour se faire une idée des micro-expressions des menteurs réduira encore sa fiabilité.

Face à l’inévitable arbitraire de l’IA

Toutes les expériences à grande échelle le prouvent : les IA répètent et accentuent les biais humains.

Qu’il s’agisse de chatbots devenus nazis en moins de 24 h au contact des internautes ou de programmes de reconnaissance faciale racistes, il est aujourd’hui impossible de créer une IA absolument neutre et juste (si tant est que ces termes aient une définition universelle). Tout au plus sait-on créer des IA biaisées comme leurs créateurs l’ont voulu ce qui, dans le cas des questions de sécurité du territoire, est problématique.

Il est donc curieux que l’Europe décide, à ce niveau de progrès des IA, de leur confier une telle responsabilité. Qu’adviendra-t-il lorsque le logiciel laissera entrer automatiquement un terroriste car il était blanc, âgé et bon menteur ? Que penseront les voyageurs stressés qui, mal à l’aise face à un interrogatoire mené par une machine, seront systématiquement qualifiés de suspects ?

L’IA d’iBorderCtrl ne pourra pas se défaire de ses biais. Le fait qu’elle n’ait été entraînée que sur une trentaine de sujets pour se faire une idée des micro-expressions des menteurs réduira encore sa fiabilité.

Faut-il avoir peur d’être arrêté par une IA ?

Terminons sur une note plus optimiste : en soi, l’IA n’est toujours pas dangereuse. Ne commencez pas à creuser un bunker dans votre jardin en redoutant le jour où des policiers automatisés viendront vous arrêter en pleine nuit parce que votre comportement, la veille au centre commercial, aura été jugé suspect.

Si ces policiers-robots voient le jour, et que vous voulez les empêcher de tambouriner à votre porte, il vous suffira certainement d’y peindre une fenêtre en trompe l’œil. Car, oui, l’IA est structurellement facile à tromper par des artifices simples.

Soyez plutôt vigilant face aux humains qui optent pour la simplicité en faisant une confiance aveugle à une IA pour la prise de décision.

La classification de la dangerosité potentielle des citoyens par une IA va poser d’énormes problèmes éthiques et juridiques. L’avenir nous dira si iBorderCtrl, qui va être déployée sous peu en Hongrie, en Lettonie et en Grèce, facilitera la vie des douaniers et sera bien acceptée par les citoyens.

Elle pourrait, qui sait, devenir aussi banale que les interrogatoires, fouilles de bagages et autres palpations corporelles auxquels les voyageurs ont droit au quotidien dans les aéroports occidentaux. Après tout, ces mesures qui auraient été inimaginables il y a quelques décennies ne choquent plus personne aujourd’hui.

Soyez le premier informé des dernières Opportunités Technos directement dans votre boîte mail

Articles similaires

Laissez un commentaire