Accueil A la une La DARPA veut forcer les IA à s’expliquer

La DARPA veut forcer les IA à s’expliquer

par Etienne Henri
DARPA

Sur les champs de bataille comme dans l’économie, l’information est le privilège des puissants.

Ces dernières décennies, les industriels de l’armement ont focalisé leurs efforts sur l’élaboration d’armes toujours plus intelligentes et connectées, et de réseaux de capteurs toujours plus denses et multiparamétriques.

Les capteurs embarqués sur les soldats et les véhicules terrestres, aériens, voire spatiaux remontent en permanence des volumes colossaux d’information et les forces armées se sont transformées en gigantesques aspirateurs à données.

DARPA BAE

Le soldat d’aujourd’hui combat aux côtés de son ordinateur. Crédit : DARPA/BAE

Quand la quantité de données empêche son traitement…

Ce qui caractérise cette information militaire est sa durée de vie : elle est généralement très courte et doit être traitée très rapidement. Sur un champ de bataille, ces données arrivent de toutes parts et sont généralement parcellaires, quand elles ne sont pas purement et simplement contradictoires.

Or, notre cerveau a une capacité de traitement très limitée. Et cela concerne aussi bien le stratège confortablement installé au QG que le soldat pris dans le feu de l’action.

Dans un monde idéal, des systèmes informatiques simples devraient pouvoir faire la synthèse et présenter leurs conclusions aux opérateurs humains.

C’est très loin d’être le cas et les armées ont désormais atteint, voire dépassé, le point de déclin de l’utilité marginale des nouvelles mesures en temps réel. Sans révolution dans la manière de traiter les monceaux de données, il devient contre-productif d’augmenter la quantité d’information récoltée lors des déploiements.

… le mieux est de faire appel à l’intelligence artificielle

Pour faire face à la saturation des capacités cognitives des opérateurs humains, les forces armées ont donc mis à contribution l’Intelligence artificielle et sa capacité à traiter de fantastiques masses de données.

Pourtant, la DARPA (Defense Advanced Research Projects Agency, l’agence chargée de la R&D pour les forces armées des Etats-Unis) a constaté que ces logiciels n’avaient qu’une utilité limitée.

La raison ? Une forte méfiance des militaires face aux conseils prodigués par les IA.

Comme vous le savez certainement, une des caractéristiques de l’IA est qu’elle établit ses propres règles et parvient à ses conclusions sur des critères qui lui sont propres. C’est justement toute la magie de ces programmes.

Mais une IA, même très performante, demeure une boîte noire dont le cheminement de pensée est incompréhensible pour ses utilisateurs.

En tant que citoyen, nous pouvons accepter que notre voiture règle automatiquement la température de la climatisation sans nous informer du pourquoi. Pour un militaire, il est plus compliqué de déclencher un assaut simplement parce que son assistant dopé à l’intelligence artificielle le suggère…

La prochaine IA devra pouvoir justifier ses conclusions

La DARPA a pris acte de ces réticences et a annoncé ce mois-ci un nouveau programme pluriannuel sobrement intitulé « AI Next » – que l’on pourrait traduire par « La prochaine IA ». L’objectif annoncé est ambitieux : outre les améliorations de performance et de sobriété énergétique, la DARPA veut faire de l’IA une entité en laquelle tout le monde puisse avoir confiance.

Repérages d’images, vérifications d’autorisation d’accès aux bâtiments et aux données confidentielles : les IA ne devront plus pouvoir être dupées par des stratagèmes simplistes comme aujourd’hui.

Dans un second temps, la DARPA souhaite que ses programmes d’IA soient capables d’expliquer leurs raisonnements par des étapes intermédiaires.

Toutes les décisions prises par les logiciels devront pouvoir être motivées et expliquées à des êtres humains. Cela permettra d’augmenter le niveau de confiance de l’homme pour la machine et d’observer d’éventuelles dérives et de statuer en cas de décision contestable.

Même si cela n’a l’air de rien, ajouter des étapes intermédiaires compréhensibles par les humains nécessitera une refonte totale du fonctionnement des algorithmes de machine learning.

Aussi incroyable que cela paraisse, il n’existe à ce jour aucune manière facile de rendre intelligibles les décisions des IA, qui se basent à 100% sur des équations mathématiques. Les chercheurs financés par la DARPA vont donc devoir inventer de nouvelles façons de faire de l’apprentissage automatisé…

Impossible aujourd’hui de dire si cela passera par la simple élaboration de nouveaux théorèmes mathématiques, de nouveaux logiciels, ou s’il faudra passer par des produits électroniques dédiés.

Seule certitude : chercheurs et industriels vont travailler d’arrache-pied pour faire naître cette IA du futur : l’enveloppe de 2 Mds$ de la DARPA devrait les motiver.

Grâce aux poches profondes des forces armées américaines, la croissance du marché de l’intelligence artificielle ne fait décidément que commencer !

Soyez le premier informé des dernières Opportunités Technos directement dans votre boîte mail

Articles similaires

Laissez un commentaire