Accueil A la une Des vertus de la transparence pour les IA

Des vertus de la transparence pour les IA

par Edern Rio
Transparency by Design Neural Network

Des chercheurs du MIT ont présenté cet été un nouveau type de réseau neural. Nommée Transparency by Design Neural Network, cette nouvelle approche décompose les grandes étapes du processus de raisonnement suivi par l’IA pour mieux saisir – et donc appréhender – comment cette dernière parvient à construire ses réponses et livrer ses conclusions.

C’est une étape cruciale dans l’évolution de ces programmes et leur collaboration aux activités humaines à grande échelle. Pensez par exemple aux diagnostics médicaux, à la conduite autonome où il sera nécessaire de pouvoir expliquer un mauvais choix…

Mais puisque je vous dis que c’est un chien !

Les IA avancées sont devenues de véritables boîtes noires, tant elles sont complexes. Même si le principe est toujours le même – faire aller et venir à travers les neurones d’analyse les données et les comparer à ce qui a été déjà vu afin d’arriver à la conclusion souhaitée –, il est impossible de savoir réellement pourquoi le programme est parvenu à donner la bonne réponse.

L’IA est un peu comme vous, elle a beaucoup de mal à expliquer pourquoi elle sait qu’un chien est un chien et non un chat.

Prenons un secteur désormais bien connu de l’intelligence artificielle : la reconnaissance d’images. Tout comme vous, une IA spécialisée dans ce domaine est capable de dire si l’image présentée est un chien ou un chat. Mais comment expliquer cette conclusion ? Avouez que vous-même vous auriez du mal à le faire.

Vous pourriez tenter de suivre un raisonnement taxonomique et analytique pour vous expliquer en décrivant chaque partie de l’animal, le pelage, les pattes, la mâchoire, etc. puis de le rapprocher de votre grande encyclopédie zoologique.

Oui, vous pourriez faire ainsi, mais sans doute vous contenterez-vous plutôt d’arguer que c’est un fox-terrier et que vous savez qu’il appartient à l’espèce des chiens. Pourquoi ? Mais parce que vous le savez ! Tout simplement.

Eh bien, l’IA est un peu comme vous, elle a beaucoup de mal à expliquer pourquoi elle sait que c’est un chien. Souvent, cela ne pose pas de problèmes, mais dans de nombreuses applications et pour que les humains puissent avoir confiance en ses résultats, il serait de bon ton qu’elle puisse expliquer comment elle est arrivée à cette conclusion.

Surtout dans certains domaines, plus sensibles que la toute bête recherche d’images. Je pense par exemple aux programmes militaires d’analyse tactique, où il est plus que délicat d’appuyer sur la détente sans être sûr que l’analyse de la situation est la bonne. Ce sera également le cas, je le disais plus haut, pour les diagnostics médicaux ou encore la conduite autonome.

Rendre le raisonnement des machines transparent

Le réseau neural du MIT Transparency by Design, permet justement de décomposer le processus en sous-parties, ce qui rend visible les étapes du « raisonnement ».

Dans le cas d’une image, l’IA peut, étape par étape, indiquer les parties sur lesquelles elle se concentre pour arriver à montrer les sources de sa conclusion.

Transparency by Design Neural Network

Décomposition du processus d’identification par le réseau neural Transparency by Design.
Source : MIT.

Dans l’exemple présenté par les chercheurs, l’IA était entraînée pour trouver les grands cylindres de métal dans des images. Cette action peut être décomposée en trois étapes :

  • chercher les grands objets ;
  • puis les objets en métal ;
  • puis les cylindres.

Comprendre comment une IA est parvenue à une conclusion est particulièrement intéressant lors de l’entraînement car cela permet de détecter les fameux faux positifs et donc d’affiner l’apprentissage.

En effet, on constate très souvent un effondrement de la performance des IA lorsqu’elles se retrouvent face à des impensés de leur entraîneur.

Le biais dit raciste de l’IA l’illustre bien : comme la machine a surtout été entraînée avec des visages occidentaux, il est finalement normal qu’elle ait plus de difficultés à identifier finement d’autres morphologies.

Le biais dit raciste de l’IA l’illustre bien : comme la machine a surtout été entraînée avec des visages occidentaux, il est finalement normal qu’elle ait plus de difficultés à identifier finement d’autres morphologies.

Grâce à la transparence de leur programme, les chercheurs ont pu analyser les erreurs de la machine plus facilement et ainsi améliorer leur modèle. Ils ont ainsi atteint des taux de réussite de 99,1%, un chiffre largement supérieur aux standards du secteur.

L’exemple développé ici – reconnaitre un cylindre de métal – est excessivement simple.

Imaginons que nous exigions ce genre de transparence d’AlphaGo, son explication risque d’être excessivement longue puisque pour jouer il s’est projeté dans un gigantesque arbre de possibilités…

Ce n’en est pas moins un premier pas essentiel pour une collaboration accrue entre l’homme et sa création.

Soyez le premier informé des dernières Opportunités Technos directement dans votre boîte mail

Articles similaires

Laissez un commentaire