Accueil A la une L’IA s’attaque à la pédopornographie

L’IA s’attaque à la pédopornographie

par Etienne Henri
IA pictures

La démocratisation d’Internet n’a pas apporté que du confort, elle a également rendu plus facile que jamais certains actes délictueux.

Parmi eux, la diffusion d’images pédopornographiques pose de nombreux problèmes. Autrefois cantonnée aux échanges sous le manteau, cette pratique s’est répandue avec l’apparition des moyens de communication électroniques.

Sites Internet dédiés, listes de diffusion, voire échange direct par e-mail : les images circulent plus facilement que jamais.

Le caractère bien particulier de cette infraction a conduit les gouvernements à prendre des dispositions spécifiques pour lutter contre sa banalisation. Les grandes entreprises technologiques ont également apporté leur concours en mettant en place des systèmes dédiés à la détection de telles images.

Depuis plusieurs années, Google (US02079K3059-GOOGL) parcourt tous les e-mails transitant par ses serveurs à la recherche d’images pédopornographiques connues. En s’appuyant sur la technologie PhotoDNA de Microsoft (US5949181045-MSFT), qui permet de créer une empreinte unique de photographies même si elles ont été retouchées ou altérées, l’hébergeur d’e-mails est capable de détecter en temps réel si un e-mail contient une image interdite.

PhotoDNA Microsoft

Ces deux images, d’un format numérique différent, n’ont rien à voir pour un ordinateur. Pour un être humain (et pour PhotoDNA), elles sont identiques. Crédit : Microsoft 

En 2014, la justice américaine a accepté pour la première fois de prendre en compte un signalement de Google suite à une détection d’image suspecte dans ses e-mails. Une enquête a été ouverte, conduisant à l’inculpation de la personne ainsi repérée.

Le supplice des employés chargés de surveiller les images 

Si le suivi en temps réel de millions d’e-mails échangés ne peut se faire que par des ordinateurs, l’intervention humaine en amont reste nécessaire.

Pour détecter et identifier les images délictueuses, multinationales et ONG emploient ainsi des milliers de personnes dont le travail consiste à regarder les images signalées comme douteuses et, éventuellement, à les classer comme interdites.

Autant dire que cette tâche est particulièrement éprouvante. Les employés passent leur journée à voir des images plus horribles les unes que les autres. Il est difficile, même pour les personnes les plus endurantes, d’effectuer cette mission bien longtemps. La plupart abandonnent rapidement, certains finissent même par développer des troubles post-traumatiques comme les soldats revenant de zones de combat.

Passer ses journées à consulter les bas-fonds d’Internet n’est pas un travail comme les autres.

L’intelligence artificielle au secours des modérateurs 

Si vous êtes un fidèle lecteur de La Quotidienne de la Croissance, vous savez que la classification est un domaine dans lequel l’IA excelle.

Google a annoncé il y a quelques jours l’ouverture gracieuse de son IA aux ONG et forces de police par le biais de son Content Safety API. La lutte contre la délinquance organisée va devenir beaucoup plus efficace

Lire des plaques d’immatriculation, différencier une photo de chat d’une photo de chien, détecter des microfissures sur une photographie de pièce de fonderie… ces tâches ont donné à l’IA ses lettres de noblesse.

Google a donc décidé de mettre à profit cette capacité à classer des images pour lutter de manière automatisée contre la pédopornographie.

En pratique, une IA a été entraînée pour différencier les images pornographiques légales de celles délictueuses. Les robots de Google envoient désormais à cette IA les images qu’ils trouvent sur Internet (dans les e-mails des utilisateurs de Gmail, sur les sites web, etc.). L’IA se charge de la première phase de tri et effectue une première classification sur les images.

L’intervention d’un opérateur humain reste nécessaire pour valider définitivement le caractère illégal d’une image, mais les modérateurs évalueront désormais un nombre plus réduit d’images, ce qui devrait rendre leur travail quotidien un peu plus supportable.

Google a annoncé il y a quelques jours l’ouverture gracieuse de son IA aux ONG et forces de police par le biais de son Content Safety API. La lutte contre la délinquance organisée va devenir beaucoup plus efficace. S’il est impossible d’empêcher la production de nouveaux contenus pédopornographiques, sa classification automatisée et son intégration rapide dans les algorithmes de détection existants limiteront fortement sa diffusion.

Les producteurs (qui travaillent de manière quasi-industrielle dans certaines régions du monde comme aux Philippines) vont bientôt avoir le plus grand mal à écouler leurs images et vidéos.

Perte de rentabilité pour le crime organisé, difficulté d’approvisionnement des consommateurs… l’IA de Google pourrait bien régler ce problème dont l’ampleur n’a fait qu’augmenter depuis 20 ans.

Soyez le premier informé des dernières Opportunités Technos directement dans votre boîte mail

Articles similaires

Laissez un commentaire