Des images d’abus de mineurs supprimées d’une base de données d’une IA génératrice
Des chercheurs en intelligence artificielle ont annoncé vendredi avoir supprimé plus de 2000 liens Web vers des images d’abus sexuels sur des mineurs suspectées d’une base de données utilisée pour entraîner des outils populaires de génération d’images d’IA.
La base de données de recherche LAION est un énorme index d’images et de légendes en ligne qui a été une source pour les principaux créateurs d’images d’IA tels que Stable Diffusion et Midjourney.
Mais un rapport publié l’année dernière par le Stanford Internet Observatory a révélé qu’il contenait des liens vers des images sexuellement explicites d’enfants, contribuant à la facilité avec laquelle certains outils d’IA ont pu produire des images hypertruquées photoréalistes représentant des enfants.
Ce rapport de décembre a conduit LAION, qui signifie Large-scale Artificial Intelligence Open Network, un réseau ouvert d’intelligence artificielle à grande échelle à but non lucratif, à supprimer immédiatement son ensemble de données.
Huit mois plus tard, LAION a déclaré dans un article de blogue qu’il avait travaillé avec le groupe de surveillance de l’Université de Stanford et des organisations anti-abus au Canada et au Royaume-Uni pour résoudre le problème et publier une base de données nettoyée pour les futures recherches en IA.
Le chercheur de Stanford David Thiel, auteur du rapport de décembre, a félicité LAION pour ses améliorations significatives. Il a soutenu que la prochaine étape consiste à retirer de la distribution les «modèles corrompus» qui sont toujours capables de produire des images d’abus sur des enfants.
L’un des outils basés sur LAION que Stanford a identifié comme le «modèle le plus populaire pour générer des images explicites» – une version plus ancienne et légèrement filtrée de Stable Diffusion – est resté facilement accessible jusqu’à jeudi, lorsque la société new-yorkaise Runway ML l’a retiré du référentiel de modèles d’IA Hugging Face. Runway a indiqué dans un communiqué vendredi qu’il s’agissait d’une «dépréciation planifiée de modèles de recherche et de code qui n’ont pas été activement maintenus».
La version nettoyée de la base de données LAION est mise en ligne alors que les gouvernements du monde entier examinent de plus près la manière dont certains outils technologiques sont utilisés pour créer ou distribuer des images illégales d’enfants.
Le procureur de la ville de San Francisco a déposé une plainte au début du mois d’août pour faire fermer un groupe de sites Web qui permettent la création de photos de femmes et de filles nues générées par l’IA.
La diffusion présumée d’images d’abus sexuels sur des mineurs sur l’application de messagerie Telegram fait partie des éléments qui ont conduit les autorités françaises à porter plainte mercredi contre le fondateur et PDG de la plateforme, Pavel Durov.