Nightshade : l’outil permettant aux artistes « d’empoisonner » les modèles d’IA
Nightshade est bien plus qu’un simple outil. Depuis l’arrivée de ChatGPT sur la scène technologique il y a près d’un an, l’ère de l’IA générative a connu une accélération fulgurante. Mais avec cette avancée, l’opposition n’a pas tardé à se manifester. De nombreux artistes, divertisseurs et même des labels discographiques ont levé leurs voix, principalement à cause de l’utilisation non consentie de leurs œuvres pour entraîner ces modèles d’IA.
L’opposition des artistes à l’utilisation de leurs œuvres
L’ère de l’IA générative, bien que prometteuse, a soulevé de nombreuses préoccupations éthiques et juridiques.
1. Les poursuites judiciaires contre les entreprises d’IA
Des artistes de renom, des divertisseurs et même des labels discographiques ont intenté des poursuites contre des entreprises spécialisées dans l’IA. La raison ? L’utilisation de leurs œuvres sans consentement pour entraîner des modèles basés sur l’IA tels que ChatGPT. Ces modèles, pour être efficaces, nécessitent d’accéder à de vastes quantités de données multimédias, y compris des matériaux écrits et des images produites par des artistes qui n’avaient aucune connaissance préalable de cette utilisation.
2. L’importance des données d’entraînement pour les modèles d’IA
Les données d’entraînement sont le « secret » derrière ces nouveaux outils d’IA. Sans elles, ces modèles seraient inefficaces. Cependant, la manière dont ces données sont collectées est devenue un sujet de discorde. De nombreux ensembles de données d’entraînement pour ces modèles d’lA incluent du matériel extrait du web.
3. La controverse autour de la collecte de données sur le web
Autrefois, les artistes soutenaient en grande partie la pratique de l’extraction de données lorsqu’elle était utilisée pour indexer leur matériel pour les résultats de recherche. Cependant, avec l’avènement de l’IA générative, cette même pratique est maintenant critiquée car elle permet la création d’œuvres concurrentes via l’IA.
Nightshade : Une arme pour les artistes
Face à cette opposition grandissante, les artistes ne sont pas restés sans défense. La technologie, tout en étant une source de préoccupation, est également devenue un moyen pour eux de riposter.
1. Présentation de l’outils et de son objectif
L’outil en question est open source encore en développement. Sa particularité ? Il permet aux artistes d’ajouter une sorte de « signature » à leurs images avant de les mettre en ligne. Cette signature modifie les pixels de manière imperceptible pour l’œil humain, mais elle « corrompt » l’art pour tout modèle d’IA cherchant à s’entraîner dessus. L’objectif est clair : donner aux artistes un moyen de protéger leurs œuvres contre l’utilisation non autorisée par les entreprises d’IA.
Recommandé par LinkedIn
2. Origine et développement de Nlghtshade
Nightshade a été développé par des chercheurs de l’Université de Chicago sous la direction du professeur en informatique Ben Zhao. Il est prévu d’ajouter Nightshade comme un paramètre optionnel à leur produit précédent, Glaze. Ce dernier est également un outil en ligne qui peut masquer des œuvres d’art numériques et modifier ses pixels pour tromper les modèles IA sur son style.
3. Les effets de Nlghtshade sur les modèles d’lA
L’impact de cet outils va au-delà de la simple protection. Il « enseigne » aux modèles IA des noms incorrects des objets qu’ils observent. Par exemple, des images de chiens ont été « corrompues » pour apparaître comme des chats aux yeux d’un modèle d’IA. Après avoir été formé sur seulement 50 échantillons d’images corrompues, l’IA a commencé à générer des images de chiens avec des apparences étranges. Et après 300 échantillons, toute demande d’une image de chat renvoyait une image presque parfaite d’un chien.
4. Les conséquences de l’utilisation d’images « empoisonnées »
Lorsque les modèles basé sur l’IA sont formés avec des images modifiées par cet outil, leurs perceptions sont gravement altérées. Par exemple, après avoir été formé sur des images de chiens modifiées, un modèle d’IA a commencé à produire des représentations déformées de ces animaux. Cela montre à quel point il est facile de tromper ces modèles avec de simples modifications.
5. Les résultats obtenus lors des tests avec Stable Diffusion
Les chercheurs ont utilisé Stable Diffusion, un modèle open source de génération texte-image, pour tester l’efficacité de l’outil. Les résultats ont été stupéfiants. Grâce à la manière dont les modèles de l’IA générative fonctionnent, l’outil a également réussi à tromper Stable Diffusion pour qu’il renvoie des images de chats lorsqu’il était sollicité avec les mots « husky », « puppy » et « wolf ».
6. Défis pour les développeurs de modèles d’lA
La technique de « corruption » des données est difficile à contrer. Pour les développeurs, cela signifie qu’ils doivent identifier et éliminer toutes les images qui contiennent des pixels modifiés, ce qui est un défi en soi. De plus, si un modèle d’IA a déjà été formé sur ces images, il devra probablement être re-formé, ce qui représente un coût en temps et en ressources.