Les artistes digitaux peuvent utiliser Nightshade, un outil capable de corrompre les données d’une image numérique pour confondre DALL-E, Stable Diffusion ou encore Midjourney.
La lutte contre le scraping de données utilisées pour former les modèles IA est sur le point de devenir plus sournoise. En effet, un nouvel outil baptisé Nightshade permet à ses utilisateurs, les artistes digitaux en particulier, de l’associer à leur travail créatif afin de corrompre les données d’entraînement des modèles IA génératrices d’images. À terme, si l’outil se démocratisait, il pourrait ruiner les futurs modèles d’IA génératives comme DALL-E, Stable Diffusion ou encore Midjourney, en annihilant leur capacité à créer des images complexes. Les développeurs de Nightshade veulent par ce biais redonner du pouvoir aux artistes qui refusent de voir leurs œuvres aspirées sans leur consentement par les grands modèles de langage.
Nightshade : une attaque par empoisonnement qui manipule les données d’apprentissage des modèles IA
Le fonctionnement de Nightshade est assez simple. L’outil est une sorte de « poison » qui apporte des modifications imperceptibles dans les pixels d’une œuvre d’art numérique. Lorsque l’œuvre en question est aspirée par un modèle IA à des fins d’entraînement, le « poison » exploite une faille de sécurité qui perturbe le modèle, pour qu’il ne lit plus l’image correctement. En d’autres mots, il s’agit d’une attaque par empoisonnement des données qui manipule les données d’apprentissage des modèles IA pour introduire des comportements inattendus lors de la phase d’apprentissage automatique.
Selon un article du MIT Technology Review (en anglais), Ben Y. Zhao, un professeur à l’université de Chicago et l’un des créateurs de l’outil Nightshade souhaite rétablir la balance du côté des artistes digitaux face aux sociétés de développement d’intelligence artificielle qui ont utilisé des données protégées par le droit d’auteur pour entraîner leurs modèles IA.
Les travaux de recherche (en anglais) sur Nightshade indiquent que les données d’entraînement utilisées par les modèles d’IA génératives text-to-image sont particulièrement vulnérables au type d’attaque que l’outil déclenche. Le papier indique : « De manière surprenante, nous montrons qu’un nombre modéré d’attaques par Nightshade peut déstabiliser les caractéristiques générales d’un modèle génératif text-to-image, mettant ainsi hors d’état de nuire sa capacité à générer des images significatives ».
Les artistes digitaux peuvent désormais protéger leurs œuvres contre le scraping…
Les artistes digitaux qui souhaitent protéger leurs œuvres contre le scraping opéré par les grands modèles de langage peuvent utiliser Glaze, un outil développé par les créateurs de Nightshade qui masque leur style artistique, par exemple, en transformant un dessin normalement réaliste en quelque chose de cubiste. Nightshade sera intégré dans Glaze, ce qui permettra aux utilisateurs de choisir s’ils veulent utiliser ce « poison » ou une méthode plus conventionnelle qui empêche un modèle IA d’imiter leur style artistique.
Les créateurs de Nightshade proposent dans leur recherche que leur outil (ou d’autres outils similaires) soient utilisés en dernier recours comme « une dernière ligne de défense pour les créateurs de contenu contre les scrapers de sites web » qui ne reconnaissent pas les règles d’exclusion.
La question du droit d’auteur toujours au centre des débats…
Les questions de droits d’auteur concernant les contenus générés par l’IA et les données d’entraînement restent dans une zone grise en l’absence de réglementation adaptée. Parmi les premières actions en justice intentées contre des plateformes d’IA générative, certaines portaient sur du matériel protégé par le droit d’auteur utilisé comme données d’entraînement pour des modèles text-to-image. Au mois de janvier dernier, trois artistes ont intenté un procès à Stable Diffusion, Midjourney et au site web DeviantArt, alléguant que leurs modèles avaient utilisé leurs œuvres sans autorisation. La banque d’images Getty Images a également intenté une action en justice contre Stable Diffusion, avant de lancer elle-même son propre outil IA formé à partir de ses images sous licence. De nombreuses autres actions en justice sont toujours en cours d’examen par les tribunaux dans le monde entier.
Entre-temps, les méthodes visant à empêcher les robots d’indexation d’aspirer des données sans autorisation se sont limitées à bloquer l’accès aux scrapers. D’autres entreprises comme Adobe prévoient d’utiliser une marque pour signaler si une image a été générée par l’IA, mais également pour indiquer qui est le propriétaire de l’image.