L'intelligence artificielle est de plus en plus utilisée dans le monde de l'art, ce qui, d'une part, ouvre de nouvelles opportunités créatives, mais d'autre part déplaçant de nombreux artistes traditionnels.
Les outils génératifs de l'IA et ont ajouté une toute nouvelle dimension art Vous pouvez imiter le style d'artistes bien connus et créer de nouvelles œuvres ou même créer leurs propres œuvres uniques qui peuvent même gagner des prix.
Mais tout le monde n'aime pas ce chemin.
Avec Nightshade et Poisoned Pictures, les artistes luttent contre les sociétés de l'IA et l'IA génératrice
Des chercheurs de l' Université de Chicago ont développé un nouvel outil avec NightShad qui permet aux artistes de se défendre contre l'utilisation de leurs œuvres par des modèles d'IA . Cela a récemment été rapporté par Technology Review .
NightShade modifie les données de formation subtiles pour les modèles d'IA générant des images et commence ainsi des attaques ciblées contre ces technologies.
Cet outil innovant donne aux artistes la possibilité de faire des changements invisibles dans les pixels de leur art avant de les publier sur Internet. Cependant, il existe un risque que le modèle résultant soit endommagé de manière imprévisible et chaotique lors du transfert dans un ensemble de formation d'IA.
«empoisonnement» délibéré sérieusement nuire aux futures versions de modèles d'IA générateurs d'images tels que Dall-E , Midjourney et la diffusion stable Certains résultats pourraient devenir inutilisables - les chiens pourraient devenir des chats ou des voitures, etc.
La revue de la technologie avait un accès exclusif à une étude de recherche soumise par les pairs à la de l'USENIX
Des sociétés d'IA telles que OpenAI, Meta, Google et Stabilité AI sont confrontées à un certain nombre de poursuites d'artistes. Ceux-ci affirment que votre matériel protégé par le droit d'auteur et vos données personnelles ont été utilisés sans consentement ni compensation.
Ben Zhao , professeur à l'Université de Chicago et chef de l'équipe derrière Nightshade, espère restaurer l'équilibre des pouvoirs entre les sociétés de l'IA et les artistes .
Cela devrait être réalisé par un fort moyen de dissuasion contre le mépris des droits d'auteur et des droits de propriété intellectuelle des artistes. Les entreprises Meta, Google, Stabilité AI et OpenAI n'ont pas encore répondu à la demande de la technologie concernant leur éventuelle réponse.
Nightchade et Glaze comme une arme combinée contre la violation du droit d'auteur des grandes sociétés d'IA
L'équipe de Zhao a également glaçage - pour les artistes - avec lequel ils «masquer» . Cela empêche cela d'être copié par les sociétés d'IA.
Semblable à NightShade, des changements subtils sont apportés aux pixels d'une image. Celles-ci sont invisibles à l'œil humain; Cependant, ils manipulent tellement les modèles d'apprentissage automatique qu'ils interprètent l'image comme autre chose qu'il ne l'est réellement.
L'équipe prévoit d'intégrer le Nightshad de l'outil de données dans Glaze . Les artistes ont le choix s'ils souhaitent utiliser cet outil ou non. De plus, Nightshad est également proposé en tant que source, ce qui permet aux autres de le contourner et d'en créer leurs propres versions.
En utilisant et en créant différentes versions, l'outil devient de plus en plus puissant, met l'accent sur Zhao. Les enregistrements de données pour les grands modèles d'IA peuvent être composés de milliards d'images. Plus les images empoisonnées peuvent être introduites dans le modèle, plus les dégâts de cette technologie sont élevés.
Comment fonctionne l'utilisation de Nightshade et Glaze?
Les artistes qui souhaitent partager leurs œuvres en ligne, mais ne veulent pas que les entreprises d'IA les utilisent à leurs fins, ont la solution appelée Glaze ( voici l'outil ).
Ici, vous pouvez télécharger vos photos et les aliéner avec un style différent. De plus, il est maintenant également possible d'utiliser Nightshade
Salut les artistes !! Nous espérons que les gens trouveront un glaçage facile à utiliser. Mais si vous avez des problèmes / questions, veuillez répondre à ce tweet et nous allons suivre. Vous pouvez également DM ce compte (DMS Open) si vous souhaitez envoyer des messages privés. Thx à @zakugamignon pour la suggestion! #Askglaze
- Glaze à Uchicago (@theglazéproject) 15 mai 2023
Lorsque les développeurs d'IA recherchent sur Internet pour collecter des données pour l'amélioration ou la création de modèles, ces échantillons manipulés vous sont soumis et conduisent ainsi à des dysfonctionnements.
Ces échantillons de données empoisonnés ont pour effet d'influencer les modèles d'IA de manière à ce que les chapeaux, par exemple, soient reconnus comme des gâteaux et des sacs à main comme grille-pain. Il est extrêmement difficile de trier ces fausses informations - les entreprises technologiques devraient trouver et supprimer chaque échantillon endommagé.
Les chercheurs ont testé cette attaque sur les deux derniers modèles à partir de diffusion stable et sur un modèle d'IA développé auto-développé. Lorsqu'elle n'a nourri que 50 photos de chiens empoisonnées, puis a demandé à générer plus de photos de chiens, le résultat était étrangement: des êtres avec des membres excessifs et des visages semblables à des dessins animés.
Avec 300 échantillons empoisonnés, un attaquant peut même faire une diffusion stable pour créer des images de chat au lieu des images de chiens.
Quel effet ces outils ont-ils sur la structure de puissance entre les auteurs et les sociétés d'IA?
Junfeng Yang , professeur d'informatique à l'Université Columbia, qui a fait des recherches sur la sécurité des systèmes d'apprentissage en profondeur et n'a pas été impliqué dans le projet, explique de manière convaincante que Nightshad pourrait avoir un impact potentiellement important, en particulier pour le dissuasion.
Par exemple, les sociétés d'IA être faites pour mieux respecter les droits des artistes et plutôt être prêts à payer des frais de licence .
Les sociétés d'IA telles que la stabilité AI et OpenAAI, qui ont développé de texte à l'image Cependant, de nombreux artistes croient que ce n'est pas suffisant.
Eva Toorent est un illustrateur et artiste qui a travaillé Evaboneva méthodes d'opt-out demanderaient toujours de subordonner aux sociétés technologiques.
Regardez ce post sur Instagram
Toorennent espère que Nightshad peut changer le statu quo:
Il évoluera [IA Company] pour repenser car ils sont désormais en mesure de détruire l'intégralité de leur modèle en utilisant notre travail sans consentement »,
Les comments avec la revue technologique.
Un autre artiste nommé Autumn Beverly a rapporté que des outils comme Nightshade et Glaze lui ont donné la confiance de publier à nouveau ses œuvres en ligne. Avant cela, elle l'avait supprimé lorsqu'il est sorti qu'il a été copié LAION
Je suis vraiment reconnaissant d'avoir un outil disponible qui peut aider les artistes à reprendre le contrôle de leur travail »,
dit-elle.
Propriétaire et directeur général de Kunstplaza . Publiciste, rédacteur en chef et blogueur passionné dans le domaine de l'art, du design et de la créativité depuis 2011. Conclusion réussie dans la conception Web dans le cadre d'un diplôme universitaire (2008). Développement supplémentaire des techniques de créativité à travers des cours de dessin gratuit, de peinture d'expression et de théâtre / d'acteur. Connaissance approfondie du marché de l'art à travers de nombreuses années de recherche journalistique et de nombreuses collaborations avec des acteurs / institutions de l'art et de la culture.