4 façons pour les artistes d'empêcher que leurs œuvres soient utilisées pour entraîner les outils de génération d'images par l'IA

Les outils de génération d’images par l’IA ne sont-ils pas des formes de technologie remarquables ? Je veux dire qu’il semble encore irréel (du moins pour moi) que l’on puisse obtenir des œuvres d’art complètes en quelques secondes à partir d’une simple invite textuelle. Bien que ces résultats puissent parfois sembler un peu grossiers, cette technologie s’est développée à une vitesse fulgurante au cours des dernières années, et nous approchons rapidement d’un point de basculement où les médias visuels générés par l’IA sont impossibles à distinguer du contenu créé par l’homme.

Cela est possible grâce aux algorithmes incroyablement complexes d’apprentissage machine (ML) sur lesquels ces outils sont construits. Mais cela soulève une question essentielle : d’où proviennent les données d’apprentissage ? Souvent, elles proviennent d’œuvres d’art existantes créées par des artistes humains, y compris des œuvres protégées par des droits d’auteur.

L’avènement de l’IA générative (GenAI) a ouvert une boîte de Pandore de revendications de droits d’auteur et de discussions autour de l’utilisation équitable. En fait, des entreprises comme OpenAI et Stability AI sont poursuivies en justice pour avoir utilisé du matériel protégé par le droit d’auteur dans leurs données d’apprentissage, mais comme il n’existe aucune loi interdisant expressément l’utilisation d’œuvres protégées par le droit d’auteur pour l’apprentissage de l’IA, ces entreprises peuvent à juste titre invoquer l’usage loyal. Le vrai problème se pose lorsque ces outils reproduisent parfaitement le style d’un artiste particulier parce qu’ils ont été entraînés sur ce style, et c’est la raison pour laquelle ces fournisseurs d’IA font l’objet d’un litige.

1. Refuser la formation à l’IA

La plupart des fournisseurs d’IA vous permettent de vous retirer de la formation, mais ce processus est généralement assez compliqué (il faut généralement envoyer des courriels aux fournisseurs ou remplir des formulaires). Par exemple, OpenAI permet aux créateurs de contenu de remplir un formulaire leur demandant de ne pas utiliser leur travail pour entraîner ses modèles d’IA. Toutefois, dans ce cas, le créateur doit remplir ce formulaire pour chaque œuvre d’art qu’il souhaite retirer de l’ensemble de données d’entraînement, ce qui peut prendre beaucoup de temps si vous possédez une vaste collection d’œuvres d’art.

Veillez également à faire des recherches avant de télécharger votre travail sur une plateforme d’hébergement d’images particulière. Certaines plateformes ne vous permettent pas de vous désengager de la formation à l’IA une fois que votre travail a été téléchargé. Par exemple, Adobe utilise des images provenant d’Adobe Stock pour entraîner Firefly, son modèle de génération d’images. Par conséquent, si vous ne souhaitez pas que votre travail soit utilisé pour entraîner Firefly, vous n’avez pas d’autre choix que d’éviter de télécharger votre travail sur Adobe Stock.

2. Le cloaking adversarial

Le cloaking adversarial est une approche anti-entraînement qui consiste à ajouter du bruit à vos œuvres d’art afin de perturber les modèles d’IA. Le “bruit” désigne des perturbations subtiles ou des artefacts visuels dans les images qui sont censés interférer avec les capacités de reconnaissance d’image d’un modèle de ML. Ces perturbations sont généralement invisibles à l’œil nu mais peuvent être détectées par l’IA, ce qui rend difficile pour ces outils d’identifier les caractéristiques uniques de votre œuvre d’art et de reproduire votre style.

Deux outils anti-entraînement extrêmement populaires et efficaces sont actuellement disponibles : Glaze et Nightshade, tous deux développés par la même équipe de l’université de Chicago. Glaze fonctionne comme un simple outil de masquage d’image qui se concentre sur la confusion de l’IA. Nightshade, quant à lui, est un outil d’empoisonnement des données qui va plus loin. Il introduit du bruit qui peut tromper un modèle d’IA et l’amener à classer votre œuvre d’art comme quelque chose d’entièrement différent, dans le but de nuire aux résultats de l’ensemble du modèle.

3. Étiquetage erroné de vos œuvres d’art

Il s’agit de l’une des mesures les plus agressives contre la GenAI, qui s’accompagne de ses propres réserves. Lorsqu’on travaille avec des données d’entraînement, il est impossible, en raison du volume important, d’examiner chaque image pour s’assurer qu’elle correspond bien au résultat souhaité. Par conséquent, la plupart des modèles d’IA s’appuient sur les étiquettes attribuées par les artistes originaux pour classer les œuvres d’art. Une astuce simple pour lutter contre l’utilisation de vos œuvres d’art dans la formation de ces modèles consiste simplement à appliquer des étiquettes trompeuses à votre travail, ce qui le rend inutilisable pour l’algorithme d’intelligence artificielle. Pour en revenir à l’avertissement que j’ai mentionné au début de ce point, le fait de mal étiqueter vos œuvres d’art peut avoir un effet négatif sur votre classement dans les moteurs de recherche.

4. Recours en justice

Comme nous l’avons déjà évoqué, l’utilisation de contenus protégés par le droit d’auteur pour entraîner des modèles d’intelligence artificielle est actuellement protégée par le principe de l’usage loyal. Toutefois, lorsque ces modèles recréent votre œuvre d’art et reproduisent votre style, vous êtes en présence d’un cas de violation du droit d’auteur, mais vous devez être en mesure de prouver que l’œuvre d’art générée par l’IA est substantiellement similaire à votre œuvre originale. Il existe des exemples connus de fournisseurs d’IA poursuivis pour violation du droit d’auteur parce que leurs outils reproduisent l’œuvre d’un artiste ou d’un écrivain. Les affaires OpenAI et StabilityAI que j’ai évoquées plus haut en sont deux exemples.

Le législateur est confronté à de nombreux problèmes

La législation relative à la GenAI et au droit d’auteur est actuellement très ambiguë et obscure. Les législateurs doivent définir plus clairement les règles et les critères régissant l’utilisation équitable, car la GenAI a complètement modifié le débat sur les contenus protégés par le droit d’auteur. Plusieurs procès sont actuellement en cours contre les grands acteurs de l’espace GenAI, et les résultats de ces procès définiront la manière dont nous envisageons la relation de la GenAI avec les contenus protégés par le droit d’auteur et les limites de l’utilisation équitable. Grâce à la GenAI, il est probable que des changements radicaux de la loi sur le droit d’auteur soient imminents, mais d’ici là, les artistes doivent prendre les choses en main pour s’assurer que leur travail n’est pas utilisé par l’IA.