Top tips adalah kolom mingguan yang menyoroti tren terkini di dunia teknologi dan memberikan cara-cara untuk mengeksplorasi tren tersebut. Minggu ini, kita akan membahas bagaimana seniman dapat menghindari hasil karyanya digunakan untuk melatih model Generative AI.

Bukankah tool pembuat gambar berbasis AI merupakan teknologi yang hebat? Rasanya seperti mimpi bahwa kini, kita bisa membuat karya seni yang utuh hanya dalam beberapa detik saja dengan menulis perintah yang simpel. Meskipun hasilnya terkadang belum sempurna, teknologi ini berkembang dengan kecepatan luar biasa selama beberapa tahun terakhir. Bahkan, kita hampir mencapai titik di mana hasil karya AI akan sulit dibedakan dari hasil karya buatan manusia.

Teknologi ini dapat terjadi karena algoritma machine learning (ML) yang kompleks. Namun, penggunaan ML memunculkan pertanyaan penting: dari mana asalnya data training? Sering kali, data tersebut diambil dari karya seni buatan seniman manusia yang sudah ada, termasuk karya-karya yang memiliki hak cipta.

Kehadiran generative AI (GenAI) telah membuka diskusi lebih dalam mengenai klaim hak cipta dan penggunaan yang wajar (fair use). Faktanya, perusahaan seperti OpenAI dan Stability AI digugat karena menggunakan materi berhak cipta dalam data training mereka. Namun, karena belum ada undang-undang yang secara eksplisit melarang penggunaan karya berhak cipta untuk melatih AI, perusahaan-perusahaan ini dapat mengklaim penggunaan wajar. Masalah sebenarnya muncul ketika tool ini mampu meniru gaya seniman tertentu dengan sempurna karena dilatih menggunakan karya mereka, yang menyebabkan penyedia AI ini menghadapi tuntutan hukum.

Jika Anda tidak ingin karya Anda digunakan dalam data training AI, artikel ini akan memberikan solusinya.

4 langkah melindungi karya Anda agar terhindar dari plagiat AI

Sebagai seorang seniman, berikut adalah 4 langkah yang dapat Anda ambil untuk melindungi karya Anda dari jebakan algoritma tool AI.

1. Opt out dari training AI

Opt out merupakan tindakan menolak atau berhenti dari suatu layanan atau kegiatan tertentu. Dalam konteks AI, opt out biasanya merujuk pada tindakan penolakan karya pribadi yang digunakan untuk melatih AI.

Sebagian besar penyedia AI mengizinkan Anda untuk opt out dari training AI, meskipun proses ini biasanya cukup rumit (seperti mengirim email atau mengisi form tertentu). Misalnya, OpenAI mengizinkan content creator mengisi formulir untuk melarang penggunaan karya mereka dalam melatih model AI. Namun, dalam kasus ini, content creator harus membuat entri terpisah di formulir untuk setiap karya seni yang ingin mereka keluarkan dari training dataset. Proses ini bisa memakan waktu lama, terutama jika Anda memiliki banyak karya.

Oleh sebab itu, lakukan riset terlebih dahulu sebelum mengunggah karya Anda ke platform hosting gambar tertentu. Beberapa platform mungkin tidak mengizinkan Anda untuk opt out dari training AI ketika karya Anda sudah terunggah. Contohnya, Adobe menggunakan gambar dari Adobe Stock untuk melatih Firefly, tool AI generative-nya. Sehingga, jika Anda tidak ingin karya Anda digunakan untuk melatih Firefly, hindari mengunggah karya Anda ke Adobe Stock. 

2. Adversarial cloaking

Adversarial cloaking adalah pendekatan anti-training yang mencakup penambahan noise ke suatu karya seni untuk membingungkan model AI. “Noise” merujuk pada gangguan kecil atau visual artifacts pada gambar yang dirancang untuk menganggu kemampuan pengenalan gambar (image recognition) model ML.

Gangguan tersebut biasanya tidak terlihat secara kasat mata, namun dapat dideteksi oleh AI. Sehingga, tool AI jadi kesulitan mengenali karakteristik unik pada karya seni dan mereplikasinya.

Dua tool anti-training yang populer dan efektif saat ini adalah Glaze dan Nightshade, yang mana keduanya dikembangkan oleh tim yang sama di University of Chicago.

Glaze berfungsi sebagai tool image cloaking yang sederhana dan fokus untuk membingungkan AI. Di sisi lain, Nightshade adalah tool data poisoning yang lebih canggih. Tool ini menambahkan noise yang dapat membuat model AI salah mengklasifikasikan karya seni Anda sebagai sesuatu yang benar-benar berbeda, dengan tujuan akhir memengaruhi seluruh output model.

3. Memberi label yang salah pada karya seni

Ini merupakan langkah agresif dalam melawan GenAI yang memiliki risiko tersendiri. Ketika bekerja dengan data training yang jumlahnya banyak, melakukan review gambar satu per satu agar sesuai dengan output yang diinginkan tidak mungkin dilakukan. Oleh karena itu, kebanyakan model AI bergantung pada tag yang diberikan oleh seniman untuk mengklasifikasikan karya seni.

Triknya adalah Anda bisa memberikan tag yang tidak sesuai dengan karya Anda, sehingga karya tersebut tidak dapat digunakan oleh algoritma ML. Namun, trik ini berdampak negatif pada ranking SEO Anda.

4. Tindakan hukum

Seperti yang telah dibahas, penggunaan konten dengan hak cipta untuk melatih model AI saat ini dilindungi oleh prinsip fair use. Meskipun begitu, jika model ini mereplikasi karya seni Anda atau meniru gaya khas Anda, Anda dapat mengajukan tuntutan pelanggaran hak cipta.

Namun, Anda perlu membuktikan bahwa hasil karya AI tersebut memiliki kemiripan substansial dengan karya asli Anda. Hal ini dilakukan pada beberapa kasus penyedia AI yang digugat atas pelanggaran hak cipta karena tool mereka meniru karya seniman atau penulis. Contohnya adalah kasus OpenAI dan Stability AI yang sudah disebutkan sebelumnya.

 

Perlu aturan hukum yang lebih jelas

Perundang-undangan terkait GenAI dan hak cipta kini masih ambigu. Penegak hukum perlu mendefinisikan aturan dan kriteria fair use dengan lebih jelas, karena GenAI telah mengubah diskusi tentang konten hak cipta secara fundamental.

Saat ini, terdapat beberapa gugatan terhadap perusahaan besar di bidang GenAI. Hasil dari gugatan ini akan menentukan bagaimana kita melihat hubungan GenAI dengan konten berhak cipta serta batasan penggunaan konten yang wajar.

Dengan adanya GenAI, kemungkinan perubahan besar terkait undang-undang hak cipta akan segera terjadi. Namun, hingga saat itu, seniman perlu mengambil langkah sendiri untuk memastikan karya mereka tidak digunakan oleh AI.