Seniman Gunakan Senjata Teknologi Lawan Peniru AI

Teknologi Lawan Peniru AI
Teknologi Lawan Peniru AI

New York | EGINDO.co – Para seniman yang dikepung oleh kecerdasan buatan (AI) yang mempelajari karya mereka, kemudian meniru gaya mereka, telah bekerja sama dengan peneliti universitas untuk menghalangi aktivitas peniru tersebut.

Ilustrator AS Paloma McClain beralih ke mode pertahanan setelah mengetahui bahwa beberapa model AI telah “dilatih” menggunakan karya seninya, tanpa kredit atau kompensasi apa pun yang diberikan kepadanya.

“Itu mengganggu saya,” kata McClain kepada AFP.

“Saya percaya kemajuan teknologi yang sangat berarti dilakukan secara etis dan mengangkat derajat semua orang, bukannya berfungsi dengan mengorbankan orang lain.”

Seniman tersebut beralih ke perangkat lunak gratis bernama Glaze yang dibuat oleh para peneliti di Universitas Chicago.

Glaze pada dasarnya mengungguli model AI dalam hal cara mereka berlatih, mengubah piksel dengan cara yang tidak dapat dilihat oleh manusia, namun membuat karya seni digital tampak sangat berbeda dengan AI.

“Kami pada dasarnya menyediakan alat teknis untuk membantu melindungi pencipta manusia dari model AI yang invasif dan kejam,” kata profesor ilmu komputer Ben Zhao dari tim Glaze.

Baca Juga :  G7 Menyetujui Kode Etik AI Untuk Perusahaan

Dibuat hanya dalam empat bulan, Glaze memisahkan teknologi yang digunakan untuk mendisrupsi sistem pengenalan wajah.

“Kami bekerja dengan kecepatan super cepat karena kami tahu masalahnya serius,” kata Zhao tentang pembelaan seniman dari peniru perangkat lunak.

“Banyak orang yang kesakitan.”

Raksasa AI generatif memiliki perjanjian untuk menggunakan data untuk pelatihan dalam beberapa kasus, namun sebagian besar gambar digital, audio, dan teks yang digunakan untuk membentuk cara berpikir perangkat lunak supersmart telah diambil dari internet tanpa persetujuan eksplisit.

Sejak dirilis pada Maret 2023, Glaze telah diunduh lebih dari 1,6 juta kali, menurut Zhao.

Tim Zhao sedang mengerjakan peningkatan Glaze yang disebut Nightshade yang meningkatkan pertahanan dengan membingungkan AI, misalnya dengan membuatnya menafsirkan anjing sebagai kucing.

“Saya percaya Nightshade akan mempunyai efek yang nyata jika cukup banyak seniman yang menggunakannya dan menaruh cukup banyak gambar beracun ke alam liar,” kata McClain, yang berarti mudah didapat secara online.

“Menurut penelitian Nightshade, gambar beracun yang dibutuhkan tidak sebanyak yang diperkirakan.”

Baca Juga :  Ideologi Berbahaya Memicu Perdebatan Tentang AI

Tim Zhao telah didekati oleh beberapa perusahaan yang ingin menggunakan Nightshade, menurut akademisi Chicago tersebut.

“Tujuannya agar masyarakat dapat melindungi konten mereka, baik itu artis individu atau perusahaan yang memiliki banyak kekayaan intelektual,” kata Zhao.

Startup Spawning telah mengembangkan perangkat lunak Kudurru yang mendeteksi upaya mengumpulkan gambar dalam jumlah besar dari tempat online.

Seorang seniman kemudian dapat memblokir akses atau mengirim gambar yang tidak sesuai dengan yang diminta, sehingga mencemari kumpulan data yang digunakan untuk mengajarkan AI apa itu apa, menurut salah satu pendiri Spawning, Jordan Meyer.

Lebih dari seribu situs web telah diintegrasikan ke dalam jaringan Kudurru.

Spawning juga telah meluncurkan hasibeentrained.com, sebuah situs web yang menampilkan alat online untuk mengetahui apakah karya digital telah dimasukkan ke dalam model AI dan memungkinkan seniman untuk tidak ikut serta dalam penggunaan tersebut di masa mendatang.

Seiring dengan peningkatan pertahanan terhadap gambar, para peneliti di Universitas Washington di Missouri telah mengembangkan perangkat lunak AntiFake untuk menggagalkan penyalinan suara oleh AI.

Baca Juga :  Biden Peringatkan Putin Serangan Ukraina Membawa Biaya Berat

AntiFake memperkaya rekaman digital orang-orang yang berbicara, menambahkan suara-suara yang tidak terdengar oleh orang-orang tetapi membuatnya “tidak mungkin untuk mensintesis suara manusia”, kata Zhiyuan Yu, mahasiswa PhD di balik proyek tersebut.

Program ini bertujuan untuk lebih dari sekedar menghentikan pelatihan AI yang tidak sah, namun juga mencegah pembuatan “deepfakes” – soundtrack atau video palsu dari selebriti, politisi, kerabat, atau orang lain yang menunjukkan mereka melakukan atau mengatakan sesuatu yang tidak mereka lakukan.

Sebuah podcast populer baru-baru ini menghubungi tim AntiFake untuk meminta bantuan menghentikan produksinya agar tidak dibajak, menurut Zhiyuan Yu.

Perangkat lunak yang tersedia secara gratis sejauh ini telah digunakan untuk merekam orang-orang yang berbicara, tetapi juga dapat diterapkan pada lagu, kata peneliti.

“Solusi terbaik adalah dunia di mana semua data yang digunakan untuk AI harus mendapat persetujuan dan pembayaran,” tegas Meyer.

“Kami berharap dapat mendorong pengembang ke arah ini.”

Sumber : CNA/SL

Bagikan :
Scroll to Top