Seoul | EGINDO.co – Protes di Korea Selatan berlanjut pada hari Jumat (27 Sep), sehari setelah anggota parlemen meloloskan RUU untuk mengkriminalisasi kepemilikan atau menonton gambar dan video deepfake yang mengandung unsur seksual.
Aktivis mengatakan mereka menginginkan tindakan yang lebih tegas, keadilan bagi para korban, dan akuntabilitas dari pemerintah untuk mengatasi epidemi kejahatan seks yang mengkhawatirkan yang melanda negara tersebut.
Majelis nasional Korea Selatan pada hari Kamis meloloskan RUU untuk menghukum orang yang memiliki, membeli, menyimpan, atau menonton materi seksual deepfake dan video rekayasa lainnya dengan hukuman hingga tiga tahun penjara atau denda hingga 30 juta won (US$23.000).
Undang-undang baru tersebut juga akan meningkatkan hukuman maksimum untuk membuat deepfake yang mengandung unsur seksual.
RUU tersebut sekarang membutuhkan persetujuan dari Presiden Yoon Suk Yeol untuk menandatanganinya menjadi undang-undang.
Namun, hal ini belum memenuhi tuntutan para aktivis.
Para pendukung mengatakan undang-undang saat ini tidak cukup untuk melawan kejahatan seks, dan bahwa para pembuat kebijakan perlu berbuat lebih banyak dengan sistem hukum untuk secara efektif membawa para pelaku ke pengadilan dan mencegah perilaku tersebut.
Mereka menambahkan bahwa masalah ini bahkan lebih mendesak karena mayoritas pelaku dan korban adalah remaja.
Korban dan Pelaku Kebanyakan Remaja
Hingga Rabu lalu, lebih dari 800 laporan polisi telah diajukan di seluruh negeri tahun ini untuk kejahatan seks terkait deepfake, menurut Yonhap.
Polisi telah menangkap 387 tersangka, lebih dari 80 persen di antaranya adalah remaja, kantor berita tersebut menambahkan.
Sekitar 60 persen korban yang terlibat dalam kasus yang diselidiki oleh polisi dalam tiga tahun terakhir juga anak di bawah umur.
Awal bulan ini, polisi Korea Selatan mengatakan mereka meluncurkan penyelidikan apakah platform pesan terenkripsi Telegram membantu distribusi pornografi deepfake, termasuk yang di bawah umur.
Saluran Telegram – yang diduga memiliki lebih dari 220.000 peserta – dilaporkan digunakan untuk membagikan materi ini.
Porno deepfake mencakup konten eksplisit di mana wajah individu ditumpangkan secara digital ke gambar atau video pornografi lainnya menggunakan kecerdasan buatan.
Pelaku kejahatan deepfake dilaporkan telah menggunakan platform media sosial seperti Instagram untuk menyimpan foto korban, yang kemudian digunakan untuk membuat materi pornografi palsu.
Wanita Yang Hidup Dalam Kekhawatiran
Media berita lokal melaporkan beberapa konten eksplisit dibuat, dilihat, dan dibagikan oleh mereka yang mengenal korban, termasuk teman sekelas dan kolega.
Para pengunjuk rasa yang diwawancarai CNA mengatakan hal ini telah menyebabkan suasana ketakutan dan ketidakpercayaan di kalangan perempuan Korea Selatan di sekolah dan tempat kerja mereka sendiri.
Sejak krisis pornografi deepfake merebak, banyak perempuan yang bergegas menghapus foto dan video mereka dari media sosial.
“Saya tidak lagi mengunggah foto di media sosial, baik itu foto saya sendiri atau foto teman dan keluarga saya. Remaja seharusnya lebih khawatir, tetapi saya rasa usia tidak menjadi masalah karena menjadi berbahaya setelah Anda terekspos,” kata seorang perempuan Korea Selatan kepada CNA.
Choi Ji-hyeon adalah salah satu pengunjuk rasa yang telah berunjuk rasa seminggu sekali di Seoul sejak bulan lalu, mengatakan bahwa ia ingin suara para mahasiswi didengar.
“Pemerintah perlu turun tangan dan mengambil langkah-langkah untuk menyelesaikan masalah ini di tingkat nasional,” kata Choi, yang merupakan kepala klub hak asasi manusia di Universitas Regional Seoul.
“Namun karena sekarang masalah ini diserahkan kepada masing-masing individu, kami para mahasiswi harus mencari tahu sendiri. Kenyataannya adalah kami tidak punya pilihan selain curiga kepada teman-teman yang biasa makan dan nongkrong bersama kami.”
Ia menambahkan beberapa teman sekelasnya bahkan mengunjungi ruang obrolan porno deepfake di Telegram untuk memastikan mereka tidak menjadi korban.
“Saya (sekarang) lebih takut dengan media sosial, dan kemungkinan pencurian (informasi pribadi saya) dan dimanfaatkan. Kami perlu mengedukasi masyarakat tentang hukum,” kata pengunjuk rasa lainnya.
Upaya Untuk Mencegah Deepfake
Di tengah kemarahan publik dan tuntutan untuk tindakan yang lebih kuat, Presiden Korea Selatan Yoon telah menyerukan agar kejahatan seks digital diselidiki secara menyeluruh.
Lucas Lee, direktur perusahaan rintisan Deepbrain AI, mengatakan perusahaannya meluncurkan sistem deteksi deepfake pada bulan Maret, yang dikembangkan melalui kerja sama dengan Badan Kepolisian Nasional Korea untuk membantu memerangi kejahatan semacam itu di negara tersebut.
“Dengan kemajuan teknologi… kini menjadi mudah untuk membuat (konten semacam itu) dan kini ada banyak gambar ilegal,” katanya.
“Menjadi sulit bagi individu untuk membedakan video atau gambar dengan mata manusia. Jadi, kami mengembangkan dan menjual solusi yang dapat mendeteksi apakah video atau gambar itu asli atau palsu.”
Prosesnya, yang teknik utamanya mencakup pendeteksian trik lip-sync dan face-swapping, hanya membutuhkan waktu beberapa menit.
Selain penegakan hukum, perusahaan – termasuk agensi hiburan – juga beralih ke teknologi serupa untuk mendeteksi video dan gambar palsu, setelah banyaknya kasus aktris dan penyanyi yang menjadi korban kejahatan semacam itu.
Human Rights Watch mengatakan kekerasan berbasis gender daring merupakan masalah yang meluas di Korea Selatan, di mana para hakim, jaksa, polisi, dan anggota parlemen – yang sebagian besar adalah laki-laki – tidak menanggapi kejahatan ini dengan cukup serius.
Kelompok advokasi tersebut telah mendesak pemerintah untuk menyediakan pendidikan seksualitas yang komprehensif kepada anak-anak dan orang dewasa, serta mempromosikan kesetaraan gender di negara tersebut.
Sumber : CNA/SL