Bisakah Percaya Telinga Anda? Penipuan Suara AI Resahkan AS

Penipuan suara AI resahkan AS
Penipuan suara AI resahkan AS

Washington | EGINDO.co – Suara di telepon itu terdengar sangat nyata – seorang ibu di Amerika mendengar putrinya terisak-isak sebelum seorang pria mengambil alih telepon dan meminta uang tebusan. Namun, gadis itu adalah tiruan kecerdasan buatan dan penculikan itu palsu.

Menurut para ahli, bahaya terbesar dari kecerdasan buatan adalah kemampuannya untuk menghilangkan batas antara realitas dan fiksi, memberikan para penjahat siber sebuah teknologi yang murah dan efektif untuk menyebarkan disinformasi.

Dalam jenis penipuan baru yang telah mengguncang pihak berwenang AS, para penipu menggunakan alat kloning suara AI yang sangat meyakinkan – yang tersedia secara online – untuk mencuri dari orang-orang dengan menyamar sebagai anggota keluarga.

“Tolong saya, Bu, tolong saya,” Jennifer DeStefano, seorang ibu yang tinggal di Arizona, mendengar sebuah suara di ujung telepon.

DeStefano “100 persen” yakin bahwa itu adalah putrinya yang berusia 15 tahun yang sedang dalam kesulitan saat pergi bermain ski.

“Tidak pernah ada pertanyaan siapa ini? Itu benar-benar suaranya … Itu adalah cara dia menangis,” kata DeStefano kepada stasiun televisi lokal pada bulan April.

“Saya tidak pernah meragukan sedetik pun bahwa itu adalah dia.”

Penipu yang mengambil alih panggilan tersebut, yang berasal dari nomor yang tidak dikenal oleh DeStefano, meminta uang hingga US$1 juta.

Baca Juga :  BMW Luncurkan Mobil Hidrogen Pertama pada 2028

Tipu muslihat yang didukung oleh AI ini berakhir dalam hitungan menit ketika DeStefano berhasil menghubungi putrinya. Namun, kasus yang menakutkan ini, yang kini sedang diselidiki polisi, menggarisbawahi potensi penjahat siber untuk menyalahgunakan kloningan AI.

Penipuan Kakek-Nenek

“Kloning suara AI, yang sekarang hampir tidak dapat dibedakan dari ucapan manusia, memungkinkan para pelaku ancaman seperti penipu untuk mengekstrak informasi dan dana dari korban secara lebih efektif,” kata Wasim Khaled, kepala eksekutif Blackbird.AI, kepada AFP.

Pencarian sederhana di internet menghasilkan beragam aplikasi, banyak yang tersedia secara gratis, untuk membuat suara AI dengan sampel kecil – terkadang hanya beberapa detik – dari suara asli seseorang yang dapat dengan mudah dicuri dari konten yang diunggah secara online.

“Dengan sampel audio yang kecil, kloningan suara AI dapat digunakan untuk meninggalkan pesan suara dan teks suara. Bahkan bisa juga digunakan sebagai pengubah suara secara langsung pada panggilan telepon,” ujar Khaled.

“Penipu dapat menggunakan aksen, jenis kelamin, atau bahkan meniru pola bicara orang yang dicintai. [Teknologi ini] memungkinkan terciptanya pemalsuan yang sangat meyakinkan.”

Baca Juga :  Menteri KKP: Perlu Ada Koreksi Akuarium PIAMARI

Dalam sebuah survei global terhadap 7.000 orang dari sembilan negara, termasuk Amerika Serikat, satu dari empat orang mengatakan bahwa mereka pernah mengalami penipuan kloning suara AI atau mengenal seseorang yang pernah mengalaminya.

Tujuh puluh persen dari responden mengatakan mereka tidak yakin dapat “membedakan antara suara tiruan dan suara asli”, kata survei tersebut, yang diterbitkan bulan lalu oleh McAfee Labs yang berbasis di Amerika Serikat.

Para pejabat Amerika telah memperingatkan akan meningkatnya apa yang dikenal sebagai “penipuan kakek-nenek” – di mana seorang penipu menyamar sebagai cucu yang sangat membutuhkan uang dalam situasi yang menyedihkan.

“Anda mendapat telepon. Ada suara panik di telepon. Itu cucu Anda. Dia mengatakan bahwa dia dalam masalah besar – dia merusak mobilnya dan masuk penjara. Tapi Anda bisa membantu dengan mengirimkan uang,” kata Komisi Perdagangan Federal AS dalam sebuah peringatan di bulan Maret.

“Kedengarannya seperti dia. Bagaimana mungkin ini penipuan? Kloning suara, begitulah caranya.”

Dalam komentar di bawah peringatan FTC terdapat beberapa kesaksian dari para lansia yang telah ditipu dengan cara tersebut.

“Jahat”

Hal ini juga mencerminkan pengalaman Eddie, seorang remaja berusia 19 tahun di Chicago yang kakeknya menerima telepon dari seseorang yang mirip dengannya, yang mengklaim bahwa ia membutuhkan uang setelah mengalami kecelakaan mobil.

Baca Juga :  AS, Inggris, Australia Target Zservers Rusia Atas Serangan Ransomware Lockbit

Tipu muslihat tersebut, yang dilaporkan oleh McAfee Labs, begitu meyakinkan sehingga kakeknya segera mulai mengumpulkan uang dan bahkan mempertimbangkan untuk menggadaikan rumahnya, sebelum kebohongan itu terbongkar.

“Karena sekarang ini mudah untuk membuat tiruan suara yang sangat realistis… Hampir semua orang yang memiliki keberadaan online rentan terhadap serangan,” kata Hany Farid, seorang profesor di UC Berkeley School of Information, kepada AFP.

“Penipuan ini semakin populer dan menyebar.”

Awal tahun ini, perusahaan rintisan AI ElevenLabs mengakui bahwa alat kloning suaranya dapat disalahgunakan untuk “tujuan jahat” setelah pengguna mengunggah audio palsu yang mengaku sebagai aktris Emma Watson yang membaca biografi Adolf Hitler, Mein Kampf.

“Kita semakin mendekati titik di mana Anda tidak dapat mempercayai hal-hal yang Anda lihat di internet,” kata Gal Tal-Hochberg, kepala kelompok teknologi di perusahaan modal ventura Team8, kepada AFP.

“Kita akan membutuhkan teknologi baru untuk mengetahui apakah orang yang Anda kira Anda ajak bicara adalah benar-benar orang yang Anda ajak bicara,” katanya.

Sumber : CNA/SL

Bagikan :
Scroll to Top