Ideologi Berbahaya Memicu Perdebatan Tentang AI

AI (Artificial Intelligence) , Kecerdasan Buatan
AI (Artificial Intelligence) , Kecerdasan Buatan

Paris | EGINDO.co – Filosofi favorit Silicon Valley, jangka panjang, telah membantu membingkai perdebatan mengenai kecerdasan buatan seputar gagasan kepunahan manusia.

Namun para kritikus yang semakin vokal memperingatkan bahwa filosofi tersebut berbahaya, dan obsesi terhadap kepunahan mengalihkan perhatian dari masalah nyata yang terkait dengan AI seperti pencurian data dan algoritma yang bias.

Penulis Emile Torres, mantan aktivis jangka panjang yang menjadi kritikus gerakan tersebut, mengatakan kepada AFP bahwa filosofi tersebut bertumpu pada prinsip-prinsip yang digunakan di masa lalu untuk membenarkan pembunuhan massal dan genosida.

Namun gerakan dan ideologi terkait seperti transhumanisme dan altruisme efektif mempunyai pengaruh besar di universitas-universitas mulai dari Oxford hingga Stanford dan di seluruh sektor teknologi.

Pemodal ventura seperti Peter Thiel dan Marc Andreessen telah berinvestasi di perusahaan perpanjangan hidup dan proyek kesayangan lainnya yang terkait dengan gerakan ini.

Elon Musk dan Sam Altman dari OpenAI telah menandatangani surat terbuka yang memperingatkan bahwa AI dapat membuat umat manusia punah – meskipun mereka mendapat manfaat dengan berargumentasi bahwa hanya produk mereka yang dapat menyelamatkan kita.

Pada akhirnya, para kritikus mengatakan bahwa gerakan pinggiran ini memiliki pengaruh yang terlalu besar terhadap perdebatan publik mengenai masa depan umat manusia.

Baca Juga :  Pagi Ini, Presiden Jokowi Akan Resmikan Dua Ruas Tol Baru

“Sangat Berbahaya”

Para penganut paham jangka panjang percaya bahwa kita berkewajiban untuk berusaha memberikan hasil terbaik bagi sebanyak mungkin orang.

Hal ini tidak berbeda dengan kaum liberal abad ke-19, namun kelompok jangka panjang mempunyai jangka waktu yang lebih panjang.

Mereka melihat ke masa depan yang jauh dan melihat triliunan demi triliunan manusia melayang di angkasa, menjajah dunia-dunia baru.

Mereka berpendapat bahwa kita mempunyai kewajiban yang sama terhadap setiap manusia di masa depan seperti yang kita lakukan terhadap siapa pun yang hidup saat ini.

Dan karena jumlahnya sangat banyak, bobotnya jauh lebih besar daripada spesimen masa kini.

Pemikiran seperti ini membuat ideologi tersebut “sangat berbahaya”, kata Torres, penulis Human Extinction: A History of the Science and Ethics of Annihilation.

“Setiap kali Anda memiliki visi utopis tentang masa depan yang ditandai dengan jumlah nilai yang hampir tak terbatas, dan Anda menggabungkannya dengan cara berpikir moral utilitarian di mana tujuan dapat menghalalkan cara, itu akan menjadi berbahaya,” kata Torres.

Jika sebuah mesin super cerdas akan segera muncul dan berpotensi menghancurkan umat manusia, para penganut paham jangka panjang pasti akan menentangnya, apa pun konsekuensinya.

Baca Juga :  Meta Luncurkan Model AI Untuk Menulis Kode Komputer

Ketika ditanya pada bulan Maret oleh pengguna Twitter, platform yang sekarang dikenal sebagai X, berapa banyak orang yang bisa mati untuk menghentikan hal ini, ideolog jangka panjang Eliezer Yudkowsky menjawab bahwa jumlah orang yang cukup diperlukan “untuk membentuk populasi reproduksi yang layak”.

“Selama hal itu benar, masih ada peluang untuk mencapai bintang suatu hari nanti,” tulisnya, meski kemudian dia menghapus pesan tersebut.

Klaim Eugenic

Jangka panjang tumbuh dari karya filsuf Swedia Nick Bostrom pada tahun 1990an dan 2000an seputar risiko eksistensial dan transhumanisme – gagasan bahwa manusia dapat ditingkatkan dengan teknologi.

Akademisi Timnit Gebru telah menunjukkan bahwa transhumanisme sejak awal dikaitkan dengan eugenika.

Ahli biologi Inggris Julian Huxley, yang menciptakan istilah transhumanisme, juga menjabat presiden British Eugenics Society pada tahun 1950an dan 1960an.

“Jangka panjang adalah eugenika dengan nama yang berbeda,” tulis Gebru di X tahun lalu.

Bostrom telah lama menghadapi tuduhan mendukung eugenika setelah ia menyatakan bahwa orang-orang yang kurang cerdas bisa berkembang biak lebih cepat dibandingkan orang-orang yang lebih pintar sebagai “tekanan disgenik” yang merupakan “tekanan disgenik”.

Filsuf, yang menjalankan Future of Life Institute di Universitas Oxford, meminta maaf pada bulan Januari setelah mengakui bahwa dia telah menulis postingan rasis di forum internet pada tahun 1990-an.

Baca Juga :  ASN Boleh Ikut Kampanye pada Pilkada, Tidak Boleh Berpolitik Praktis

“Apakah saya mendukung eugenika? Tidak, tidak seperti istilah yang umum dipahami,” tulisnya dalam permintaan maafnya, sambil menunjukkan bahwa eugenika telah digunakan untuk membenarkan “beberapa kekejaman paling mengerikan pada abad terakhir”.

“Lebih Sensasional”

Meskipun ada masalah-masalah ini, penganut jangka panjang seperti Yudkowsky, seorang siswa putus sekolah menengah atas yang terkenal karena menulis fan-fiksi Harry Potter dan mempromosikan poliamori, terus dipuja.

Altman memuji dia karena mendapatkan pendanaan OpenAI dan menyatakan pada bulan Februari bahwa dia pantas mendapatkan hadiah Nobel perdamaian.

Namun Gebru, Torres, dan banyak lainnya mencoba untuk fokus kembali pada dampak buruk seperti pencurian karya seniman, bias, dan pemusatan kekayaan di tangan segelintir perusahaan.

Torres, yang menggunakan kata ganti mereka, mengatakan meskipun ada orang yang beriman seperti Yudkowsky, sebagian besar perdebatan seputar kepunahan dimotivasi oleh keuntungan.

“Berbicara tentang kepunahan manusia, tentang peristiwa apokaliptik yang menyebabkan semua orang mati, jauh lebih sensasional dan menarik dibandingkan pekerja di Kenya yang dibayar US$1,32 per jam, atau artis dan penulis yang dieksploitasi,” kata mereka.

Sumber : CNA/SL

Bagikan :
Scroll to Top