Pemerintahan Biden Menuju Penulisan Standar Utama AI

Artificial Intelligence (AI)
Artificial Intelligence (AI)

Washington | EGINDO.co – Pemerintahan Biden mengatakan pada hari Selasa bahwa pihaknya mengambil langkah pertama menuju penulisan standar dan panduan utama untuk penerapan kecerdasan buatan generatif yang aman dan cara menguji serta menjaga sistem.

Institut Standar dan Teknologi Nasional (NIST) Departemen Perdagangan mengatakan pihaknya sedang mencari masukan dari publik pada tanggal 2 Februari untuk melakukan pengujian penting yang penting untuk memastikan keamanan sistem AI.

Menteri Perdagangan Gina Raimondo mengatakan upaya ini dipicu oleh perintah eksekutif Presiden Joe Biden pada bulan Oktober mengenai AI dan bertujuan untuk mengembangkan “standar industri seputar keselamatan, keamanan, dan kepercayaan AI yang akan memungkinkan Amerika untuk terus memimpin dunia dalam pengembangan dan penggunaan AI yang bertanggung jawab. teknologi yang berkembang pesat.”

Baca Juga :  ChatGPT OpenAI Bisa Lihat,Dengar,Bicara Dalam Pembaruan

Badan ini sedang mengembangkan pedoman untuk mengevaluasi AI, memfasilitasi pengembangan standar, dan menyediakan lingkungan pengujian untuk mengevaluasi sistem AI. Permintaan tersebut meminta masukan dari perusahaan AI dan masyarakat mengenai manajemen risiko AI generatif dan mengurangi risiko misinformasi yang dihasilkan AI.

AI generatif – yang dapat membuat teks, foto, dan video sebagai respons terhadap permintaan terbuka – dalam beberapa bulan terakhir telah memicu kegembiraan dan ketakutan bahwa AI dapat membuat beberapa pekerjaan menjadi ketinggalan jaman, mengacaukan pemilu, dan berpotensi mengalahkan manusia serta menimbulkan dampak bencana.

Perintah Biden mengarahkan lembaga-lembaga untuk menetapkan standar pengujian tersebut dan mengatasi risiko kimia, biologi, radiologi, nuklir, dan keamanan siber terkait.

Baca Juga :  Putin Akan Tiba Di Jenewa Pada 16 Juni Untuk KTT Biden

NIST sedang berupaya menetapkan pedoman untuk pengujian, termasuk di mana apa yang disebut “tim merah” akan paling bermanfaat untuk penilaian dan manajemen risiko AI serta menetapkan praktik terbaik untuk melakukan hal tersebut.

Tim merah eksternal telah digunakan selama bertahun-tahun dalam keamanan siber untuk mengidentifikasi risiko-risiko baru, dengan istilah yang mengacu pada simulasi Perang Dingin AS di mana musuh diistilahkan sebagai “tim merah”.

Pada bulan Agustus, acara “tim merah” penilaian publik AS yang pertama diadakan pada konferensi keamanan siber besar dan diselenggarakan oleh AI Village, SeedAI, Humane Intelligence.

Ribuan peserta mencoba untuk melihat apakah mereka “dapat membuat sistem menghasilkan keluaran yang tidak diinginkan atau gagal, dengan tujuan untuk lebih memahami risiko yang ditimbulkan oleh sistem ini,” kata Gedung Putih.

Baca Juga :  Foopak Bio Natura dan JumpStart Kurangi Sampah Plastik

Acara tersebut “menunjukkan bagaimana kerja sama eksternal dapat menjadi alat yang efektif untuk mengidentifikasi risiko baru AI,” tambahnya.

Sumber : CNA/SL

Bagikan :
Scroll to Top