1. Buka konten
  2. Buka menu utama
  3. Buka situs DW lainnya
IptekAmerika Serikat

Tokoh Terkenal AI Ingatkan 'Ancaman Kepunahan'

31 Mei 2023

CEO OpenAI, Sam Altman, turut menandatangani pernyataan soal "pengurangan risiko kepunahan akibat AI harus jadi prioritas dunia," karena dinilai dengan perang nuklir atau pandemi.

https://p.dw.com/p/4RzTt
Foto ilustrasi sebuah robot memegang benda mirip otak manusia
Ilustrasi robot memegang benda yang menyerupai otak manusiaFoto: Knut Niehus/CHROMORANGE/picture alliance

Lebih 350 peneliti, eksekutif, pakar dan tokoh AI menandatangani sebuah pernyataan satu kalimat yang dirilis pada Selasa (30/05) oleh lembaga non-profit Center for AI Safety (CAIS).

"Mengurangi risiko kepunahan akibat AI harus menjadi prioritas dunia, sejajar dengan risiko seperti pandemi dan perang nuklir," isi pernyataan itu secara lengkap.

Pengantar pernyataan itu dua kali lebih panjang dari pernyataan ringkas tersebut. Dijelaskan bahwa berbagai pihak "semakin sering mendiskusikan spektrum luas dari risiko penting dan mendesak soal AI."

"Kendati demikian, kemungkinan akan sulit untuk menyuarakan kecemasan soal risiko AI yang paling parah. Pernyataan ringkas ini bertujuan untuk mengatasi masalah dan membuka diskusi," kata pernyataan itu. "Hal ini juga bertujuan untuk membangun pemahaman bersama soal banyaknya para ahli dan tokoh publik yang menganggap serius sejumlah risiko AI yang paling parah."

Kecerdasan Buatan bagi Kereta Masa Depan

Siapa saja tanda tangan?

Dua dari tiga tokoh yang disebut-sebut sebagai "Godfathers of AI", yang memenangkan Turing Award tahun 2018 atas karyanya di bidang pembelajaran mendalam, yakni Geoffrey Hinton dan Yoshua Bengio, berada dalam papan atas penandatangan.

Sedangkan "Godfathers of AI" ketiga, Yann LeCun, pihak Meta (perusahaan induk Facebook besutan Mark Zuckerberg) tidak ikut menandatangani.

CEO DeepMind milik Google, Demis Hassasbis dan CEO OpenAI (perusahaan pemilik ChatGPT chatbot) Sam Altman, berada di daftar selanjutnya, diikuti oleh CEO perusahaan AI Anthropic, Dario Amodei.

Sejumlah akademisi dan pebisnis, yang sebagian besar bekerja untuk perusahaan seperti Google dan Microsoft, memenuhi sebagian besar daftar penandatangan.

Selain itu ada jugatokoh terkenal seperti mantan presiden Estonia, Kersti Kaljulaid, ahli saraf dan penulis AS, Sam Harris, dan bintang pop sekaligus penulis lagu asal Kanada, Grimes.

Surat pernyataan itu dirilis bertepatan dengan pertemuan Konsil Perdagangan dan Tekniolgi Amerika Serikat (AS) dan Uni Eropa (UE) di Swedia, di mana para politisi dan tokoh-tokoh teknologi diharapkan mendiskusikan potensi dan regulasi AI.

Pejabat UE pada Selasa (30/05) juga menyebut bahwa komisaris industrinya, Thierry Breton, akan mengadakan pertemuan langsung dengan Sam Altman di San Fransisco, bulan Juni mendatang. Keduanya direncanakan membahas bagaimana cara perusahaan untuk mengimplementasikan regulasi Uni Eropa guna mengatur kecerdasan buatan (AI), yang direncanakan mulai berlaku pada tahun 2026.

Meskipun belakangan ini Sam Altman menyerukan soal regulasi industri, dia sempat mengancam bakal menarik perusahaannya dari Eropa ketika UE pertama kali mengajukan rencana ini, dan menyebut bahwa proposal itu berlebihan, sebelum akhirnya mencabut kembali ancaman itu.

Foto Sam Haltman dalam sidang dengar pendapat di gedung Capitol Hill, Washington, AS, 16 Mei 2023
Sam Altman saat bersaksi di depan sidang Senat subkomite Privasi, Teknologi dan Kehakiman di Capitol Hill, Washington, Amerika Serikat (16/05)Foto: Elizabeth Frantz/REUTERS

Ulasan singkat tentang potensi risiko

Pernyataan satu kalimat soal risiko AI itu tidak menyebutkan hal apa saja yang jadi potensi risikonya, seberapa parah risiko itu, bagaimana cara mitigasinya, hingga siapa pihak yang harus bertanggung jawab untuk melakukannya, kecuali memuat soal "harus menjadi prioritas dunia."

Menjelang rilis pernyataan itu, CAIS memposting sebuah eksplorasi dari komentar-komentar Yoshua Bengio, direktur Montreal Institute untuk Pembelajaraan Algoritma, yang menulis tentang bagaimana AI dapat menimbulkan ancaman eksistensi bagi manusia.

Menurut Bengio, tidak lama lagi AI bakal mungkin mengejar tujuannya dengan mengambil tindakan nyata di dunia, sesuatu yang belum pernah dicoba, kecuali di ruang yang lebih tertutup permainan populer seperti catur dan go.

Bengio mengidentifikasi empat cara supaya AI untuk dapat mengejar ambisinya yang berbenturan secara serius dengan kepentingan terbaik manusia.

Yang utama adalah manusia itu sendiri, prospek aktor manusia yang tidak baik yang memberikan instruksi ke AI untuk melakukan tindakan buruk. Pengguna ChatGPT misalnya, bisa merumuskan rencananya guna mendominasi dunia.

Dia juga mengatakan AI mungkin saja diberi tujuan yang tidak ditentukan atau dijelaskan secara benar, dan akhirnya program itu menarik kesimpulan keliru dari instruksinya.

Kemungkinan ketiga adalah AI membuat subtujuannya sendiri untuk mengejar target lebih luas yang ditetapkan dalam pemograman, yang dapat membantunya mencapai target yang ditentukan, tetapi dengan biaya yang terlalu besar.

Terakhir, dan kemungkinan sedikit jauh ke masa depan, Bengio menyebut AI pada akhirnya dapat mengembangkan semacam tekanan revolusioner untuk bersikap lebih egois, seperti yang dilakukan oleh kawanan hewan di alam, demi menjamin kelangsungan hidup mereka dan rekan-rekannya.

Guna memitigasi risiko ini, Bengio merekomendasikan lebih banyak penelitian tentang keamanan AI, baik di tingkat teknis hingga kebijakan politik.

Dia merupakan salah satu penandatangan surat terbuka sebelumnya, yang turut ditandatangani oleh Elon Muskdan menyerukan jeda pembangunan sistem AI yang lebih besar dan kompleks, guna memberikan waktu untuk refleksi dan penelitian.

Bengio juga menyarankan pelarangan AI demi mengejar tujuan dan tindakan di dunia nyata saat ini, dan menyebut "tanpa perlu dijelaskan" senjata otonom yang mematikan "benar-benar harus dilarang."

mh/hp (AFP, AP, Reuters)