Peneliti: Hentikan Pengembangan Kecerdasan Buatan Maka Umat Manusia Selamat Dari Kepunahan

Senin 03 Apr 2023, 20:00 WIB
Teknologi kecerdasan buatan (Ilustrasi)

Teknologi kecerdasan buatan (Ilustrasi)

AS, POSKOTA.CO.ID - Kepunahan manusia akibat teknologi kecerdasan buatan (AI) dicemaskan peneliti.

Peneliti AI terkemuka Eliezer Yudkowsky menuturkan umat manusia tidak siap untuk bertahan menghadapi pertemuan dengan kecerdasan buatan yang jauh lebih pintar.

Menurutnya, menghentikan pengembangan sistem kecerdasan buatan mutakhir di seluruh dunia dan menghukum keras mereka yang melanggar moratorium adalah satu-satunya cara untuk menyelamatkan umat manusia dari kepunahan.

Dia sebagai salah satu pendiri Lembaga Penelitian Mesin Kecerdasan (Machine Intelligence Research Institute, MIRI) menulis opini di majalah Time.

Dalam tulisan tersebut dia menjelaskan alasan tidak menandatangani petisi yang meminta semua laboratorium AI untuk segera berhenti setidaknya selama enam bulan pada awal bulan ini.

Eliezer Yudkowsky berpendapat surat yang ditandatangani orang-orang seperti Elon Musk dan Steve Wozniak meminta terlalu sedikit terkait masalah yang ditimbulkan perkembangan AI yang cepat dan tidak terkendali.

"Hasil yang paling mungkin dari membangun AI yang sangat cerdas, dalam situasi apa pun yang jauh seperti saat ini, bahwa setiap orang di Bumi akan mati," tulis Yudkowsky seperti dikutip dari Russia Today pada Minggu (2/4/2023).

Dia menilai bertahan dari pertemuan dengan sistem komputer yang tidak mempedulikan manusia atau kehidupan pada umumnya akan membutuhkan ketepatan, persiapan, dan wawasan ilmiah baru yang tidak dimiliki umat manusia saat ini dan tidak mungkin diperoleh di masa mendatang.

"AI yang cukup cerdas tidak akan bertahan lama di komputer," tuturnya.

Dia menjelaskan fakta bahwa string DNA sudah dapat dikirim melalui email ke laboratorium untuk menghasilkan protein kemungkinan besar akan memungkinkan AI membangun bentuk kehidupan artifisial atau bootstrap langsung ke pembuatan molekul pos biologis dan keluar ke dunia.

Moratorium pelatihan AI besar baru yang tidak terbatas dan di seluruh dunia harus segera diberlakukan menurut peneliti.

“Tidak ada pengecualian termasuk untuk pemerintah atau militer,” tegasnya.

Eliezer Yudkowsky menambahkan kesepakatan internasional harus ditandatangani untuk menetapkan batas atas berapa banyak daya komputasi yang dapat digunakan siapapun dalam melatih sistem semacam itu. ***

Berita Terkait

Tiongkok Siap Bangun Pangkalan di Bulan

Sabtu 15 Apr 2023, 11:00 WIB
undefined

News Update