Resiko AI yang Tidak Ramah

Akar kekhawatiran tentang AI sudah sangat tua. Kevin LaGrandeur menunjukkan bahwa bahaya khusus untuk AI dapat di lihat dalam literatur kuno tentang pelayan humanoid buatan seperti golem , atau robot proto dari Gerbert dari Aurillac dan Roger Bacon . Dalam cerita-cerita itu, kecerdasan dan kekuatan ekstrem dari ciptaan humanoid ini berbenturan dengan status mereka sebagai budak (yang secara alami di anggap sebagai sub-manusia), dan menyebabkan konflik yang membawa bencana. Pada tahun 1942, tema-tema ini mendorong Isaac Asimov untuk membuat " Tiga Hukum Robotika" - prinsip-prinsip yang tertanam dalam semua robot dalam fiksinya, di maksudkan untuk mencegah mereka menghidupkan pencipta mereka, atau membiarkan mereka datang untuk menyakiti.
Di zaman modern saat prospek AI super cerdas semakin dekat, filsuf Nick Bostrom mengatakan bahwa sistem AI super cerdas dengan tujuan yang tidak selaras dengan etika manusia secara intrinsik berbahaya kecuali tindakan ekstrem di ambil untuk memastikan keselamatan umat manusia. Dia mengatakannya seperti ini:
Pada dasarnya kita harus berasumsi bahwa 'superintelligence' akan mampu mencapai tujuan apa pun yang di milikinya. Oleh karena itu, sangat penting bahwa tujuan yang kita berikan padanya, dan seluruh sistem motivasinya, adalah 'ramah manusia.'
Pada tahun 2008 Eliezer Yudkowsky menyerukan penciptaan "AI ramah" untuk mengurangi risiko eksistensial dari kecerdasan buatan tingkat lanjut . Dia menjelaskan: "AI tidak membenci Anda, juga tidak mencintai Anda, tetapi Anda terbuat dari atom yang dapat di gunakan untuk hal lain."
Steve Omohundro
mengatakan bahwa sistem AI yang cukup maju akan, kecuali secara eksplisit di lawan, menunjukkan sejumlah "dorongan" dasar , seperti perolehan sumber daya, pelestarian diri, dan peningkatan diri berkelanjutan, karena sifat intrinsik dari sistem yang di gerakkan oleh tujuan. dan bahwa drive ini akan, "tanpa tindakan pencegahan khusus", menyebabkan AI menunjukkan perilaku yang tidak diinginkan.
Alexander Wissner-Gross
mengatakan bahwa AI yang di dorong untuk memaksimalkan kebebasan bertindak mereka di masa depan (atau entropi jalur kausal). Mungkin di anggap ramah jika cakrawala perencanaan mereka lebih panjang dari ambang batas tertentu. Dan tidak ramah jika cakrawala perencanaan mereka lebih pendek dari ambang batas itu.
Luke Muehlhauser, menulis untuk Machine Intelligence Research Institute. Merekomendasikan agar peneliti etika mesin mengadopsi apa yang di sebut Bruce Schneier sebagai "pola pikir keamanan". Daripada memikirkan bagaimana suatu sistem akan bekerja, bayangkan bagaimana itu bisa gagal. Misalnya, ia menyarankan bahkan AI yang hanya membuat prediksi akurat dan berkomunikasi melalui antarmuka.
Pada tahun 2014, Luke Muehlhauser dan Nick Bostrom menggarisbawahi perlunya 'AI yang ramah'; bagaimanapun, kesulitan dalam merancang superintelijen 'ramah', misalnya melalui pemrograman pemikiran moral kontrafaktual, cukup besar
Tempat Kursus Ilmu Robotic : Sari Teknologi
Baca artikel lainnya : Pelatihan Robotik
Komentar
Posting Komentar