Kebijakan publik Tentang AI

 

Kebijakan publik Tentang AI

James Barrat, penulis Our Final Invention, menyarankan bahwa "kemitraan publik-swasta harus di buat untuk menyatukan pembuat AI untuk berbagi ide tentang keamanan—sesuatu seperti Badan Energi Atom Internasional, tetapi dalam kemitraan dengan perusahaan." Dia mendesak para peneliti AI untuk mengadakan pertemuan serupa dengan Konferensi Asilomar tentang DNA Rekombinan , yang membahas risiko bioteknologi.

John McGinnis mendorong pemerintah untuk mempercepat penelitian AI yang ramah. Karena tujuan AI yang bersahabat belum tentu unggul, ia menyarankan model yang mirip dengan National Institutes of Health , di mana "Panel peninjau sejawat dari ilmuwan komputer dan kognitif akan menyaring proyek dan memilih proyek yang dirancang untuk memajukan AI dan memastikan bahwa kemajuan tersebut akan di sertai dengan perlindungan yang tepat." McGinnis merasa bahwa peer review lebih baik "daripada regulasi untuk mengatasi masalah teknis yang tidak mungkin di tangkap melalui mandat birokrasi". 

McGinnis mencatat bahwa proposalnya bertentangan dengan proposal Machine Intelligence Research Institute, yang umumnya bertujuan untuk menghindari keterlibatan pemerintah dalam AI yang bersahabat.

Menurut Gary Marcus, jumlah uang tahunan yang di habiskan untuk mengembangkan moralitas mesin sangat kecil.

Kritik

Beberapa kritikus percaya bahwa AI tingkat manusia dan kecerdasan super tidak mungkin, dan karenanya AI yang ramah tidak mungkin. Menulis di The Guardian , Alan Winfield membandingkan kecerdasan buatan tingkat manusia. Dengan perjalanan yang lebih cepat dari cahaya dalam hal kesulitan. Dan menyatakan bahwa sementara kita perlu "berhati-hati dan siap" mengingat taruhannya, kita "tidak perlu terobsesi" tentang risiko superintelijen. Boyles dan Joaquin, di sisi lain, berpendapat bahwa Luke Muehlhauser dan Nick BostromProposal untuk membuat AI yang ramah tampaknya suram. Ini karena Muehlhauser dan Bostrom tampaknya memegang gagasan bahwa mesin cerdas dapat di program untuk berpikir. Secara kontrafaktual tentang nilai-nilai moral yang akan di miliki manusia.

 Dalam sebuah artikel di AI & Society , Boyles dan Joaquin berpendapat bahwa AI semacam itu tidak akan ramah mengingat hal-hal berikut: jumlah tak terbatas dari kondisi kontrafaktual yang harus di program ke dalam mesin, kesulitan menguangkan seperangkat nilai moral—yaitu, nilai-nilai yang lebih ideal daripada yang di miliki manusia saat ini, dan keterputusan nyata antara anteseden kontrafaktual dan konsekuen nilai ideal.

Beberapa filsuf mengklaim bahwa setiap agen yang benar-benar "rasional", apakah buatan atau manusia, secara alami akan baik hati; dalam pandangan ini, perlindungan yang disengaja yang dirancang untuk menghasilkan Kecerdasan buatan yang ramah bisa jadi tidak diperlukan atau bahkan berbahaya. Kritikus lain mempertanyakan apakah mungkin kecerdasan buatan menjadi ramah. Adam Keiper dan Ari N. Schulman, editor jurnal teknologi The New Atlantis, mengatakan bahwa tidak mungkin untuk menjamin perilaku "ramah" dalam Kecerdasan buatan. Karena masalah kompleksitas etika tidak akan menghasilkan kemajuan perangkat lunak atau peningkatan daya komputasi. Mereka menulis bahwa kriteria yang menjadi dasar teori AI yang bersahabat bekerja "hanya ketika seseorang tidak hanya memiliki kekuatan prediksi yang besar tentang kemungkinan hasil yang sangat banyak, tetapi kepastian dan konsensus tentang bagaimana seseorang menilai hasil yang berbeda

Tempat Kursus Ilmu Robotic : Sari Teknologi

Baca artikel lainnya : Pelatihan Robotik

Komentar