Inilah Bagaimana Kita Boleh Hentikan Masa Depan Rogue A.I. dari Meniru HAL 9000

$config[ads_kvadrat] not found

HAL9000 1/1 Scale Model Kit Review How to Add Light and Sound to Your 2001 Space Odyssey HAL Moebius

HAL9000 1/1 Scale Model Kit Review How to Add Light and Sound to Your 2001 Space Odyssey HAL Moebius
Anonim

Bagaimanakah kita menghentikan masa depan A.I. dari perintah yang tidak mematuhi dan memilih cara sendiri? Ia mungkin terdengar seperti plot dari 2001: A Space Odyssey, tetapi seorang ahli mendakwa ia sesuatu yang kita mungkin perlu mula memikirkan. Pasti, kita boleh mematikan algoritma carian Google jika pernah menjadi penyangak, tetapi apabila menghadapi akibat kewangan dan undang-undang, mungkin lebih mudah dikatakan daripada dilakukan. Pada masa akan datang, semasa kita berkembang bergantung pada A.I. yang lebih maju, ia dapat membuktikan mustahil.

"Algoritma ini tidak sengaja mereka bentuk sendiri menjadi mustahil untuk reboot atau dimatikan, tetapi ia sama-sama berkembang seperti itu, "kata Stuart Armstrong, seorang penyelidik di Institut Kemanusiaan Masa Depan, di Sidang Kemuncak Pirate 2016 pada hari Rabu. Ini bermakna bahawa perubahan dengan keputusan yang tidak disengajakan mungkin sukar untuk dibetulkan, dan ia mungkin bukan yang pertama A.I. untuk mencari sendiri dalam keadaan itu.

Penyelesaian Isaac Asimov adalah tiga hukum robotik, yang menjadikan ide-ide keras seperti tidak menyebabkan bahaya kepada manusia. Masalahnya, bahaya adalah agak subjektif dan terbuka untuk tafsiran. Manusia bekerja lebih banyak pada nilai-nilai, seperti pemahaman bahawa ia adalah buruk untuk menyebabkan kemudaratan dan menafsirkan keadaan, daripada bekerja pada beberapa peraturan keras bahawa mereka tidak boleh membahayakan.

"Ini kerana masalah seperti ini orang lebih tertarik sekarang menggunakan pembelajaran mesin untuk mendapatkan nilai daripada mencuba untuk mengodkannya secara tradisional," kata Armstrong. "Nilai stabil dengan cara yang lain tidak berada dalam A.I. Nilai-nilai mempertahankan diri secara intrinsik."

Tetapi dalam situasi ini, penting untuk mereka bentuk A.I. untuk menjadikannya terganggu semasa mereka berlari. Interruptibility selamat membolehkan perubahan dasar yang selamat, yang boleh mengelakkan akibat yang tidak diingini daripada nilai yang dipelajari. Sekiranya HAL 9000 pernah cuba menghentikan pintu pod dari pembukaan, adalah penting bahawa kita dapat mengenalpasti nilai-nilai A.I yang rosak, dan campur tangan tanpa mengambil sistem di luar talian.

$config[ads_kvadrat] not found