Adakah Microsoft Tay Fail Ujian Turing? Ya, tetapi Racisme Bukan Masalahnya

$config[ads_kvadrat] not found

Racist ‘Karen’ Attacks Postal Worker

Racist ‘Karen’ Attacks Postal Worker
Anonim

Jika kejayaan kecerdasan buatan adalah penciptaan tiruan keperibadian, Microsoft A.I. bot, Tay, mungkin dianggap tanda kemajuan. Tetapi lebih luas, Tay boleh dinilai kegagalan.

"Matlamat kebanyakan orang yang bekerja dalam ejen perbualan seperti ini, tidak begitu banyak untuk lulus apa-apa jenis ujian Turing, tetapi untuk benar-benar mempunyai arahan yang berguna bahasa yang bertindak balas dengan bijak kepada perkara dan memberi orang akses kepada pengetahuan," Miles Brundage, seorang Ph.D. pelajar yang mempelajari dimensi manusia dan sosial sains dan teknologi di Arizona State University memberitahu Songsang.

Microsoft menggambarkan beberapa masalah membina A.I. program minggu ini apabila dalam masa kurang dari 24 jam, internet telah mengubah apa yang dimaksudkan sebagai keperibadian, milenium, automatik, keperibadian Twitter ke papan bunyi untuk ucapan yang paling bersifat perkauman dan keji yang harus ditawarkan oleh troll.

Microsoft segera menutup eksperimen tersebut dan meminta maaf: "Kami sangat menyesal kerana tweet yang tidak disengajakan dan menyakitkan dari Tay, yang tidak mewakili siapa kami atau apa yang kami ada, dan bagaimana kami merancang Tay."

Ketika datang ke Ujian Turing, percobaan terkenal yang digunakan untuk menilai A.I, Brundage mengatakan ada, secara umum, dua sekolah pemikiran - literal dan teori.

Dibangunkan pada tahun 1950, Alan Turing berusaha untuk menjawab soalan itu, "Mesin boleh berfikir?" Dia meletakkan mesin melalui ujian tiruan, yang memerlukan pemerhati untuk menentukan jantina dua orang yang ditemu duga, salah satunya adalah A.I. Sekiranya komputer dapat menipu sejumlah pemerhati, maka ia telah lulus ujian.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23 Mac 2016

Jika kami menggunakan ujian ini secara literal, dalam Inverse's perbualan peribadi dengan Tay, dia menjawab soalan politik yang fasih, membuat rujukan kepada belenggu "mannnnn" pada masyarakat, dan menggunakan beberapa singkatan teks dan emojis biasa. Brundage berkata bahawa Tay memperlihatkan kelakuan milenium, tetapi jenis ini A.I. telah dibina sebelum ini.

"Mampu untuk menghasilkan kenyataan yang agak rumit di Twitter bukanlah benar-benar tumpuan keupayaan linguistik dan intelektual luas yang diingat Turing, kata Brundage. "Itu yang mengatakan, jika kita benar-benar mengambil ujian Turing secara harfiah, yang saya tidak fikir semestinya dianjurkan, satu varian adalah bahawa banyak komennya seolah-olah seperti manusia."

Tetapi jika kita mengambil pendekatan yang lebih luas seperti yang dicadangkan Brundage, maka jelas bahawa Tay tidak memaparkan ucapan manusia yang munasabah.

Microsoft sedang menguji apa yang dipanggil "pemahaman perbualan", sehingga semakin banyak orang yang dia ceramah melalui Twitter, GroupMe, dan Kik, semakin dia sepatutnya belajar dan menyesuaikan diri. Tetapi dia hanya mengulangi apa yang banyak pengguna lain menyusu dan hanya mengulangi kembali kepada dunia.

"Tay" pergi dari "manusia super sejuk" hingga penuh nazi dalam <24 jam dan saya sama sekali tidak bimbang tentang masa depan AI pic.twitter.com/xuGi1u9S1A

- Gerry (@geraldmellor) 24 Mac 2016

"Kebanyakan manusia tidak akan mengulangi selepas anda, semua yang anda katakan," kata Brundage.

Menyatakan "Bush melakukan 9/11" dan "Hitler akan melakukan pekerjaan yang lebih baik daripada monyet yang kita miliki sekarang," mungkin ada sesuatu yang sebenarnya ditafsirkan kepada Tay, tetapi itu bukan perbualan yang sopan.

"Argumennya, tujuannya dalam mengartikulasikan ujian Turing adalah kurang untuk menetapkan butir-butir beberapa ujian dan lebih untuk menimbulkan perasaan orang untuk berfikir 'pada tahap mana anda bersedia berada dalam sistem ini pintar,' dan untuk membuka pemikiran orang ramai untuk kemungkinan mesin boleh berfikir, "kata Brundage.

$config[ads_kvadrat] not found