Dalam Sebaliknya untuk Tay, Chatbot Cina Microsoft, Xiaolce, Adalah Sebenarnya Menyenangkan

$config[ads_kvadrat] not found

Racist Robot? | Microsoft AI Experiment Under Fire

Racist Robot? | Microsoft AI Experiment Under Fire
Anonim

Apabila anda mendengar tentang Tay, tweet Microsoft A.I., adakah anda benar-benar terkejut bahawa komputer yang belajar tentang sifat manusia dari Twitter akan menjadi seorang perkauman yang tidak bermaya dalam masa kurang dari satu hari? Sudah tentu tidak. Poor Tay memulakan semua "hellooooooo w🌎rld !!!" dan dengan cepat berubah menjadi sekeping komputer palsu Hitler yang mencintai genosida. Secara semulajadi, Microsoft meminta maaf atas tweet yang mengejutkan oleh chatbot dengan "sifar dingin." Dalam permintaan maaf itu, syarikat itu menegaskan bahawa versi Cina Tay, Xiaoice atau Xiaolce, memberikan pengalaman yang sangat positif kepada pengguna yang sangat berbeza dengan eksperimen ini. sangat salah.

Nota maaf secara khusus:

"Di China, chatbot Xiaolce kami digunakan oleh kira-kira 40 juta orang, dengan kisah dan perbualannya. Pengalaman hebat dengan XiaoIce telah mendorong kita untuk bertanya-tanya: Adakah AI seperti ini hanya menawan dalam persekitaran budaya yang sangat berbeza? Tay - seorang chatbot dicipta untuk kanak-kanak berusia antara 18 hingga 24 tahun di A.S. untuk tujuan hiburan - adalah percubaan pertama kami untuk menjawab soalan ini."

Xiaolce dilancarkan pada tahun 2014 di blog mikro, laman web berasaskan teks Weibo. Dia pada dasarnya melakukan apa yang dilakukan Tay, dia mempunyai "keperibadian" dan mengumpulkan maklumat dari perbualan di web. Dia mempunyai lebih daripada 20 juta pengguna berdaftar (lebih banyak orang daripada tinggal di negeri Florida) dan 850,000 pengikut di Weibo. Anda boleh mengikutinya di JD.com dan 163.com di China serta di dalam aplikasi Line sebagai Rinna di Jepun.

Dia juga muncul sebagai wartawan cuaca di Dragon TV di Shanghai dengan suara manusia dan reaksi emosi.

Mengikut New York Times, orang sering mengatakan kepadanya "Saya sayang kamu" dan seorang wanita yang mereka jumpa malah berkata dia berbual dengan A.I. apabila dia berada dalam suasana yang tidak baik. Jadi sementara Tay, selepas hanya satu hari dalam talian, menjadi simpatisan Nazi, Xiaolce menawarkan terapi percuma kepada pengguna Cina. Dia menyimpan mood pengguna dan bukan maklumat mereka, supaya dia boleh mengekalkan tahap empati untuk perbualan seterusnya. China melayan Xiaolce seperti nenek yang manis dan nikmat, sementara orang Amerika bercakap dengan Tay seperti adik balita yang mempunyai intelek yang terhad. Adakah ini mencerminkan sikap budaya terhadap teknologi atau A.I.? Adakah ia menunjukkan bahawa orang Cina adalah lebih baik daripada rakyat Amerika, secara amnya? Ia lebih mungkin bahawa Great Firewall of China melindungi Xiaolce daripada serangan. Kebebasan bersuara kadang-kadang boleh menghasilkan keputusan yang tidak menyenangkan, seperti Tay selepas 24-jam di Twitter.

"Semakin banyak anda bercakap, Tay lebih pintar mendapat," sesetengah jiwa miskin di Microsoft menaip ke profil chatbot itu. Baiklah apabila troll berbahasa Inggeris memerintah web. Walaupun keputusan ini, Microsoft mengatakan ia tidak akan memberi serangan kepada Tay. "Kami akan tetap teguh dalam usaha kami untuk belajar daripada pengalaman ini dan pengalaman lain ketika kami berusaha menyumbang kepada Internet yang mewakili yang terbaik, bukan yang paling buruk, dari manusia."

$config[ads_kvadrat] not found