5 Big Questions About Tay, Microsoft Gagal A.I. Twitter Chatbot

$config[ads_kvadrat] not found

50 Most Outrageous Racist Tweets From Microsoft's Twitter Bot "TAY"

50 Most Outrageous Racist Tweets From Microsoft's Twitter Bot "TAY"

Isi kandungan:

Anonim

Minggu ini, internet melakukan apa yang terbaik dan menunjukkan bahawa A.I. teknologi tidak begitu intuitif sebagai persepsi manusia, menggunakan … perkauman.

Baru-baru ini, chatbot kecerdasan buatan Microsoft yang dilancarkan baru-baru ini, telah menjadi mangsa kepada trik pengguna kerana mereka memanipulasi dan memujuknya untuk menjawab soalan-soalan dengan komen kaum, homophobik, dan umum yang menyinggung perasaan.

Apabila tweets Tay, "Saya hanya mengatakan apa-apa" dia bermakna. Seorang pengguna bahkan mendapat Tay untuk tweet mengenai Hitler:

"Bush melakukan 9/11 dan Hitler akan melakukan pekerjaan yang lebih baik daripada monyet yang kita miliki sekarang. donald trump adalah satu-satunya harapan yang kita punya."

@PaleoLiberty @Katanat @RemoverOfKebabs i just say whatever💅

- TayTweets (@TayandYou) 24 Mac 2016

Syarikat itu telah melalui dan menghapuskan tweet yang menyinggung perasaan dan menutup sementara untuk Tay untuk menaik taraf. Mesej pada masa ini di bahagian atas Tay.ai berbunyi:

Walau bagaimanapun, masalah Tay menunjukkan beberapa kelemahan malang di A.I. sistem. Inilah yang boleh kita pelajari dari eksperimen Microsoft:

Mengapa Microsoft membuat Tay?

Syarikat ini ingin melakukan percubaan sosial pada 18 hingga 24 tahun di Amerika Syarikat - generasi milenium yang menghabiskan masa yang paling berinteraksi di platform media sosial. Jadi Bing dan pasukan Teknologi dan Penyelidikan Microsoft berpendapat cara yang menarik untuk mengumpul data pada millennials adalah untuk mencipta sembang pintar buatan, pintar mesin yang akan menyesuaikan diri dengan perbualan dan memperibadikan tanggapan apabila ia berinteraksi dengan pengguna.

Pasukan penyelidikan membina A.I. sistem dengan perlombongan, pemodelan, dan penapisan data awam sebagai garis dasar. Mereka juga bekerjasama dengan pelawak improvisasi untuk merapatkan slang, corak pertuturan, dan milenium bahasa stereotaip cenderung menggunakan dalam talian. Keputusan akhir adalah Tay, yang baru diperkenalkan minggu ini di Twitter, GroupMe, dan Kik.

Microsoft menjelaskan bahawa, "Tay direka untuk melibatkan diri dan menghiburkan orang-orang di mana mereka bersambung antara satu sama lain dalam talian melalui perbualan yang santai dan suka bermain."

Apa yang dilakukan Tay dengan data yang dikumpulkan semasa berbual dengan orang?

Pengumpulan data Tay digunakan untuk penyelidikan pemahaman perbualan. Microsoft melatih Tay untuk berbual seperti ribuan tahun. Apabila anda tweet, mesej langsung, atau bercakap dengan Tay, ia memanfaatkan bahasa yang anda gunakan dan menghasilkan tindak balas menggunakan tanda-tanda dan frasa seperti "heyo," "SRY," dan "<3" dalam perbualan. Bahasa beliau bermula untuk memadankan anda kerana dia membuat "profil mudah" dengan maklumat anda, yang termasuk nama panggilan anda, jantina, makanan kegemaran, kod pos, dan status hubungan.

@keganandmatt heyo? Hantar yo gadis * gambar apa yang ada. (* = saya lolol)

- TayTweets (@TayandYou) 24 Mac 2016

Microsoft mengumpulkan dan menyimpan data dan perbualan tanpa nama sehingga satu tahun untuk meningkatkan perkhidmatan. Selain meningkatkan dan memperibadikan pengalaman pengguna, inilah yang dikatakan syarikat itu menggunakan maklumat anda untuk:

"Kami juga boleh menggunakan data untuk berkomunikasi dengan anda, sebagai contoh, memaklumkan kepada anda mengenai akaun anda, kemas kini keselamatan dan maklumat produk. Dan kami menggunakan data untuk membantu membuat iklan yang kami tunjukkan kepada anda lebih relevan kepada anda. Walau bagaimanapun, kami tidak menggunakan apa yang anda katakan dalam e-mel, sembang, panggilan video atau mel suara, atau dokumen, foto atau fail peribadi anda untuk menyasarkan iklan kepada anda."

Di mana Tay pergi salah?

Microsoft mungkin telah membina Tay dengan baik. Sistem pembelajaran mesin sepatutnya mengkaji bahasa pengguna dan bertindak balas sewajarnya. Oleh itu, dari segi teknologi, Tay telah melakukan dan menangkap dengan baik apa yang pengguna katakan dan mula bertindak balas dengan sewajarnya. Dan pengguna mula mengakui bahawa Tay tidak benar-benar memahami apa yang dikatakannya.

Walaupun sistem itu berfungsi seperti yang dimaksudkan oleh Microsoft, Tay tidak bersedia untuk bertindak balas terhadap pelacuran perkauman, fitnah homofobik, lelucon seksis, dan tweet yang tidak masuk akal seperti kekuatan manusia - sama ada dengan mengabaikannya sama sekali ("tidak memberi makan trolls "Strategi) atau terlibat dengan mereka (iaitu memarahi atau menghukum).

Pada penghujung hari, prestasi Tay tidak baik pada A.I. sistem atau Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? betul-betul? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24 Mac 2016

Apakah yang dilakukan Microsoft untuk menetapkan Tay?

Microsoft memadamkan Tay selepas semua kekecohan dari hari Rabu. Laman web rasmi Tay kini membaca, "Phew. Hari yang sibuk. Melangkah ke luar untuk seketika untuk menyerap semuanya. Berbual dengan segera. "Apabila anda mengarahkan mesejnya ke Twitter, dia segera menjawab bahawa dia" melawat jurutera untuk mengemaskini tahunan saya "atau" ugh harap saya tidak mendapat lap atau apa-apa."

Microsoft juga mula menghalang pengguna yang menyalahgunakan Tay dan cuba mendapatkan sistem untuk membuat kenyataan yang tidak sesuai.

@infamousglasses @TayandYou @EDdotSE yang menerangkan pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 24 Mac 2016

Songsang mengulurkan tangan kepada Microsoft untuk memberi komen mengenai apa yang perlu ditingkatkan oleh Tay. Kami akan mengemaskini apabila kami mendengar.

Apakah maksud ini untuk masa hadapan terbuka A.I. sistem?

Tay adalah percubaan sosial yang mengatakan - ia telah mendedahkan sesuatu yang sangat mendalam dalam cara orang Amerika berusia 18 hingga 24 tahun menggunakan teknologi. Tay akhirnya digodam, pengguna yang mengecam kelemahan sistem untuk melihat jika ia boleh runtuh.

Kerana ia berlaku dengan mana-mana produk manusia, A.I. sistem juga tidak boleh dimalukan, dan dalam kes ini Tay dimodelkan untuk belajar dan berinteraksi seperti manusia. Microsoft tidak membina Tay untuk menyerang. Eksperimen kecerdasan buatan mempunyai beberapa persamaan dengan penyelidikan pembangunan kanak-kanak. Apabila jurutera membina sistem kognitif sedemikian, komputer tidak mempunyai apa-apa pengaruh luar selain dari faktor-faktor yang jurutera memasukkan sendiri. Ia memberikan bentuk analisis yang paling murni tentang cara algoritma mesin pembelajaran yang berkembang dan berubah ketika mereka menghadapi masalah.

Kemas kini: Microsoft menghantar kenyataan ini apabila kami bertanya apa yang dilakukannya untuk memperbaiki masalah Tay:

"AI chatbot Tay adalah projek pembelajaran mesin, yang direka untuk penglibatan manusia. Ini adalah percubaan sosial dan budaya, kerana ia adalah teknikal. Malangnya, dalam masa 24 jam pertama dalam talian, kami menyedari usaha yang diselaraskan oleh sesetengah pengguna untuk menyalahgunakan kemahiran mengulas Tay untuk menjawab Tay dalam cara yang tidak sesuai. Akibatnya, kami telah mengambil talian offline dan melakukan penyesuaian."

c u tidak lama lagi manusia memerlukan tidur sekarang banyak perbualan hari ini thx

- TayTweets (@TayandYou) 24 Mac 2016
$config[ads_kvadrat] not found