Apple iPhone X Tidak Boleh Beritahu Selain Wajah Cina, Bayaran Balik Diberi

$config[ads_kvadrat] not found

iPhone hacker puts headphone jack back - BBC News

iPhone hacker puts headphone jack back - BBC News
Anonim

Minggu lalu, di Nanjing, sebuah bandar utama di timur China, seorang wanita bernama Yan dua kali menawarkan bayaran balik dari Apple untuk iPhoneX yang rosak, yang rakannya dibuka dengan menggunakan teknologi pengenalan muka. Kedua-dua wanita adalah etnik Cina.

Yan memberitahu berita tempatan bahawa kali pertama ini berlaku, dia memanggil talian hotline iPhone, tetapi mereka tidak mempercayainya. Tidak sampai dia dan rakannya pergi ke kedai Apple tempatan dan menunjukkan kakitangan kedai bahawa mereka menawarkan pengembalian dana dan dia membeli telefon baru, memikirkan kemungkinan kamera yang salah itu disalahkan.

Tetapi telefon kedua mempunyai masalah yang sama, menunjukkan bahawa ia bukan kamera yang salah, seperti yang dicadangkan oleh pekerja toko, tetapi masalah dengan perisian itu sendiri.

Ini tidak akan menjadi kes pertama di mana perisian pengenalan muka, dan AI di belakangnya, mempunyai masalah untuk mengenali muka bukan putih.

Pada tahun 2015, Google Photos secara tidak sengaja menandakan foto dua orang Afrika-Amerika sebagai gorila, sementara pada tahun 2009, komputer HP http://www.youtube.com/watch?v=t4DT3tQqgRM) menghadapi masalah mengenali dan menjejaki muka hitam - tetapi tiada masalah dengan muka putih. Pada tahun yang sama, perisian kamera Nikon telah ditangkap salah menyerang wajah Asia sebagai berkelip.

Foto Google, awak juga kacau. Rakan saya bukan gorila. pic.twitter.com/SMkMCsNVX4

- Jacky (@jackyalcine) 29 Jun 2015

"Ini pada dasarnya adalah masalah data," tulis Kate Crawford, seorang penyelidik utama di Microsoft dan pengerusi bersama Rumah Simposium Obama House of the Society dan A.I. "Algoritma belajar dengan diberi imej tertentu, sering dipilih oleh jurutera, dan sistem ini membina model dunia berdasarkan imej-imej tersebut. Sekiranya sistem dilatih pada foto orang yang sangat putih, ia akan mempunyai masa yang lebih sukar untuk mengenali wajah kulit putih."

Jacky Alcine, programmer yang berpangkalan di Brooklyn yang gambarnya salah dikatakan oleh Google, bersetuju. Dari pengalamannya, dia berkata, "Ini boleh dielakkan dengan mengklasifikasikan orang kulit hitam yang tepat dan lengkap."

Tetapi perkauman yang dikodkan ke AI, walaupun ia tidak disengajakan, mempunyai implikasi yang hanya di luar pengiktirafan muka.

Siasatan proPublica pada tahun 2016 mendapati penjenayah hitam dua kali lebih mungkin tersilap ditandai sebagai kemungkinan untuk mengembalikan jenayah daripada penjahat putih, sementara trend "penggeladanan ramalan" semakin meningkat menggunakan algoritma untuk meramalkan jenayah dan sumber polis langsung.

Namun komuniti minoriti telah secara sejarah lebih diperiksa, yang membawa kepada kemungkinan bahawa "risiko perisian ini melestarikan kitaran yang dahsyat," kata Crawford.

Kembali ke Nanjing, China, Yan menerima bayaran balik kedua pada iPhoneX kedua. Dari laporan berita tempatan, tidak jelas apakah dia kemudian membeli sepertiga.

Apa yang dipertaruhkan, kali ini, mungkin baru menjadi pengguna tunggal. Tetapi kes Yan adalah contoh keperluan yang berterusan untuk industri teknologi untuk merekabentuk dengan kepelbagaian dan keterangkuman dalam fikiran.

$config[ads_kvadrat] not found