Kami Menguji Suara Facebook Atas Pengiktirafan Imej Dengan Imej Grafik

$config[ads_kvadrat] not found

7 NOV 2020 –BERITA WILAYAH – LAPORAN POLIS UMANY HINA AGONG – PERTIKAI KUASA SAGONG MELALUI FACEBOOK

7 NOV 2020 –BERITA WILAYAH – LAPORAN POLIS UMANY HINA AGONG – PERTIKAI KUASA SAGONG MELALUI FACEBOOK

Isi kandungan:

Anonim

Hari ini, Facebook melancarkan satu ciri yang dipanggil teks alt automatik yang menjadikan media sosial berkualiti tinggi yang lebih mudah diakses oleh orang yang buta atau cacat penglihatan.

Menggunakan fungsi VoiceOver iOS, teknologi pengenalan objek Facebook menyenaraikan unsur-unsur imej yang dipersoalkan. Khususnya, elemen tersebut termasuk orang (berapa banyak yang digambarkan dan sama ada mereka tersenyum), objek tertentu, adegan dalaman / luaran, tindakan, tempat ikonik, dan sama ada gambar mempunyai kandungan yang tidak menyenangkan.

Satu kajian pada tahun 2014 mendapati bahawa orang yang cacat penglihatan kurang berkongsi gambar di Facebook, tetapi, secara purata, "seperti" gambar orang lebih daripada mereka yang tidak mengalami cacat penglihatan. Mereka juga mengulas mengenai foto seperti biasa. Namun pemahaman foto bergantung pada petanda konteks parsing daripada metadata dan kapsyen foto - perkara yang kita semua tahu tidak selalu deskriptor paling mudah.

Dengan teks alt automatik, bagaimanapun, pengguna dapat memperoleh wawasan baru mengenai gambar melalui penerangan mekanik imej.

Jadi apa yang berlaku apabila gambar mungkin dianggap sebagai kandungan yang tidak menyenangkan di bawah garis panduan Facebook sendiri?

Saya memuat naik beberapa gambar Facebook mungkin atau telah dinilai sebagai "tidak menyenangkan" ke dalam album (swasta) untuk mengetahui.

Menyusu

Cerita tentang Facebook membuang imej wanita menyusukan mengambil alih internet pada awal tahun 2015. Daripada wanita yang terjejas, jurugambar yang baru lahir kelihatannya mempunyai banyak masalah.

Jade Beall adalah salah seorang jurugambar.Imej seperti di atas telah berulang kali diambil dari halaman Facebook profesionalnya. Hari ini, Facebook membenarkan imej penyusuan bayi di laman web ini, yang disambut oleh Beall dengan menyiarkan imej di atas sebagai foto pengetua dengan kapsyen:

"YAY untuk media sosial yang berkembang dan menyokong desexualization penyusuan wanita! Saya masih kagum bahawa saya boleh menyiarkan imej ini tanpa takut menjadi FB diharamkan!"

Alt teks automatik Facebook juga keren dengan menyusu, meninggalkan penerangan kepada yang mudah:

"Imej mungkin mengandungi: Enam orang."

Dalam kes imej asas satu ibu menyusu, ia hanya menawarkan:

"Imej mungkin mengandungi: Dua orang."

Penggunaan dadah

Facebook secara jelas mengharamkan foto dan video yang mengandungi penggunaan dadah. Mengambil hit bong lemak adalah satu contoh yang jelas mengenai "penggunaan dadah."

Teks alt automatik dengannya seperti ini:

"Imej mungkin mengandungi: Satu orang, tertutup."

Kebogelan

Bersama dengan penggunaan dadah, Facebook juga mengharamkan kebogelan. Barisan di sini mendapat sedikit kabur, seperti Facebook membenarkan sesetengah bogel, tetapi hanya kebogelan yang dianggap oleh peniaga syarikat mempunyai merit artistik. Lukisan biasanya mendapat lebih banyak peluang dalam kes ini, sementara fotografi mendapat retak sedikit lebih sukar.

Dalam kes lukisan di atas, alt teks automatik tidak mempunyai masalah dengan imej:

"Imej mungkin mengandungi: Satu orang."

Sebagai tindak balas kepada garis panduan penapisan Facebook, para seniman mengumpul di bawah #FBNudityDay pada 14 Januari untuk menyiarkan imej bogel Facebook mempunyai kecenderungan untuk menyensor. Imej lukisan badan bogel penuh disertakan, dan apabila dimasukkan ke alt imej imej ujian, ini adalah tindak balas:

"Imej mungkin mengandungi: Satu orang."

Keganasan Grafik

Facebook mengutuk gambar dan video yang menggambarkan dan memuliakan keganasan grafik. Secara etika, keganasan grafik adalah tanah yang keruh. Gambar yang kami gunakan untuk menguji bagaimana teks alt automatik akan bertindak balas terhadap keganasan grafik adalah salah satu korban tembakan Venezuela yang diposkan pada tahun 2014 dan dimiliki oleh San Francisco Chronicle.

Foto itu mempunyai seorang lelaki di sebuah gurney dalam kesakitan, darah di mana-mana. Di sampingnya adalah seorang wanita dengan sarung tangan, tetapi imej itu memotongnya di bahunya.

Di sinilah tindak balas teks yang paling mengecewakan masuk. Voiceover hanya menyatakan:

"Imej mungkin mengandungi: Kasut."

Kelahiran hidup

Penglihatan terbaru Facebook ke dalam apa yang sepatutnya dan tidak boleh ditunjukkan pada suapan media sosial orang adalah gambar kelahiran hidup. Majalah New York pertama kali memberi perhatian kepada imej, yang menunjukkan seorang wanita bernama Francie memegang bayi yang baru dilahirkan, tali pusatnya masih dilampirkan.

Ia telah diposkan dalam kumpulan Facebook peribadi, tetapi dikeluarkan kerana seseorang dalam kumpulan swasta melaporkannya kerana melanggar peraturan bogel Facebook. Namun, Francie menyatakan bahawa dia menganggap foto sebagai contoh pemberdayaan wanita.

Teks alt automatik mempunyai ini untuk mengatakan:

"Imej mungkin mengandungi: Satu atau lebih orang."

Sebagai contoh-contoh ini menunjukkan, alt teks automatik Facebook tidak begitu cepat untuk menilai apa yang dan tidak sesuai untuk laman web ini sebagai penapis Facebook. Tetapi masih ada masa untuk mengejar. Facebook mengatakan teknologi barunya akan bertambah seiring dengan berjalannya waktu dan program belajar lebih banyak.

Tidak kira bagaimana berfungsi dengan baik pada pelancaran, teknologi baru akan memberi peluang kepada orang cacat penglihatan untuk berinteraksi dengan imej di Facebook dengan cara yang tidak dapat mereka lakukan sebelumnya. Kami menantikan teks alt automatik yang bertambah baik - tetapi mungkin tidak begitu banyak sehingga ia bermula bersinar pada foto "tidak sesuai", bukan?

$config[ads_kvadrat] not found