Imej Pixelated Tiada Padanan untuk Pengiktirafan Muka Cornell Tech A.I.

$config[ads_kvadrat] not found

FIX Pixelated Effects In Illustrator ((SOLVED)) Perfect Gaussian Blur Effect

FIX Pixelated Effects In Illustrator ((SOLVED)) Perfect Gaussian Blur Effect
Anonim

Tiga penyelidik di Cornell Tech di New York City mendapati bahawa imej yang kabur dan piksel tidak sesuai dengan kecerdasan buatan. Walaupun imej yang tidak jelas masih tidak dapat dimengerti oleh mata manusia, dan seolah-olah melindungi kandungan sensitif mereka, rangkaian saraf sering boleh menentukan siapa yang berada dalam imej asal.

Dalam erti kata lain, manusia tidak lagi ujian litmus. Kita tidak boleh lagi bertanya sama ada sesuatu mengalahkan semua otak manusia. A.I.s - walaupun A.I.s mudah - boleh mengalahkan manusia, jadi mengalahkan mereka, mesti selalu menjadi sebahagian daripada persamaan.

Kajian penyelidik Cornell Tech menumpukan pada pengujian algoritma-algoritma pemeliharaan, yang mengaburkan atau menyoroti maklumat tertentu atau bahagian gambar. Sebelum ini, kami mempercayai perisian atau algoritma yang memelihara privasi secara tersirat, memikirkan bahawa maklumat yang dikaburkan adalah selamat kerana tidak ada manusia boleh memberitahu siapa yang berada di belakang jilbab digital. Kajian menunjukkan bahawa era itu telah berakhir, dan kaedah-kaedah anonimasi yang berkaitan tidak akan bertahan lama. Rangkaian saraf, bertemu dengan langkah-langkah privasi ini, tidak dikuasai.

Richard McPherson adalah Ph.D. calon dalam sains komputer di University of Texas, Austin, yang mengikuti profesornya, Vitaly Shmatikov, kepada Cornell Tech. Bersama-sama, bersama Reza Shokri, mereka menunjukkan bahawa rangkaian neural yang sederhana dapat membongkar teknik penggumpalan imej umum. Teknik ini agak canggih, yang membuat penemuan lebih membimbangkan: Ini adalah kaedah biasa, yang boleh diakses, dan mereka dapat mengalahkan norma-norma industri untuk mengelirukan.

Rangkaian saraf adalah struktur besar nod, atau neuron buatan, yang meniru struktur asas otak. Mereka "berasaskan pemahaman yang mudah tentang bagaimana neuron berfungsi," kata McPherson Songsang. "Berikannya beberapa input, dan neuron sama ada api atau tidak api."

Mereka juga mampu "belajar," dengan takrif kasar istilah itu. Sekiranya anda menunjukkan sesuatu yang "merah," dan memberitahu mereka untuk memilih semua perkara "merah" dari baldi, mereka akan berjuang pada mulanya tetapi bertambah baik dari masa ke masa. Begitu juga dengan rangkaian saraf. Pembelajaran mesin hanya bermaksud mengajar komputer untuk memilih perkara-perkara "merah", contohnya, dari baldi maya dari pelbagai perkara.

Itulah bagaimana McPherson dan syarikat melatih rangkaian saraf mereka. "Dalam sistem kami, kami membuat model - seni bina rangkaian saraf, satu set berstruktur neuron buatan ini - dan kemudian kami memberi mereka sejumlah besar imej yang terungkap," katanya. "Sebagai contoh, kita boleh memberikan mereka seratus gambar yang berbeza dari Carol yang telah piksel, kemudian seratus gambar yang berbeza dari Bob yang telah pixelated."

Para penyelidik kemudian melabel imej pixelated ini, dan dengan berbuat demikian, beritahu model yang ada dalam setiap imej. Selepas memproses data ini, rangkaian berfungsi secara fizikal dengan apa yang kelihatan seperti Pixelated Bob dan Pixelated Carol. "Kami kemudian dapat memberikan gambar pixel yang berbeza dari Bob atau Carol, tanpa label," McPherson menerangkan, "dan ia boleh meneka dan berkata, 'Saya rasa ini Bob dengan ketepatan 95 peratus.'"

Model ini tidak membina semula imej yang tersembunyi, tetapi hakikat bahawa ia dapat mengalahkan kaedah-kaedah anonimasi yang paling biasa dan dahulunya yang paling dipercayai adalah membingungkan dalam dan dari dirinya sendiri. "Mereka dapat memikirkan apa yang sedang dibongkar, tetapi mereka tidak tahu apa yang awalnya kelihatan," kata McPherson.

Tetapi rangkaian saraf masih dapat melakukannya jauh lebih baik daripada manusia. Apabila imej-imej tersebut dikelilingi dengan menggunakan satu teknik standard industri, sistem itu masih lebih 50 peratus tepat. Untuk imej yang kurang digelapkan, sistem terbukti luar biasa, dengan ketepatan sekitar 70 peratus. Norma YouTube untuk mengaburkan muka gagal sepenuhnya; walaupun imej yang paling buram diterbangkan oleh rangkaian saraf, yang terbukti 96 peratus tepat.

Selain itu, data, teks, dan teknik anonimisasi yang tidak dapat diterbitkan juga tidak dapat dipercayai. "Terdapat kerja sepanjang musim panas yang melihat teks tanpa nama menggunakan pixelation dan blurring, dan menunjukkan bahawa mereka juga dapat dipecahkan," kata McPherson. Dan kaedah lain yang dapat dipercaya mungkin dalam perjalanan keluar pintu juga. Walaupun dia tidak tahu teknik penyembunyian suara, seperti yang digunakan untuk wawancara TV tanpa nama, dia "tidak akan terkejut" sekiranya rangkaian saraf boleh memecahkan pengiktirafan.

Penemuan McPherson, kemudian, membuktikan bahawa "kaedah pemeliharaan privasi yang kami alami pada masa lalu tidak benar-benar terkena tembakau, terutama dengan teknik pembelajaran mesin moden." Dengan kata lain, kami sedang mengodkan diri ke dalam ketidakpatuhan, mesin latihan untuk mengalahkan kita dalam semua alam.

"Apabila kekuatan pembelajaran mesin berkembang, tradeoff ini akan memihak kepada musuh," kata penyelidik.

$config[ads_kvadrat] not found