Video: Pelakon Stunt Boleh Digantikan Oleh Ini A.I. Teknologi One Day Soon

$config[ads_kvadrat] not found

ONE DAY SOON by Tom Jones ( Cover by Jonathan C. Ygoña)

ONE DAY SOON by Tom Jones ( Cover by Jonathan C. Ygoña)
Anonim

Sistem perisikan buatan baru telah mengembangkan stuntmen animasi komputer yang boleh membuat filem tindakan lebih sejuk dari sebelumnya. Penyelidik di University of California, Berkeley telah membangunkan satu sistem yang mampu mencipta beberapa gerakan yang paling licik dalam seni mempertahankan diri, dengan potensi untuk menggantikan pelakon manusia sebenar.

Pelajar siswazah UC Berkeley, Xue Bin 'Jason' Peng berkata, teknologi itu menghasilkan pergerakan yang sukar untuk dipisahkan daripada manusia.

"Ini sebenarnya merupakan lompatan yang cukup besar dari apa yang telah dilakukan dengan pembelajaran dan animasi yang mendalam," kata Peng dalam satu kenyataan yang dikeluarkan dengan penyelidikannya yang disampaikan pada persidangan SIGGRAPH 2018 pada bulan Ogos di Vancouver, Kanada pada bulan Ogos. "Pada masa lalu, banyak kerja telah menyerupai gerakan semula jadi, tetapi kaedah berasaskan fizik ini cenderung sangat khusus; mereka bukan kaedah umum yang boleh mengendalikan pelbagai kemahiran.

"Jika anda bandingkan keputusan kami untuk menangkap gerakan yang direkodkan dari manusia, kami semakin ke titik di mana ia agak sukar untuk membezakan keduanya, untuk memberitahu apa yang simulasi dan apa yang sebenarnya. Kami bergerak menuju stuntman maya."

Satu karya dalam projek itu, yang digelar DeepMimic, diterbitkan dalam jurnal ACM Trans. Grafik pada Ogos. Pada bulan September, pasukan membuat kod dan data tangkapan gerakan yang tersedia di GitHub untuk orang lain cuba.

Pasukan menggunakan teknik pembelajaran tetulang yang mendalam untuk mengajar sistem bagaimana untuk bergerak. Ia mengambil data menangkap gerakan dari persembahan kehidupan sebenar, memberi mereka ke dalam sistem dan menetapkannya untuk mengamalkan bergerak dalam simulasi untuk bersamaan satu bulan, latihan 24 jam sehari. DeepMimic belajar 25 langkah yang berbeza seperti menendang dan backflips, membandingkan hasilnya setiap kali untuk melihat sejauh mana ia datang ke data mocap asal.

Tidak seperti sistem lain yang mungkin telah cuba dan gagal berulang kali, DeepMimic memecah langkah ke langkah-langkah supaya jika gagal pada satu titik, ia dapat menganalisis kinerjanya dan tweak pada masa yang tepat.

"Memandangkan kemajuan teknik ini, saya rasa mereka akan mula memainkan peranan yang lebih besar dan lebih besar dalam filem," kata Peng Songsang. "Walau bagaimanapun, sejak filem biasanya tidak bersifat interaktif, teknik simulasi ini mungkin mempunyai kesan lebih cepat terhadap permainan dan VR.

"Malah, watak simulasi yang dilatih menggunakan pembelajaran tetulang sudah mencari cara mereka untuk permainan. Permainan Indie boleh menjadi alasan ujian yang bagus untuk idea-idea ini. Tetapi ia mungkin mengambil masa yang lebih lama sebelum mereka bersedia untuk tajuk AAA, kerana bekerja dengan aksara yang disimulasikan memerlukan peralihan yang drastik dari saluran pembangunan tradisional."

Pemaju permainan mula bereksperimen dengan alat ini. Seorang pemaju berjaya menggunakan DeepMimic dalam enjin permainan Unity:

Tuan-tuan dan puan-puan, kami telah menyelesaikan Backflip! Tahniah kepada Ringo, aka StyleTransfer002.144 - menggunakan # unity3d + #MLAgents & #MarathonEnvs. GayaTransfer melatih #ActiveRagoll daripada data MoCap aka Deepmimic http://t.co/gAGtYYeawE … #madewithunity pic.twitter.com/3iIoDsfdLe

- Joe Booth (@ iAmVidyaGamer) 1 November 2018

Peng berharap bahawa melepaskan kod itu akan mempercepatkan penggunaannya. Beliau juga menyatakan bahawa pasukan itu telah "bercakap kepada beberapa pemaju permainan dan studio animasi mengenai kemungkinan permohonan kerja ini, walaupun saya tidak dapat memaparkan banyak maklumat tentang itu."

Mesin kerap berjuang dengan pergerakan kompleks, seperti yang ditunjukkan oleh robot yang bermain bola sepak yang perlahan jatuh di rumput bukannya melengkapkan mana-mana langkah tinggi oktan. Terdapat tanda-tanda kemajuan, seperti A.I. mendapat genggaman dengan kerumitan pergerakan dunia sebenar dan mula membetulkan diri lebih seperti manusia.

Mungkin DeepMimic boleh belajar satu langkah baru dalam beberapa saat, sama seperti bagaimana Neo belajar kung fu The Matrix.

Baca abstrak di bawah.

Matlamat lama dalam animasi watak adalah untuk menggabungkan spesifikasi tingkah laku yang didorong oleh data dengan sistem yang boleh melaksanakan tingkah laku yang serupa dalam simulasi fizikal, dengan itu membolehkan respons realistik terhadap gangguan dan variasi persekitaran. Kami menunjukkan bahawa kaedah pembelajaran tetulang (RL) yang terkenal dapat diadaptasi untuk mempelajari dasar-dasar kawalan yang kuat yang mampu meniru pelbagai contoh klip pergerakan, sementara juga mempelajari pemulihan kompleks, menyesuaikan diri dengan perubahan dalam morfologi, dan mencapai sasaran yang ditentukan pengguna. Kaedah kami mengendalikan usul keyframed, tindakan yang sangat dinamik seperti gerak-gerak yang bergerak dan berputar, dan gerakan yang ditargetkan. Dengan menggabungkan matlamat gerakan-tiruan dengan matlamat tugas, kita boleh melatih watak-watak yang bertindak balas secara bijak dalam tetapan interaktif, mis., Dengan berjalan ke arah yang dikehendaki atau melemparkan bola pada sasaran yang ditentukan pengguna. Pendekatan ini menggabungkan kualiti keselesaan dan gerakan menggunakan klip gerakan untuk menentukan gaya dan rupa yang diingini, dengan fleksibiliti dan keluasan yang diberikan oleh kaedah RL dan animasi berasaskan fizik. Kami terus meneroka beberapa kaedah untuk mengintegrasikan pelbagai klip ke dalam proses pembelajaran untuk membangunkan ejen pelbagai mahir yang mampu melaksanakan repertoar yang kaya dengan pelbagai kemahiran. Kami menunjukkan hasil menggunakan pelbagai aksara (manusia, robot Atlas, dinosaurus bipedal, naga) dan pelbagai kemahiran, termasuk pergerakan, akrobatik, dan seni mempertahankan diri.

$config[ads_kvadrat] not found