Bagaimana Teori Ninja Menjadikan Cinematik 'Hellblade' dalam Masa Nyata

$config[ads_kvadrat] not found

AMONG US SONG "I Saw You Vent" feat. Flak [OFFICIAL ANIMATED VIDEO]

AMONG US SONG "I Saw You Vent" feat. Flak [OFFICIAL ANIMATED VIDEO]
Anonim

Teori Ninja membawa beberapa teknologi yang belum pernah terjadi sebelumnya kepada permainan video mereka yang akan datang Hellblade: Pengorbanan Senua: Keupayaan untuk menembak, membuat, dan menyunting adegan untuk permainan dalam beberapa minit berbanding hari.

Seperti tradisi dengan Teori Ninja, Hellblade bukanlah blockbuster biasa - ia mengikuti perjalanan Senua, seorang pahlawan Celtic yang menentang penyakit mental. Memandangkan minat studio untuk membuat cerita-cerita yang lebih kecil dalam watak seperti permainan Enslaved dan DmC (walaupun pada skala serupa dengan triple-A), menggunakan teknologi untuk meningkatkan prestasi emosi seolah-olah seperti perkembangan semula jadi.

Teknologi itu sendiri, yang Teori Ninja memanggil "sinematografi masa nyata" selepas demo baru-baru ini yang ditunjukkan pada persidangan VFX SIGGRAPH, pada dasarnya menangkap prestasi pelakon yang dimainkan dalam masa nyata kerana ia akan berada pada satu set filem kemudian memindahkan yang diberikan data ke Sequencer, alat baru seperti Adobe Premiere untuk Unreal Engine 4.

Dari sana, data prestasi yang ditangkap hanya - animasi, suara, dan pergerakan yang dirakam - boleh dimanipulasi dalam beberapa cara seperti segmen filem yang linear, hanya pemaju bebas untuk menyesuaikan, mengubah atau mengedit perkara seperti lampu atau sudut kamera dengan cepat. (Oleh kerana data adalah masa nyata, bahkan mungkin untuk mengubah keseluruhan atau menambah kamera baru ke tempat kejadian.)

Untuk pengasas dan pengarah kreatif Ninja Theory, Tameem Antoniades, menembak segala-galanya di dalam rumah menggunakan teknologi membuat semua perbezaan.

"Kita boleh melompat dan menembak adegan seperti yang kita perlukan. Kita tidak perlu melakukannya dalam satu pukulan empat minggu, "kata Antoniades mengenai kaedah lama studio itu. Ia sebelum ini melibatkan tempahan blok waktu di sebuah studio rakaman mottion untuk menangkap persembahan permainan sekaligus. "Kami terpaksa menembak segala-galanya untuk permainan di sana, dan kemudian membina permainan di sekitar apa yang kita tembak."

Kacang-kacangan dan bolt teknikal adalah sangat kompleks dan melibatkan banyak tangan. Selain daripada bekerja dengan Epic, yang membantu memberi sokongan kepada Sequencer dan Unreal sendiri, teknologi penangkapan muka digunakan dari syarikat software mo-cap yang berasingan, Cubic Motion, sementara studio prestasi muka 3 yang berpangkalan di Serbia telah dibawa untuk membantu membuat kepala maya yang realistik - dan itu hanya beberapa rakan niaga luar Ninja.

Middleware menangkap muka Cubic Motion dan data yang diambil oleh 3Lateral - yang memerlukan pelakon Melina Juergens untuk pergi ke Novi Sad untuk melahirkan wajahnya dalam pelbagai cara - digunakan sebagai asas digital untuk menangkap dengan tepat apa-apa prestasi masa nyata. (Nasib baik, Juergens adalah editor video Theory's Ninja, jadi kesediaannya untuk menembak adegan bukan isu.)

Tetapi Hellblade telah bermula dari keinginan untuk membuat sesuatu yang sepenuhnya bebas pada skala triple-A, dan dilakukan dengan cekap dan murah yang mungkin. Setakat ini, kerja mereka bercakap untuk dirinya sendiri, dan semacamnya dibina oleh pasukan 16 orang sahaja.

Antoniades mengatakan bahawa pengeluaran yang agak padat, dengan tumpuan yang ketat pada satu karakter, yang menjadikannya sama sekali.

"Kami membina ruang penangkapan prestasi yang boleh melakukan jenis perkara yang kami lakukan sebelum, tetapi kami membinanya mungkin seperti $ 20,000 hingga $ 30,000. Yang super, murah berbanding dengan jenis setup yang kami bekerjasama, "katanya. "Walaupun rasanya sangat berteknologi tinggi, terlalu mahal, ini bukannya - ini cara yang lebih berkesan untuk menembak, semangat segala yang dilakukan."

Untuk membantu studio terus memecah bank, beberapa rakan meminjamkan peralatan dan memberikan kepakaran teknikal manakala Antoniades dan pasukannya membuat usaha yang sadar untuk memastikan kos peralatan serendah mungkin. Menggunakan sembilan kamera kamera di ruang kira-kira tiga atau tiga meter, jauh lebih kecil daripada setup utama studio dua puluh dua meter, adalah bantuan yang besar.

"Terdapat banyak kompromi yang kami buat," kata Antoniades. "Rigging kami untuk memasang kamera yang kami beli dari IKEA. Mereka adalah tiang almari pakaian. Lampu yang kami perlukan - mereka lampu pejabat yang kami beli dari Amazon. Kami hanya mengambil penyelesaian yang paling murah pada setiap masa untuk dapat menangkap satu aksara."

Keterbukaan studio mengenai pembangunan adalah yang menyebabkan ketua pegawai teknologi Epic Kim Libreri meminta Antoniades jika Ninja Theory mahu melakukan persembahan secara langsung dengan pelakon Senua di GDC pada bulan Mac; apabila ia berjaya, pasukan itu bekerja dengan rakan-rakan mereka untuk menembak dan membuat keseluruhan cutscene dalam masa tujuh minit untuk persembahan SIGGRAPH pada bulan Jun dengan menggunakan Sequencer untuk memindahkan data yang dimampatkan ke Enjin Unreal.

Tidak seperti demo GDC yang lebih dilucutkan, persembahan SIGGRAPH (yang mereka lakukan di hadapan penonton 2,500 profesional industri VFX) menunjukkan Senua bercakap dengan seorang doppelganger, dengan Antoniades menangkap kedua-dua bahagian Juergens yang terkunci ketika mereka berlaku. Setelah menangkap doppelganger, Teori Ninja mendapat bantuan dari Epic, Mubian Cubic, dan 3Hateral di atas pentas untuk memastikan data sedang ditangkap dengan betul dan seterusnya dimasukkan ke dalam antara muka gaya penyunting video Sequencer.

Akhirnya, data itu dimainkan semula sebagai Antoniades memfilmkan Juergens buat kali kedua, kini bermain Senua sebenar, berbanding prestasi pertamanya - pada masa yang sama menangkap gerakan dan tumpuan kamera itu sendiri. Untuk prestasi mereka, Teori Ninja menerima anugerah grafik dan interaktif yang terbaik bagi SIGGRAPH.

Apa yang membuat teknologi begitu beralih adalah bahawa walaupun studio yang terbaik dalam membuat filem kini menghasilkan visual yang begitu dekat dengan seni akhir seperti ini. Sebaliknya mereka menggunakan proses yang dipanggil pra-visualisasi, yang berfungsi sedikit seperti garis animasi real-time, menggunakan geometri asas yang diberikan untuk mengukur pemblokiran dan tindakan adegan. Untuk pergi dari kasar ke depan ke imej akhir biasanya mengambil masa beberapa bulan, dan kurang terperinci, terutamanya kerana ketiadaan penangkapan muka.

"Jika anda dapat melihat watak secara langsung, bayangkan semua perkara yang boleh anda lakukan dengan itu," kata Antoniades. "Dengan SIGGRAPH kami fikir, 'kami mendapat peluang untuk melakukan sesuatu yang tidak boleh dilakukan pada set filem.' Studio filem dengan berjuta-juta dolar tidak mempunyai teknologi ini."

Ia memberi manfaat kepada perkembangan keseluruhan keseluruhan.

"Oleh kerana kita mempunyai set kami sendiri, kita boleh melompat dan menembak adegan seperti yang kita perlukan," katanya. "Kami melakukannya lebih organik - seperti tahap pembinaan, kami boleh melompat masuk dan menembak adegan untuk tahap itu, atau jika kami memerlukan adegan tambahan, melompat masuk dan menembak mereka. Ia masih selaras dengan naratif dan kisah itu, ia hanya membuat adegan sedikit lebih sejuk, jadi kita boleh menarik beberapa teknik Senua yang kita tidak akan ada."

Walaupun Antoniades mengatakan sifat sebenar masa kini teknologi mungkin tidak akan memberi kesan yang ketara pada sama ada cerita atau bermain permainan ini (selain daripada cutscenes eksperimen), dia yakin ia boleh digunakan untuk jenis pengalaman dan hiburan baru dalam masa terdekat, terutamanya dalam realiti maya.

"Bayangkan watak-watak itu berpaling dan menghadap anda atau berjalan dengan anda atau berinteraksi dengan anda," katanya. "Saya rasa ini akan membawa kepada jenis hiburan yang berbeza yang kami tidak mempunyai nama, kami tidak mempunyai tatabahasa seperti yang kita lakukan dengan filem dan permainan video."

Apa yang boleh berlaku lebih awal adalah seperti sembang Twitch di mana orang boleh bercakap dengan Senua sendiri secara real-time - sesuatu peminat berpotensi untuk melihat dalam beberapa bulan akan datang. Mengambil kesempatan daripada VR, konsert, dan aplikasi bukan permainan lain juga mungkin.

"Mampu menubuhkan lokasi, pelakon, menembak benda hidup, dan kemudian, kerana ia adalah masa sebenar, anda boleh membuat semua interaktif di tempat, mencuba senario yang berbeza," kata Antoniades. "Ada kemungkinan dalam masa terdekat yang mungkin tidak mungkin walaupun pada tahun lepas."

Dengan Hellblade menjadi salah satu daripada beberapa projek masuk dan keluar dari permainan yang sesuai yang Teori Ninja berfungsi, ia sememangnya akan membuktikan titik melompat yang baik untuk melihat bagaimana keadaan dapat berkembang dari sini.

"Saya fikir ia akan menjadi baik untuk pemain, kerana mereka akan mendapat lebih banyak projek yang menarik," katanya. "Dan ia akan menjadi baik untuk pemaju juga. Saya rasa perubahan industri semakin baik, selagi kita semua dapat bertahan di sana dan bertahan hanya sedikit lebih lama."

$config[ads_kvadrat] not found