

»This isn't real?«
»What is real? How do you define real?«
Sådan går den klassiske dialog mellem Neo og Morpheus i filmen The Matrix fra 1999. Og lige netop sci-fi filmens spørgsmål om, hvad der er ægte, og hvad der ikke er, gik igen, da Epic Games fremviste sin Unreal Engine 5 ved The Game Awards tilbage i december.
Det var derfor oplagt, at Epic Games havde brugt den nye Matrix-efterfølger 'The Matrix Resurrections' som bagtæppe til at vise den nyeste version af grafik- og spilmotoren frem. 'The Matrix Awakens' hedder tech-demoen.
- emailE-mail
- linkKopier link

Fortsæt din læsning
- Sortér efter chevron_right
- Trådet debat
Så hvor er man med 3D lyd, så spilleren kan høre, hvorfra eksplosionen eller fjendens skud kommer fra?
Hvis du kender en med en PlayStation 5 kan du opleve det selv (Xboxen er desværre bagud på dette punkt) men ellers er der også rig mulighed for at høre det på en PC.
Af PS5 spil med god lyd kan nævnes Astro's Playroom, Returnal og Demon's Soul (Tempest 3D audio engine, https://youtu.be/_dG_AgfE0PM ). Der er en YouTube playliste om god 3D lyd i spil på PC her:
https://youtube.com/playlist?list=PLOCl9Vldd2RwG3Hc-iPu8TS7wZE8Yl0RC
Fælles for dem alle er dog at uden noget godt af afspille det med får man ikke meget ud af det.
Hvorfor skulle den falde efter han var med i det brilliante Cyberpunk spil? Han er om nogen The Matrix, så det ville være direkte tåbeligt at fjerne ham af begge årsager.
Troede ligesom efter cyberpunk at hans hype ville falde, bare en smule.. Nu mangler han bare at stå i spidsen for en ny NFT.
Flot visuelt er det. Nu kan det være, det er mig der ikke har spillet de nyeste spil.
Så hvor er man med 3D lyd, så spilleren kan høre, hvorfra eksplosionen eller fjendens skud kommer fra?
Det vil sige med hele molevitten, så lyden fra skuddene giver ekko og bliver absorberet i genstande og er overført til spillerens højre og venstre øre.
Vi kan med kun to ører høre, hvorfra lyden kommer fra, fordi hjernen registrer forskellen mellem lyden i højre og venstre øre. Det er dels forsinkelsen og dels farvningen efter ørenes former og hovedet, der er forskellig, alt efter hvor lyden kommer fra. Vi kan det før vi fylder 1 år.
Netop, Per. Godt eksempel. Vores Medialogi studerende har allerede været i gang i de seneste par år med at prøve kræfter med Real-Time Filmmaking og Virtual Production. Et af projekterne gik f.eks. ud på at producere en re-make af filmen "Ex Machina" i den danske UNITY 3D game-engine på LED skærmvæggen i vores SMILE Lab i forbindelse med ViZARTS Projektet. Her styres lyset i den "virkelige" forgrund også inde fra Unity i realtid (via DMX, for nørderne ;) Her er link til videoen (gå evt 5min 50 sek ind for at se lysskiftet og det bevægelig kamera med baggrunden i sync (via Parallax)
Behind the Scenes video - om hvordan filmen blev lavet kan ses her Link
Det er selvfølgelig en væsentlig forøgelse af renderingkvaliteten som Unreal Engine 5 leverer.
Men det er næsten vigtigere at 3D assets nu kan tages mere direkte fra indscanninger eller rådata og proppes ind i UE5 uden den sædvanligt meget bekostelige og tidskrævende detaljereduktion, der kræver en kunstner ind over.
Hvis ikke processen nu er helt væk, så er den ihvertfald forkortet ganske betragteligt.
Traditionelt skal 3D objekter optimeres og fintunes til at fungere godt på grafikkort, vha. polygonreduktion og bearbejdning og baking af textures, og det er et kolossalt og tidskrævende stykke håndarbejde.
Men UE5 kan tage objekter med millioner af polygoner og bare placere dem i scenen, og så finder den selv ud af at optimere rendering af objektet, så grafikkortet kan vise det i realtid. Det er noget helt nyt.
Sekundært bliver alle miljødele streamet fra disk efterhånden som de skal bruges, og det foregår så hurtigt, at man ikke bemærker det. Det betyder en voldsom reduktion i loadetider og mulighed for at bygge meget detaljerede verdner i meget stor skala. Det kræver ikke engang en specielt hurtig SSD. Det kan gøres via en standard SATA SSD.
Sceneriet i Matrix demoen er meget stort, men en del af at det kan blive så stort uden at bruge måneder eller år på at byge det er at meget af den traditionelle forudbearbejdning af 3D objekter er stærk reduceret.
Det eneste der nærmer sig det tradtionelle, er at metoden ikke kan bruges endnu på objekter der deformeres, dvs. biler der smadres eller på karakterer. Men der har UE5 så adgang til andre teknologier, der forsimpler renderingen af karakterer.
Tjek "The Volume" eller "Stagecraft" som ILM har udviklet til The Mandalorian. Det er et system udviklet på Unreal Engine, og består af et studie omgivet af LED-skærme (også i loftet). I stedet for at filme mod green screen, går skuespillerne rundt inden i virtuelle udgaver af de omgivelser de spiller i. De kan dermed bedre interagere med omgivelserne, og reflektionerne i armour og våben bliver "rigtige". Hvis kameraet bevæger sig, følger baggrunden også.
Det giver kæmpe besparelser på tid og penge ... og det gør at skuespillerne blender bedre ind i baggrunden.