Le dita danzano sui tasti WASD, mentre l’altra mano, precisa ed implacabile, identifica i bersagli sullo schermo. Kanas’dul, assassino di Babilonia, scivola agilmente tra le ombre, senza produrre il minimo rumore. Il suo cappuccio bianco si agita nel vento, mentre lo stemma con la testa del serpente, chiaramente esposto sul mantello, lo identifica beffardamente agli occhi del nemico. Ma nessuno, questa notte, può vederlo. Perché gli stessi palazzi di KA.DINGIR.RA, più vasta, verticale e potente città del mondo, sono gli i suoi alleati contro le macchinazioni dei cavalieri di Ishtar, l’antica società segreta che ha tramato per la fine degli insegnamenti di Hammurabi, perseguitando brutalmente i popoli di Assur, Eshnunna, Mari, Aleppo, Alalakh e Qatna. Vendetta, morte e distruzione! Le lame dei giusti assaggino quel sangue maledetto! Un rapido sguardo all’orologio digitale sulla scrivania: le 14:40. Ancora una ventina di minuti, prima che sia tempo di mettersi a studiare per gli esami. Ma prima di allora, un altro sorso di caffè…Gli occhi ritornano alla mini-mappa tonda in basso a destra. Il Tempio è sempre più vicino. Ora, questa particolare Babilonia virtuale è una città che osserva un piano regolatore attentamente definito: ciascun palazzo è di quattro, sei o dodici piani. Le strade misurano tre, cinque o nove metri. Ciò è un grande vantaggio per Kanas’dul, che si è addestrato a lungo, secondo i precetti della sua compagine segreta, a muoversi agilmente da un confine all’altro dell’enorme centro abitato. Nel suo repertorio degli spostamenti, c’è una doppia rotolata che consente di spostarsi esattamente da una parete all’altra di qualsiasi viale “medio” mentre culmina in una mezza corsa per ciò che rimane a separarlo dalla fine di una strada “grande”. Ogni qual volta che la sua missione lo porta a salire sopra i tetti, poi, può contare su dei balzi calibrati in base alla distanza tra due tipiche finestre babilonesi (2,30 m) mentre sa per certo che alla destra di ciascuna, un po’ più in alto, c’è sempre un piolo a cui aggrapparsi con la mano. Mentre un pratico cornicione profondo esattamente 40 cm, che collega un’apertura all’altra, gli permette all’occorrenza di strisiciare fin sui vertici degli edifici, scavalcando infine facilmente il vuoto che separa gli isolati, purché abbia la misura di una strada “stretta”. Dopo 6 minuti passati a concatenare simili manovre, già la fortezza dei templari svetta sopra la sua figura, le mura sormontate da sculture vagamente demoniache. Le torce ai lati del portone si agitano nel vento, mentre l’anti-eroe nota alcuni mattoni sporgenti sui bastioni, posti alla distanza di 4,60 metri dal suolo. Interessante, si ritrova a pensare, già estraendo la sua lama rotativa ben nascosta nella manica a sbuffo…
Tutto è misurato, ripetuto, prevedibile. Per chi ha studiato attentamente le arti di assassinio applicate all’attraversamento cittadino, come il videgiocatore di questa generazione computerizzata, le sorprese si nascondono nei colpi di scena della storia, nelle sempre più incredibili fazioni coinvolte, le armi fantasiose, le gesta dei cattivi. Raramente, nel susseguirsi stilistico dei movimenti, l’arte antica dell’animazione. Fatte le dovute proporzioni, il vecchio Super Mario si svolgeva in un ambiente coerente e totalmente a disposizione del giocatore: perché potevi saltare, in quel mondo bidimensionale, di uno spazio a tua scelta tra 10,11,12,13…24 pixel, o addirittura decidere, a mezz’aria, che era il caso di tornare indietro (inerzia permettendo). Poi giunse il rotoscoping, e con esso il motion capture assieme ad un diverso modo di pensare il videogioco. Benché ci fossero dei precedenti di successo (Prince of Persia – 1989) il primo autore a dimostrare veramente l’utilità narrativa di queste tecniche fu il francese Éric Chahi della Delphine Software, che ai tempi dell’Amiga di Commodore produsse i suoi due capolavori Another World (1991) e Flashback (1992) rimasti negli annali di quell’epoca indimenticata. Per la prima volta, il giocatore veniva messo a contatto con un mondo in cui i personaggi si muovevano in maniera realistica, semplicemente perché un vero attore, nei primitivi teatri di posa di allora, era stato ripreso e digitalizzato, quindi trasformato in un alto numero di frame d’animazione. Un salto, perfetto. Una corsa, perfetta. Un accovacciamento per schivare i pericoli, simile a quello che potremmo usare noi. Con la conseguenza che per ciascun singolo gesto comandato al personaggio, si assistesse sempre alla stessa sequenza, impeccabile quanto, purtroppo, sempre uguale a se stessa. Naturalmente, perché ciò potesse funzionare, i livelli dovevano venire standardizzati. All’epoca, nessuno ci fece caso.
Oggi la quantità di sessioni di motion capture effettuate per un singolo titolo è spesso la misura dei suoi valori di produzione. Nessun altro elemento all’interno della produzione di un videogioco, tranne forse il doppiaggio ad opera di voci famose o le ricerche sul campo dei simulatori di guida, è maggiormente costoso e complesso da realizzare. Non è insolito che per alcune serie dagli incassi comprovati, le multinazionali distributive costruiscano dei veri e propri set cinematografici, in cui far muovere gli stuntmen coi puntini sulla tuta. Un attore dei nostri tempi, senza neanche l’uso di trucchi o costumi, può così diventare un orco, un paladino in armatura, uno spietato vendicatore delle notti pre-moderne… Non c’è letteralmente limite all’immaginazione. Soltanto che, e questo è il nesso del problema, nei videogiochi non ci sarà mai una corrispondenza di 40 minuti di registrazione=40 di intrattenimento. Il prodotto ludico medio dura diverse decine di ore (quando non centinaia) e le ripetizioni abbonderanno, nel movimento come negli ambienti riprodotti a schermo.
Ciò senza neanche inoltrarsi nella problematica dell’interattività, che dovrebbe essere analogica e totalmente flessibile, come era stata, per la prima volta, negli antichi giochi di Nintendo. Possibile che non esista un modo migliore, come una sorta di compromesso tra le parti? L’ultima risposta a un simile quesito arriva dalla recente conferenza sulla grafica, la nucl.ai di Vienna, ad opera dell’Art Director tecnico dell’Ubisoft di Toronto, Alexander Bereznyak.
Per il momento si chiama IKRig (la prima parte dell’acronimo sta per inverted kinematics – cinematica inversa) e viene ampiamente dimostrata in alcuni video, estratti ad arte dalla sua presentazione, in cui dei manichini colorati deambulano in mezzo al nulla e si combattono tra loro. La tecnologia, che non è del tutto nuova ma consiste in un’evoluzione di un qualcosa che già abbiamo, permette di adattare automaticamente una serie di movimenti a personaggi molto diversi tra di loro, per corporatura, conformazione e addirittura numero di arti. Fin qui nulla di strano: già il popolarissimo Unreal Engine della Epic permetteva il processo che ha il nome di retargeting, ovvero la traslazione di una serie di movimenti da uno scheletro (rig) all’altro, benché fossero sempre necessari numerose piccole correzioni, perché l’animazione non sembrasse artificiale o forzata. Questo ultimo processo, in particolare, è da sempre una delle operazioni più impegnative e complesse che un animatore digitale è chiamato a compiere, con conseguente aumento dei tempi e costi di sviluppo. Ben venga, quindi, qualsiasi sistema che possa semplificare il processo. Inoltre l’innovativo IKRig, a quanto ci viene spiegato, non soltanto si occupa di adattare gli snodi dell’animazione, ma riesce a farlo in tempo reale. Il che significa che se un personaggio si trova a raccogliere un oggetto pesante, come un’arma o un blocco sopra cui salire successivamente, questo meccanismo matematico basato sull’analisi cinematica potrà calcolare le differenze nel modo in cui metterà un piede innanzi all’altro, oppure si volterà su se stesso a 180°, per rispondere a una minaccia o guardarsi attorno. Nel secondo video qui riportato, inoltre, viene mostrata l’adattabilità che presenta il meccanismo, quando posto all’interno di ambienti diseguali ed imprevisti, come salite, dossi o avvallamenti di varia entità. In questo caso, il personaggio azzurro mostra l’input dell’animatore, mentre quello giallo il modo in cui si troverà a rispondere a una qualsivoglia situazione. Ciò, una volta implementato, porterebbe ad una totale liberazione dei videogiochi dal bisogno di livelli fin troppo prevedibile e dissimili dalla realtà.
Non è difficile immaginare la rivoluzione che potrebbe portare un simile meccanismo, se portato alle sue estreme conseguenze, nel mondo del media interattivo: si sta parlando del ritorno a un’epoca in cui le attività dei personaggi su schermo erano governate unicamente dal processore stesso, non predefinite perché fossero perfettamente realistiche, ma sostanzialmente slegate dal contesto di utilizzo. E se ciò dovesse sembrare la fine di un’arte, ovvero quella di chi effettua l’accurato e creativo retargeting per bestie non umane, robot ed altre creature, considerate pure questo: gli artisti in questione potranno dedicare un tempo maggiore alla caratterizzazione dei gesti, al design di costumi e livelli, addirittura (QUESTO sarebbe veramente una sorpresa) a migliorare la sempre più carente intelligenza artificiale dei nemici da videogame. Un futuro pieno di soddisfazioni cinematiche virtualizzate si staglia splendido dinnanzi a noi, e come al solito, nel bene e nel male, ha dietro il marchio di una grande e proficua compagnia. Ora, se soltanto la smettessimo di dargli soddisfazione, correndo dietro a ridicole esclusive da preorder e dispendiosi DLC….