Tecnologia
March 26 2024
In questi giorni il mondo dei videogiochi ha lo sguardo puntato verso San Francisco e verso la Game Developers Conference 2024, un evento dal 18 al 22 marzo che vede gli sviluppatori del mondo gaming riunirsi per mostre, conferenze e annunci.
Una delle grandi notizie di quest’anno vede come protagonisti Ubisoft, nella sua divisione parigina, e la collaborazione con GenAI, Nvidia e Inworld AI.
Prodotto di questa collaborazione sono i NEO NPC (dove NPC sta per Non Playable Characters), personaggi non controllati dal giocatore con cui interagire, mossi e controllati da una IA.
La combinazioni di software permette, secondo quanto detto alla conferenza, una maggiore adattabilità e flessibilità nel rispondere alle azioni dei giocatori, rendendo il mondo della narrazione più coerente e credibile.
Agire in base a stimoli ambientali e conversazioni passate, simulare emozioni e agire strategicamente sono alcuni dei miglioramenti che Ubisoft promette di inserire in futuro sui propri titoli e non solo, sottolineando come alcune soluzioni, come Audio2Face capace di produrre espressioni facciali coerenti con i suoni prodotti durante un discorso, siano già presenti ed utilizzate nei giochi attuali.
Nonostante quanto detto in conferenza bisogna, e quanto mostrato durante la sessione di gameplay dimostrativo, bisogna distinguere le potenzialità esprimibili dai software e dagli hardware e la reale applicazione degli stessi dalle software house.
Tra il 2021 e il 2022 la tech demo di Unreal Engine 5, ambientata nel mondo di “The Matrix Awakens”, mostrava un ambiente fotorealistico in cui la resa di luce, riflessi e materiali erano vicini alla controparte del mondo reale, lasciando intendere che quel livello di dettaglio sarebbe potuto essere lo standard nel futuro prossimo del gaming.
Quel livello di realismo è ancora lontano dall’essere lo standard, a causa di vincoli pratici, come la potenza delle console e dei pc più in uso e la necessità di ottimizzare le risorse tanto in fase di sviluppo quanto in game, che portano le software house a concentrarsi su altri aspetti del propri giochi, oltre ad un uso di alcuni stratagemmi, tipici delle tech demo, utili per far brillare i punti di forza delle nuove tecnologie nascondendone al contempo i limiti.
È probabile che l’uso delle IA per rendere più vivi e coerenti gli NPC seguirà lo stesso percorso, con integrazioni limitate o ridotte in favore dell’ottimizzazione del gioco nel suo insieme almeno per gli anni a seguire.
L’uso delle singole tecnologie è invece già in uso, oltre ad essere oggetto di sperimentazione anche in realtà piccole e indipendenti: tra i tanti “Rock Star Life Simulator”, gioco indie presente su Steam ed attualmente in accesso anticipato, che integra un embrionale uso dell’IA per permettere ad alcuni NPC di rispondere al giocatore, rendendo più fluide le fasi sociali e donando una caratterizzazione ancora acerba, ma più elastica di quella di un classico personaggi limitato dagli attuali script di gioco.
Quello che è certo è che un numero sempre maggiore di aziende sta investendo in ricerca e sviluppo nel campo del gaming, oltre a formare collaborazioni con partner utili a supportare i propri progetti. Resta da vedere come le software house implementeranno in futuro queste nuove tecnologie e come andranno a modificare ed aggiornare l’esperienza di gioco.