OpenAI o1
OpenAI
Tecnologia

OpenAI o1, la prima IA che ragiona (e sbaglia ancora)

Si prende tempo prima di fornire il responso ed è pensato per eseguire compiti complessi, il nuovo modello linguistico segna una svolta per il futuro dell'IA ma per ora si limita a capire scienze, matematica e ingegneria

Un modello linguistico di grandi dimensioni in grado di eseguire ragionamenti complessi, perché pensa prima di rispondere. Così OpenAI ha presentato o1, la novità di cui in estate si vociferava col nome in codice Strawberry. La prima peculiarità che salta agli occhi è che o1 si stacca da ChatGPT, poiché è un modello diverso, caratterizzato dalla ‘o’ che sta per ‘omni’ a evidenziare la natura multimodale, che include testo, immagini, audio e video. Allo stesso tempo il numero 1 indica l'inizio di uno sviluppo che proseguirà per incrementare la capacità di ragionamento e, quindi, di risolvere richieste di livello sempre più complesso.

Questo è il punto di svolta di o1 perché, se realizzare una intelligenza artificiale in grado di simulare il pensiero umano è ancora utopia, OpenAI parla dell'ultimo arrivato come di un significativo passa avanti rispetto ai modelli precedenti. La principale differenza sta nel tempo che si prende o1 prima di replicare all'interrogativo ricevuto; OpenAI ha scelto di rallentare per avvicinarsi, almeno come processo, al ragionamento umano, anche se la specifica vale solo per alcune categorie. Il campo di sfida di o1 sono le materie STEM (scienze, tecnologia, ingegneria e matematica), con la compagnia di Sam Altman che ha dimostrato in fase di lancio come il modello linguistico abbia capacità paragonabili a un dottorando che può affrontare problemi complessi di fisica, chimica, biologia, oppure matematica e coding.

Il focalizzarsi su un determinato ambito implica che o1 non è migliore di GPT-4o, che anzi resta più efficace per risolvere richieste più generiche. Se però si entra in una delle discipline di o1 non c'è partita, perché la stessa OpenAI ha spiegato come, simulando un esame per accedere alle Olimpiadi Internazionali di Matematica, GPT-4o ha risolto in maniera corretta il 13% dei problemi, mentre o1 è arrivato all'83%. Al contempo vanno considerati i limiti di o1, che al momento dispone di poche funzionalità e non è in grado di ricercare informazioni sul web e generare immagini. Inoltre è stato addestrato su nozioni aggiornate a ottobre 2023. Disponibile per gli utenti ChatGpt Plus e Team e nelle prossime settimane per gli account Edu e Enterprise, il nuovo modello secondo OpenAI individua e suddivide i passaggi complessi in passaggi più semplici, utilizzando un apprendimento per rinforzo. Per questo non replica all'istante alle richieste, ma ‘ragiona’ e poi fornisce il responso. Che non è sempre centrato, tanto che su X sono già fioccate le segnalazioni di errori e capovolgimenti del contesto per giustificare le inesattezze fornite.

Qui si aprono due fronti decisivi in prospettiva futura per o1: il tempo di reazione e il costo. Prendersi anche fino a centoventi secondi per pensare ed elaborare, è ideale se il responso è poi corretto, ma la lentezza è quanto di più negativo ci possa essere per una IA generativa il cui successo si gioca, oltre che sulla veridicità delle informazioni fornite, proprio sulla velocità d'esecuzione. Dall'altro lato, sapere che ogni risultato proposto da o1 è circa quattro volte più costoso rispetto a GT-4o lascia presagire un'impennata dei costi (già alti) legati alla IA generativa. Anche perché se il futuro di o1 è allargare l'orizzonte per ampliare i campi d'azione e diventare un modello linguistico utile a tutti, OpenAI dovrà individuare una o più soluzioni per rendere sostenibile lo sviluppo e l'aggiornamento di o1.

I più letti

avatar-icon

Alessio Caprodossi