[ Leggi dalla fonte originale]
Sono ore convulse per il settore dell’intelligenza artificiale e, di riflesso, per il mondo in generale (non ce ne voglia Trump): dopo aver ventilato l’idea di aver raggiunto l’AGI, Sam Altman di OpenAI invita tutti “alla calma“.
E che calma: nonostante abbiano fatto “cose molto interessanti“, tutti noi dobbiamo abbassare le nostre aspettative di “almeno 100 volte“, secondo il geniale manager. Ma allora qual è il risultato ottenuto da OpenAI?
Il Santo Graal dell’IA: l’AGI
Il motivo di tutta questa agitazione ed entusiasmo è semplice: ogni volta che si parla di AGI (Intelligenza artificiale generale, o forte, da artificial general intelligence) i fan della tecnologia si entusiasmano, i pessimisti fanno il segno della croce e, soprattutto, gli investitori staccano assegni.
Cos’è l’AGI
L’AGI è, semplificando, l’obiettivo di aziende come OpenAI, la realizzazione di un sogno nato con la matematica Ada Lovelace (figlia di Byron). Ovvero la capacità di un’IA di “essere senziente” e “avere una coscienza”.
Usiamo tutte le virgolette del caso, perché non è semplice neanche stabilire il significato di queste parole.
Da definizione, l’AGI è un tipo di intelligenza artificiale almeno alla pari delle capacità cognitive umane (o superiore), almeno da quanto stabilito attraverso una serie di test cognitivi. Questo contrasta con l’IA ristretta (Narrow AI o Weak AI), che è limitata a compiti specifici ed è quella che usiamo per creare un’immagine, riassumere un testo o scriverci un’email (Gemini, ChatGPT e gli altri, per intenderci).
A cosa serve l’AGI
L’AGI è un pericolo, certo, e non solo per gli scenari da fantascienza, ma anche per una questione meramente economica: le aziende e i privati che la gestirebbero diventerebbero ancora più potenti e ricchi.
I vantaggi di una tecnologia di questo tipo accessibile a tutti sarebbero però notevoli. L’AGI consentirà a chiunque di apprendere qualsiasi contenuto: sarebbe un tutor sempre a disposizione, il che potrebbe contribuire a ridurre le diseguaglianze sociali causate dall’accesso all’istruzione.
E che dire della sanità? Un’IA di questo tipo sarebbe un medico virtuale sempre a disposizione, in grado di complementare (non sostituire) il medico di base o lo specialista. E pensate inoltre alle app: con un assistente AGI sarebbero a portata di tutti. Chiunque potrebbe programmare qualsiasi cosa, basterebbe chiedere.
I modelli o3 hanno ottenuto un buon punteggio, ma l’essere umano è lontano
La realtà attuale però è ben diversa: OpenAI ha dichiarato che i suoi modelli o3 hanno superato il benchmark ARC-AGI, il che rappresenta un passo importante verso la tecnologia. Per un motivo semplice: dimostra che è possibile, ma non è la prova di AGI, in quanto vuole solo stimolare la ricerca verso i problemi irrisolti dell’IA.
Cos’è il benchmark ARC-AGI-1
Il benchmark ARC-AGI-1 (Abstraction and Reasoning Corpus for Artificial General Intelligence) misura la capacità di un modello di intelligenza artificiale di ragionare e risolvere nuovi problemi che richiedono adattabilità.
Il punto fondamentale è che per superarlo (cosa mai avvenuta dalla sua creazione nel 2019) è necessario usare “caratteristiche umane” come logica, ragionamento e deduzione, e non informazioni apprese in precedenza.
Non può essere risolto aumentando la potenza bruta, come si fa aumentando il numero di parametri di un LLM (Large Language Model, modello linguistico di grandi dimensioni come i modelli attualmente in uso).
Per farlo bisogna sviluppare un’architettura diversa, in grado di “uscire” dai parametri di addestramento. Il test è disponibile sul sito ArcPrize, che annuncia orgogliosamente come “rimanga imbattuto“.
Ma ci si sta avvicinando, ed è qui che intervengono i modelli o3.
I risultati di o3
A fine dicembre 2024 i modelli di OpenAI, hanno raggiunto un risultato eccezionale: il 75,7% con un limite di costo di 10.000 dollari (quindi ad alta efficienza), e l’87,5% nella configurazione o3 ad elevate capacità di calcolo (172x, con più risorse computazionali a disposizione).
La differenza è notevole: il modello più efficiente costa 20 dollari per attività, che è già troppo costoso per l’uso quotidiano, mentre il secondo costa migliaia di dollari per attività.
I test sono stati effettuati su due dataset, uno semi-privato (100 task) e uno pubblico (400 task), e potete trovarli a questo indirizzo. Come abbiamo detto, però, non è possibile stabilire se o3 sia AGI o meno tramite questi test.
Perché non si può stabilire se o3 sia AGI con il test, e perché o3 non è AGI
I modelli o3 sono già stati sottoposti anche al prossimo benchmark, ARC-AGI-2, che rappresenta una sfida ancora maggiore, e i risultati consigliano a più miti proiezioni.
o3 ha raggiunto il risultato, nella modalità ad alta capacità di calcolo, del 30%, contro un punteggio tipico di un umano intelligente superiore al 95%.
o3 però ha ottenuto un punteggio molto migliore rispetto a o1 (con un risultato intorno al 21%), che aveva a sua volta ottenuto un punteggio molto migliore rispetto a GPT-4o (5%) e che a sua volta aveva migliorato GPT-4 (vicino allo 0%).
Una crescita esponenziale nel giro di pochi mesi.
Come funziona o3
Gli sviluppatori di IA stanno intraprendendo strade nuove, lo abbiamo visto con i Titan di Google: non più aumentare le dimensioni ma per assurdo ridurle, un processo chiamato La seconda era delle leggi di ridimensionamento.
Con o3 il meccanismo principale è la ricerca e l’esecuzione del programma in linguaggio naturale all’interno dello spazio dei token, cercando possibili catene di pensiero (CoT) e descrivendo i passaggi necessari per risolvere il compito (una strada che abbiamo già visto con Gemini 2.0 Flash Thinking).
Cosa significa? Semplificando, che mentre un modello LLM classico si scontra con le novità, o3 le utilizza per generare le catene di pensiero, valutando le soluzioni prima di rispondere.
Il processo si basa sull’inferenza, in quanto il modello applica le sue conoscenze apprese a dati nuovi e non visti per fare previsioni, decisioni o risolvere compiti in tempo reale.
Ma o3 aggiunge anche le capacità di ragionamento dinamiche per affrontare problemi complessi e generare risultati attuabili. Qualcosa che potrebbe sfociare nell'”intuizione” (e infatti su ArcPrize si spiega come la ricerca in fase di test guidata dall’intuizione sullo spazio del programma è una strada vincente per consentire di adattarsi a compiti arbitrari).
Infine, o3 è più sicuro, in quanto incorpora una funzione chiamata Deliberative Alignment, che consente di valutare criticamente le risposte rispetto ai protocolli di sicurezza, riducendo i rischi di output dannosi o di parte.
Hype e inviti alla calma: un gioco a cui ormai dovremmo essere abituati
Torniamo all’AGI e agli annunci. Negli ultimi mesi Sam Altman ci ha abituato a forti dichiarazioni, poi prontamente ridimensionate, e puntualmente è intervenuto per calmare gli animi.
In questo caso, il 5 gennaio ha pubblicato un post dichiarando che la singolarità è vicina (la singolarità è il momento in cui l’intelligenza artificiale supera quella degli esseri umani), poi pochi giorni dopo che l’AGI è lontana e dobbiamo abbassare le nostre aspettative.
L’entusiasmo di Altman è comprensibile, l’IA è costosissima, e l’idea di raggiungere l’AGI spinge gli investitori a fare quello che sanno fare meglio, investire.
Ma non è questo il punto: stiamo indubbiamente entrando in una nuova era dell’IA, e se lo scetticismo è comprensibile, le proiezioni per la realizzazione dell’AGI guardano a un futuro lontano che si sta avvicinando a ritmi vertiginosi.
Nel 2020 Ajeya Cotra, che lavora per l’organizzazione no-profit Open Philanthropy, ha pubblicato uno studio dettagliato sull’arrivo dell’AGI. Il risultato (scenario mediano) è che c’è una probabilità del 50% che un sistema di intelligenza artificiale trasformativo diventi possibile e conveniente entro il 2050.
Nel 2022 Cotra ha aggiornato le sue previsioni e accorciato la sua cronologia mediana di dieci anni.
Infine una parola sulle “novità” annunciate da Altman: ancora non si sa nulla, ma gli esperti ipotizzano l’arrivo di un molto più dimesso agente IA.
Approfondimenti sull’IA
L’IA è un campo estremamente complesso, e sarete scusati se arrivati alla fine dell’articolo sarete più confusi di quando avete iniziato.
Ecco una serie di approfondimenti che vi permetteranno di orientarvi in questo mondo enorme.