Cosa c'è di nuovo in Qwen 3

La corsa globale all'intelligenza artificiale sta accelerando. Istituti di ricerca, aziende private e persino intere nazioni sono in competizione per la leadership nel settore dell'IA. In linea di massima, questa corsa può essere suddivisa in diverse fasi. La prima fase ha riguardato la creazione di IA ristretta. I modelli di rete neurale esistenti, come GPT, MidJourney e AlphaFold, dimostrano che questa fase è stata raggiunta con successo.
La fase successiva prevede l'evoluzione dell'IA in AGI (Artificial General Intelligence). L'AGI dovrebbe eguagliare l'intelligenza umana nella risoluzione di un'ampia gamma di compiti, dalla scrittura di storie all'esecuzione di calcoli scientifici, dalla comprensione di situazioni sociali all'apprendimento autonomo. Al momento in cui scriviamo, questo livello non è ancora stato raggiunto.
Lo stadio finale dello sviluppo dell'intelligenza artificiale viene definito ASI (Artificial Super Intelligence). Essa supererebbe di gran lunga le capacità umane in tutti i settori. Ciò consentirebbe di sviluppare tecnologie che oggi non possiamo nemmeno immaginare e di gestire sistemi globali con una precisione superiore alle capacità umane. Tuttavia, questo potrebbe diventare realtà solo dopo decenni (o addirittura secoli) di continui progressi.
Di conseguenza, la maggior parte dei partecipanti alla corsa all'intelligenza artificiale si concentra sul raggiungimento dell'AGI mantenendo il controllo su di essa. Lo sviluppo dell'intelligenza artificiale è strettamente legato a una serie di complesse sfide tecniche, etiche e legali. Tuttavia, i potenziali vantaggi superano di gran lunga i costi, ed è per questo che aziende come Alibaba Group stanno investendo molto in questo settore.
Il rilascio di Qwen 3 segna una pietra miliare significativa non solo per le reti neurali di un'azienda, ma anche a livello globale. Rispetto al suo predecessore, il modello introduce diverse importanti innovazioni.
Caratteristiche
Qwen 2.5 è stato preaddestrato su un set di dati di 18 miliardi di token, mentre il nuovo modello ha raddoppiato questa quantità a 36 miliardi di token. Il set di dati più grande ha migliorato significativamente l'accuratezza del modello di base. È interessante notare che, oltre ai dati Internet disponibili pubblicamente e raccolti attraverso il parsing, il sistema è stato addestrato anche su documenti PDF. Questi sono tipicamente ben strutturati e densi di conoscenza, il che aiuta il modello a fornire risposte più accurate e a comprendere meglio formulazioni complesse.
Una delle direzioni più promettenti nello sviluppo dell'IA è la costruzione di modelli capaci di ragionare, in grado di espandere il contesto del compito attraverso un processo iterativo. Da un lato, ciò consente una risoluzione dei problemi più completa, ma dall'altro il ragionamento tende a rallentare notevolmente il processo. Per questo motivo, gli sviluppatori di Qwen 3 hanno introdotto due modalità operative:
- Thinking mode. Il modello costruisce il contesto passo dopo passo prima di fornire una risposta finale. Questo permette di affrontare problemi complessi che richiedono una comprensione profonda.
- Non-thinking mode. Il modello risponde quasi istantaneamente, ma può produrre risposte più superficiali senza un'analisi approfondita.
Questo controllo manuale sul comportamento del modello migliora l'esperienza dell'utente nella gestione di molti compiti di routine. Ridurre l'uso della modalità di riflessione riduce anche in modo significativo il carico della GPU, consentendo di elaborare un maggior numero di token nello stesso lasso di tempo.
Oltre a questa scelta binaria, esiste anche un meccanismo di commutazione morbida. Questo comportamento ibrido consente al modello di adattarsi al contesto utilizzando meccanismi di ponderazione interni. Se il modello ritiene che un compito sia difficile, innesca automaticamente un ragionamento o addirittura un'autoverifica. Può anche rispondere a indicazioni dell'utente come "Pensiamo passo dopo passo".
Un altro miglioramento significativo è l'ampliamento del supporto multilingue. Mentre Qwen 2.5 supportava solo 29 lingue, la versione 3 è ora in grado di comprendere e generare testo in 119 lingue e dialetti. Questo ha migliorato notevolmente la capacità di seguire le istruzioni e la comprensione del contesto. Di conseguenza, Qwen 3 può ora essere utilizzato efficacemente in ambienti non inglesi.
Inoltre, Qwen 3 è ora significativamente meglio integrato con i server MCP, fornendo al modello gli strumenti per approfondire la risoluzione dei problemi ed eseguire le azioni. Ora può interagire con fonti esterne e gestire direttamente processi complessi.
Formazione del modello
Formazione preliminare
Un salto di qualità così sostanziale non sarebbe stato possibile senza un sistema di formazione in più fasi. Inizialmente, il modello è stato preaddestrato su 30B token con una lunghezza del contesto di 4K, consentendogli di acquisire conoscenze generali e competenze linguistiche di base.
È seguita una fase di affinamento con dati più scientifici e ben strutturati. Durante questa fase, il modello ha acquisito anche la capacità di scrivere efficacemente applicazioni in più linguaggi di programmazione.
Infine, è stato addestrato su un set di dati di alta qualità con un contesto esteso. Di conseguenza, Qwen 3 supporta ora una lunghezza effettiva del contesto di 128K tokens, pari a circa 350 pagine di testo digitato, a seconda della lingua. Ad esempio, le lingue basate sul cirillico hanno spesso token più corti a causa della morfologia e dell'uso di prefissi, suffissi, ecc.
Pipeline di ragionamento
La costruzione di modelli in grado di ragionare è un processo affascinante ma che richiede molto lavoro e che combina varie tecniche esistenti volte a simulare il pensiero umano. Sulla base delle informazioni disponibili pubblicamente, possiamo ipotizzare che l'addestramento al ragionamento di Qwen 3 abbia coinvolto quattro fasi principali:
- Cold start for long chains of thought. Addestramento del modello a suddividere i problemi in più fasi senza un precedente adattamento. Questo lo aiuta ad apprendere il pensiero iterativo e a sviluppare un livello base di capacità di ragionamento.
- Reinforcement learning based on reasoning. In questa fase, i premi non dipendono solo dalla risposta finale, ma anche dalla capacità del modello di costruire catene di ragionamento logiche, interpretabili e strutturate. Viene valutata anche l'assenza di errori e allucinazioni.
- Merging reasoning modes. Gli esseri umani si basano tipicamente su due stili di pensiero: veloce (intuitivo) e lento (analitico). A seconda del tipo di compito, il modello neurale deve imparare a passare da uno stile all'altro e a integrarli. Questo viene solitamente fatto utilizzando esempi che mescolano entrambi gli stili o attraverso token speciali che indicano quale stile applicare.
- General reinforcement learning. Questa fase finale assomiglia a un ambiente sandbox in cui il modello impara a interagire con gli strumenti, a eseguire compiti a più fasi e a sviluppare un comportamento adattivo. Qui, inoltre, si sintonizza con le preferenze dell'utente.
Conclusione
Qwen 3 è una pietra miliare per Alibaba Group. La sua qualità di formazione e la sua metodologia lo rendono un serio concorrente di attori affermati come OpenAI e Anthropic. I miglioramenti rispetto alla versione precedente sono sostanziali.
Un ulteriore vantaggio è la sua natura open-source, con la base di codice pubblicamente disponibile su GitHub sotto la licenza Apache 2.0.
L'ulteriore sviluppo della famiglia di modelli Qwen contribuirà a rafforzare la sua posizione nell'arena globale dell'intelligenza artificiale e a ridurre il divario con i modelli commerciali a codice chiuso. E tutti i risultati attuali sono, in un modo o nell'altro, passi avanti verso il progresso dell'umanità nella costruzione dell'IA.
Vedi anche:
Pubblicato: 14.07.2025