I modelli open source AI stanno diventando abbastanza maturi da cambiare le scelte tecnologiche di molte aziende, soprattutto quando entrano in gioco dati sensibili e vincoli di compliance.
La notizia, non del tutto inaspettata, è che Meta si sta disimpegnando dal modello open source, più precisamente open weights, per la sua linea di LLM denominata Llama.
Meta e la svolta sui modelli Llama
Il colosso mondiale dei social network si orienta verso un futuro ibrido in cui i modelli più piccoli di classe Llama probabilmente rimarranno aperti, mentre i modelli frontier stanno diventando beni proprietari. Questa strategia è stata confermata dall’annuncio di Muse Spark, il nuovo modello LLM che per la prima volta non sarà aperto al pubblico, ma accessibile a pagamento tramite i consueti meccanismi API.
Non è una sorpresa. Meta sarebbe stato l’unico caso tra le big statunitensi a non abbracciare un modello proprietario, in contrapposizione con la Cina che da tempo ha puntato su modelli più aperti, come Deepseek e Qwen. Parliamo ormai di strategie tecnologiche che si intrecciano con dinamiche geopolitiche, dentro una contrapposizione che si sta facendo sempre più serrata.
Qwen e il salto di qualità dei modelli open
Ed è proprio dalla Cina, e dall’iniziativa di Alibaba con Qwen, che arrivano le novità più interessanti. Ad aprile è uscito il modello flagship 3.6, che sta rendendo marginale il vantaggio sui competitor occidentali.
Laddove prima i modelli open erano quasi un ripiego per piccoli progetti prototipali ed esperimenti accademici, oggi si sono molto avvicinati a quelli di frontiera. La frontiera si è spinta talmente avanti che i modelli aperti superano una soglia prestazionale più che sufficiente per applicazioni business concrete.
Oltre a ciò, la linea Qwen propone anche modelli a dimensioni ridotte che possono girare su hardware non eccessivamente avanzato e costoso, aprendo scenari di localizzazione dell’AI e soluzioni AI on premise che prima sembravano impensabili.
AI on premise e sovranità dei dati nei settori regolati
Sappiamo come istituzioni bancarie e assicurative siano massimamente sensibili all’allocazione dei dati aziendali. Con l’utilizzo delle API dei servizi come OpenAI, Gemini, Claude e ora Muse Spark, i dati sarebbero necessariamente esternalizzati.
Avendo a disposizione modelli localizzabili in server farm proprietarie, e sotto il pieno controllo del cliente, il modello di business potrebbe cambiare radicalmente. Quindi non solo indipendenza tecnologica per quanto riguarda lo scambio dei dati, ma anche verticalizzazione applicativa, rendendo questo filone molto più appetibile rispetto al passato.
Anche dietro la spinta di progetti come OpenClaw, appena acquisito da OpenAI, si intravede una pressione crescente nella direzione di localizzare fisicamente le soluzioni AI, visti anche i costi in aumento delle API da parte dei maggiori player mondiali. Ad oggi hanno investito enormemente, con un ritorno che potrebbe pericolosamente allontanarsi con l’avvento di soluzioni open sempre più credibili e a portata di mano.
La bolla AI può davvero scoppiare
Sarà forse questo fenomeno che farà scoppiare la ormai famigerata e tanto invocata bolla dell’AI?