Velvet cresce: esplora la nuova generazione di modelli made in Italy
Intelligenza Artificiale
1 dicembre 2025
La famiglia Velvet cresce: l’IA made in Italy ideata e sviluppata interamente da Almawave si arricchisce di due nuovi modelli e potenzia quelli già presenti, per rafforzare il panorama europeo dei Large Language Model e garantire un’IA accessibile e multilingue, efficace ed adattabile a molteplici casi d’uso.
Parliamo di Velvet 25B e Velvet Speech 2B, alla nuova versione di Velvet 2B, ancora più compatto ed efficiente.
I nuovi modelli rafforzano le capacità testuali dell’intera famiglia, ottimizzando l’elaborazione di documenti complessi e di grande estensione grazie a capacità di analisi molto ampie.
Velvet, infatti, non è un unico modello, ma una famiglia di modelli per offrire soluzioni scalabili in grado di rispondere a esigenze diverse in termini di potenza, contesto d’uso, infrastruttura e lingue.
In questo articolo approfondiremo le caratteristiche di ogni singolo modello, vedremo le differenze con quelli già consolidati e capiremo in che modo l’azienda stia portando avanti un progetto fortemente ancorato al concetto di sostenibilità, specializzazione e innovazione.
Modelli più potenti, con impatti sempre più piccoli
Una delle scelte fondanti di Velvet è combinare prestazioni elevate con un’architettura rigorosamente leggera.
Questa direzione, già evidente nei modelli 14B e 2B, oggi è ancora più netta: invece di puntare solo su modelli sempre più grandi, Almawave investe anche su prodotti più compatti ma di altissima qualità, capaci di mantenere efficienza, coerenza e velocità.
Il vantaggio è duplice: meno consumo energetico e costi operativi più contenuti, senza rinunciare alla qualità delle risposte e alla gestione di testi complessi.
In questo caso, infatti, “compatti” non significa limitati: versioni come 2B garantiscono ottime capacità di ragionamento e analisi testuale multilingue, con un’impronta infrastrutturale ridotta.
Non è un caso che i nuovi Velvet siano small LM: modelli compatti, progettati per lavorare bene con poche risorse. Questo significa che possono girare anche su una sola GPU (un processore grafico comune nei server), riducendo consumi e costi.
In questo modo, l’IA diventa accessibile non solo alle grandi organizzazioni, ma anche a PA locali, PMI e team con infrastrutture limitate.
Inoltre, all’interno della famiglia Velvet ci sono modelli che possono essere usati in cloud e altri che possono essere utilizzati on premise, ossia nei propri server. Questo significa che le aziende che hanno requisiti di controllo dei dati potranno tenere tutto in casa, mentre chi vuole maggiore flessibilità in termini di performance e scalabilità potrà scegliere il cloud.
Cambiano le esigenze, cambiano i modelli: la diversificazione è la chiave dell’efficacia
Pubblica Amministrazione, sanità, sicurezza, finanza e trasporti sono solo alcuni degli ambiti in cui i modelli Velvet trovano la loro applicazione.
Invece che sviluppare un modello unico, Almawave ha privilegiato lo sviluppo di modelli diversi per esigenze diverse, abbastanza flessibili da adattarsi facilmente a qualsiasi scenario, da quelli più strutturati a quelli più mirati.
I modelli Velvet sono infatti tutti pronti per la personalizzazione (bespoke ready). Questo significa che si adattano rapidamente ai diversi settori usando dati e terminologia specifici. In pratica, partono da una base generale già solida e possono essere specializzati e addestrati per qualsiasi contesto d’uso, mantenendo coerenza, precisione e conformità.
In questo modo, l’ente o l’azienda può scegliere il modello più consono in base alle proprie esigenze e al proprio settore di appartenenza.
Ad esempio, chi ha necessità di utilizzare l’IA all’interno di piccoli device in contesti di nicchia, dovrà affidarsi a modelli snelli, altamente performanti ma rapidi e leggeri, come Velvet 2B.
Questa tipologia di modelli offre infatti il grande vantaggio di poter essere riaddestrarli facilmente per svolgere task e attività sempre diverse.
Abbiamo già analizzato le caratteristiche dei modelli 14B e 2B, ma in che modo si differenziano i nuovi modelli sul mercato?
Velvet 25B: il modello più grande della famiglia
25 miliardi di parametri: la capacità di gestire al meglio documenti complessi
Velvet 25B fa la differenza soprattutto negli scenari long-context, ossia quando deve gestire testi molto lunghi, perché dotata di un’architettura progettata per mantenere elevate capacità di attention.
Il modello, infatti, si basa sull’utilizzo di 25 miliardi di parametri, quasi il doppio rispetto al 14B.
Che cosa significa? Se lo paragonassimo a un cervello, potremmo dire che può fare affidamento su 25 miliardi di connessioni neurali per collegare parole e informazioni e fornire risposte più coerenti e approfondite.
Ma non è solo una questione di maggiore affidabilità. Il numero di parametri influisce fortemente anche sull’apprendimento di pattern più sottili nei dati, utili a individuarne le sfumature e le connessioni dei contenuti.
Grazie alla sua finestra di contesto particolarmente ampia (128.000 token), è in grado di analizzare documenti come testi giuridici, dossier scientifici o atti legislativi, e garantire coerenza e precisione anche nell’analisi di parti del testo molto distanti tra loro.
Dati di alta qualità per ottimizzare l’addestramento e la specializzazione
Per Velvet 25B è stato utilizzato un dataset di addestramento più ampio rispetto al 14B: parliamo di 7 trillion di dati.
Un attento processo di filtraggio e pulizia dei dati utilizzati ha permesso di ridurre duplicati, rumore e contenuti di bassa qualità, migliorando stabilità e precisione delle risposte.
L’ampliamento del dataset è stato accompagnato da specializzazioni di dominio con molti esempi mirati: sanità, diritto europeo e pubblica amministrazione, istruzione e cultura, manifattura, industria e customer care. In questo modo il modello sperimenta più casi reali e terminologie di settore, per comprendere meglio i contesti e produrre output più pertinenti.
Multistep reasoning dinamico e agentic orchestration
Con Velvet 25B vengono potenziate le funzionalità esistenti, introducendo al contempo una novità di rilievo: il ragionamento multistep dinamico (thinking).
Che cosa significa questo? Significa che il modello ha l’abilità di decidere da solo quanto è necessario “pensare” su una richiesta e quali passi intraprendere, piuttosto che rispondere immediatamente.
In termini operativi, il modello:
- scompone una richiesta in passaggi intermedi coerenti;
- adatta numero e natura dei passaggi alla complessità del compito;
- effettua una auto-verifica parziale prima della restituzione dell’output.
Questo approccio consente una gestione più solida di attività articolate (es. analisi di documenti estesi, collegamenti tra fonti, verifica di dati e riferimenti normativi), con benefici in termini di coerenza, tracciabilità del ragionamento e affidabilità del risultato.
Per indirizzare tali capacità nei contesti enterprise, Velvet impiega tecniche di post-training, tra cui reinforcement learning, finalizzate a guidare il processo decisionale del modello, riducendo iterazioni non necessarie e aumentando la pertinenza rispetto al caso d’uso.
Ulteriore elemento distintivo è l’agentic orchestration: la facoltà del sistema di selezionare e coordinare agenti o strumenti specializzati (ad esempio per estrazione dati, consultazione di basi documentali, sintesi, controlli qualità) e integrare i rispettivi contributi in una risposta unica.
Ne derivano efficienza operativa e maggiore controllo del flusso di lavoro, soprattutto in scenari che richiedono competenze multiple e passaggi sequenziali.
Un modello paneuropeo che parla 24 lingue
Rispetto ai modelli precedenti, il 25B si distingue anche per le prestazioni linguistiche.
Infatti, è capace di gestire tutte le 24 lingue europee, e diversamente dai competitor, non prende l’inglese come lingua di riferimento, ma utilizza metodologie in grado di garantire qualità e coerenza anche per idiomi meno parlati.
L’integrazione ready-to-use con AIWave
Velvet 25B è integrato nativamente in AIWave, la piattaforma multiagentic di Almawave che già utilizza varie versioni fine-tuned di Velvet 14B.
La piattaforma comprende molteplici soluzioni verticali pronte all’uso, è disponibile in cloud e on premise e permette la creazione di agenti conversazionali in modalità no-code/low-code.
Velvet Speech 2B: usare la voce per dialogare in contesti multilingue
Velvet Speech 2B è il primo modello multimodale della famiglia Velvet, capace di integrare in un unico sistema testo e voce.
La sua nascita non è casuale, ma è frutto dell’esperienza e della competenza maturate in oltre 10 anni nei nostri laboratori specializzati in tecnologie di riconoscimento vocale, che trovano applicazione con successo nel campo degli LLM.
Speech 2B mantiene le caratteristiche del 2B testuale, veloce e leggero, con l’aggiunta di nuove funzionalità:
- Automatic Speech Recognition (ASR)
- Spoken Query & Question Answering
- Vocal Interaction con le stesse prestazioni del modello testuale, quindi la risposta è sempre coerente, sia che la domanda arrivi via testo sia via voce.
Speech 2B è in grado di riconoscere e tradurre in tempo reale il parlato, ha la capacità di comprendere e rispondere anche in conversazioni miste italiano-inglese (spoken translation con code switching) e integra funzioni di speech emotion recognition, ossia classificazione delle emozioni nella voce.
In pratica, l’input può essere testuale o vocale, mentre l’output resta testuale.
Queste nuove capacità del modello aprono le porte a numerosi utilizzi in molteplici settori. Ad esempio, nella Pubblica Amministrazione, potrebbe essere utilizzato efficacemente per le registrazioni di consigli comunali o sedute pubbliche trasformate in resoconti testuali, con sommario e punti chiave.
Nel settore sanitario invece, questo modello potrebbe rivelarsi utile in ambito ospedaliero per il pre-triage: il paziente risponde a domande strutturate e il sistema compila una scheda pre-triage basata sulle sue risposte. Il medico potrebbe invece trarne vantaggio per avere un resoconto scritto del dialogo operatore–paziente.
Velvet 2B: compatto, aggiornato, pronto per l’on-edge
Il modello Velvet 2B si evolve senza aumentarne la taglia: i parametri restano infatti invariati, ma si aggiorna la base di conoscenza fino a giugno 2025 e si ottimizza il modo in cui il modello gira sulle macchine. Questo significa che garantisce più efficienza e meno sprechi energetici, anche su una sola GPU o su dispositivi compatti.
Questa combinazione lo rende ideale per portare l’IA dove serve, con latenza minima e massimo controllo (privacy, continuità operativa).
L’utilizzo on edge permette quindi di implementare il modello su dispositivi o gateway locali, invece che data center remoti e in cloud. Dunque, su un PC compatto, un server di filiale, un sensore industriale, un chiosco, un pannello domotico, ecc.
Contesti dove c’è una forte necessità di proteggere i dati sensibili di utenti e pazienti.
Se vogliamo fare un esempio concreto, Velvet 2B sarebbe la scelta opportuna in ambito sanitario, ad esempio per dispositivi portatili di reparto che forniscono istruzioni passo-passo e sintesi di protocolli, con dati trattati in locale.
Una visione orientata alle applicazioni concrete
Con Velvet, l’obiettivo di Almawave è portare l’IA dentro i processi reali, con soluzioni end-to-end capaci di rispondere a esigenze specifiche di Pubblica Amministrazione, sanità, trasporti, finanza, industria e customer care.
Grazie alla piattaforma multimodello e multi-agentic AIWave, i modelli Velvet trovano applicazione naturale in casi d’uso anche complessi: analisi e sintesi documentale, assistenza a cittadini e clienti, semplificazione operativa e amministrativa, ricerca conversazionale e navigazione della conoscenza.
I modelli di Velvet stanno evolvendo per dare una risposta concreta alle nuove, sempre più complesse esigenze di ogni settore, al fine di ottimizzare i processi interni e facilitare sempre più il dialogo tra aziende e persone, e trasformare l’IA in uno strumento al servizio di tutta la comunità.

Vuoi sapere cosa potrebbe fare Velvet per te?