Glossario d’intelligenza artificiale: i termini chiave e il loro significato 
x icon pop up SCOPRI AIWAVE PLATFORM

Cerca sul sito

Non hai trovato quello che cercavi?

Glossario d’intelligenza artificiale: i termini chiave e il loro significato

AI Revolution Neural Networks and the Future of Artificial Intelligence in Data Centers

Intelligenza Artificiale

5 febbraio 2026

Oggi i professionisti devono rimanere aggiornati non solo sugli sviluppi del proprio settore, ma anche sui progressi tecnologici, che ormai giocano un ruolo centrale nella maggior parte degli ambienti business.

La rapida evoluzione dell’intelligenza artificiale sta trasformando il modo di lavorare, rendendo sempre più necessario comprendere nuovi termini e concetti. Imparare questo linguaggio è fondamentale per utilizzare in modo efficace gli strumenti di IA.

Questo glossario dedicato ai modelli linguistici di grandi dimensioni (LLM) e all’intelligenza artificiale (IA) raccoglie i termini essenziali che stanno diventando standard nei contesti professionali.

Conoscerli è indispensabile per restare al passo in un mondo sempre più guidato dall’IA.

Il concetto ampio di IA

Spesso l’intelligenza artificiale viene percepita come un concetto unico, ma in realtà è il risultato di più componenti che operano insieme. Questo glossario definisce alcuni dei termini chiave utilizzati nell’ambito dell’IA e dei LLM, molti dei quali sono comuni anche nel settore dell’IT.

Modello linguistico

Un modello linguistico, in inglese Language Model, è un tipo di intelligenza artificiale progettato per comprendere il linguaggio umano e, in alcuni casi, per generare testi che imitano la scrittura umana.

I modelli linguistici utilizzano tecniche di machine learning per analizzare grandi volumi di testo e apprendere le relazioni tra le parole in contesti diversi. In termini semplici, un modello prevede la parola successiva più appropriata all’interno di una frase sulla base del contesto fornito dal testo circostante.

Questo li rende utilizzabili in attività come il riconoscimento vocale, la traduzione automatica, la generazione del linguaggio naturale (ovvero la produzione di testi più simili a quelli umani) e molto altro.

I modelli linguistici possono variare notevolmente per dimensioni e capacità. I cosiddetti LLM (Large Language Models) e SLM (Small Language Models) fanno parte di questa famiglia. La differenza principale tra i due risiede nel numero di parametri, che determina il livello di complessità del modello e le risorse necessarie per il suo funzionamento.

Parametri del modello

I parametri di un modello sono i valori numerici che un modello di machine learning apprende durante la fase di addestramento per collegare i dati in input agli output, come previsioni o testi generati.

Nel corso dell’addestramento, l’algoritmo di machine learning modifica questi parametri affinché i risultati prodotti dal modello si avvicinino sempre di più a quelli attesi. I modelli con un numero maggiore di parametri tendono a cogliere schemi più complessi, come nel caso dei Large Language Models (LLM), che possono arrivare a contare miliardi di parametri.

I modelli più piccoli, con un numero inferiore di parametri, sono generalmente più semplici e richiedono una minore potenza computazionale, anche se possono risultare meno efficaci nel catturare pattern complessi presenti nei dati.

Large Language Model (LLM)

Un Large Language Model (LLM) è una tipologia avanzata di modello linguistico, addestrata su dataset estremamente ampi e diversificati, spesso provenienti da molteplici fonti e domini.

Gli LLM utilizzano miliardi di parametri per riconoscere pattern e relazioni all’interno dei testi e, proprio grazie alle loro dimensioni, sono in grado di operare su temi e attività differenti senza dover essere riaddestrati per ciascun caso specifico.

Questi modelli possono essere impiegati per la generazione di testi, l’analisi e la strutturazione di dati non strutturati, l’estrazione di insight, la classificazione delle informazioni, il supporto all’automazione e l’assistenza ai processi decisionali.

AdobeStock_621254974

Small Language Model (SLM)

Uno Small Language Model (SLM) è un modello linguistico progettato per essere più leggero ed efficiente rispetto a un large language model.

Gli SLM sono basati su un numero inferiore di parametri, ossia le caratteristiche interne che determinano la capacità del modello, e richiedono risorse computazionali più contenute. Questo li rende particolarmente adatti al fine-tuning e all’impiego in task specifici, in contesti con risorse limitate o in casi d’uso in cui un modello generalista di grandi dimensioni non è necessario.

Modello open source

Un modello open source è un modello il cui codice, l’architettura, il modello addestrato e, in alcuni casi, anche i dati di training sono resi pubblicamente disponibili sotto una licenza permissiva.

Questa trasparenza del modello consente a sviluppatori, ricercatori e organizzazioni di analizzarne la struttura, comprendere come è stato addestrato, riprodurne il comportamento e adattarlo a nuovi task e applicazioni.

I modelli open source favoriscono riproducibilità e sviluppo collaborativo. Allo stesso tempo, possono presentare alcune criticità, come un supporto limitato, il rischio di utilizzi impropri e potenziali vulnerabilità di sicurezza.

Modello a pesi aperti (open weights)

Un modello a pesi aperti (open-weights model) è un sistema di intelligenza artificiale pre-addestrato i cui parametri appresi sono resi pubblicamente disponibili sotto una licenza che ne consente il riutilizzo.

A differenza dei modelli completamente open source, i modelli a pesi aperti non includono il codice completo di addestramento né i dataset utilizzati. Di conseguenza, non è possibile riprodurre integralmente il processo di training.

Tuttavia, questi modelli possono essere utilizzati per effettuare previsioni su nuovi dati, adattati a specifiche applicazioni o impiegati come base per lo sviluppo di strumenti che sfruttano le loro capacità, senza dover partire da zero con un nuovo addestramento.

Deployment

Il deployment è il processo che consiste nel portare un modello di intelligenza artificiale addestrato in un ambiente di produzione, in modo che possa essere utilizzato in applicazioni reali. Include l’hosting del modello on-premise, nel cloud o su dispositivi edge, la sua integrazione con software e flussi di lavoro esistenti e la messa a disposizione di utenti o di altre applicazioni tramite API.

Il deployment comprende anche le attività di test, monitoraggio e gestione degli aggiornamenti, fondamentali per garantire prestazioni affidabili nel tempo. L’obiettivo è rendere il modello pienamente operativo e in grado di fornire risultati coerenti e continui.

Innovation technology progress future gadgets digital science

Hosting

L’hosting è una componente cruciale del deployment e consiste nel fornire l’infrastruttura su cui un modello di intelligenza artificiale può essere eseguito, reso accessibile e utilizzato.

I modelli possono essere ospitati su server privati, nel cloud o su dispositivi edge, a seconda dell’applicazione e dei requisiti operativi.

La scelta dell’hosting influisce sulla velocità di risposta del modello, sul numero di utenti o sistemi che possono accedervi e sul livello di affidabilità complessivo. Un hosting efficace è quello che garantisce che il modello sia sempre disponibile e pronto a operare in contesti reali.

Accesso

L’accesso definisce il modo in cui utenti, software o altre applicazioni interagiscono con un modello di intelligenza artificiale addestrato. In sostanza, stabilisce come il modello viene reso disponibile all’uso, ad esempio tramite API, servizi integrati (embedded) o altre interfacce.

Per esempio, uno strumento conversazionale può utilizzare delle API per accedere a un modello linguistico, mentre una piattaforma aziendale può integrare direttamente il modello per generare previsioni in tempo reale. L’accesso comprende anche la gestione di permessi e controlli, affinché solo utenti o sistemi autorizzati possano utilizzare il modello nei contesti previsti.

Deployment on-premise

Il deployment on-premise prevede l’esecuzione dei modelli di intelligenza artificiale su infrastrutture completamente gestite dall’organizzazione, anziché in ambienti di terze parti. Questo approccio garantisce un controllo totale su prestazioni, sicurezza dei dati e conformità normativa.

I server possono trovarsi fisicamente presso la sede aziendale o in un data center dedicato, ma restano comunque sotto la responsabilità dell’organizzazione, che ne cura la manutenzione, gli aggiornamenti e la scalabilità.

Per sua natura, il deployment on-premise offre elevati livelli di affidabilità e sicurezza, ma richiede investimenti significativi in termini di risorse e competenze tecniche.

Deployment edge

Il deployment edge fa riferimento all’implementazione di modelli di intelligenza artificiale direttamente su dispositivi locali come sensori, videocamere, wearable o altri dispositivi dell’Internet of Things (IoT), senza dipendere da infrastrutture cloud remote.

Questa prossimità riduce la latenza e consente analisi in tempo reale, rendendo l’edge deployment particolarmente adatto a scenari in cui velocità e affidabilità sono critiche, come i veicoli a guida autonoma o i dispositivi per la smart home. L’edge AI può funzionare anche con connettività limitata o assente. Proprio per queste condizioni restrittive, solo modelli specificamente ottimizzati possono essere utilizzati in contesti edge.

Modelli ospitati (hosted models)

I modelli ospitati sono modelli di intelligenza artificiale che vengono eseguiti su infrastrutture gestite da terze parti, come piattaforme offerte da fornitori specializzati.

La gestione dei server e degli ambienti tecnici è a carico del provider e non dell’organizzazione che utilizza il modello. Gli utenti vi accedono generalmente tramite API o interfacce web.

Questo approccio riduce l’impegno operativo e semplifica scalabilità e manutenzione, rendendo i modelli ospitati una scelta frequente quando facilità d’uso e affidabilità sono più importanti del controllo diretto sull’infrastruttura.

blue tech background

Deployment in cloud

Il deployment in cloud si verifica quando un modello di intelligenza artificiale addestrato viene eseguito su infrastrutture cloud, anziché su sistemi locali oppure on-premise.

Il modello viene ospitato e gestito tramite servizi cloud come Infrastructure as a Service (IaaS), Platform as a Service (PaaS) o Software as a Service (SaaS).

Il deployment in cloud è spesso scelto per la sua flessibilità, in particolare in termini di scalabilità, efficienza dei costi e semplicità operativa.

IaaS (Infrastructure as a Service)

L’Infrastructure as a Service (IaaS) è un modello che fornisce risorse di calcolo virtualizzate, come server, storage e networking, tramite il cloud.

Con l’IaaS, i provider mettono a disposizione l’infrastruttura necessaria per il deployment dei modelli di IA, occupandosi di manutenzione, patch, aggiornamenti e risoluzione dei problemi. Questo consente alle organizzazioni di concentrarsi sul software e sulle iniziative strategiche, senza gestire direttamente l’hardware fisico.

PaaS (Platform as a Service)

Il Platform as a Service (PaaS) si basa sull’IaaS e aggiunge un livello di strumenti e ambienti di sviluppo e gestione, offrendo un contesto pronto all’uso.

Permette ai team di sviluppare, addestrare e distribuire modelli di intelligenza artificiale in modo più efficiente, senza doversi occupare dell’infrastruttura sottostante.

Il PaaS è ideale per le organizzazioni che puntano su rapidità ed operazioni semplificate, mantenendo comunque il controllo sul workflow dell’IA.

SaaS (Software as a Service)

Il Software as a Service (SaaS) fornisce applicazioni software pronte all’uso tramite internet. In questo modello, il provider gestisce completamente server, aggiornamenti, sicurezza e manutenzione.

Gli utenti non devono installare nulla né occuparsi dell’infrastruttura: accedono semplicemente al servizio tramite browser o API.

Questo approccio consente un’implementazione rapida, una facile scalabilità e un basso carico operativo per i clienti.

Models as a Service (MaaS)

Il Model as a Service (MaaS) offre l’accesso a modelli di intelligenza artificiale già ospitati, tramite API o piattaforme web, senza la necessità di gestire infrastruttura o deployment.

Gli utenti possono integrare questi modelli all’interno delle proprie applicazioni o dei flussi di lavoro e utilizzarne immediatamente le funzionalità, mentre il provider si occupa di hosting, scalabilità, aggiornamenti e manutenzione.

In sostanza, il MaaS trasforma i modelli di IA in servizi pronti all’uso, distribuibili rapidamente e su larga scala.

In Technology Research Facility: Chief Engineer Stands in the Mi

Approfondisci le tematiche dell’intelligenza artificiale

Questo glossario sull’intelligenza artificiale raccoglie i principali termini e concetti di base di quest’ambito, offrendo un punto di partenza per comprendere gli elementi fondanti dell’IA e delle sue applicazioni.

Per restare aggiornato sulle ultime tendenze e sugli sviluppi dell’intelligenza artificiale:

visita il nostro blog arrow right