Glossário de inteligência artificial: os termos-chave e seus significados
Inteligência Artificial
5 Fevereiro 2026
Hoje, os profissionais precisam estar atualizados não apenas sobre os avanços em seu próprio setor, mas também sobre os progressos tecnológicos, que agora desempenham um papel central na maioria dos ambientes de negócios.
A rápida evolução da inteligência artificial está transformando a forma de trabalhar, tornando cada vez mais necessário compreender novos termos e conceitos. Aprender essa linguagem é fundamental para usar de forma eficaz as ferramentas de IA.
Este glossário, dedicado a modelos de linguagem de grande porte (LLM) e à inteligência artificial (IA), reúne os termos essenciais que estão se tornando padrão em contextos profissionais.
Conhecê-los é indispensável para acompanhar um mundo cada vez mais guiado pela IA.
O conceito amplo de IA
Frequentemente, a inteligência artificial é percebida como um conceito único, mas, na realidade, é o resultado de múltiplos componentes que operam juntos. Este glossário define alguns dos termos-chave usados no campo da IA e dos LLM, muitos dos quais também são comuns no setor de TI.
Modelo de linguagem
Um modelo de linguagem, em inglês Language Model, é um tipo de inteligência artificial projetado para compreender a linguagem humana e, em alguns casos, gerar textos que imitam a escrita humana.
Os modelos de linguagem utilizam técnicas de machine learning para analisar grandes volumes de texto e aprender as relações entre as palavras em diferentes contextos. Em termos simples, um modelo prevê a palavra seguinte mais apropriada dentro de uma frase com base no contexto fornecido pelo texto ao redor.
Isso os torna utilizáveis em atividades como reconhecimento de voz, tradução automática, geração de linguagem natural (ou seja, produção de textos mais próximos da escrita humana) e muito mais.
Os modelos de linguagem podem variar significativamente em tamanho e capacidade. Os chamados LLM (Large Language Models) e SLM (Small Language Models) fazem parte dessa família. A principal diferença entre os dois está no número de parâmetros, que determina o nível de complexidade do modelo e os recursos necessários para seu funcionamento.
Parâmetros do modelo
Os parâmetros de um modelo são os valores numéricos que um modelo de machine learning aprende durante a fase de treinamento para conectar os dados de entrada aos resultados, como previsões ou textos gerados.
Durante o treinamento, o algoritmo de machine learning ajusta esses parâmetros para que os resultados produzidos pelo modelo se aproximem cada vez mais dos esperados. Modelos com um número maior de parâmetros tendem a capturar padrões mais complexos, como no caso dos Large Language Models (LLM), que podem ter bilhões de parâmetros.
Modelos menores, com menos parâmetros, geralmente são mais simples e exigem menos potência computacional, embora possam ser menos eficazes em identificar padrões complexos nos dados.
Large Language Model (LLM)
Um Large Language Model (LLM) é um modelo de linguagem avançado, treinado em conjuntos de dados extremamente amplos e diversificados, frequentemente provenientes de múltiplas fontes e domínios.
Os LLM utilizam bilhões de parâmetros para reconhecer padrões e relações nos textos e, justamente devido ao seu tamanho, conseguem operar em diferentes temas e tarefas sem precisar ser re-treinados para cada caso específico.
Esses modelos podem ser usados para geração de textos, análise e estruturação de dados não estruturados, extração de insights, classificação de informações, suporte à automação e assistência em processos de decisão.
Small Language Model (SLM)
Um Small Language Model (SLM) é um modelo de linguagem projetado para ser mais leve e eficiente em comparação a um Large Language Model.
Os SLM geralmente têm menos parâmetros, ou seja, as características internas que determinam a capacidade do modelo, e exigem menos recursos computacionais. Isso os torna particularmente adequados para fine-tuning e uso em tarefas específicas, em contextos com recursos limitados ou em casos onde um modelo generalista de grande porte não é necessário.
Modelo open source
Um modelo open source é um modelo cujo código, arquitetura, modelo treinado e, em alguns casos, os dados de treinamento são disponibilizados publicamente sob uma licença permissiva.
Essa transparência permite que desenvolvedores, pesquisadores e organizações analisem a estrutura do modelo, compreendam como ele foi treinado, reproduzam seu comportamento e o adaptem para novas tarefas e aplicações.
Modelos open source promovem a reprodutibilidade e o desenvolvimento colaborativo. Ao mesmo tempo, podem apresentar algumas limitações, como suporte restrito, risco de uso inadequado e potenciais vulnerabilidades de segurança.
Modelo a pesos abertos (open weights)
Um modelo a pesos abertos (open-weights model) é um sistema de inteligência artificial pré-treinado cujos parâmetros aprendidos são disponibilizados publicamente sob uma licença que permite seu reuso.
Diferente dos modelos totalmente open source, os modelos a pesos abertos não incluem o código completo de treinamento nem os conjuntos de dados usados. Portanto, não é possível reproduzir integralmente o processo de treinamento.
No entanto, esses modelos podem ser usados para fazer previsões em novos dados, adaptados a aplicações específicas ou como base para desenvolver ferramentas que aproveitem suas capacidades, sem precisar treinar um modelo do zero.
Deployment
O deployment é o processo de levar um modelo de inteligência artificial treinado para um ambiente de produção, para que possa ser usado em aplicações reais. Inclui o hosting do modelo on-premise, na nuvem ou em dispositivos edge, sua integração com softwares e fluxos de trabalho existentes, e disponibilização para usuários ou outras aplicações via API.
O deployment também envolve testes, monitoramento e gerenciamento de atualizações, fundamentais para garantir desempenho confiável ao longo do tempo. O objetivo é tornar o modelo totalmente operacional e capaz de fornecer resultados consistentes.
Hosting
O hosting é uma parte crucial do deployment e consiste em fornecer a infraestrutura na qual um modelo de IA pode ser executado, acessado e usado.
Os modelos podem ser hospedados em servidores privados, na nuvem ou em dispositivos edge, dependendo da aplicação e dos requisitos operacionais.
A escolha do hosting afeta a velocidade de resposta do modelo, o número de usuários ou sistemas que podem acessá-lo e o nível geral de confiabilidade. Um hosting eficaz garante que o modelo esteja sempre disponível e pronto para operar em contextos reais.
Acesso
O acesso define como usuários, softwares ou outras aplicações interagem com um modelo de IA treinado. Essencialmente, determina como o modelo é disponibilizado para uso, por exemplo, via API, serviços integrados (embedded) ou outras interfaces.
Por exemplo, uma ferramenta de conversação pode usar APIs para acessar um modelo de linguagem, enquanto uma plataforma corporativa pode integrar diretamente o modelo para gerar previsões em tempo real. O acesso também envolve gerenciamento de permissões e controles, garantindo que apenas usuários ou sistemas autorizados usem o modelo nos contextos previstos.
Deployment on-premise
O deployment on-premise consiste em executar modelos de IA em infraestrutura totalmente gerida pela organização, em vez de ambientes de terceiros. Esse método garante controle total sobre desempenho, segurança dos dados e conformidade normativa.
Os servidores podem estar fisicamente na sede da empresa ou em um data center dedicado, mas permanecem sob responsabilidade da organização, que cuida de manutenção, atualizações e escalabilidade.
Por sua natureza, o deployment on-premise oferece altos níveis de confiabilidade e segurança, mas exige investimentos significativos em recursos e competências técnicas.
Deployment edge
O deployment edge refere-se à implementação de modelos de IA diretamente em dispositivos locais, como sensores, câmeras, wearables ou outros dispositivos da Internet das Coisas (IoT), sem depender de infraestrutura de nuvem remota.
Essa proximidade reduz a latência e permite análises em tempo real, tornando o edge deployment especialmente adequado para cenários onde velocidade e confiabilidade são críticas, como veículos autônomos ou dispositivos de casas inteligentes. A IA em edge também pode operar com conectividade limitada ou ausente. Apenas modelos otimizados podem ser usados nesses contextos restritivos.
Modelos hospedados (hosted models)
Modelos hospedados são modelos de IA executados em infraestrutura gerida por terceiros, como plataformas fornecidas por provedores especializados.
A gestão dos servidores e ambientes técnicos é responsabilidade do provedor, não da organização que usa o modelo. Os usuários normalmente acessam via API ou interface web.
Esse método reduz o esforço operacional e facilita escalabilidade e manutenção, tornando os modelos hospedados uma escolha frequente quando facilidade de uso e confiabilidade são mais importantes que controle direto da infraestrutura.
Deployment em nuvem
O deployment em nuvem ocorre quando um modelo de IA treinado é executado em infraestrutura de nuvem, em vez de sistemas locais ou on-premise.
O modelo é hospedado e gerido por serviços de nuvem como Infrastructure as a Service (IaaS), Platform as a Service (PaaS) ou Software as a Service (SaaS).
O deployment em nuvem é frequentemente escolhido por sua flexibilidade, especialmente em termos de escalabilidade, eficiência de custos e simplicidade operacional.
IaaS (Infrastructure as a Service)
O Infrastructure as a Service (IaaS) fornece recursos de computação virtualizados, como servidores, armazenamento e rede, via nuvem.
Com o IaaS, os provedores oferecem a infraestrutura necessária para o deployment de modelos de IA, cuidando de manutenção, patches, atualizações e resolução de problemas. Isso permite que as organizações foquem no software e nas iniciativas estratégicas, sem gerenciar diretamente o hardware físico.
PaaS (Platform as a Service)
O Platform as a Service (PaaS) baseia-se no IaaS e adiciona ferramentas e ambientes de desenvolvimento e gerenciamento, oferecendo um contexto pronto para uso.
Permite que equipes desenvolvam, treinem e distribuam modelos de IA de forma mais eficiente, sem se preocupar com a infraestrutura subjacente.
O PaaS é ideal para organizações que buscam rapidez e operações simplificadas, mantendo o controle sobre o fluxo de trabalho da IA.
SaaS (Software as a Service)
O Software as a Service (SaaS) fornece aplicações prontas para uso via internet. Nesse modelo, o provedor gerencia completamente servidores, atualizações, segurança e manutenção.
Os usuários não precisam instalar nada nem se preocupar com a infraestrutura: acessam o serviço via navegador ou API.
Essa abordagem permite implementação rápida, fácil escalabilidade e baixo esforço operacional para os clientes.
Models as a Service (MaaS)
O Model as a Service (MaaS) oferece acesso a modelos de IA já hospedados, via API ou plataformas web, sem necessidade de gerenciar infraestrutura ou deployment.
Os usuários podem integrar esses modelos em suas aplicações ou fluxos de trabalho e usar suas funcionalidades imediatamente, enquanto o provedor cuida de hosting, escalabilidade, atualizações e manutenção.
Em essência, o MaaS transforma modelos de IA em serviços prontos para uso, rapidamente distribuíveis e em larga escala.
Aprofunde-se nos temas da inteligência artificial
Este glossário de inteligência artificial reúne os principais termos e conceitos básicos da área, oferecendo um ponto de partida para compreender os elementos fundamentais da IA e suas aplicações.
Para se manter atualizado sobre as últimas tendências e avanços em inteligência artificial.