Governança de IA através do Atlântico: como a Europa e os EUA estão moldando a inovação responsável
Inteligência Artificial
26 Marchar 2026
Dos serviços públicos ao ambiente de trabalho e à vida cotidiana, a inteligência artificial está transformando rapidamente setores em todo o mundo.
À medida que seu impacto cresce, também aumenta a necessidade de os governos garantirem que esses sistemas sejam usados de forma responsável. Isso é o que se chama governança de IA, que busca tornar a IA segura, transparente e responsável, ao mesmo tempo em que apoia a inovação.
Do outro lado do Atlântico, a União Europeia e os Estados Unidos adotaram abordagens diferentes para esse desafio. Enquanto a UE construiu um quadro regulatório abrangente, os EUA dependem de uma combinação mais descentralizada de políticas e normas. Juntos, esses modelos estão moldando o debate global sobre IA responsável.
Este artigo explora os fundamentos da governança de IA, analisa as abordagens distintas adotadas pelos EUA e pela UE e conclui com orientações práticas para ajudar as organizações a entender o que essas regulamentações significam e como responder a elas.
O que é governança de IA e por que é importante?
Governança de IA refere-se ao conjunto de políticas, regras e práticas criadas para orientar como os sistemas de inteligência artificial são desenvolvidos, implementados e utilizados.
Esses quadros são elaborados por governos, órgãos reguladores e organizações internacionais, podendo variar significativamente entre países e regiões.
Na União Europeia, a governança de IA é definida por meio do processo legislativo da UE, com a Comissão Europeia propondo regras e o Parlamento Europeu e o Conselho adotando-as, apoiados por órgãos de supervisão europeus e nacionais para sua implementação.
Nos Estados Unidos, a governança de IA é moldada por um sistema mais descentralizado que envolve a Casa Branca, agências federais, organismos de padronização como o NIST e, quando relevante, o Congresso.
- Usuários, empresas e governos exigem governança de IA por diversos motivos, dependendo de como utilizam a tecnologia:
- Usuários querem saber que os sistemas de IA que influenciam suas vidas — de aprovações de crédito a diagnósticos médicos — são justos, responsáveis e não exploram seus dados.
- Empresas precisam de regras claras. Normas consistentes reduzem a incerteza jurídica, aumentam a confiança dos clientes e permitem inovar com segurança.
- Governos devem garantir que a IA beneficie a sociedade, e não apenas o lucro, protegendo os direitos dos cidadãos enquanto aproveitam seu potencial.
Diferentes caminhos para a governança de IA: UE e EUA
Para enfrentar esses desafios, os países desenvolveram suas próprias abordagens.
Dois dos modelos mais influentes surgiram na Europa e nos Estados Unidos.
A União Europeia criou um quadro abrangente baseado na gestão de riscos e na proteção dos indivíduos, com iniciativas recentes voltadas à simplificação da implementação.
Os Estados Unidos adotaram uma abordagem mais descentralizada, combinando ações executivas, normas técnicas e supervisão por setor, em vez de uma única lei geral.
Europa: o AI Act e a regulação responsável
O pilar central do modelo de governança de IA da Europa é o EU AI Act. Adotado em 2024, é amplamente considerado o primeiro quadro jurídico abrangente para a inteligência artificial.
No coração do EU AI Act está uma abordagem escalonada baseada no risco — reconhecendo que nem todos os sistemas de IA representam o mesmo nível de ameaça e que a regulamentação deve ser proporcional aos danos que podem causar.
O Ato estabelece uma distinção clara entre quatro categorias:
- Sistemas de risco inaceitável (proibidos): Um conjunto limitado de usos de IA é proibido por representar uma ameaça clara à segurança ou aos direitos fundamentais (por exemplo, pontuação social, certas formas de vigilância biométrica).
- Sistemas de alto risco (permitidos com regras rigorosas): A IA utilizada em áreas sensíveis (por exemplo, recrutamento, educação, infraestruturas críticas) é permitida, mas deve cumprir requisitos específicos, incluindo gestão de risco, qualidade dos dados, documentação e rastreabilidade, supervisão humana e requisitos de precisão, robustez e cibersegurança.
- Sistemas de risco limitado (permitidos com transparência): As aplicações de IA devem cumprir obrigações de transparência, como informar os utilizadores quando estão a interagir com IA (por exemplo, chatbots ou certos conteúdos gerados por IA).
Sistemas de risco mínimo (livremente permitidos): A maioria das aplicações de IA enquadra-se nesta categoria e é, em grande parte, não regulamentada. - Para além deste quadro baseado em casos de uso, o Ato também introduz regras específicas para modelos de IA de propósito geral (GPAI).
De facto, esta regulamentação baseia-se numa distinção entre LLMs, Sistemas de IA e GPAI.
Um Modelo de Linguagem de Grande Escala (LLM) é a tecnologia subjacente — um modelo treinado com enormes quantidades de texto para compreender e gerar linguagem.
Um Sistema de IA é um produto ou aplicação mais amplo, construído em torno de um ou mais modelos, combinado com ferramentas, dados, regras e interfaces para realizar tarefas específicas — como um chatbot de atendimento ao cliente ou uma plataforma de deteção de fraude.
A IA de Propósito Geral (GPAI) refere-se a sistemas de IA concebidos especificamente para desempenhar uma ampla variedade de tarefas em diferentes domínios, em vez de um uso específico — podendo escrever, raciocinar, programar, analisar e muito mais, sem estar limitada a uma única função.
Estas regras aplicam-se diretamente aos próprios modelos de GPAI, e não apenas à forma como são utilizados na prática.
Os fornecedores desses modelos devem cumprir determinados requisitos de transparência, incluindo a preparação de documentação técnica e resumos dos dados de treino, bem como a observância das obrigações de direitos de autor da UE.
Os modelos mais poderosos — isto é, aqueles considerados como apresentando riscos sistémicos devido à sua escala, capacidades ou potencial de impacto generalizado — estão sujeitos a um regime mais rigoroso, que inclui obrigações relacionadas com a avaliação e mitigação de riscos, maior supervisão e comunicação obrigatória.
Omnibus Digital: tornar o panorama regulatório digital mais prático
Desenvolvimentos mais recentes apontam para uma ênfase crescente na implementação e simplificação. Em novembro de 2025, a Comissão Europeia apresentou uma proposta de Omnibus Digital, atualmente em discussão pelas instituições da UE, concebida para tornar o panorama regulatório digital da União mais prático e fácil de implementar.
A proposta visa reduzir encargos administrativos, clarificar a interação entre diferentes regulamentos e garantir que as empresas não sejam obrigadas a duplicar esforços de conformidade em diferentes quadros normativos sobrepostos.
Isto inclui medidas como a simplificação das obrigações de reporte, a melhoria da coerência entre os requisitos regulamentares e o ajuste de prazos em algumas áreas, de modo a melhor alinhá-los com a prontidão para a implementação.
Estados Unidos: governança descentralizada e uma política de IA orientada para a inovação
Os Estados Unidos não regulam a inteligência artificial através de uma única lei abrangente. Em vez disso, adotam uma abordagem descentralizada — o governo federal estabelece prioridades gerais, enquanto as agências individuais aplicam regras dentro dos seus próprios domínios.
Setores como saúde, finanças e proteção do consumidor operam cada um sob os seus próprios quadros de supervisão, com a IA integrada em estruturas já existentes, em vez de ser regulada por um sistema totalmente novo.
De facto, a direção da política de IA dos EUA em 2025 é bem captada pelo título de uma importante ordem executiva assinada em janeiro: Removing Barriers to American Leadership in Artificial Intelligence.
Em vez de introduzir novas restrições, essa ordem solicitou às agências que revissem e ajustassem as regras existentes para apoiar o desenvolvimento da IA, confiando nos mecanismos de supervisão já em vigor e priorizando o progresso em vez de adicionar nova burocracia.
O America’s AI Action Plan, também lançado em 2025, baseia-se nesta abordagem com três objetivos principais: Acelerar a Inovação, Construir Infraestruturas de IA e Liderar a Diplomacia e Segurança Internacionais.
O plano não introduz um único regulador central de IA. Em vez disso, distribui responsabilidades por todo o governo, tornando a coordenação o principal princípio organizador, em vez de uma supervisão centralizada.
Espera-se que as agências federais não apenas supervisionem a IA, mas também a adotem — automatizando processos rotineiros, melhorando a tomada de decisões e reforçando a prestação de serviços públicos, como parte de uma estratégia mais ampla de integração da IA nas operações do setor público.
A dependência de agências específicas por setor permite que as regras de IA sejam adaptadas a diferentes contextos, em vez de aplicar uma abordagem única a todos os usos. Ao mesmo tempo, as diferenças entre setores e estados podem introduzir complexidade e alguma variação na aplicação das normas.
Uma ordem executiva de dezembro de 2025 responde a este desafio ao apelar a uma abordagem nacional mais coerente, principalmente procurando limitar regras conflitantes ao nível estadual e alinhar a política federal em torno de uma estratégia comum para a governança da IA.
Esta ordem não procura substituir o sistema existente, mas sim reduzir a fragmentação e melhorar a consistência, preservando ao mesmo tempo a sua flexibilidade.
Onde as regulamentações dos EUA e da UE se encontram
Apesar das suas diferenças estruturais, a UE e os EUA estão a convergir em várias prioridades centrais que estão a moldar o futuro da governança da IA a nível global.
1. Testes e avaliação de segurança
Tanto a UE quanto os EUA enfatizam testes rigorosos dos sistemas de IA antes e depois da sua implementação. A UE exige isso através de requisitos estritos para sistemas de alto risco, enquanto os EUA promovem estruturas de avaliação através das agências. O objetivo comum: os sistemas de IA devem ser validados, e não apenas construídos.
2. Investimento em infraestrutura e pesquisa em IA
A governança da IA não se trata apenas de restrição, mas também de capacitação. Os EUA lideram em investimento em infraestrutura, enquanto a UE está a impulsionar a pesquisa e a inovação em IA. Ambos reconhecem que uma IA confiável requer não apenas regras, mas também capacidade para desenvolvê-la e escalá-la.
3. Implementação responsável em serviços públicos
Governos de ambos os lados do Atlântico estão a adotar IA em serviços públicos, com a expectativa compartilhada de liderar pelo exemplo, utilizando-a de forma responsável e eficaz.
Navegando na regulamentação de IA: ações-chave para organizações
Para as organizações, a conclusão é não esperar por clareza regulatória perfeita. A direção já está bem estabelecida, e as empresas que agirem cedo estarão melhor posicionadas para se adaptar.
Um ponto de partida prático inclui:
- Mapear casos de uso de IA: Identificar onde e como a IA está a ser utilizada na organização — incluindo usos experimentais ou informais.
- Classificar impacto e risco potencial: Avaliar quais sistemas podem se enquadrar em categorias de maior risco, particularmente aqueles que afetam direitos individuais, segurança ou acesso a serviços.
- Documentar fontes de dados e finalidade: Manter registos claros de como os dados são coletados, processados e utilizados, bem como a finalidade de cada sistema de IA.
- Estabelecer mecanismos de supervisão humana: Garantir envolvimento humano significativo na tomada de decisões, especialmente para casos de uso sensíveis ou de alto impacto.
- Implementar processos de teste e monitoramento: Avaliar regularmente o desempenho do sistema, vieses, robustez e segurança — antes da implementação e ao longo do tempo.
- Garantir transparência quando exigida: Informar os utilizadores quando estão a interagir com IA e fornecer explicações apropriadas sobre o comportamento do sistema, quando necessário.
- Monitorar a evolução regulatória: A governança de IA está a evoluir rapidamente. Manter-se informado sobre desenvolvimentos na UE e nos EUA para antecipar mudanças e evitar conformidade reativa.
Velvet: governança de IA na prática
À medida que os quadros de governança de IA evoluem, as organizações recorrem cada vez mais a soluções concebidas tendo em conta esses requisitos. O Velvet da Almawave é uma família de LLMs construída com princípios de privacidade desde a conceção (privacy-by-design), monitorizada continuamente face às regulamentações europeias em evolução e governada por um quadro interno que inclui supervisão de um Comité Ético e Técnico, auditorias contínuas de viés, restrições de utilização para garantir conformidade regulatória e revisões periódicas de impacto para aplicações de alto risco.
Na prática, isto inclui medidas como classificação de dados, tratamento de informações sensíveis, encriptação, anonimização e acesso controlado — ilustrando como a governança está a ser integrada diretamente nos sistemas de IA.