Governança de IA: abordagens da UE vs EUA para uma inovação responsável em IA
x icon pop up Descubra a plataforma AiWave

Pesquisar no site

Não encontrou o que estava procurando?

Governança de IA através do Atlântico: como a Europa e os EUA estão moldando a inovação responsável

Digital document validation and quality assurance concept with checkmark symbol and data icons over businessman using laptop in futuristic interface..

Inteligência Artificial

26 Marchar 2026

Dos serviços públicos ao ambiente de trabalho e à vida cotidiana, a inteligência artificial está transformando rapidamente setores em todo o mundo.

À medida que seu impacto cresce, também aumenta a necessidade de os governos garantirem que esses sistemas sejam usados de forma responsável. Isso é o que se chama governança de IA, que busca tornar a IA segura, transparente e responsável, ao mesmo tempo em que apoia a inovação.

Do outro lado do Atlântico, a União Europeia e os Estados Unidos adotaram abordagens diferentes para esse desafio. Enquanto a UE construiu um quadro regulatório abrangente, os EUA dependem de uma combinação mais descentralizada de políticas e normas. Juntos, esses modelos estão moldando o debate global sobre IA responsável.

Este artigo explora os fundamentos da governança de IA, analisa as abordagens distintas adotadas pelos EUA e pela UE e conclui com orientações práticas para ajudar as organizações a entender o que essas regulamentações significam e como responder a elas.

O que é governança de IA e por que é importante?

Governança de IA refere-se ao conjunto de políticas, regras e práticas criadas para orientar como os sistemas de inteligência artificial são desenvolvidos, implementados e utilizados.

Esses quadros são elaborados por governos, órgãos reguladores e organizações internacionais, podendo variar significativamente entre países e regiões.

Na União Europeia, a governança de IA é definida por meio do processo legislativo da UE, com a Comissão Europeia propondo regras e o Parlamento Europeu e o Conselho adotando-as, apoiados por órgãos de supervisão europeus e nacionais para sua implementação.

Nos Estados Unidos, a governança de IA é moldada por um sistema mais descentralizado que envolve a Casa Branca, agências federais, organismos de padronização como o NIST e, quando relevante, o Congresso.

  • Usuários, empresas e governos exigem governança de IA por diversos motivos, dependendo de como utilizam a tecnologia:
  • Usuários querem saber que os sistemas de IA que influenciam suas vidas — de aprovações de crédito a diagnósticos médicos — são justos, responsáveis e não exploram seus dados.
  • Empresas precisam de regras claras. Normas consistentes reduzem a incerteza jurídica, aumentam a confiança dos clientes e permitem inovar com segurança.
  • Governos devem garantir que a IA beneficie a sociedade, e não apenas o lucro, protegendo os direitos dos cidadãos enquanto aproveitam seu potencial.

Diferentes caminhos para a governança de IA: UE e EUA

Para enfrentar esses desafios, os países desenvolveram suas próprias abordagens.

Dois dos modelos mais influentes surgiram na Europa e nos Estados Unidos.

A União Europeia criou um quadro abrangente baseado na gestão de riscos e na proteção dos indivíduos, com iniciativas recentes voltadas à simplificação da implementação.

Os Estados Unidos adotaram uma abordagem mais descentralizada, combinando ações executivas, normas técnicas e supervisão por setor, em vez de uma única lei geral.

At a meeting, a group of businesspeople brainstorms about current finance and the economy on the firm investment laptop, generative ai

Europa: o AI Act e a regulação responsável

O pilar central do modelo de governança de IA da Europa é o EU AI Act. Adotado em 2024, é amplamente considerado o primeiro quadro jurídico abrangente para a inteligência artificial.

No coração do EU AI Act está uma abordagem escalonada baseada no risco — reconhecendo que nem todos os sistemas de IA representam o mesmo nível de ameaça e que a regulamentação deve ser proporcional aos danos que podem causar.

O Ato estabelece uma distinção clara entre quatro categorias:

  • Sistemas de risco inaceitável (proibidos): Um conjunto limitado de usos de IA é proibido por representar uma ameaça clara à segurança ou aos direitos fundamentais (por exemplo, pontuação social, certas formas de vigilância biométrica).
  • Sistemas de alto risco (permitidos com regras rigorosas): A IA utilizada em áreas sensíveis (por exemplo, recrutamento, educação, infraestruturas críticas) é permitida, mas deve cumprir requisitos específicos, incluindo gestão de risco, qualidade dos dados, documentação e rastreabilidade, supervisão humana e requisitos de precisão, robustez e cibersegurança.
  • Sistemas de risco limitado (permitidos com transparência): As aplicações de IA devem cumprir obrigações de transparência, como informar os utilizadores quando estão a interagir com IA (por exemplo, chatbots ou certos conteúdos gerados por IA).
    Sistemas de risco mínimo (livremente permitidos): A maioria das aplicações de IA enquadra-se nesta categoria e é, em grande parte, não regulamentada.
  • Para além deste quadro baseado em casos de uso, o Ato também introduz regras específicas para modelos de IA de propósito geral (GPAI).

De facto, esta regulamentação baseia-se numa distinção entre LLMs, Sistemas de IA e GPAI.

Um Modelo de Linguagem de Grande Escala (LLM) é a tecnologia subjacente — um modelo treinado com enormes quantidades de texto para compreender e gerar linguagem.

Um Sistema de IA é um produto ou aplicação mais amplo, construído em torno de um ou mais modelos, combinado com ferramentas, dados, regras e interfaces para realizar tarefas específicas — como um chatbot de atendimento ao cliente ou uma plataforma de deteção de fraude.

A IA de Propósito Geral (GPAI) refere-se a sistemas de IA concebidos especificamente para desempenhar uma ampla variedade de tarefas em diferentes domínios, em vez de um uso específico — podendo escrever, raciocinar, programar, analisar e muito mais, sem estar limitada a uma única função.

Estas regras aplicam-se diretamente aos próprios modelos de GPAI, e não apenas à forma como são utilizados na prática.

Os fornecedores desses modelos devem cumprir determinados requisitos de transparência, incluindo a preparação de documentação técnica e resumos dos dados de treino, bem como a observância das obrigações de direitos de autor da UE.

Os modelos mais poderosos — isto é, aqueles considerados como apresentando riscos sistémicos devido à sua escala, capacidades ou potencial de impacto generalizado — estão sujeitos a um regime mais rigoroso, que inclui obrigações relacionadas com a avaliação e mitigação de riscos, maior supervisão e comunicação obrigatória.

Omnibus Digital: tornar o panorama regulatório digital mais prático

Desenvolvimentos mais recentes apontam para uma ênfase crescente na implementação e simplificação. Em novembro de 2025, a Comissão Europeia apresentou uma proposta de Omnibus Digital, atualmente em discussão pelas instituições da UE, concebida para tornar o panorama regulatório digital da União mais prático e fácil de implementar.

A proposta visa reduzir encargos administrativos, clarificar a interação entre diferentes regulamentos e garantir que as empresas não sejam obrigadas a duplicar esforços de conformidade em diferentes quadros normativos sobrepostos.

Isto inclui medidas como a simplificação das obrigações de reporte, a melhoria da coerência entre os requisitos regulamentares e o ajuste de prazos em algumas áreas, de modo a melhor alinhá-los com a prontidão para a implementação.

 

AdobeStock_1563487992

Estados Unidos: governança descentralizada e uma política de IA orientada para a inovação

Os Estados Unidos não regulam a inteligência artificial através de uma única lei abrangente. Em vez disso, adotam uma abordagem descentralizada — o governo federal estabelece prioridades gerais, enquanto as agências individuais aplicam regras dentro dos seus próprios domínios.

Setores como saúde, finanças e proteção do consumidor operam cada um sob os seus próprios quadros de supervisão, com a IA integrada em estruturas já existentes, em vez de ser regulada por um sistema totalmente novo.

De facto, a direção da política de IA dos EUA em 2025 é bem captada pelo título de uma importante ordem executiva assinada em janeiro: Removing Barriers to American Leadership in Artificial Intelligence.

Em vez de introduzir novas restrições, essa ordem solicitou às agências que revissem e ajustassem as regras existentes para apoiar o desenvolvimento da IA, confiando nos mecanismos de supervisão já em vigor e priorizando o progresso em vez de adicionar nova burocracia.

O America’s AI Action Plan, também lançado em 2025, baseia-se nesta abordagem com três objetivos principais: Acelerar a Inovação, Construir Infraestruturas de IA e Liderar a Diplomacia e Segurança Internacionais.

O plano não introduz um único regulador central de IA. Em vez disso, distribui responsabilidades por todo o governo, tornando a coordenação o principal princípio organizador, em vez de uma supervisão centralizada.

Espera-se que as agências federais não apenas supervisionem a IA, mas também a adotem — automatizando processos rotineiros, melhorando a tomada de decisões e reforçando a prestação de serviços públicos, como parte de uma estratégia mais ampla de integração da IA nas operações do setor público.

A dependência de agências específicas por setor permite que as regras de IA sejam adaptadas a diferentes contextos, em vez de aplicar uma abordagem única a todos os usos. Ao mesmo tempo, as diferenças entre setores e estados podem introduzir complexidade e alguma variação na aplicação das normas.

Uma ordem executiva de dezembro de 2025 responde a este desafio ao apelar a uma abordagem nacional mais coerente, principalmente procurando limitar regras conflitantes ao nível estadual e alinhar a política federal em torno de uma estratégia comum para a governança da IA.

Esta ordem não procura substituir o sistema existente, mas sim reduzir a fragmentação e melhorar a consistência, preservando ao mesmo tempo a sua flexibilidade.

Project Leader and Chief Executive Discuss Data Shown on a Lapto

Onde as regulamentações dos EUA e da UE se encontram

Apesar das suas diferenças estruturais, a UE e os EUA estão a convergir em várias prioridades centrais que estão a moldar o futuro da governança da IA a nível global.

1. Testes e avaliação de segurança

Tanto a UE quanto os EUA enfatizam testes rigorosos dos sistemas de IA antes e depois da sua implementação. A UE exige isso através de requisitos estritos para sistemas de alto risco, enquanto os EUA promovem estruturas de avaliação através das agências. O objetivo comum: os sistemas de IA devem ser validados, e não apenas construídos.

2. Investimento em infraestrutura e pesquisa em IA

A governança da IA não se trata apenas de restrição, mas também de capacitação. Os EUA lideram em investimento em infraestrutura, enquanto a UE está a impulsionar a pesquisa e a inovação em IA. Ambos reconhecem que uma IA confiável requer não apenas regras, mas também capacidade para desenvolvê-la e escalá-la.

3. Implementação responsável em serviços públicos

Governos de ambos os lados do Atlântico estão a adotar IA em serviços públicos, com a expectativa compartilhada de liderar pelo exemplo, utilizando-a de forma responsável e eficaz.

Navegando na regulamentação de IA: ações-chave para organizações

Para as organizações, a conclusão é não esperar por clareza regulatória perfeita. A direção já está bem estabelecida, e as empresas que agirem cedo estarão melhor posicionadas para se adaptar.

Um ponto de partida prático inclui:

  • Mapear casos de uso de IA: Identificar onde e como a IA está a ser utilizada na organização — incluindo usos experimentais ou informais.
  • Classificar impacto e risco potencial: Avaliar quais sistemas podem se enquadrar em categorias de maior risco, particularmente aqueles que afetam direitos individuais, segurança ou acesso a serviços.
  • Documentar fontes de dados e finalidade: Manter registos claros de como os dados são coletados, processados e utilizados, bem como a finalidade de cada sistema de IA.
  • Estabelecer mecanismos de supervisão humana: Garantir envolvimento humano significativo na tomada de decisões, especialmente para casos de uso sensíveis ou de alto impacto.
  • Implementar processos de teste e monitoramento: Avaliar regularmente o desempenho do sistema, vieses, robustez e segurança — antes da implementação e ao longo do tempo.
  • Garantir transparência quando exigida: Informar os utilizadores quando estão a interagir com IA e fornecer explicações apropriadas sobre o comportamento do sistema, quando necessário.
  • Monitorar a evolução regulatória: A governança de IA está a evoluir rapidamente. Manter-se informado sobre desenvolvimentos na UE e nos EUA para antecipar mudanças e evitar conformidade reativa.

Velvet: governança de IA na prática

À medida que os quadros de governança de IA evoluem, as organizações recorrem cada vez mais a soluções concebidas tendo em conta esses requisitos. O Velvet da Almawave é uma família de LLMs construída com princípios de privacidade desde a conceção (privacy-by-design), monitorizada continuamente face às regulamentações europeias em evolução e governada por um quadro interno que inclui supervisão de um Comité Ético e Técnico, auditorias contínuas de viés, restrições de utilização para garantir conformidade regulatória e revisões periódicas de impacto para aplicações de alto risco.

Na prática, isto inclui medidas como classificação de dados, tratamento de informações sensíveis, encriptação, anonimização e acesso controlado — ilustrando como a governança está a ser integrada diretamente nos sistemas de IA.

Saiba mais arrow right