Já faz um ano desde que a Lei de Inteligência Artificial da União Europeia foi publicada no Diário Oficial e começou a remodelar o cenário de conformidade na Europa e além.
Embora as obrigações mais amplas da legislação só entrem em vigor em 2026, a Lei de IA já está tendo um impacto mensurável, especialmente nas equipes de privacidade. Muitos profissionais da área se viram no centro de uma conversa em rápida evolução que não necessariamente iniciaram, mas que agora precisam liderar. Desde proibições inaceitáveis até exigências de governança para IA de uso geral.
Então, como as equipes de privacidade estão lidando com tudo isso?
Da gestão de privacidade para a "governança de privacidade e IA"
Tradicionalmente, as equipes de privacidade se concentravam em áreas bem definidas: dados pessoais, direitos dos titulares, avaliações de impacto e fluxos internacionais de dados. No entanto, o crescimento dos sistemas de inteligência artificial tem borrado esses limites, introduzindo novos riscos, ampliando o escopo da conformidade e aumentando a demanda por supervisão.
Como resultado, a governança de IA está se tornando cada vez mais responsabilidade dos encarregados de proteção de dados (DPOs) ou gestores de privacidade. Seja formalmente atribuída a eles ou assumida por necessidade, agora esses profissionais precisam identificar e classificar os sistemas de IA em toda a organização, incluindo as chamadas iniciativas de "shadow AI" (shadow AI). Eles devem avaliar os níveis de risco usando os critérios definidos na Lei de IA, colaborar com equipes jurídicas, técnicas e de conformidade nas avaliações e esforços de mitigação, além de rastrear a origem, o propósito e a explicabilidade de cada sistema em uso.
Tudo isso se soma às responsabilidades habituais, adicionando complexidade e urgência aos programas de privacidade. A governança de IA não está substituindo o trabalho de privacidade, está sendo empilhada em cima dele.
A carga operacional é real
A Lei de IA é frequentemente descrita como uma regulação "horizontal", que complementa leis verticais como o GDPR. Na prática, no entanto, existe uma sobreposição significativa, especialmente no que diz respeito à base legal, transparência, avaliações de impacto e direitos individuais.
Isso cria uma carga dupla para as equipes de privacidade, muitas das quais já operam com recursos limitados. Por exemplo:
- As Avaliações de Impacto de IA geralmente se parecem com as DPIAs, mas com camadas técnicas e éticas adicionais.
- Os Inventários de Sistemas de IA exigem disciplinas de documentação semelhantes às do RoPA, mas abrangem departamentos e tecnologias mais amplos.
- A colaboração entre departamentos (com equipes jurídicas, de TI, de riscos e de produto) agora é uma necessidade, não um luxo.
As equipes de privacidade estão bem posicionadas para liderar, mas muitas carecem de ferramentas ou apoio interno para escalar seu trabalho de forma eficaz.
Um ano de aprendizado e esforço
Desde a publicação da Lei em agosto de 2024, muitas organizações se concentraram em educação e alinhamento interno. Algumas medidas importantes tomadas pelas equipes de privacidade incluem:
- Realização de workshops de descoberta de sistemas de IA com equipes de negócios e produtos
- Estabelecimento de registros internos de IA e comitês de governança
- Comparação dos requisitos da Lei de IA com os processos atuais do GDPR
- Colaboração com assessores jurídicos para esclarecer classificações de risco e obrigações
- Teste de templates para avaliações e documentação de IA
No entanto, ainda existe uma grande incerteza, especialmente em relação a modelos de IA de uso geral (GPAI), riscos de modelos básicos e evolução dos prazos de aplicação.
Como os clientes da TrustWorks estão tornando sua gestão de IA mais eficiente
Em junho de 2024, a TrustWorks lançou o Módulo de Governança de IA para ajudar as equipes de privacidade a irem além do controle manual e se prepararem melhor para a Lei de IA. Nosso objetivo? Tornar a governança de IA prática, colaborativa e escalável. O mesmo que fizemos com a gestão de privacidade, simplificando operações para que as equipes possam finalmente parar de focar em tarefas administrativas repetitivas e se dedicar a atividades mais estratégicas e de alto valor.
Hoje, temos orgulho de contar com clientes, incluindo empresas da Fortune 500, que utilizam a Plataforma de Governança de IA para:
- Criar e manter um registro centralizado e pronto para auditoria de sistemas de IA
- Realizar avaliações de risco e impacto de IA em todas as jurisdições
- Reduzir o tempo gasto em workshops automatizando a descoberta e a classificação de casos de uso de IA
- Obter informações em tempo real sobre propósito, base legal e nível de risco de cada sistema
- Colaborar com jurídico, compliance e engenharia em planos de mitigação
- Documentar controle de versão automático e monitorar fluxos de governança
E, ao contrário de ferramentas que agrupam tudo de forma engessada, alguns clientes começaram apenas com AI Governance, pois era onde a pressão estava maior. Graças à abordagem modular da TrustWorks, puderam adotar exatamente o que precisavam, sem serem obrigados a integrar uma solução completa de privacidade desde o primeiro dia.
Quer ver como um de nossos clientes corporativos está otimizando a governança de IA agora mesmo? Agende uma reunião comigo. Vou mostrar como é a governança real e operacional de IA.

O que vem a seguir?
A aplicação da Lei de IA é gradual e já passamos pela primeira rodada. Em fevereiro de 2025, as proibições de sistemas de risco inaceitável e os requisitos de alfabetização em IA entraram em vigor, marcando o início de uma verdadeira pressão regulatória.
A mensagem da UE agora é muito clara:
"Não há como parar o relógio. Não há período de carência. Não há pausa."
Qualquer esperança de uma transição suave foi oficialmente descartada. Então, o que está por vir?
- Agosto de 2025: Obrigações para modelos de IA de uso geral (GPAI), incluindo documentação, transparência e divulgações
- Agosto de 2026: Prazo de conformidade total para sistemas de IA de alto risco
- Agosto de 2027: Requisitos adicionais entram em vigor para IA de alto risco integrada em produtos regulados (por exemplo, tecnologia de saúde, maquinário)
Isso significa que as equipes de privacidade, risco e governança precisam agir agora, não depois. Linhas de trabalho que já deveriam estar em andamento incluem:
- Mapeamento de sistemas de IA em todos os departamentos
- Qualificação de risco de cada sistema com base nos critérios da Lei de IA
- Preparação para avaliações de conformidade, quando aplicável
- Compreensão dos requisitos de transparência e divulgação, inclusive para desenvolvedores
- Desenvolvimento de templates de revisão interna adaptados aos casos de uso de IA
- Definição de processos de propriedade, escalonamento e aprovação
- E se você atua em B2B, os clientes podem exigir provas de conformidade com a Lei de IA, especialmente em setores regulados
É hora de demonstrar que a governança já está em andamento e que sua organização não apenas conhece as regras, mas está ativamente preparada para cumpri-las.
Reflexões finais
Um ano após a promulgação da Lei de IA, os profissionais de privacidade estão se adaptando. A governança de IA não é mais apenas uma questão tecnológica ou ética, é uma prioridade de conformidade. Mas desta vez, eles têm uma vantagem valiosa: a experiência.
Muitos dos profissionais agora responsáveis pela governança de IA também lideraram a implementação do GDPR. Eles já fizeram isso antes: mapear dados, construir estruturas de governança e traduzir textos legais em fluxos operacionais, muitas vezes com prazos apertados e poucos recursos.
No entanto, a implementação da Lei de IA oferece a oportunidade de fazer as coisas de maneira mais eficiente. Agora, as equipes de privacidade podem ser mais proativas do que reativas. Podem se afastar de tarefas baseadas em "checklists" para adotar uma governança operacional por padrão. Podem se adaptar a fluxos de trabalho multifuncionais desde o início. E, mais importante, podem substituir tarefas manuais e repetitivas por processos mais automatizados e eficientes.
Em vez de repetir as abordagens fragmentadas e cheias de planilhas adotadas por muitas organizações ao se prepararem para o GDPR, os líderes de privacidade agora têm acesso a ferramentas e estruturas mais inteligentes projetadas para escalar. Com a configuração certa, a governança de IA pode se tornar parte integrante das operações diárias, e não um pensamento tardio ou uma corrida contra o relógio.
A regulação de IA é um território novo, mas para os profissionais de privacidade, o manual básico é familiar. E desta vez existe uma oportunidade real de criar algo mais resiliente, colaborativo e preparado para o futuro. Desde o início.
👉 Pronto para otimizar a governança de IA? Comece com um teste gratuito do módulo AI Governance.
Sem custos de configuração nem complementos desnecessários. Solicite seu teste gratuito de AI Governance.
