Governança

Confidencialidade e IA: o que advogados precisam saber sobre ChatGPT, Claude e Copilot

Por Edson Taro Nakajima Fev 2026 10 min de leitura

A preocupação com confidencialidade é a objeção número um que ouço de advogados quando o assunto é o uso de ferramentas de IA. Essa preocupação é legítima — o sigilo profissional é um dos pilares éticos da advocacia, previsto no art. 34, VII do Estatuto da OAB (Lei nº 8.906/1994) e reforçado pelo art. 25 do Código de Ética e Disciplina.

O problema é que essa preocupação, na maioria dos casos, é mal direcionada. Advogados que usam o plano gratuito do ChatGPT com dados de clientes têm razão em se preocupar. Advogados que bloqueiam qualquer uso de IA no escritório por "questões de confidencialidade" provavelmente estão tomando a decisão errada — e perdendo eficiência para a concorrência.

Este artigo explica como os principais sistemas funcionam, quais planos oferecem as garantias necessárias e como estruturar o uso de IA de forma ética e segura.

> 01. O que está em jogo: o que a OAB diz

O Código de Ética e Disciplina da OAB, em seu art. 25, estabelece que o advogado deve guardar sigilo das informações obtidas no exercício da profissão. Essa obrigação se estende a colaboradores, estagiários e — por extensão lógica — às ferramentas digitais utilizadas no exercício da atividade.

A questão central não é "posso usar IA?", mas "em que condições o uso de IA é compatível com o sigilo profissional?". A resposta passa pela análise de como cada plataforma trata os dados inseridos nas conversas.

> 02. A distinção fundamental: consumer vs. enterprise

Todas as principais plataformas de IA oferecem dois tipos de acesso: planos consumer (gratuitos ou de baixo custo, para uso pessoal) e planos enterprise (corporativos, com garantias contratuais de privacidade). A diferença é substancial.

Nos planos consumer, as políticas geralmente permitem que a empresa use as conversas para treinar e melhorar os modelos. Informações inseridas nas conversas podem, em tese, influenciar respostas futuras para outros usuários. Não há garantia contratual de isolamento de dados.

Nos planos enterprise e business, as empresas firmam acordos contratuais que geralmente incluem: não uso dos dados para treinamento, isolamento do ambiente do cliente, possibilidade de assinar acordos de processamento de dados compatíveis com a LGPD, e controles granulares de retenção de dados.

> OpenAI — ChatGPT
Free / Plus
Dados podem ser usados para treinamento
Team
Sem treinamento por padrão; dados no ambiente da OpenAI
Enterprise
Zero retenção, DPA disponível, controles de admin
> Anthropic — Claude
Free / Pro
Conversas podem ser revisadas para melhorias de segurança
Team
Sem treinamento com dados das conversas; isolamento de equipe
Enterprise
Retenção zero, SSO, DPA, controles de segurança avançados
> Microsoft — Copilot
Copilot (gratuito)
Sujeito às políticas de dados da Microsoft para consumidores
Copilot for Microsoft 365
Dados ficam no tenant M365 do cliente; sem treinamento de modelo
Azure OpenAI
Isolamento total; dados não saem do ambiente Azure do cliente
Importante: as políticas de cada plataforma mudam com frequência. Antes de adotar qualquer ferramenta para uso profissional com dados sensíveis, consulte os termos de serviço e a política de privacidade vigentes, preferencialmente com o apoio do DPO ou do departamento jurídico do escritório.

> 03. O que nunca deve ser inserido, em nenhum plano

Independentemente do plano utilizado, existem categorias de informação que não devem ser inseridas literalmente em qualquer ferramenta de IA externa — mesmo nas versões enterprise:

A prática correta é a anonimização ou pseudonimização antes da inserção. "Meu cliente João da Silva, no processo nº 0001234-56.2025" vira "uma empresa do setor varejista, autora em ação de cobrança". O resultado da análise jurídica é igualmente útil — sem exposição de dados.

> 04. Boas práticas para uso profissional

Estruturar o uso seguro de IA não exige grandes investimentos, mas exige decisões conscientes:

> 05. A perspectiva da LGPD

Do ponto de vista da Lei Geral de Proteção de Dados (Lei nº 13.709/2018), o escritório de advocacia que utiliza ferramentas de IA para processar dados pessoais de clientes ou terceiros age na condição de controlador (art. 5º, VI da LGPD). A plataforma de IA atua como operador (art. 5º, VII).

Isso significa que o escritório deve garantir que o operador ofereça salvaguardas adequadas — o que, na prática, significa contratar planos que incluam um Acordo de Processamento de Dados (DPA) compatível com a LGPD. Sem esse contrato, o escritório não tem base legal sólida para a transferência de dados pessoais a uma plataforma externa de IA.

Para transferências internacionais de dados — o que ocorre quando se usam plataformas com servidores fora do Brasil — o art. 33 da LGPD exige grau de proteção adequado no país de destino, ou que o contrato preveja cláusulas específicas de proteção.

> Conclusão

O maior risco de confidencialidade em escritórios de advocacia hoje não é o uso de IA — é o uso desinformado de IA. Advogados que utilizam planos gratuitos com dados de clientes por conveniência representam um risco real e mensurável. Escritórios que adotam planos enterprise com políticas claras e equipe treinada estão bem protegidos.

A questão, portanto, não é evitar IA — é usá-la com o mesmo rigor com que se trata qualquer outro aspecto da governança do escritório.

> Quer estruturar o uso de IA no seu escritório?

O IPL|IA ajuda escritórios a adotar ferramentas de IA de forma segura, eficiente e em conformidade com a OAB e a LGPD. Comece com um diagnóstico gratuito.

> Iniciar Assessment Gratuito