A preocupação com confidencialidade é a objeção número um que ouço de advogados quando o assunto é o uso de ferramentas de IA. Essa preocupação é legítima — o sigilo profissional é um dos pilares éticos da advocacia, previsto no art. 34, VII do Estatuto da OAB (Lei nº 8.906/1994) e reforçado pelo art. 25 do Código de Ética e Disciplina.
O problema é que essa preocupação, na maioria dos casos, é mal direcionada. Advogados que usam o plano gratuito do ChatGPT com dados de clientes têm razão em se preocupar. Advogados que bloqueiam qualquer uso de IA no escritório por "questões de confidencialidade" provavelmente estão tomando a decisão errada — e perdendo eficiência para a concorrência.
Este artigo explica como os principais sistemas funcionam, quais planos oferecem as garantias necessárias e como estruturar o uso de IA de forma ética e segura.
> 01. O que está em jogo: o que a OAB diz
O Código de Ética e Disciplina da OAB, em seu art. 25, estabelece que o advogado deve guardar sigilo das informações obtidas no exercício da profissão. Essa obrigação se estende a colaboradores, estagiários e — por extensão lógica — às ferramentas digitais utilizadas no exercício da atividade.
A questão central não é "posso usar IA?", mas "em que condições o uso de IA é compatível com o sigilo profissional?". A resposta passa pela análise de como cada plataforma trata os dados inseridos nas conversas.
> 02. A distinção fundamental: consumer vs. enterprise
Todas as principais plataformas de IA oferecem dois tipos de acesso: planos consumer (gratuitos ou de baixo custo, para uso pessoal) e planos enterprise (corporativos, com garantias contratuais de privacidade). A diferença é substancial.
Nos planos consumer, as políticas geralmente permitem que a empresa use as conversas para treinar e melhorar os modelos. Informações inseridas nas conversas podem, em tese, influenciar respostas futuras para outros usuários. Não há garantia contratual de isolamento de dados.
Nos planos enterprise e business, as empresas firmam acordos contratuais que geralmente incluem: não uso dos dados para treinamento, isolamento do ambiente do cliente, possibilidade de assinar acordos de processamento de dados compatíveis com a LGPD, e controles granulares de retenção de dados.
Importante: as políticas de cada plataforma mudam com frequência. Antes de adotar qualquer ferramenta para uso profissional com dados sensíveis, consulte os termos de serviço e a política de privacidade vigentes, preferencialmente com o apoio do DPO ou do departamento jurídico do escritório.
> 03. O que nunca deve ser inserido, em nenhum plano
Independentemente do plano utilizado, existem categorias de informação que não devem ser inseridas literalmente em qualquer ferramenta de IA externa — mesmo nas versões enterprise:
- Nomes completos de clientes combinados com informações identificáveis do caso
- Números de CPF, CNPJ, contratos ou documentos que permitam identificação direta
- Detalhes estratégicos de litígios em andamento que possam identificar as partes
- Informações cobertas por sigilo profissional ou segredo de negócio explícito
- Dados pessoais sensíveis nos termos do art. 5º, II da LGPD (saúde, biometria, orientação sexual, entre outros)
A prática correta é a anonimização ou pseudonimização antes da inserção. "Meu cliente João da Silva, no processo nº 0001234-56.2025" vira "uma empresa do setor varejista, autora em ação de cobrança". O resultado da análise jurídica é igualmente útil — sem exposição de dados.
> 04. Boas práticas para uso profissional
Estruturar o uso seguro de IA não exige grandes investimentos, mas exige decisões conscientes:
- Adote apenas planos business ou enterprise para qualquer uso com dados de clientes. O custo adicional é residual frente ao risco.
- Elabore uma política interna de uso de IA, ainda que simples. Ela documenta a decisão do escritório e demonstra diligência em eventual sindicância da OAB.
- Treine a equipe em anonimização de inputs. A maioria dos incidentes não decorre de falha técnica, mas de usuários inserindo dados desnecessariamente identificáveis.
- Mantenha registro das ferramentas aprovadas e das versões de termos de serviço vigentes quando a política foi adotada.
- Revise anualmente. O mercado de IA muda rapidamente; políticas adequadas no ano passado podem ter mudado.
> 05. A perspectiva da LGPD
Do ponto de vista da Lei Geral de Proteção de Dados (Lei nº 13.709/2018), o escritório de advocacia que utiliza ferramentas de IA para processar dados pessoais de clientes ou terceiros age na condição de controlador (art. 5º, VI da LGPD). A plataforma de IA atua como operador (art. 5º, VII).
Isso significa que o escritório deve garantir que o operador ofereça salvaguardas adequadas — o que, na prática, significa contratar planos que incluam um Acordo de Processamento de Dados (DPA) compatível com a LGPD. Sem esse contrato, o escritório não tem base legal sólida para a transferência de dados pessoais a uma plataforma externa de IA.
Para transferências internacionais de dados — o que ocorre quando se usam plataformas com servidores fora do Brasil — o art. 33 da LGPD exige grau de proteção adequado no país de destino, ou que o contrato preveja cláusulas específicas de proteção.
> Conclusão
O maior risco de confidencialidade em escritórios de advocacia hoje não é o uso de IA — é o uso desinformado de IA. Advogados que utilizam planos gratuitos com dados de clientes por conveniência representam um risco real e mensurável. Escritórios que adotam planos enterprise com políticas claras e equipe treinada estão bem protegidos.
A questão, portanto, não é evitar IA — é usá-la com o mesmo rigor com que se trata qualquer outro aspecto da governança do escritório.