A inteligência artificial não é mais um assunto do futuro nos escritórios de advocacia brasileiros. Ela está aqui, agora, sendo usada por seus colaboradores — frequentemente sem você saber, sem política que a governe, e sem que as ferramentas utilizadas atendam aos padrões de confidencialidade da profissão. Este fenômeno tem um nome: Shadow AI.
O Shadow AI representa o uso não autorizado e não controlado de ferramentas de IA por colaboradores no ambiente corporativo. Para escritórios de advocacia, isso não é apenas um problema de TI. É uma ameaça aos pilares da profissão: sigilo profissional, ética e qualidade jurídica.
A realidade dos números
dos advogados brasileiros já utilizam alguma forma de IA em suas atividades, segundo a Análise Advocacia 2026. A maioria, porém, utiliza de forma superficial e desgovernada.
Esse número impressionante revela uma adoção em massa sem planejamento. Mas há mais:
- 47% dos escritórios "Mais Admirados" já incorporaram IA em seus processos — um sinal claro de que a tecnologia é vista como essencial para competitividade.
- Apenas 23% desses mesmos escritórios têm uma política de governança de IA implementada. Isso significa que mais de 3 em 4 escritórios usam IA sem diretrizes claras.
- Dados do Clio Legal Trends 2025 reforçam que a adoção de ferramentas de IA é acelerada, mas desordenada.
A lacuna entre adoção e governança é, precisamente, onde reside o Shadow AI.
Os três riscos que você precisa conhecer
1. Risco de Confidencialidade: O dados sensíveis vazando para plataformas consumer
Imagine o cenário: um associado tem que revisar um contrato de M&A com cláusulas de confidencialidade delicadas. Ele abre o ChatGPT (versão free), cola uma seção do contrato para pedindo análise e sugestões. Isso leva segundos. Ninguém vê, e ele consegue a ajuda que queria.
Mas a IA consumidor não oferece sigilo profissional. Seus dados foram para os servidores da OpenAI, Anthropic, Google ou similar. Dependendo dos termos de uso, esses dados podem ser usados para treinar novos modelos, acessados por funcionários, ou retidos indefinidamente.
Um associado sem treinamento adequado não reconhece a diferença entre uma plataforma de IA consumerista e uma solução enterprise com contratos de confidencialidade. O resultado é um risco massivo: exposição involuntária de dados de cliente.
2. Risco Ético: Responsabilidade disciplinar e civil
O Código de Ética Profissional da OAB deixa claro: o advogado é pessoalmente responsável pelos seus atos. Usar uma IA generativa para redigir parecer jurídico sem revisão, sem compreensão clara de sua origem e qualidade, pode gerar problemas disciplinares — até mesmo cassação de registro.
Além disso, há responsabilidade civil. Se um cliente sofre dano porque o parecer continha análise inadequada proveniente de IA não validada, o escritório e o advogado podem ser responsabilizados.
O uso desgovernado de IA sem política clara coloca o escritório em posição vulnerável: tanto o colaborador quanto a firma podem ser responsabilizados por violações de confidencialidade, negligência profissional ou falta de diligência.
3. Risco de Qualidade: Alucinações não detectadas comprometem peças jurídicas
Modelos de IA generativa são propensos a "alucinações" — gerarem informações plausíveis mas inteiramente falsas, incluindo jurisprudência fictícia, normas que não existem, ou interpretações jurídicas equivocadas.
Sem governança, essas alucinações podem passar despercebidas. Um associado menos experiente pode basear um parecer em análise de jurisprudência que a IA "inventou". Um terceiro lê o parecer, acredita nas citações falsas, e toma decisão importante com base em informação falsa.
O resultado: responsabilidade civil do escritório, dano à reputação profissional, e possíveis danos ao cliente.
O precedente: United States v. Heppner (Fevereiro 2026)
Em fevereiro de 2026, tribunais americanos decidiram um caso que reforça a urgência desta discussão. Um advogado usou ChatGPT (versão free) para revisar argumentação jurídica em um caso, sem contrato de proteção de confidencialidade com a plataforma. O tribunal determinou que essas conversas não desfrutam de proteção de sigilo profissional.
A implicação é clara: no Brasil, que segue tradição jurídica similar, escritórios que permitem o uso de plataformas consumer de IA podem perder proteção de sigilo profissional sobre dados de cliente. Isso coloca em risco não apenas a confidencialidade, mas também a própria capacidade do advogado de se defender em eventual processo disciplinar.
A solução não é proibir — é governar
Alguns escritórios tentam resolver o problema proibindo IA completamente. Essa abordagem é contraproducente: a IA é ferramenta poderosa que aumenta produtividade, melhora qualidade e reduz custos operacionais. Advogados que não usam IA ficarão para trás.
A solução é governança inteligente. Isso significa:
- Treinamento obrigatório: Todos os colaboradores devem entender os riscos de Shadow AI, a diferença entre plataformas consumer e enterprise, e as obrigações éticas da profissão.
- Políticas claras: Documentar quais ferramentas de IA podem ser usadas, em quais contextos, com que limitações. Deixar claro: não use plataformas consumer para dados sensíveis.
- Escolher plataformas adequadas: Investir em soluções enterprise de IA que ofereçam contratos de confidencialidade, conformidade com LGPD, e proteção de dados. Não é luxo — é necessidade.
- Supervisão e auditoria: Implementar mecanismos para detectar uso inadequado de IA. Revisar saídas de IA antes de usar em peças jurídicas.
- Documentação de uso: Quando IA é usada em um parecer ou peça processual, isso deve ser documentado e justificado. O advogado continua pessoalmente responsável.
O caminho para a frente
Shadow AI não é um problema que desaparece ignorando. Ele cresce. Advogados continuarão usando IA — com ou sem permissão, com ou sem treinamento. A questão é: você espera que façam isso de forma caótica e de risco, ou implementa governança que permite uso seguro e eficiente?
Escritórios que conseguem esse equilíbrio — adotar IA de forma inteligente, com governança clara, respeitando ética profissional — saem à frente. Ganham produtividade, reduzem riscos legais, e preparam seus advogados para a realidade do direito no século 21.
O futuro não é "com ou sem IA". É "com IA governada ou Shadow AI desgovernada".
Sua firma está preparada para governar IA?
Avalie o nível de maturidade do seu escritório em relação a IA e segurança jurídica. Identifique riscos e oportunidades em menos de 10 minutos.
Fazer Assessment Gratuito