O que é Shadow AI e por que seu escritório deveria se preocupar

A inteligência artificial não é mais um assunto do futuro nos escritórios de advocacia brasileiros. Ela está aqui, agora, sendo usada por seus colaboradores — frequentemente sem você saber, sem política que a governe, e sem que as ferramentas utilizadas atendam aos padrões de confidencialidade da profissão. Este fenômeno tem um nome: Shadow AI.

O Shadow AI representa o uso não autorizado e não controlado de ferramentas de IA por colaboradores no ambiente corporativo. Para escritórios de advocacia, isso não é apenas um problema de TI. É uma ameaça aos pilares da profissão: sigilo profissional, ética e qualidade jurídica.

A realidade dos números

55,1%

dos advogados brasileiros já utilizam alguma forma de IA em suas atividades, segundo a Análise Advocacia 2026. A maioria, porém, utiliza de forma superficial e desgovernada.

Esse número impressionante revela uma adoção em massa sem planejamento. Mas há mais:

A lacuna entre adoção e governança é, precisamente, onde reside o Shadow AI.

Os três riscos que você precisa conhecer

1. Risco de Confidencialidade: O dados sensíveis vazando para plataformas consumer

Imagine o cenário: um associado tem que revisar um contrato de M&A com cláusulas de confidencialidade delicadas. Ele abre o ChatGPT (versão free), cola uma seção do contrato para pedindo análise e sugestões. Isso leva segundos. Ninguém vê, e ele consegue a ajuda que queria.

Mas a IA consumidor não oferece sigilo profissional. Seus dados foram para os servidores da OpenAI, Anthropic, Google ou similar. Dependendo dos termos de uso, esses dados podem ser usados para treinar novos modelos, acessados por funcionários, ou retidos indefinidamente.

Um associado sem treinamento adequado não reconhece a diferença entre uma plataforma de IA consumerista e uma solução enterprise com contratos de confidencialidade. O resultado é um risco massivo: exposição involuntária de dados de cliente.

2. Risco Ético: Responsabilidade disciplinar e civil

O Código de Ética Profissional da OAB deixa claro: o advogado é pessoalmente responsável pelos seus atos. Usar uma IA generativa para redigir parecer jurídico sem revisão, sem compreensão clara de sua origem e qualidade, pode gerar problemas disciplinares — até mesmo cassação de registro.

Além disso, há responsabilidade civil. Se um cliente sofre dano porque o parecer continha análise inadequada proveniente de IA não validada, o escritório e o advogado podem ser responsabilizados.

O uso desgovernado de IA sem política clara coloca o escritório em posição vulnerável: tanto o colaborador quanto a firma podem ser responsabilizados por violações de confidencialidade, negligência profissional ou falta de diligência.

3. Risco de Qualidade: Alucinações não detectadas comprometem peças jurídicas

Modelos de IA generativa são propensos a "alucinações" — gerarem informações plausíveis mas inteiramente falsas, incluindo jurisprudência fictícia, normas que não existem, ou interpretações jurídicas equivocadas.

Sem governança, essas alucinações podem passar despercebidas. Um associado menos experiente pode basear um parecer em análise de jurisprudência que a IA "inventou". Um terceiro lê o parecer, acredita nas citações falsas, e toma decisão importante com base em informação falsa.

O resultado: responsabilidade civil do escritório, dano à reputação profissional, e possíveis danos ao cliente.

O precedente: United States v. Heppner (Fevereiro 2026)

"Conversas com chatbots baseadas em plataformas consumer, sem contrato de confidencialidade ou proteção legal equivalente ao privilege advogado-cliente, não são protegidas por sigilo profissional."

Em fevereiro de 2026, tribunais americanos decidiram um caso que reforça a urgência desta discussão. Um advogado usou ChatGPT (versão free) para revisar argumentação jurídica em um caso, sem contrato de proteção de confidencialidade com a plataforma. O tribunal determinou que essas conversas não desfrutam de proteção de sigilo profissional.

A implicação é clara: no Brasil, que segue tradição jurídica similar, escritórios que permitem o uso de plataformas consumer de IA podem perder proteção de sigilo profissional sobre dados de cliente. Isso coloca em risco não apenas a confidencialidade, mas também a própria capacidade do advogado de se defender em eventual processo disciplinar.

A solução não é proibir — é governar

Alguns escritórios tentam resolver o problema proibindo IA completamente. Essa abordagem é contraproducente: a IA é ferramenta poderosa que aumenta produtividade, melhora qualidade e reduz custos operacionais. Advogados que não usam IA ficarão para trás.

A solução é governança inteligente. Isso significa:

O caminho para a frente

Shadow AI não é um problema que desaparece ignorando. Ele cresce. Advogados continuarão usando IA — com ou sem permissão, com ou sem treinamento. A questão é: você espera que façam isso de forma caótica e de risco, ou implementa governança que permite uso seguro e eficiente?

Escritórios que conseguem esse equilíbrio — adotar IA de forma inteligente, com governança clara, respeitando ética profissional — saem à frente. Ganham produtividade, reduzem riscos legais, e preparam seus advogados para a realidade do direito no século 21.

O futuro não é "com ou sem IA". É "com IA governada ou Shadow AI desgovernada".

Sua firma está preparada para governar IA?

Avalie o nível de maturidade do seu escritório em relação a IA e segurança jurídica. Identifique riscos e oportunidades em menos de 10 minutos.

Fazer Assessment Gratuito