Golpe do Falso Advogado com Voz Clonada por IA: entenda e se proteja
Um novo tipo de golpe vem preocupando profissionais e clientes da área jurídica: a clonagem de voz por inteligência artificial (IA).
Criminosos têm utilizado tecnologias conhecidas como deepfake voice para simular ligações, áudios e até vídeos, imitando com alta precisão a voz e a imagem de advogados e advogadas.
O objetivo? Aplicar golpes, pedindo transferências bancárias, dados pessoais ou honorários falsos em nome de profissionais reais.
Como o golpe funciona
- O criminoso coleta áudios disponíveis publicamente — em redes sociais, vídeos ou mensagens de voz.
- Com ferramentas de IA generativa, ele recria a voz do advogado de forma quase idêntica.
- Em seguida, entra em contato com clientes, colegas ou familiares, simulando conversas reais, pedindo valores ou informações sigilosas.
Como se proteger
- Desconfie de pedidos urgentes por mensagens ou ligações, mesmo que a voz pareça familiar.
- Confirme sempre por outro canal, como e-mail profissional, ligação direta ou presencial.
- Evite enviar áudios com informações pessoais ou profissionais sensíveis.
- Empresas e escritórios podem adotar medidas de segurança digital e orientar seus clientes sobre golpes dessa natureza.
A clonagem de voz e imagem é crime, e as vítimas podem buscar responsabilização criminal e reparação civil contra os autores e plataformas envolvidas.
O papel do advogado
O uso indevido da imagem e identidade de advogados fere a ética profissional e a segurança da advocacia.
Por isso, é fundamental divulgar alertas preventivos e buscar orientação jurídica especializada em casos de suspeita de fraude.
Se você ou seu escritório foram alvo de um golpe envolvendo inteligência artificial, procure orientação jurídica imediatamente. A lei garante mecanismos para responsabilizar os envolvidos e minimizar danos.


