Golpe do Falso Advogado com Voz Clonada por IA: entenda e se proteja

Um novo tipo de golpe vem preocupando profissionais e clientes da área jurídica: a clonagem de voz por inteligência artificial (IA).
Criminosos têm utilizado tecnologias conhecidas como deepfake voice para simular ligações, áudios e até vídeos, imitando com alta precisão a voz e a imagem de advogados e advogadas.

O objetivo? Aplicar golpes, pedindo transferências bancárias, dados pessoais ou honorários falsos em nome de profissionais reais.

Como o golpe funciona

  1. O criminoso coleta áudios disponíveis publicamente — em redes sociais, vídeos ou mensagens de voz.
  2. Com ferramentas de IA generativa, ele recria a voz do advogado de forma quase idêntica.
  3. Em seguida, entra em contato com clientes, colegas ou familiares, simulando conversas reais, pedindo valores ou informações sigilosas.

Como se proteger

  • Desconfie de pedidos urgentes por mensagens ou ligações, mesmo que a voz pareça familiar.
  • Confirme sempre por outro canal, como e-mail profissional, ligação direta ou presencial.
  • Evite enviar áudios com informações pessoais ou profissionais sensíveis.
  • Empresas e escritórios podem adotar medidas de segurança digital e orientar seus clientes sobre golpes dessa natureza.

A clonagem de voz e imagem é crime, e as vítimas podem buscar responsabilização criminal e reparação civil contra os autores e plataformas envolvidas.

O papel do advogado

O uso indevido da imagem e identidade de advogados fere a ética profissional e a segurança da advocacia.
Por isso, é fundamental divulgar alertas preventivos e buscar orientação jurídica especializada em casos de suspeita de fraude.

Se você ou seu escritório foram alvo de um golpe envolvendo inteligência artificial, procure orientação jurídica imediatamente. A lei garante mecanismos para responsabilizar os envolvidos e minimizar danos.