- Golpes com inteligência artificial cresceram 308% no Brasil entre 2024 e 2025, segundo a Agência Lupa.
- Em São Paulo, 82% dos idosos já foram alvo de tentativas de golpe e 12% sofreram fraudes; 68% não sabem como se proteger.
- Ataques passaram a combinar voz, rosto, contexto e linguagem, tornando a verificação mais difícil para o usuário.
- Casos com celebridades existem, como o uso da imagem de Gisele Bündchen em 2025 para promover produtos, com pagamentos realizados.
- Cinco formas de se proteger: não confiar apenas em áudio/vídeo; confirmar por um segundo canal; desconfiar de urgência; observar inconsistências; não compartilhar dados sem verificação.
Os golpes com inteligência artificial ganham cada vez mais sofisticação e passam a agir sem falhas gritantes, usando voz de parentes, rosto de celebridades ou tom de atendente de banco para ludibriar. No Brasil, conteúdos falsos gerados por IA cresceram 308% entre 2024 e 2025, segundo a Agência Lupa.
Em São Paulo, dados da Fundação Seade divulgados em 2026 mostram que 82% dos idosos já foram alvo de tentativas de golpes digitais e 12% sofreram fraudes. Dentre esses, 68% não sabem como se proteger.
Como a IA tornou os golpes quase invisíveis
Segundo Gui Zanoni, especialista em IA, a mudança não é apenas técnica, mas estratégica. A IA agrega voz, imagem, contexto, linguagem e padrões de comportamento para criar narrativas coerentes e difíceis de contestar em tempo real.
A fraude não depende mais de falhas técnicas do golpista. O risco está na capacidade do usuário de verificar a veracidade das informações. Clonagem de voz, manipulação de vídeos e criação de identidades digitais simuladas aparecem juntos para reproduzir linguagem, tempo de resposta e contextos de interação.
Casos envolvendo celebridades
Um formato comum envolve a veiculação de campanhas falsas com imagens de artistas, influenciadores e figuras públicas. Em 2025, vídeos e áudios gerados com a imagem de Gisele Bündchen promoveram itens sem relação com a modelo, levando consumidores a pagamentos indevidos.
Quando a representação envolve nomes de alta credibilidade, a tendência é reduzir a checagem de informações antes de agir, aponta Zanoni. Essa é a etapa em que a fraude se aproveita da confiança do público.
Sinais de manipulação
Detectar conteúdos manipulados exige atenção a detalhes que nem sempre aparecem de forma clara. Desalinhamento entre áudio e movimento dos lábios, padrões artificiais de expressão e falhas menores na construção do material podem indicar alteração.
Esses sinais nem sempre ocorrem de maneira consistente, o que aumenta o desafio para o usuário comum.
Cinco formas de se proteger
Zanoni apresenta medidas práticas para reduzir riscos em interações digitais:
1. Não confirmar informações apenas por áudio ou vídeo, mesmo envolvendo figuras conhecidas
2. Validar pedidos por meio de um segundo canal independente antes de agir
3. Desconfiar de urgência ou pressão emocional
4. Procurar inconsistências visuais e sonoras em conteúdos digitais
5. Não compartilhar dados pessoais, códigos ou imagens sem verificação
A recomendação é adotar novos hábitos de verificação antes de qualquer decisão. Segundo o especialista, a IA redefine o que é considerado confiável no ambiente digital.
Entre na conversa da comunidade