- Jornalista da BBC mostrou que é possível enganar IA pedindo que afirmem mentiras sobre ele, fazendo com que ChatGPT, Google e Gemini apresentem informações falsas como se fossem verdadeiras.
- O truque envolve publicar um post bem elaborado na internet para que as ferramentas de IA repitam a afirmação sem indicar a fonte original, dificultando a verificação.
- Mesmo quando citadas fontes, as IAs costumam trazer o conteúdo como se fosse referência única, o que aumenta o risco de desinformação em temas sensíveis.
- Especialistas alertam que essa vulnerabilidade facilita golpes, danos à reputação e informações incorretas em áreas como saúde, finanças e questões legais.
- Empresas de IA, como OpenAI e Google, dizem estar cientes do problema, mas afirmam que ainda trabalham para reduzir os erros e esclarecer as fontes utilizadas pelas respostas.
Um jornalista da BBC mostrou que é possível fazer ferramentas de inteligência artificial afirmarem informações falsas sobre uma pessoa. Em testes publicados, ele conseguiu induzir os sistemas a apresentarem diversas mentiras sobre si mesmo, incluindo afirmações inverídicas que apareceram nas respostas do ChatGPT, do Gemini e de buscas com IA do Google. O experimento reforça preocupações sobre a confiabilidade de conteúdos gerados por IA e o impacto no discernimento do público.
Segundo o relato, basta publicar um texto bem elaborado na internet para influenciar as respostas de múltiplas IAs. O método, descrito pelo jornalista, explorou fragilidades nos sistemas embutidos aos chatbots, com variações de dificuldade conforme o tema. O que ficou claro é que a técnica pode propagar informações enganosas sem exigir acesso técnico avançado.
Especialistas ouvidos pelo meio destacam que a manipulação pode alcançar temas sensíveis, como saúde, finanças e políticas públicas, elevando o risco de decisões equivocadas pelos usuários. Além disso, apontam que as plataformas de IA ainda estão em processo de aperfeiçoamento na detecção de conteúdo fraudulento e na verificação de fontes.
Parte do debate também envolve reguladores e empresas de tecnologia. Enquanto o Google afirma manter os resultados majoritariamente livres de spam em suas ferramentas de IA, diz monitorar tentativas de manipulação e atuar para mitigar danos. Por outro lado, pesquisadores de segurança alertam que práticas simples de manipulação podem evoluir rapidamente e ampliar os ataques.
A prática gera preocupação sobre a confiança dos usuários em respostas apresentadas como geradas por IA. Estudos citados sugerem que conteúdos com fontes citadas geram menos verificação por parte dos leitores, aumentando a probabilidade de aceitação das informações.
Entre as recomendações, especialistas sugerem que usuários verifiquem fontes, analisem a quantidade de referências citadas pela IA e adotem pensamento crítico ao consultar conteúdos produzidos por sistemas automatizados. Também é ressaltado que o uso de IA para recomendações ou decisões sensíveis requer cautela e checagem independente.
Entre na conversa da comunidade