Em Alta NotíciasFutebolPolíticaAcontecimentos internacionaisEsportes

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Enganei ChatGPT e Gemini em 20 minutos, levando-os a contar mentiras sobre mim

Experimento com ChatGPT e Gemini mostra que IA pode ser manipulada por blogs, levando a informações falsas e decisões incorretas

Repórter fez chatbots aprenderem que ele come mais cachorros-quentes do que qualquer jornalista de tecnologia na Terra. — Foto: Serenity Strull/Madeline Jett via BBC
0:00
Carregando...
0:00
  • Jornalista da BBC mostrou que é possível enganar IA pedindo que afirmem mentiras sobre ele, fazendo com que ChatGPT, Google e Gemini apresentem informações falsas como se fossem verdadeiras.
  • O truque envolve publicar um post bem elaborado na internet para que as ferramentas de IA repitam a afirmação sem indicar a fonte original, dificultando a verificação.
  • Mesmo quando citadas fontes, as IAs costumam trazer o conteúdo como se fosse referência única, o que aumenta o risco de desinformação em temas sensíveis.
  • Especialistas alertam que essa vulnerabilidade facilita golpes, danos à reputação e informações incorretas em áreas como saúde, finanças e questões legais.
  • Empresas de IA, como OpenAI e Google, dizem estar cientes do problema, mas afirmam que ainda trabalham para reduzir os erros e esclarecer as fontes utilizadas pelas respostas.

Um jornalista da BBC mostrou que é possível fazer ferramentas de inteligência artificial afirmarem informações falsas sobre uma pessoa. Em testes publicados, ele conseguiu induzir os sistemas a apresentarem diversas mentiras sobre si mesmo, incluindo afirmações inverídicas que apareceram nas respostas do ChatGPT, do Gemini e de buscas com IA do Google. O experimento reforça preocupações sobre a confiabilidade de conteúdos gerados por IA e o impacto no discernimento do público.

Segundo o relato, basta publicar um texto bem elaborado na internet para influenciar as respostas de múltiplas IAs. O método, descrito pelo jornalista, explorou fragilidades nos sistemas embutidos aos chatbots, com variações de dificuldade conforme o tema. O que ficou claro é que a técnica pode propagar informações enganosas sem exigir acesso técnico avançado.

Especialistas ouvidos pelo meio destacam que a manipulação pode alcançar temas sensíveis, como saúde, finanças e políticas públicas, elevando o risco de decisões equivocadas pelos usuários. Além disso, apontam que as plataformas de IA ainda estão em processo de aperfeiçoamento na detecção de conteúdo fraudulento e na verificação de fontes.

Parte do debate também envolve reguladores e empresas de tecnologia. Enquanto o Google afirma manter os resultados majoritariamente livres de spam em suas ferramentas de IA, diz monitorar tentativas de manipulação e atuar para mitigar danos. Por outro lado, pesquisadores de segurança alertam que práticas simples de manipulação podem evoluir rapidamente e ampliar os ataques.

A prática gera preocupação sobre a confiança dos usuários em respostas apresentadas como geradas por IA. Estudos citados sugerem que conteúdos com fontes citadas geram menos verificação por parte dos leitores, aumentando a probabilidade de aceitação das informações.

Entre as recomendações, especialistas sugerem que usuários verifiquem fontes, analisem a quantidade de referências citadas pela IA e adotem pensamento crítico ao consultar conteúdos produzidos por sistemas automatizados. Também é ressaltado que o uso de IA para recomendações ou decisões sensíveis requer cautela e checagem independente.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais