Em Alta NotíciasFutebolPolíticaAcontecimentos internacionaisEsportes

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Pesadelo da segurança da IA chega, com aparência suspeita de lagosta

Vulnerabilidade no Cline permite prompt injection que instala OpenClaw em computadores, sinalizando riscos de software autônomo controlar máquinas

Image: The Verge
0:00
Carregando...
0:00
  • Um hacker explorou uma vulnerabilidade no Cline, uma ferramenta de codificação com IA, para fazer com que o Claude da Anthropic aceitasse instruções maliciosas e automatizasse a instalação de software nos computadores dos usuários.
  • O objetivo do atacante foi instalar o OpenClaw, um agente de IA de código aberto que “faz coisas” de forma autônoma, amplamente divulgado.
  • A falha envolve uma técnica de prompt injection, que permite enviar comandos que o IA não deveria seguir.
  • Os agentes não foram ativados automaticamente na instalação, o que, se tivesse ocorrido, poderia ter causado impactos bem maiores.
  • Pesquisadores apontam que ataques com IA autônoma representam riscos de segurança significativos; alguns desenvolvedores já adotam medidas, como o modo de lockdown, para limitar ações de IA em caso de hijack.
  • O pesquisador Adnan Khan informou a Cline sobre a vulnerabilidade semanas antes da divulgação pública; a falha foi corrigida somente após o chamado público.

O hacker explorou uma falha em Cline, ferramenta de codificação com integração do Claude, da Anthropic, para fazer um malware se instalar automaticamente nos computadores dos usuários. A técnica usada, conhecida como prompt injection, permitiu inserir instruções que passaram a orientar o fluxo de trabalho aberto da ferramenta. O alvo foi o OpenClaw, um agente de IA de código aberto que executa ações de forma autônoma.

Segundo o pesquisador de segurança Adnan Khan, a vulnerabilidade já havia sido revelada dias antes como prova de conceito. O ataque destinou-se a instalar o OpenClaw automaticamente nos aparelhos dos usuários que utilizavam o Cline. Importante: as plataformas não acionaram os agentes no momento da instalação, o que teria levado a consequências diferentes.

O episódio evidencia como a automação com IA pode abrir brechas se não houver salvaguardas. Embora o OpenClaw permaneça inativo no momento do incidente, a situação reforça riscos de instituições que permitem que software autônomo tenha controle sobre dispositivos. Empresas têm buscado limitar ações de IA quando ocorrem incidentes de hijacking.

Riscos de prompt injection

A prática de induzir sistemas de IA a executar ações inadequadas tem ganhado atenção entre especialistas. O caso envolvendo Cline mostra como instruções manipuladas podem contaminar fluxos de trabalho amplos sem que usuários percebam.

Resposta da indústria

Especialistas destacam a necessidade de reforçar controles e mecanismos de lockdown em ferramentas de IA, para impedir que dados e comandos sejam explorados por agentes invadidos. Medidas adicionais incluem auditorias de segurança rápidas e divulgação responsável de falhas por pesquisadores.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais