Em Alta NotíciasFutebolBrasil_POLÍTICA_economia

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Hacking com IA se torna ameaça industrial, diz Google

Criminosos utilizam modelos comerciais de IA para ampliar ataques, com Gemini, Claude e OpenAI, sinalizando ameaça de escala industrial global

‘There’s a misconception that the AI vulnerability race is imminent. The reality is it’s already begun,’ said John Hultquist at Google’s threat intelligence group.
0:00
Carregando...
0:00
  • Relatório do grupo de inteligência de ameaças do Google aponta que, em três meses, o hacking alimentado por IA passou de problema nascente a ameaça em escala industrial, com grupos criminosos e atores vinculados a Estados usando modelos comerciais como Gemini, Claude e ferramentas da OpenAI.
  • As operações vêm ganhando velocidade, alcance e sofisticação, incluindo testes constantes, persistência em alvos e desenvolvimento de malware melhor.
  • Anthropic afirmou que Mythos, um de seus modelos, possuía capacidades extremamente poderosas e poderia representar risco se cair em mãos erradas, levando a ações defensivas coordenadas.
  • O Google também aponta experimentos com OpenClaw, ferramenta de IA que ganhou popularidade ao permitir que usuários deleguem tarefas a um agente de IA, às vezes sem salvaguardas.
  • Organizações independentes, como o Ada Lovelace Institute, alertam para incertezas sobre ganhos de produtividade com IA no setor público e recomendam estudos de longo prazo para medir impactos reais.

AI-powered hacking atinge escala industrial, aponta Google

Em três meses, ataques movidos por IA passaram de problema nascente a ameaça em escala industrial, segundo grupo de inteligência de ameaças do Google. O relatório resume a evolução rápida do uso de modelos de IA para codificação e exploração de vulnerabilidades.

Criminosos e atores ligados a estados já utilizam modelos comerciais como Gemini, Claude e ferramentas da OpenAI para refinar ataques e ampliar seu alcance. A tendência inclui maior velocidade, escala e sofisticação nas operações.

Uso de IA por grupos criminosos e atores estatais

O documento cita que grupos criminosos e entidades ligadas a China, Coreia do Norte e Rússia operam com IA para testar operações, persistir contra alvos e criar malware mais avançado. A observação reforça preocupação global com a segurança de software.

O Google aponta ainda que, recentemente, um grupo criminoso esteve próximo de explorar uma vulnerabilidade zero-day para uma campanha de massa, utilizando um modelo de IA que não era o Mythos da Anthropic. O caso sugere uso de modelos amplamente disponíveis.

Ferramentas de IA e debates sobre defesa

Entre as ferramentas citadas está o OpenClaw, cujo uso gerou críticas ao permitir que usuários entreguem grande parte de sua vida a um agente de IA sem salvaguardas, com risco de deleção de mensagens em massa.

Especialistas ressaltam que IA pode favorecer defensores e ofensores. Peter Murdoch, da University College London, afirma que o cenário já envolve IA na maior parte da detecção de bugs e evolução de ataques, o que exige tempo para entender consequências.

Perspectivas regulatórias e produtividade

O Ada Lovelace Institute alerta sobre suposições de ganhos públicos em produtividade associada à IA. Estudo recente aponta que muitos números referem-se a tempo economizado ou custos reduzidos, não a impactos como melhoria de serviços ou bem-estar dos trabalhadores.

A análise recomendou que futuros levantamentos considerem incertezas, avaliem impactos desde o início e apoiem estudos de longo prazo para medir ganhos ao longo de anos, não apenas semanas.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais