- Hackers e fóruns de cybercrime reclamam de inundação por IA generativa e planejam usar mais IA em plataformas dedicadas a ataques e atividades ilegais.
- Um estudo analisou 97.895 conversas sobre IA em fóruns de cybercrime desde 2022 até o fim do ano passado, identificando descontentamento com posts gerados por IA e explicadores básicos de cibersegurança.
- Os membros criticam a quantidade de conteúdos “AI shit” e a queda de visitantes causada pela sobrecarga de posts de IA, além de preferirem interações humanas.
- Mesmo com o ceticismo, há relatos de interesse em usar IA para estruturar posts e melhorar a gramática, desde que não postem automaticamente sem intervenção humana.
- Pesquisadores destacam que a IA ainda não disruptou significativamente as operações de hackers mais simples, e discutem a possibilidade de um mercado criminoso alimentado por IA, com ambivalência entre vantagens e riscos.
O estudo aponta que criminosos cibernéticos estão reclamando de conteúdos gerados por IA em fóruns dedicados a ataques e atividades ilegais. Pesquisadores identificaram uma onda de descontentamento sobre o surgimento de conteúdos gerados por modelos de IA nesses espaços.
A pesquisa foi conduzida por Ben Collier, da University of Edinburgh, em colaboração com colegas da University of Cambridge e da University of Strathclyde. O foco foi entender como criminosos de baixo nível vêm lidando com a ascensão da IA desde o lançamento do ChatGPT, em 2022.
Entre os dados analisados, foram avaliadas 97.895 conversas relacionadas a IA em fóruns de cybercrime até o fim do ano passado. Os autores observam queixas sobre explainers curtos de noções básicas de cibersegurança, aumento da quantidade de posts de baixa qualidade e preocupações com o impacto de resumos de IA em mecanismos de busca.
Hack Forums é citado como exemplo de espaço onde criminosos trocam técnicas, compram dados roubados e divulgam ofertas de serviços maliciosos. A análise mostra que há resistência a conteúdos gerados por IA, além de tensões sobre a autenticidade das contribuições dos usuários.
Segundo os pesquisadores, a dinâmica social desses fóruns favorece reputações construídas entre membros e, ao mesmo tempo, favorece conflitos entre quem utiliza IA para produções rápidas e quem busca interações humanas mais autênticas. Em alguns casos, usuários compararam IA a uma ameaça à credibilidade do grupo.
A equipe também acompanha discussões sobre ferramentas IA avançadas e debates sobre fraquezas de modelos comerciais com salvaguardas. Observa-se interesse em explorar recursos de IA para melhorar a estrutura de posts, mas com ressalvas quanto à automatização total.
Alguns participantes sugerem novas possibilidades, como mercados de crimes alimentados por IA, para facilitar a aquisição de dados roubados. Ainda há resistência, com mensagens de alerta sobre os riscos e a necessidade de manter controles humanos na operação.
Dados do estudo indicam que o uso de IA ainda não reduziu significativamente a barreira de entrada para criminosos nem causou grandes impactos nos modelos de negócio existentes. O efeito parece concentrado em áreas já automatizadas, como fraude de SEO e bots de redes sociais.
Há também sinais de que a IA pode influenciar a forma como certos participantes estruturam textos e informações no fórum, ainda que haja ceticismo quanto a a IA postar conteúdos por completo. A análise ressalta o equilíbrio entre automação e a necessidade de interação humana.
Entre na conversa da comunidade