- Grupos norte-coreanos passam a usar IA para mascarar identidades de candidatos falsos em empregos remotos no ocidente.
- Técnicas incluem mudança de voz e Face Swap para inserir rostos de trabalhadores norte-coreanos em documentos roubados e criar headshots “polidos” para currículos.
- A IA também ajuda a criar listas de nomes culturalmente adequados e formatos de e-mail, além de analisar anúncios de vagas para redigir candidaturas mais eficazes.
- Após serem contratados, os trabalhadores fraudulentos enviam salários de volta para a Coreia do Norte e já foram mencionados como capazes de ameaçar divulgar dados da empresa.
- A Microsoft recomenda entrevistas por vídeo ou presenciais para identificar fraudes; a empresa já bloqueou cerca de 3.000 contas do Outlook/Hotmail usadas por esses usuários, que recebem os rótulos Jasper Sleet e Coral Sleet.
Uma investigação da Microsoft aponta que agentes norte-coreanos estão usando inteligência artificial para enganar empresas ocidentais e contratá-los para trabalhos remotos de TI. As fraudes envolvem criação de identidades falsas, uso de vozes alteradas e documentos manipulados, com o objetivo de enviar salários para a Coreia do Norte. Em alguns casos, os fraudadores chegam a ameaçar divulgar dados sensíveis após serem dispensados.
Segundo a Microsoft, os grupos estatais utilizam IA para tornar as aplicações mais convincentes. Os apelidos atribuidos aos núcleos de ataque, Jasper Sleet e Coral Sleet, são usados para classificar operações no âmbito da segurança cibernética. O uso de ferramentas de IA se tornou parte central da estratégia para conseguir contratação, manutenção de acesso e movimentação de pagamentos.
Os golpes começam com a candidatura a vagas de TI remoto em empresas ocidentais, por meio de identidades falsas criadas com apoio de facilitadores locais. Uma vez contratados, os trabalhadores simulam competência, enviam salários para a Coreia do Norte e empregam táticas para evitar a detecção, inclusive durante demissões.
Como isso funciona
A Microsoft descreve a aplicação de IA para gerar nomes, formatos de e-mail e perfis compatíveis com padrões culturais locais. Exemplos de prompts citados envolvem listas de nomes e formatos de e-mail. A técnica inclui até a substituição de rostos em documentos de identidade com o Face Swap.
A ameaça também envolve uso de software de voz para mascarar sotaques durante entrevistas remotas, facilitando a passagem de candidatos norte-coreanos como profissionais ocidentais. Além disso, ferramentas de IA ajudam a redigir e-mails, traduzir documentos e produzir código, ampliando a percepção de profissionalismo.
Medidas de mitigação sugeridas
A Microsoft recomenda entrevistas de vídeo ou presenciais para confirmar identidades. Técnicas de verificação de deepfake, como sinais de pixelização em contornos faciais e inconsistências na iluminação, podem auxiliar na detecção de fraudes. Plataformas de freelancing são orientadas a tomar ações rápidas para remover atores maliciosos. Em paralelo, empresas devem manter práticas rigorosas de verificação de candidatos.
Entre na conversa da comunidade