🧠 O que aconteceu
Pesquisadores de segurança identificaram uma campanha recente (2025–2026) em que hackers ligados à Coreia do Norte exploraram o modelo de IA Claude (da Anthropic) para ajudar a criar ou inserir código malicioso em um pacote do NPM (o repositório de bibliotecas JavaScript).
O ataque foi atribuído ao grupo Famous Chollima
O malware fazia parte de um pacote chamado “PromptMink”
Ele foi inserido em um projeto open source relacionado a criptomoedas
👉 O objetivo: roubar credenciais de carteiras cripto e chaves do sistema de desenvolvedores.
🤖 Onde entra o Claude?
O Claude não foi “hackeado” nem virou um vírus sozinho. O que aconteceu foi:
O código malicioso tinha sinais de ter sido gerado ou assistido por IA
Um commit no projeto chegou a ser co-assinado pelo modelo Claude Opus
Ou seja: os atacantes usaram IA como ferramenta para escrever ou melhorar o código malicioso
Isso é parte de uma tendência chamada “vibe coding” (uso de IA para gerar código rapidamente).
🧩 Como o ataque funcionava
O esquema era relativamente sofisticado:
Publicavam um pacote aparentemente normal (isca)
Depois lançavam uma segunda versão com código malicioso
O código roubava dados sensíveis do ambiente do desenvolvedor
Quando descoberto, criavam rapidamente novas versões
⚠️ Contexto maior (não é um caso isolado)
Esse ataque faz parte de algo maior:
Hackers norte-coreanos vêm focando ataques à cadeia de suprimentos de software (supply chain)
O NPM é um alvo comum porque milhões de devs dependem dele
Campanhas similares já infectaram bibliotecas populares e até enganaram devs com falsas entrevistas de emprego
🧠 Resumo direto
✔️ Sim, hackers usaram o Claude no processo
❌ Não significa que a IA “ficou maliciosa sozinha”
⚠️ O problema real: IA sendo usada como ferramenta por atacantes humanos

Postar um comentário