A IA está armando os cibercriminosos — tornando o crime mais fácil, rápido e inteligente.
- A Anthropic relata que cibercriminosos estão usando cada vez mais IA como Claude para automatizar ataques sofisticados, reduzindo as barreiras técnicas para pessoas sem experiência. - As campanhas impulsionadas por IA incluem extorsão de dados, ransomware como serviço e esquemas de fraude de trabalhadores remotos norte-coreanos que geram entre $250 milhões e $600 milhões por ano. - Os atacantes utilizam IA para reconhecimento, cálculo de resgate e falsificação de identidade, enquanto os governos sancionam redes de fraude e promovem a regulação da IA. - A Anthropic bane contas de uso indevido e desenvolve ferramentas de detecção.
A Anthropic, desenvolvedora do sistema de IA Claude, relatou que cibercriminosos estão utilizando cada vez mais a inteligência artificial para realizar ataques cibernéticos em larga escala com níveis de sofisticação sem precedentes. Um relatório recente de Threat Intelligence da empresa destaca como modelos de IA agora estão sendo usados como armas para executar ataques cibernéticos de forma autônoma, e não apenas para aconselhar os atacantes. Essa evolução reduziu significativamente as barreiras técnicas para crimes cibernéticos sofisticados, permitindo que pessoas sem conhecimento técnico executem operações complexas, como o desenvolvimento de ransomware e extorsão de dados.
Um dos exemplos mais alarmantes detalhados no relatório envolve uma operação criminosa que utilizou o Claude Code para orquestrar uma campanha de extorsão de dados. Os agentes visaram pelo menos 17 organizações dos setores de saúde, serviços de emergência e instituições religiosas, roubando dados pessoais e financeiros. Em vez de usar ransomware tradicional, os atacantes ameaçaram expor publicamente os dados caso as vítimas não pagassem resgates que, por vezes, ultrapassavam US$ 500.000. A IA foi utilizada para automatizar o reconhecimento, coletar credenciais e tomar decisões estratégicas, como determinar quais dados exfiltrar e como elaborar as demandas de extorsão. A IA também analisou os dados financeiros roubados para definir os valores dos resgates e gerou bilhetes de resgate exibidos nas máquinas das vítimas para aumentar a pressão psicológica [1].
Este caso destaca uma tendência mais ampla no crime cibernético assistido por IA: a integração da IA em todas as etapas das operações criminosas. Cibercriminosos estão usando IA para perfilamento de vítimas, análise de dados, roubo de cartões de crédito e criação de identidades falsas para ampliar seu alcance. Essas táticas dificultam a detecção e resposta dos defensores às ameaças, já que a IA pode se adaptar às medidas defensivas em tempo real. A Anthropic tomou medidas para combater esses abusos, banindo as contas envolvidas, desenvolvendo novas ferramentas de detecção e compartilhando indicadores técnicos com as autoridades competentes [1].
O cenário de ameaças é ainda mais complicado pelo uso de IA em esquemas de fraude de trabalhadores remotos. O relatório da Anthropic também destacou como agentes norte-coreanos utilizaram seus modelos de IA para conseguir empregos remotos de TI em empresas dos EUA. Esses trabalhadores, frequentemente operando a partir da China ou da Rússia, criam identidades falsas elaboradas e passam por entrevistas técnicas com a ajuda de ferramentas de IA. O esquema gera receitas significativas para o regime norte-coreano, com estimativas sugerindo que arrecada entre US$ 250 milhões e US$ 600 milhões anualmente. Os trabalhadores não apenas recebem salários, mas também roubam dados sensíveis e extorquem seus empregadores [1]. Em resposta, a Anthropic aprimorou suas ferramentas para detectar identidades fraudulentas e compartilhou suas descobertas com as autoridades [1].
Outra ameaça emergente é o desenvolvimento de ransomware no-code alimentado por IA. Um cibercriminoso usou o Claude para projetar, comercializar e distribuir ransomware com capacidades avançadas de evasão, vendendo o malware por valores entre US$ 400 e US$ 1.200 na dark web. Este caso destaca como a IA pode permitir que até mesmo atores com pouca habilidade participem do crime cibernético. Sem a assistência da IA, o agente não teria conseguido implementar componentes críticos do malware, como algoritmos de criptografia ou técnicas de anti-análise. A Anthropic baniu a conta envolvida e introduziu novos métodos de detecção para evitar usos indevidos semelhantes no futuro [1].
Especialistas alertam que a crescente sofisticação do crime cibernético alimentado por IA exige ação urgente tanto de empresas de tecnologia quanto de reguladores. O Tesouro dos EUA já tomou medidas para combater essas ameaças, sancionando redes internacionais de fraude usadas pela Coreia do Norte para infiltrar empresas dos EUA. Essas redes facilitam o emprego de agentes norte-coreanos que roubam dados e extorquem empregadores. O Tesouro mirou indivíduos e empresas envolvidos na lavagem de fundos roubados, incluindo empresas russas e chinesas que atuam como intermediárias para o regime norte-coreano [3].
À medida que os modelos de IA se tornam mais poderosos, espera-se que o risco de uso indevido cresça, a menos que empresas e governos ajam rapidamente. A Anthropic, assim como outros grandes desenvolvedores de IA, enfrenta uma pressão crescente para fortalecer as salvaguardas. Os governos também estão avançando para regulamentar a tecnologia, com a União Europeia avançando com sua Lei de Inteligência Artificial e os EUA incentivando compromissos voluntários dos desenvolvedores para aumentar a segurança [2].
Fonte:

Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste



Populares
MaisPreços de criptomoedas
Mais








