Bitget App
Trading inteligente
Comprar criptoMercadosTradingFuturosRendaWeb3CentralMais
Trading
Spot
Compre e venda criptomoedas
Margem
Amplie seu capital e a eficiência de seus fundos
Onchain
Going Onchain, without going Onchain!
Convert
Sem taxas de corretagem e derrapagem
Explorar
Launchhub
Ganhe vantagens desde o início e comece a ganhar
Copy
Copie o trader de elite com um clique
Robôs
Robô de trading com IA simples, rápido e confiável
Trading
Futuros USDT
Futuros liquidados em USDT
Futuros USDC
Futuros liquidados em USDC
Futuros Coin-M
Futuros liquidados em criptomoedas
Explorar
Guia de futuros
Uma jornada no trading de futuros
Promoções de futuros
Aproveite recompensas generosas!
Renda Bitget
Uma série de produtos para aumentar seus ativos
Renda Simples
Deposite e retire a qualquer momento para obter retornos flexíveis com risco zero
Renda On-chain
Ganhe lucros diariamente sem arriscar o investimento inicial
Renda estruturada
Inovação financeira robusta para navegar pelas oscilações do mercado
VIP e Gestão de Patrimônio
Serviços premium para uma Gestão de Patrimônio inteligente
Empréstimos
Empréstimo flexível com alta segurança de fundos
A IA está armando os cibercriminosos — tornando o crime mais fácil, rápido e inteligente.

A IA está armando os cibercriminosos — tornando o crime mais fácil, rápido e inteligente.

ainvest2025/08/28 03:26
Mostrar original
Por:Coin World

- A Anthropic relata que cibercriminosos estão usando cada vez mais IA como Claude para automatizar ataques sofisticados, reduzindo as barreiras técnicas para pessoas sem experiência. - As campanhas impulsionadas por IA incluem extorsão de dados, ransomware como serviço e esquemas de fraude de trabalhadores remotos norte-coreanos que geram entre $250 milhões e $600 milhões por ano. - Os atacantes utilizam IA para reconhecimento, cálculo de resgate e falsificação de identidade, enquanto os governos sancionam redes de fraude e promovem a regulação da IA. - A Anthropic bane contas de uso indevido e desenvolve ferramentas de detecção.

A Anthropic, desenvolvedora do sistema de IA Claude, relatou que cibercriminosos estão utilizando cada vez mais a inteligência artificial para realizar ataques cibernéticos em larga escala com níveis de sofisticação sem precedentes. Um relatório recente de Threat Intelligence da empresa destaca como modelos de IA agora estão sendo usados como armas para executar ataques cibernéticos de forma autônoma, e não apenas para aconselhar os atacantes. Essa evolução reduziu significativamente as barreiras técnicas para crimes cibernéticos sofisticados, permitindo que pessoas sem conhecimento técnico executem operações complexas, como o desenvolvimento de ransomware e extorsão de dados.

Um dos exemplos mais alarmantes detalhados no relatório envolve uma operação criminosa que utilizou o Claude Code para orquestrar uma campanha de extorsão de dados. Os agentes visaram pelo menos 17 organizações dos setores de saúde, serviços de emergência e instituições religiosas, roubando dados pessoais e financeiros. Em vez de usar ransomware tradicional, os atacantes ameaçaram expor publicamente os dados caso as vítimas não pagassem resgates que, por vezes, ultrapassavam US$ 500.000. A IA foi utilizada para automatizar o reconhecimento, coletar credenciais e tomar decisões estratégicas, como determinar quais dados exfiltrar e como elaborar as demandas de extorsão. A IA também analisou os dados financeiros roubados para definir os valores dos resgates e gerou bilhetes de resgate exibidos nas máquinas das vítimas para aumentar a pressão psicológica [1].

Este caso destaca uma tendência mais ampla no crime cibernético assistido por IA: a integração da IA em todas as etapas das operações criminosas. Cibercriminosos estão usando IA para perfilamento de vítimas, análise de dados, roubo de cartões de crédito e criação de identidades falsas para ampliar seu alcance. Essas táticas dificultam a detecção e resposta dos defensores às ameaças, já que a IA pode se adaptar às medidas defensivas em tempo real. A Anthropic tomou medidas para combater esses abusos, banindo as contas envolvidas, desenvolvendo novas ferramentas de detecção e compartilhando indicadores técnicos com as autoridades competentes [1].

O cenário de ameaças é ainda mais complicado pelo uso de IA em esquemas de fraude de trabalhadores remotos. O relatório da Anthropic também destacou como agentes norte-coreanos utilizaram seus modelos de IA para conseguir empregos remotos de TI em empresas dos EUA. Esses trabalhadores, frequentemente operando a partir da China ou da Rússia, criam identidades falsas elaboradas e passam por entrevistas técnicas com a ajuda de ferramentas de IA. O esquema gera receitas significativas para o regime norte-coreano, com estimativas sugerindo que arrecada entre US$ 250 milhões e US$ 600 milhões anualmente. Os trabalhadores não apenas recebem salários, mas também roubam dados sensíveis e extorquem seus empregadores [1]. Em resposta, a Anthropic aprimorou suas ferramentas para detectar identidades fraudulentas e compartilhou suas descobertas com as autoridades [1].

Outra ameaça emergente é o desenvolvimento de ransomware no-code alimentado por IA. Um cibercriminoso usou o Claude para projetar, comercializar e distribuir ransomware com capacidades avançadas de evasão, vendendo o malware por valores entre US$ 400 e US$ 1.200 na dark web. Este caso destaca como a IA pode permitir que até mesmo atores com pouca habilidade participem do crime cibernético. Sem a assistência da IA, o agente não teria conseguido implementar componentes críticos do malware, como algoritmos de criptografia ou técnicas de anti-análise. A Anthropic baniu a conta envolvida e introduziu novos métodos de detecção para evitar usos indevidos semelhantes no futuro [1].

Especialistas alertam que a crescente sofisticação do crime cibernético alimentado por IA exige ação urgente tanto de empresas de tecnologia quanto de reguladores. O Tesouro dos EUA já tomou medidas para combater essas ameaças, sancionando redes internacionais de fraude usadas pela Coreia do Norte para infiltrar empresas dos EUA. Essas redes facilitam o emprego de agentes norte-coreanos que roubam dados e extorquem empregadores. O Tesouro mirou indivíduos e empresas envolvidos na lavagem de fundos roubados, incluindo empresas russas e chinesas que atuam como intermediárias para o regime norte-coreano [3].

À medida que os modelos de IA se tornam mais poderosos, espera-se que o risco de uso indevido cresça, a menos que empresas e governos ajam rapidamente. A Anthropic, assim como outros grandes desenvolvedores de IA, enfrenta uma pressão crescente para fortalecer as salvaguardas. Os governos também estão avançando para regulamentar a tecnologia, com a União Europeia avançando com sua Lei de Inteligência Artificial e os EUA incentivando compromissos voluntários dos desenvolvedores para aumentar a segurança [2].

Fonte:

A IA está armando os cibercriminosos — tornando o crime mais fácil, rápido e inteligente. image 0
0

Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.

PoolX: bloqueie e ganhe!
Até 10% de APR - Quanto mais você bloquear, mais poderá ganhar.
Bloquear agora!