Штучний інтелект демократизує кіберзлочинність — робить хакерів застарілими
- Звіт Anthropic показує, що кіберзлочинці використовують AI для автоматизації атак, знижуючи технічні бар'єри для кіберзлочинності. - Інструменти AI дозволяють здійснювати вимагання даних, шахрайства з фальшивими робочими місцями та послуги викупу як сервіс, орієнтуючись на сфери охорони здоров'я, уряду та технологій. - Північнокорейські хакери використовують AI для створення фальшивих особистостей для віддаленої роботи, обходячи санкції та вимоги до навичок. - Згенеровані AI листи з вимогою викупу аналізують фінансові дані для визначення суми вимоги, що означає нову фазу в тактиках кіберзлочинності. - Anthropic забороняє зловживання.
Злочинці використовують штучний інтелект для здійснення кібератак із небаченою раніше складністю, згідно з доповіддю, опублікованою Anthropic, компанією, яка стоїть за AI-моделлю Claude. У звіті Threat Intelligence компанії детально описується, як кіберзлочинці використовують агентні AI-інструменти для автоматизації та оптимізації операцій кіберзлочинності, знижуючи технічну експертизу, яка традиційно була необхідна для таких атак. У звіті підкреслюється декілька випадків, коли AI було використано як зброю, включаючи масштабне вимагання даних, шахрайські схеми працевлаштування та розробку ransomware-as-a-service. Anthropic зазначає, що ці атаки часто здійснюються особами, які не мають традиційних навичок програмування, необхідних для ручного виконання таких дій, що фактично знижує бар'єр для входу у кіберзлочинність [1].
Один із найпомітніших випадків, описаних у звіті, стосувався використання Claude Code для проведення масштабної операції з вимагання даних. Кіберзлочинець націлився щонайменше на 17 організацій, включаючи установи у сферах охорони здоров'я, екстрених служб та державного управління. Замість традиційного використання ransomware для шифрування даних, зловмисник погрожував розкрити конфіденційну інформацію, включаючи фінансові записи та особисті дані, щоб змусити жертв сплатити викуп, який іноді перевищував $500,000 у криптовалюті. Anthropic повідомляє, що AI використовувався не лише для автоматизації розвідки та вилучення даних, а й для створення психологічно орієнтованих вимог щодо викупу та визначення сум викупу на основі аналізу фінансових даних. AI-генеровані листи з вимогою викупу були розроблені так, щоб виглядати візуально тривожно, і містили детальний розподіл варіантів монетизації та графіків ескалації. Це представляє нову фазу у кіберзлочинності з підтримкою AI, де AI-інструменти виступають як стратегічні радники та активні учасники життєвого циклу атаки [1].
У звіті також було підкреслено використання AI у шахрайських схемах працевлаштування північнокорейськими операторами. Ці особи використовували Claude для створення складних фальшивих особистостей і успішного отримання віддалених посад у технологічних компаніях США. Після найму оператори використовували AI-інструменти для виконання реальної технічної роботи, що дозволяло їм залишатися непоміченими протягом тривалого часу. Цей метод не лише обходить міжнародні санкції, а й дозволяє уникнути необхідності у великій підготовці персоналу. За даними Anthropic, це є суттєвою еволюцією у кіберзлочинності, оскільки AI усуває потребу у володінні просунутими технічними навичками чи знаннями мов. Вважається, що північнокорейський режим отримує фінансову вигоду від цих схем, які раніше обмежувалися наявністю підготовленого персоналу [1].
Ще один випадок, детально описаний у звіті, стосувався кіберзлочинця, який використовував Claude для розробки та розповсюдження ransomware з розширеними можливостями ухилення. Цей ransomware продавався на форумах даркнету за ціною від $400 до $1,200, дозволяючи іншим злочинцям використовувати його без необхідності глибоких технічних знань. У звіті зазначається, що без допомоги AI зловмисник не зміг би реалізувати або налагодити основні компоненти ransomware, такі як алгоритми шифрування та техніки протидії аналізу. Anthropic вжила заходів, заблокувавши відповідний акаунт і вдосконаливши свої системи виявлення для запобігання подібному зловживанню у майбутньому [1].
Зростання кіберзлочинності з підтримкою AI викликає занепокоєння серед дослідників безпеки та лідерів галузі. Anthropic підкреслює, що ці загрози вказують на необхідність впровадження передових захисних заходів, включаючи системи виявлення на основі AI та посилену співпрацю між компаніями й правоохоронними органами. Компанія поділилася технічними індикаторами зловживань із відповідними органами та продовжує вдосконалювати свої протоколи безпеки для зниження майбутніх ризиків. У звіті також вказується на ширші наслідки, включаючи потенціал використання AI для масштабного шахрайства та розробки AI-генерованих фішингових кампаній. Оскільки використання агентного AI у кіберзлочинності стає все більш поширеним, очікується, що ландшафт кібербезпеки швидко еволюціонуватиме, і як нападники, так і захисники використовуватимуть AI для отримання переваги [1].

Відмова від відповідальності: зміст цієї статті відображає виключно думку автора і не представляє платформу в будь-якій якості. Ця стаття не повинна бути орієнтиром під час прийняття інвестиційних рішень.
Вас також може зацікавити
WLFI стратегічно інкубує BlockRock, створюючи новий двигун фінансових деривативів RWA
Ця співпраця не лише знаменує глибоке розміщення WLFI у сфері RWA, але й закріплює статус BlockRock як основної платформи RWA в його екосистемі.

Вихід компаній на міжнародний ринок: вибір архітектури та стратегії оптимізації оподаткування
Наскільки важлива відповідна корпоративна структура?

Еволюція інвестування в альткоїни з точки зору $HYPE
В епоху, коли індикатори можна маніпулювати, як прорватися крізь туман наративів токеноміки?

Недооцінені малайзійські китайці — невидимі будівельники інфраструктури криптосвіту
Інфраструктура криптоіндустрії та нові наративи, такі як CoinGecko, Etherscan, Virtuals Protocol, були започатковані командами китайців Малайзії.

У тренді
БільшеЦіни на криптовалюти
Більше








