Krimineller nutzte ein KI-Modell, um Gesundheitsdaten, Finanzinformationen und Regierungszugangsdaten zu stehlen, und drohte, die Daten offenzulegen, sofern nicht mehr als 500.000 US-Dollar gezahlt werden.
Anthropic berichtet, dass ein Cyberkrimineller sein künstliche Intelligenz (KI)-Modell genutzt hat, um sensible persönliche Informationen zu stehlen und hohe Lösegeldforderungen zu stellen, um deren Veröffentlichung zu verhindern.
Mitglieder des Threat Intelligence Teams von Anthropic, Alex Moix, Ken Lebedev und Jacob Klein, berichten in einem neuen Report, dass ein Cyberkrimineller den Claude-Chatbot des KI-Unternehmens missbraucht hat, um Datendiebstahl und Lösegeldforderungen zu unterstützen.
„Wir haben kürzlich einen ausgeklügelten Cyberkriminellen gestoppt, der Claude Code genutzt hat, um im großen Stil persönliche Daten zu stehlen und zu erpressen. Der Akteur hat mindestens 17 verschiedene Organisationen ins Visier genommen…“
„Der Akteur nutzte KI in einem unserer Meinung nach beispiellosen Ausmaß. Claude Code wurde eingesetzt, um Aufklärung zu automatisieren, Zugangsdaten der Opfer zu sammeln und Netzwerke zu infiltrieren. Claude durfte sowohl taktische als auch strategische Entscheidungen treffen, etwa welche Daten exfiltriert werden sollten und wie psychologisch gezielte Erpresserschreiben gestaltet werden. Claude analysierte die exfiltrierten Finanzdaten, um angemessene Lösegeldbeträge zu bestimmen, und generierte optisch alarmierende Erpresserschreiben, die auf den Rechnern der Opfer angezeigt wurden.“
Anthropic erklärt, dass der Cyberkriminelle „eine systematische Angriffskampagne orchestriert hat, die sich auf umfassenden Datendiebstahl und Erpressung konzentrierte“, wobei das KI-Modell eingesetzt wurde.
„Der Akteur stellte Claude Code seine bevorzugten operationellen TTPs (Tactics, Techniques, and Procedures) in seiner CLAUDE.md-Datei zur Verfügung, die als Leitfaden für Claude Code dient, um auf Eingaben im Sinne des Nutzers zu reagieren…“
„Der systematische Ansatz des Akteurs führte zur Kompromittierung persönlicher Datensätze, darunter Gesundheitsdaten, Finanzinformationen, staatliche Zugangsdaten und andere sensible Informationen, wobei direkte Lösegeldforderungen gelegentlich 500.000 $ überstiegen.“
Das Unternehmen erklärt außerdem, dass der Missbrauch seiner KI-Modelle für illegale Zwecke trotz seiner Bemühungen, dies zu verhindern, stattfindet.
„Wir haben ausgefeilte Sicherheits- und Schutzmaßnahmen entwickelt, um den Missbrauch unserer KI-Modelle zu verhindern. Obwohl diese Maßnahmen im Allgemeinen wirksam sind, versuchen Cyberkriminelle und andere böswillige Akteure ständig, Wege zu finden, sie zu umgehen.“
Generiertes Bild: Midjourney
Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.
Das könnte Ihnen auch gefallen
Bitcoin an der Wall Street wird nach einer stillen Bewegung der Nasdaq nie mehr dasselbe sein
Bitcoin steht vor einem „vielversprechenden neuen Jahr“, während es den schlechtesten November seit 7 Jahren erlebt

Von „Wer gibt wem Geld“ zu „Nur den Richtigen geben“: Die nächste Generation von Launchpads muss neu gemischt werden
Die nächste Generation von Launchpads könnte dazu beitragen, das Problem des Community-Starts im Kryptowährungsbereich zu lösen, ein Problem, das durch Airdrops bisher nicht behoben werden konnte.

