Chinesische Hacker führten den ersten Cyberangriff mit Hilfe von künstlicher Intelligenz durch.
Die Planung von Menüs, Therapie, das Schreiben von Essays und sogar komplexe globale Cyberangriffe – Menschen finden ständig neue und innovative Wege, moderne AI-Chatbots zu nutzen.
In dieser Woche gab das Unternehmen Anthropic eine besorgniserregende Etappe bekannt und berichtete, dass ihr führender AI-Assistent Claude zu einem Werkzeug für chinesische Hacker geworden sei, in dem, was das Unternehmen als 'die erste registrierte Cyber-Spionage-Kampagne, organisiert von AI' bezeichnet.
Cyber-Spionage mit Hilfe von AI
Laut einem Bericht von Anthropic entdeckten sie Mitte September eine großangelegte Cyber-Spionage-Operation einer Gruppe, die sie GTG-1002 nannten. Ziel waren 'wichtige Technologieunternehmen, Finanzinstitute, Chemieunternehmen und staatliche Behörden in mehreren Ländern'.
Obwohl solche Angriffe nicht neu sind, hebt sich diese Kampagne dadurch hervor, dass 80-90% der Maßnahmen mit Hilfe von AI durchgeführt wurden. Nachdem die menschlichen Operatoren die Zielorganisationen ausgewählt hatten, nutzten sie aktiv Claude, um wertvolle Datenbanken zu identifizieren, Schwachstellen zu überprüfen und Code zu generieren, um auf Informationen zuzugreifen. Die menschliche Kontrolle beschränkte sich nur auf einige kritische Momente – das Erteilen von AI-Befehlen und das Überprüfen von Ergebnissen.
Claude, wie andere leistungsstarke Sprachmodelle, verfügt über integrierte Sicherheitsfunktionen, die solche Aktivitäten verhindern sollen. Dennoch gelang es den Kriminellen, diese Mechanismen zu umgehen, indem sie Aufträge in Form harmloser Anfragen einreichten und sich als Cybersecurity-Unternehmen ausgaben, das Tests durchführt. Dies wirft ernsthafte Fragen darüber auf, wie einfach es ist, die Sicherheitssysteme solcher Modelle wie Claude und ChatGPT zu umgehen, angesichts der potenziellen Bedrohung, die ihre Verwendung zur Erstellung von Biowaffen oder anderen gefährlichen Materialien darstellt.
Anthropic merkt an, dass Claude manchmal 'halluzinierte' Daten über Konten oder behauptete, geheime Informationen extrahiert zu haben, die tatsächlich öffentlich zugänglich waren. Selbst staatlichen Hackern sollte Vorsicht geboten sein, da AI Informationen erfinden kann.
Die Gefahren von AI in Cyberangriffen
Der Bericht wirft wichtige Fragen auf: AI-Tools können den Prozess der Durchführung von Cyberangriffen erheblich vereinfachen und beschleunigen, wodurch sowohl nationale Sicherheitsysteme als auch die Finanzinstitutionen einfacher Bürger anfälliger werden.
Aber wir befinden uns noch nicht in vollem Cyber-Chaos. Die Anforderungen an das technische Wissen zur Nutzung von Claude in solchen Situationen übersteigen immer noch die Fähigkeiten eines durchschnittlichen Internet-Trolls. Dennoch warnen Experten seit langem vor der Bedrohung durch die Verwendung von AI zur Erstellung von Schadcode, einem Phänomen, das als 'Web-Hacking' bekannt ist. Im Februar berichtete der Mitbewerber Anthropic – das Unternehmen OpenAI – über chinesische, iranische, nordkoreanische und russische Akteure, die deren AI-Tools für Cyberoperationen nutzen.
Im September veröffentlichte das Center for a New American Security (CNAS) einen Bericht über die Bedrohung von Cyberangriffen, die mit Hilfe von AI durchgeführt werden. Darin wird darauf hingewiesen, dass die kostspieligsten Phasen der meisten Cyberangriffe mit Planung, Aufklärung und der Entwicklung von Werkzeugen zu tun haben. Die Automatisierung dieser Aufgaben mit Hilfe von AI könnte die Situation in offensiven Cyberangriffen grundlegend verändern – und dies ist bereits in dieser Kampagne geschehen.
Caleb Uzi, Autor des CNAS-Berichts, betonte, dass die Ankündigung von Anthropic 'aktuell' sei, angesichts der jüngsten Fortschritte im Bereich AI. Er merkte auch an, dass 'das Niveau der Komplexität, mit dem dies fast autonom mit Hilfe von AI durchgeführt werden kann, nur weiter steigen wird.'
Chinas Cyberkrieg
Anthropic behauptet, dass die Hacker genug Beweise hinterlassen haben, um festzustellen, dass sie chinesisch waren, obwohl die chinesische Botschaft in den USA diese Anschuldigungen als 'Verleumdung und Beleidigung' bezeichnete.
Dies ist ein ironischer Erfolg für Anthropic und die AI-Industrie in den USA insgesamt. Zu Beginn des Jahres erregte das chinesische Sprachmodell DeepSeek Aufsehen in Washington und im Silicon Valley, da es zeigte, dass China trotz des Versuchs der USA, den Zugang Chinas zu modernen Halbleiterchips, die für die Entwicklung von AI-Sprachmodellen benötigt werden, einzuschränken, den amerikanischen Errungenschaften ziemlich nahe ist. Es ist daher symbolisch, dass sogar chinesische Hacker amerikanische Chatbots für ihre Cyberforschung bevorzugen.
Im letzten Jahr wuchsen die Bedenken über das Ausmaß und die Komplexität chinesischer Cyberangriffe auf die USA. Zu den Beispielen gehört die Volt-Typhoon-Kampagne, die darauf abzielte, staatliche Cyberakteure in IT-Systemen der USA zu platzieren, um mögliche Angriffe im Falle einer großen Krise oder eines Konflikts durchzuführen, sowie die Salt-Typhoon-Kampagne, die Telekommunikationsunternehmen in verschiedenen Ländern und die Kommunikation von hochrangigen Beamten, einschließlich des ehemaligen Präsidenten Donald Trump, ins Visier nahm.
Beamte behaupten, dass das Ausmaß und die Komplexität dieser Angriffe alles, was wir zuvor gesehen haben, weit übertrifft. Dies könnte nur der Beginn neuer Bedrohungen im Zeitalter der AI sein.
Lesen Sie auch
- Honda Pilot 2026: das erste Facelift und ein vollständig digitales Armaturenbrett
- Nissan hat den neuen Plug-in-Hybrid Rogue vorgestellt: Was er von Mitsubishi geerbt hat
- Polen startet den ersten militärischen Satelliten: Details zur Mission mit SpaceX
- Künstliche Intelligenz im Job: Wie Mitarbeiter dem Druck standhalten können
- OpenAI startet Gruppenchats in ChatGPT: Was sich für die Benutzer ändert
- DIA funktioniert vorübergehend aufgrund des Ansturms auf 1000 Griwna nicht: Was ist zu tun

