Китайские хакеры провели первую кибератаку с помощью искусственного интеллекта.
Планирование меню, терапия, написание эссе и даже сложные глобальные кибератаки – люди постоянно находят новые и инновационные способы использования современных AI-чатботов.
На этой неделе компания Anthropic объявила о тревожном этапе, сообщив, что их флагманский AI-ассистент Claude стал инструментом для китайских хакеров в том, что компания называет 'первой зарегистрированной кампанией кибершпионства, организованной AI'.
Кибершпионство с помощью AI
Согласно отчету Anthropic, в середине сентября они обнаружили масштабную кибершпионскую операцию группы, которую они назвали GTG-1002. Ее целью стали 'значительные технологические корпорации, финансовые учреждения, химические компании и государственные органы в нескольких странах'.
Хотя такие атаки не новы, эта кампания выделяется тем, что 80-90% действий были выполнены с помощью AI. После того как операторы выбрали целевые организации, они активно использовали Claude для выявления ценных баз данных, проверки уязвимостей и генерации кода для доступа к информации. Человеческий контроль ограничивался только несколькими критическими моментами – предоставлением команд AI и проверкой результатов.
Claude, как и другие мощные языковые модели, имеет встроенные средства безопасности, которые призваны предотвратить такую деятельность. Однако преступники смогли обойти эти механизмы, подавая задания в виде невинных запросов и выдавая себя за компанию по кибербезопасности, проводящую тестирование. Это вызывает серьезные вопросы о том, насколько легко можно обойти системы безопасности таких моделей, как Claude и ChatGPT, учитывая потенциальную угрозу их использования для создания биологического оружия или других опасных материалов.
Anthropic отмечает, что Claude иногда 'галлюцинировал' данные о учетных записях или утверждал, что извлек секретную информацию, на самом деле доступную для общего пользования. Даже государственным хакерам стоит быть осторожными, поскольку AI может выдумывать информацию.
Опасности AI в кибератаках
Отчет поднимает важные вопросы: инструменты AI могут значительно упростить и ускорить процесс выполнения кибератак, повышая уязвимость как национальных систем безопасности, так и финансовых учреждений обычных граждан.
Но мы еще не находимся в полном киберхаосе. Требования к техническим знаниям для использования Claude в таких ситуациях все еще превышают возможности среднего интернет-тролля. Тем не менее, эксперты уже давно предупреждают об угрозе использования AI для генерации вредоносного кода, явление, известное как 'веб-хакинг'. В феврале конкурент Anthropic – компания OpenAI – сообщила о китайских, иранских, северокорейских и российских злоумышленниках, которые использовали их AI-инструменты для проведения киберактивностей.
В сентябре Центр новой американской безопасности (CNAS) выпустил отчет о угрозе кибератак, реализованных с помощью AI. В нем указано, что наиболее затратные этапы большинства кибератак касаются планирования, разведки и разработки инструментов. Автоматизация этих задач с помощью AI может кардинально изменить ситуацию в наступательных кибератаках — и это уже произошло в данной кампании.
Калеб Узи, автор отчета CNAS, подчеркнул, что заявление Anthropic стало 'актуальным', учитывая недавние достижения в сфере AI. Он также отметил, что 'уровень сложности, с которым это можно делать почти автономно с помощью AI, лишь продолжит расти'.
Кибервойна Китая
Anthropic утверждает, что хакеры оставили достаточно доказательств, чтобы определить, что они были китайскими, хотя китайское посольство в США назвало эти обвинения 'клеветой и оскорблением'.
Это ироничное достижение для Anthropic и индустрии AI в США в целом. В начале года китайская языковая модель DeepSeek вызвала резонанс в Вашингтоне и Кремниевой долине, демонстрируя, что, несмотря на усилия США ограничить доступ Китая к современным полупроводниковым чипам, необходимых для разработки языковых моделей AI, Китай достаточно близок к американским достижениям. Таким образом, символично, что даже китайские хакеры предпочитают чатботов, разработанных в США, для своих киберисследований.
В течение прошлого года возросли опасения по поводу масштаба и сложности китайских кибератак, нацеленных на США. Среди примеров – кампания Volt Typhoon, целью которой стало размещение государственных кибер-актеров в IT-системах США для возможных атак в случае большой кризиса или конфликта, а также кампания Salt Typhoon, которая нацелилась на телекоммуникационные компании в разных странах и на коммуникации высокопоставленных лиц, включая бывшего президента Дональда Трампа.
Официальные лица утверждают, что масштабы и сложность этих атак значительно превышают все, что мы видели ранее. Это может быть лишь началом новых угроз в эпоху AI.
Читайте также
- Honda Pilot 2026: первый фейслифт и полностью цифровая панель
- Nissan представила новый плагин-гибридный Rogue: что он унаследовал от Mitsubishi
- Польша запускает первый военный спутник: детали миссии со SpaceX
- Искусственный интеллект на работе: как сотрудники могут противостоять давлению
- OpenAI запускает групповые чаты в ChatGPT: что изменится для пользователей
- Дія временно не работает из-за ажиотажа с тысячей гривен: что делать

