Chińscy hakerzy przeprowadzili pierwsze cyberataki za pomocą sztucznej inteligencji.

Chińscy hakerzy przeprowadzili pierwsze cyberataki za pomocą sztucznej inteligencji
Chińscy hakerzy przeprowadzili pierwsze cyberataki za pomocą sztucznej inteligencji

Planowanie menu, terapia, pisanie esejów, a nawet skomplikowane globalne cyberataki – ludzie wciąż znajdują nowe i innowacyjne sposoby wykorzystania współczesnych chatbotów AI.

W tym tygodniu firma Anthropic ogłosiła niepokojący etap, informując, że ich flagowy asystent AI Claude stał się narzędziem dla chińskich hakerów w tym, co firma określa jako 'pierwszą zarejestrowaną kampanię cyberespionażu zorganizowaną przez AI'.

Ciberespionaż z pomocą AI

Według raportu Anthropic, w połowie września wykryli oni wielką operację cyberespionażu grupy, którą nazwali GTG-1002. Jej celem były 'znaczące korporacje technologiczne, instytucje finansowe, firmy chemiczne i organy rządowe w kilku krajach'.

Chociaż takie ataki nie są nowe, ta kampania wyróżnia się tym, że 80-90% działań zostało przeprowadzonych przy użyciu AI. Po tym, jak operatorzy wybrali docelowe organizacje, aktywnie wykorzystywali Claude do wykrywania cennych baz danych, sprawdzania luk w zabezpieczeniach i generowania kodu do uzyskiwania dostępu do informacji. Ludzki nadzór ograniczał się tylko do kilku krytycznych momentów – wydawania poleceń AI i weryfikacji wyników.

Claude, podobnie jak inne potężne modele językowe, ma wbudowane środki bezpieczeństwa, które mają zapobiegać takim działaniom. Jednak przestępcy zdołali ominąć te mechanizmy, przedstawiając zadania w postaci niewinnych zapytań i udając firmę zajmującą się bezpieczeństwem cybernetycznym, która przeprowadza testy. To budzi poważne pytania dotyczące tego, jak łatwo można obejść systemy zabezpieczeń takich modeli jak Claude i ChatGPT, biorąc pod uwagę potencjalne zagrożenie ich wykorzystania do tworzenia broni biologicznej lub innych niebezpiecznych materiałów.

Anthropic zauważa, że Claude czasami 'halucynował' dane dotyczące kont lub twierdził, że wyciągnął tajne informacje, które w rzeczywistości były dostępne publicznie. Nawet państwowi hakerzy powinni być ostrożni, ponieważ AI może wymyślać informacje.

Niebezpieczeństwa AI w cyberatakach

Raport porusza ważne pytania: narzędzia AI mogą znacznie uprościć i przyspieszyć proces przeprowadzania cyberataków, zwiększając wrażliwość zarówno krajowych systemów bezpieczeństwa, jak i instytucji finansowych zwykłych obywateli.

Jednak wciąż nie znajdujemy się w pełnym cyberchaosie. Wymagania dotyczące wiedzy technicznej do wykorzystania Claude w takich sytuacjach wciąż przewyższają możliwości przeciętnego internetowego trolla. Niemniej jednak eksperci już od dawna ostrzegają przed zagrożeniem wykorzystania AI do generowania złośliwego kodu, zjawisko znane jako 'web-hacking'. W lutym konkurent Anthropic – firma OpenAI – doniosła o chińskich, irańskich, północnokoreańskich i rosyjskich złośliwcach, którzy używali ich narzędzi AI do prowadzenia operacji cybernetycznych.

We wrześniu Centrum Nowego Amerykańskiego Bezpieczeństwa (CNAS) wydało raport na temat zagrożenia cyberatakami realizowanymi przy użyciu AI. W raporcie wskazano, że najbardziej kosztowne etapy większości cyberataków dotyczą planowania, rozpoznania i opracowywania narzędzi. Automatyzacja tych zadań za pomocą AI może radykalnie zmienić sytuację w ofensywnych cyberatakach – co już się wydarzyło w tej kampanii.

Caleb Uzi, autor raportu CNAS, podkreślił, że ogłoszenie Anthropic było 'aktualne', biorąc pod uwagę ostatnie osiągnięcia w dziedzinie AI. Zauważył również, że 'poziom skomplikowania, z jakim można to robić niemal autonomicznie z pomocą AI, tylko nadal będzie rósł'.

Cyberwojna Chin

Anthropic twierdzi, że hakerzy pozostawili wystarczająco dowodów, aby ustalić, że byli Chińczykami, chociaż chińska ambasada w USA nazwała te oskarżenia 'oszczerstwem i zniewagą'.

To ironiczne osiągnięcie dla Anthropic i przemysłu AI w USA w ogóle. Na początku roku chiński model językowy DeepSeek wzbudził kontrowersje w Waszyngtonie i Dolinie Krzemowej, pokazując, że mimo wysiłków USA w ograniczaniu dostępu Chin do nowoczesnych półprzewodnikowych chipów potrzebnych do rozwijania modeli językowych AI, Chiny są na tyle bliskie amerykańskim osiągnięciom. Symbolicznie to, że nawet chińscy hakerzy preferują chatboty opracowane w USA do swoich badań cybernetycznych.

W ciągu ostatniego roku wzrosły obawy dotyczące skali i złożoności chińskich cyberataków wymierzonych w USA. Do przykładów należy kampania Volt Typhoon, mająca na celu umieszczenie państwowych aktorów cybernetycznych w systemach IT USA na możliwe ataki w przypadku dużego kryzysu lub konfliktu, a także kampania Salt Typhoon, która skierowała się na firmy telekomunikacyjne w różnych krajach oraz na komunikację wysokich urzędników, w tym byłego prezydenta Donalda Trumpa.

Urzędnicy twierdzą, że skala i złożoność tych ataków znacznie przewyższają wszystko, co widzieliśmy wcześniej. To może być dopiero początek nowych zagrożeń w erze AI.


Czytaj także

Reklama