Microsoft ostrzega, że urzędnicy wspierani przez państwo wykorzystują sztuczną inteligencję w atakach
Podmioty z państw narodowych powiązane z Rosją, Koreą Północną, Iranem i Chinami badają integrację sztucznej inteligencji (AI) i dużych modeli językowych (LLM), aby usprawnić swoje istniejące operacje cyberataków.
Raport opublikowany wspólnie przez Microsoft i OpenAI ujawnia, że obie organizacje zakłóciły wysiłki pięciu podmiotów powiązanych z państwem angażujących się w szkodliwe działania cybernetyczne, zamykając ich aktywa i konta.
Microsoft podzielił się z The Hacker News tym, że obsługa języków jest nieodłączną cechą programów LLM, dzięki czemu są one atrakcyjne dla podmiotów zajmujących się zagrożeniami skupiających się na inżynierii społecznej i innych taktykach obejmujących fałszywą i zwodniczą komunikację dostosowaną do sieci zawodowych, stanowisk pracy i innych relacji ich celów.
Chociaż dotychczas nie zidentyfikowano żadnych znaczących ani nowych ataków z wykorzystaniem LLM, kontradyktoryjne eksplorowanie technologii sztucznej inteligencji przeszło przez różne etapy łańcucha ataków, obejmujące rozpoznanie, pomoc w kodowaniu i rozwój złośliwego oprogramowania.
Hakerzy używają sztucznej inteligencji do pomocy przy kodzie i zbieraniu informacji
Według raportu podmioty powiązane z państwem starały się wykorzystywać usługi OpenAI głównie do zadań takich jak przeglądanie informacji o otwartym kodzie źródłowym, tłumaczenie, znajdowanie błędów w kodowaniu i wykonywanie podstawowych zadań związanych z kodowaniem.
Poniżej przedstawiono kilka przykładów dodatkowych podmiotów zagrażających wykorzystujących sztuczną inteligencję:
- Rosyjska grupa państw narodowych znana jako Forest Blizzard (lub APT28) korzystała z usług OpenAI do badań open source nad protokołami komunikacji satelitarnej, technologią obrazowania radarowego i zadaniami skryptowymi.
- Północnokoreański ugrupowanie cyberprzestępcze Emerald Sleet (lub Kimusky) zatrudnił specjalistów LLM do identyfikowania ekspertów, zespołów doradczych i organizacji zajmujących się kwestiami związanymi z obronnością w regionie Azji i Pacyfiku, a także do tworzenia zadań skryptowych i opracowywania treści na potrzeby potencjalnych kampanii phishingowych.
- Irański ugrupowanie cyberprzestępcze Crimson Sandstorm (lub Imperial Kitten) wykorzystywał narzędzia LLM do tworzenia fragmentów kodu związanych z tworzeniem aplikacji i stron internetowych, generowania wiadomości e-mail typu phishing oraz badania sposobów, w jakie złośliwe oprogramowanie może uniknąć wykrycia.
- Chińscy ugrupowania zagrażające Charcoal Typhoon (lub Aquatic Panda) i Salmon Typhoon (lub Maverick Panda) wykorzystywały LLM do różnych zadań, w tym badania firm i luk w zabezpieczeniach, generowania skryptów, tłumaczenia dokumentów technicznych i wyszukiwania informacji o agencjach wywiadowczych.
Firma Microsoft jest w trakcie opracowywania zestawu zasad mających na celu ograniczenie ryzyka związanego ze złośliwym wykorzystaniem narzędzi sztucznej inteligencji i interfejsów API przez zaawansowane trwałe zagrożenia (APT), zaawansowane trwałe manipulatory (APM) i syndykaty cyberprzestępcze. Zasady te mają na celu ustanowienie skutecznych barier i mechanizmów bezpieczeństwa wokół modeli sztucznej inteligencji.