Jak agenci AI zmieniają oblicze cyberbezpieczeństwa
Cyberbezpieczeństwo nie jest już tylko sztuką ustawiania haseł, konfiguracji firewalla, czy instalowania łatek. W miarę jak rośnie zaawansowanie technologiczne, zarówno atakujący, jak i obrońcy sięgają po sztuczną inteligencję.
|
CZEGO SIĘ DOWIESZ Z TEGO MATERIAŁU:
|
Platformy AI wykorzystywane są już teraz do niemal wszystkiego: od przygotowania, planowania ataków, szukania luk w zabezpieczeniach czy przygotowania phishingu, po wykrywanie zagrożeń w czasie rzeczywistym i automatyczną reakcję na ewentualny atak i awarię.
Szczególną rolę odgrywają tu agenci AI – wyspecjalizowane systemy wykonujące samodzielnie zadania dla swoich użytkowników. Mają pewną autonomię, mogą planować, uczyć się i dostosowywać. Ich możliwości opierają się w największej mierze na uczeniu maszynowym, modelach LLM i generatywnej sztucznej inteligencji, co pozwala im z czasem usprawniać swoje działanie oraz współpracować z innymi wyspecjalizowanymi agentami w realizacji niektórych zadań.
To sprawia, że agenci AI różnią się od najczęściej dziś wykorzystywanych narzędzi bazujących na sztucznej inteligencji. Chatboty potrafią udzielać odpowiedzi na pytania i pomagają automatyzować proste zadania. Zadaniem asystentów AI jest wspieranie użytkownika w podejmowaniu decyzji i realizowanie dla niego niektórych zadań wymagających szybkiej analizy dużej ilości danych. Agenci natomiast mogą wykonywać skomplikowane zadania składające się z wielu kroków, działać samodzielnie i podejmować decyzje na podstawie danych historycznych i zbieranych w czasie rzeczywistym.
U progu rewolucji
Wartość globalnego rynku systemów tego typu oceniana była w 2024 roku na nieco ponad 22 mld dolarów. Raport Grand View Research[1] prognozuje średni wzrost wartości rynku o ok. 34 proc. rocznie (CAGR) do 322 mld dolarów w 2033 roku. „Rozwój sztucznej inteligencji agentowej w branży cyberbezpieczeństwa jest napędzany rosnącą złożonością i skalą zagrożeń skierowanych przeciwko przedsiębiorstwom i infrastrukturze. Organizacje poszukują autonomicznych systemów AI zdolnych do wykrywania, analizy i reagowania na zagrożenia w czasie rzeczywistym” – piszą analitycy w raporcie.
Podobne oczekiwania mają specjaliści KBV Research. Według ich prognoz rynek agentowych systemów AI w cyberbezpieczeństwie wzrośnie z 30 mld dolarów w 2025 roku do 228 mld w 2032 przy wzroście CAGR o 34 proc. rocznie[2].
Niezależnie od drobnych różnic w prognozach jedno jest pewne: agenci AI staną się istotnym elementem krajobrazu cyberbezpieczeństwa. To, dlaczego tak się dzieje, jest jasne – przestępcy coraz skuteczniej posługują się platformami sztucznej inteligencji do prowadzenia ataków. A ta sama technologia – na razie głównie w postaci asystentów AI –coraz śmielej wchodzi jako wsparcie specjalistów w działach IT oraz w SOC.
Od zera do hakera
Według ekspertów i twórców platform AI technologia agentów osiągnęła już punkt krytyczny – z ich pomocą można przeprowadzić rzeczywisty kompleksowy atak hakerski. W listopadzie 2025 roku Anthropic informował o wykryciu złożonej kampanii wymierzonej w około 30 firm z branż technologicznej, chemicznej, finansowej, przemysłowej i w niektóre instytucje rządowe. Grupa – sponsorowana prawdopodobnie przez Chiny – wykorzystała narzędzie Claude Code do przygotowania i przeprowadzenia ataku na wielką skalę. „Jesteśmy przekonani, że to pierwszy udokumentowany przypadek cyberataku przeprowadzonego bez znaczącej interwencji człowieka” – twierdzi Anthropic[3].
Działanie ludzi ograniczyło się do wskazania agentom AI celów uderzenia. Model Claude przeprowadził następnie rekonesans, wyszukał niezałatane luki i samodzielnie napisał kod umożliwiający ich wykorzystanie. Następnie bez ingerencji człowieka wykradł loginy i hasła oraz „znaczące” ilości danych. Co więcej, sztuczna inteligencja sama posegregowała wykradzione informacje pod kątem ich przydatności i wartości. Wykorzystano konta o najwyższych przywilejach, a następnie generatywna AI przygotowała… dokumentację ataku do wykorzystania w kolejnych kampaniach.
Według Anthropic agent AI wykonał 80-90 proc. zadań, działając przy tym z szybkością nieosiągalną nawet dla dużego zespołu cyberprzestępców. Do tego taki atak nie wymagał szczególnych umiejętności i wiedzy programistycznej – to zagwarantowała platforma AI. Oznacza to m.in. znaczące obniżenie progu wejścia na „rynek hakerski” – nawet osoba bez znaczących umiejętności programistycznych jest w stanie przy pomocy agentów AI przygotować i przeprowadzić udany atak.
W ostatnich dniach Anthropic ogłosił, że nie zamierza udostępniać publicznie nowego modelu AI Claude Mythos przygotowanego specjalnie pod kątem poszukiwania i wykorzystywania podatności. Mythos jest bowiem niezwykle skuteczny w generowaniu exploitów wykorzystujących podatności zero-day. O ile poprzedni model (Opus 4.6) był w stanie wygenerować tylko dwa dla podatności w Firefox, o tyle Mythos stworzył od ręki 181 działających exploitów[4]. Jak podkreślają twórcy, już obecnie ten model AI znalazł „tysiące podatności we wszystkich liczących się systemach operacyjnych i przeglądarkach internetowych”[5]. Mythos wykonał tez symulowany, składający się z 32 kroków, atak ransomware. Anthropic udostępnił ten model największym firmom z rynku IT i cyberbezpieczeństwa w ramach projektu Glasswing, którego celem jest poprawa bezpieczeństwa w najbardziej krytycznym oprogramowaniu. Obok twórców modelu AI do Glasswing należą m.in. AWA, Apple, Cisco, Microsoft, CrowdStrike, Google, Nvidia czy Palo Alto Networks.
Najsłabsze ogniwo
Co istotne – platformy sztucznej inteligencji nie tworzą nowych technik ataku, ale drastycznie zwiększają szybkość i skalę działań[6]. Dotyczy to również kampanii phishingowych i spearphishingowych przygotowywanych i prowadzonych przez agentów AI w rękach przestępców. To już nie koślawo przetłumaczone przez starsze modele AI wiadomości e-mail – agenci AI mogą zebrać i wykorzystać dane z mediów społecznościowych, prowadzić wielowątkową rozmowę z zachowaniem kontekstu i adaptować się do odpowiedzi człowieka – celu ataku – w czasie rzeczywistym. Aby się uwiarygodnić, agent AI może nawet zakładać konta na popularnych platformach, umieszczać tam wygenerowane przez siebie treści, jak również przeglądać strony WWW w poszukiwaniu przydatnych informacji.
Ze względu na personalizację takich ataków można wręcz mówić o spearphishingu niezależnie od skali działań – kampania spersonalizowanych ataków może dotyczyć wielu celów. W dodatku ataki celowane są prowadzone szybciej i mają wyższą wiarygodność, co jest kluczowe dla sztuczek socjotechnicznych.
Takie działania mają też znacznie wyższą efektywność kosztową niż poszukiwanie podatności technicznych. O ile wyszukanie (nawet przy pomocy AI) nieznanej wcześniej podatności wymaga pewnych nakładów, o tyle prowadzenie kampanii phishingowej jest praktycznie darmowe. Dlatego nadal ok. 98 proc. cyberataków wykorzystuje sztuczki socjotechniczne[7], a phishing oparty na wiadomościach e-mail to ok. 73 proc. wszystkich incydentów bezpieczeństwa. Człowiek jest nadal najsłabszym ogniwem, które najłatwiej i najtaniej zaatakować – stąd rosnące znaczenie strategii zero trust w obszarze cyberbezpieczeństwa.
Analityk, który nigdy nie śpi
Na szczęście te same możliwości sztucznej inteligencji mogą wykorzystywać obrońcy. Agenci AI są wykorzystywani do aktywnego poszukiwania podatności i prowadzenia symulowanych ataków prowadzonych przez zespoły Red Team (etycznych hakerów). To, co dotąd zajmowało kilka dni lub nawet tygodni, sztuczna inteligencja robi w zaledwie kilka godzin.
Obok testów prowadzonych przez zespoły redteamowe i blueteamowe, systemy agentowe AI są obecnie wykorzystywane w kilku innych obszarach. Najpowszechniejszym ich zastosowaniem jest monitorowanie anomalii oraz wykrywanie zagrożeń[8]. Obejmuje to analizę ruchu sieciowego w poszukiwaniu nietypowych wzorców, badanie aktywności użytkownika (w tym również analizę behawioralną) oraz „czytanie” logów systemowych w czasie rzeczywistym. Warto jednak podkreślić, że mimo wykorzystania AI do defensywy, atakujący mają przewagę – wystarczy, że znajdą jedną lukę i ją wykorzystają.
Drugim obszarem jest wykrywanie i identyfikacja złośliwego oprogramowania oraz ransomware. Tradycyjne metody oparte na skanowania sygnatur w obliczu obecnych zagrożeń sprawdzają się tylko połowicznie. Ta technika jest bezradna wobec polimorficznego malware oraz zagrożeń typu zero-day. Do przeprowadzenia analizy działania doskonale zaś nadają się systemy uczenia maszynowego oraz sztucznej inteligencji.
Polem, gdzie agenci AI zdobywają największą przewagę nad najlepszymi nawet zespołami bezpieczeństwa jest zautomatyzowana odpowiedź na incydenty. Ponieważ agenci nie tylko analizują dane, ale także wyciągają wnioski i potrafią podejmować samodzielne działania, reakcja na zagrożenie jest bardzo szybka. Wykrycie próby ataku oznacza automatyczne odseparowanie zainfekowanego/przejętego systemu, blokadę podejrzanego IP czy ograniczenie uprawnień dla danego konta. To nie tylko kwestia skrócenia średniego czasu naprawy (MTTR), ale wręcz całkowitego uniknięcia incydentu przez szybkie „zatrzaśnięcie drzwi”.
Agenci mogą również analizować historyczne dane, informacje o najnowszych zagrożeniach i łączyć je z obecnymi działaniami w korporacyjnej sieci – dodając kontekst. Mogą również na podstawie tych informacji samodzielnie skanować podatności infrastruktury i usuwać – lub informować człowieka o konieczności usunięcia – ewentualnych luk.
Nadzór ludzi zostaje
Trzeba też uczciwie przyznać, że agenci mają też swoje słabości typowe dla narzędzi AI – nie sprawdzą się tam, gdzie decyzja zależna jest od takich ludzkich właściwości jak empatia i inteligencja emocjonalna. Ma to znaczenie również w cyberbezpieczeństwie. Pojawienie się zaawansowanych rozwiązań AI oraz możliwości, jakie dają one w automatyzacji zadań IT sprawiło, że coraz śmielej zaczęto mówić o „bezobsługowych” systemach SOC. Ale agenci AI, podobnie jak każde rozwiązanie wykorzystujące sztuczną inteligencję, wymagają dobrej jakości danych do treningu – ktoś te dane musi przygotować. A nawet najlepiej przygotowani agenci AI będą zgłaszać fałszywie pozytywne alarmy, które będą musieli ocenić i rozwiązać ludzie – specjaliści IT. Trudno też sobie wyobrazić, aby system AI podjął decyzję np. o odseparowaniu serwera i ją zrealizował całkowicie bez nadzoru człowieka.
Pozostają jeszcze koszty wdrożenia takich systemów i wyzwania techniczne towarzyszące ich uruchomieniu na własnej infrastrukturze. To może być barierą dla mniejszych organizacji, które nie posiadają własnych rozbudowanych kompetencji w obszarze IT.
Najważniejsze wnioski
Wykorzystanie agentów AI do ataku nieodwracalnie zmieniło krajobraz cyberbezpieczeństwa nie tylko ilościowo, ale również jakościowo. Agent AI to nie jest zmiana narzędzia – wykorzystanie lepszego młotka w rękach hakerów. Agent AI to robot, który sam decyduje, jakiego młotka potrzebuje, a jeśli napotka na opór, potrafi sięgnąć po wiertarkę. Haker może dzisiaj tylko wskazać cel, a agent AI zmienia się w cały zespół działający (prawie) samodzielnie.
Dotychczasowe doświadczenia z tą technologią pokazują, że tylko sztuczna inteligencja może stawić czoła innej sztucznej inteligencji. Dlatego zespoły SOC powinny już obecnie wdrażać – lub eksperymentować – z nowymi rozwiązaniami w celu budowania większej odporności swojej organizacji. Z drugiej strony sama AI i najbardziej wydajni agenci nie wystarczą – to kombinacja wydajności technologicznej i talentów ludzkich przynosi najlepsze rezultaty.
[1] https://www.grandviewresearch.com/industry-analysis/agentic-ai-cybersecurity-market-report
[2] https://www.kbvresearch.com/agentic-ai-in-cybersecurity-market/
[3] https://www.anthropic.com/news/disrupting-AI-espionage
[4] https://avlab.pl/claude-mythos-model-zbyt-niebezpieczny-zeby-byl-publiczny/
[5] https://www.anthropic.com/glasswing
[6] https://www.eye.security/blog/ai-agents-in-cybersecurity-whats-real-whats-hype-and-what-organisations-should-do-next
[7] https://secureframe.com/blog/social-engineering-statistics
[8] https://cyble.com/knowledge-hub/guide-to-ai-agents-in-cybersecurity/

Data publikacji: 05.05.2026







