Kiedy w 2021 roku po raz pierwszy testowałem w red teamie model uczenia maszynowego do wykrywania anomalii w ruchu sieciowym, traktowałem to bardziej jako ciekawostkę niż realne narzędzie. Dziś, w 2025, nie wyobrażam sobie nowoczesnego SOC-a bez wsparcia sztucznej inteligencji — ale też coraz częściej widzę, jak AI staje się narzędziem w rękach atakujących.
Sztuczna inteligencja nie ma moralności. Nie jest ani dobra, ani zła. Jest po prostu skuteczna. I dlatego w świecie cyberbezpieczeństwa pełni dziś podwójną rolę — broni i bronią się przed sobą.
Jak AI wspiera atakujących
Od kilku lat obserwuję wyraźną zmianę w krajobrazie zagrożeń: większość udanych ataków socjotechnicznych, które analizowałem, ma komponent AI. Nie zawsze zaawansowany, ale często wystarczający, by przechytrzyć ludzką czujność.
Deepfake — socjotechnika 2.0
Czym są: deepfake’y to materiały audio/video/image wygenerowane lub zmodyfikowane przez modele generatywne (GAN, diffusion itp.). Stały się narzędziem do precyzyjnych oszustw socjotechnicznych.
Typowe wektory ataku:
- Fałszywe instrukcje od „przełożonych” (audio, wideo)
- Fałszywe wywiady / oświadczenia pojawiające się w mediach
- Podmiana treści marketingowych / PR przed publikacją
Moje doświadczenie: podczas autoryzowanego testu red teamowego stworzyliśmy audio‑deepfake prezesa z kilku minut publicznego wystąpienia. W warunkach testowych dyrektor finansowy niemal bezwiednie wykonał instrukcję „przetransferuj środki” — dowód, jak skuteczne są dobrze przygotowane deepfake’i w środowisku korporacyjnym.
Obrona: weryfikacja wielokanałowa, mechanizmy kryptograficznego potwierdzania źródła materiałów, detekcja artefaktów z użyciem modeli detekcyjnych oraz szkolenie personelu na przykładach.
Automatyzacja phishingu i spear‑phishingu
Czym jest: AI (NLP, LLM) automatyzuje tworzenie spersonalizowanych wiadomości, analizuje profile ofiar i samodzielnie eskaluje konwersacje.
Skutek praktyczny: zwiększona liczba udanych kliknięć i „odpowiedzi” — testy symulacyjne pokazują znaczący wzrost skuteczności, gdy phishing jest tworzony przez AI zamiast ręcznie.
Moje doświadczenie: w kontrolowanej kampanii symulacyjnej wykorzystaliśmy lokalny model językowy do generowania spersonalizowanych e‑maili. Wskaźnik kliknięć wzrósł znacząco w porównaniu z klasycznymi szablonami. Kluczowy wniosek: język naturalny i kontekst to dziś główne powody sukcesu socjotechniki.
Obrona: wdrażanie AI‑based filtrów anty‑phishingowych, szerokie stosowanie DMARC/SPF/DKIM, regularne symulacje i szkolenia.
Malware evasion — adaptacyjne złośliwe oprogramowanie
Czym jest: złośliwe oprogramowanie wykorzystuje algorytmy uczenia maszynowego, aby modyfikować swoje zachowanie i kod w celu uniknięcia detekcji (polimorfizm, adversarial behaviour).
Przykład: skonstruowany w laboratorium polimorficzny loader sprawdził różne warianty w sandboxie, dopasowywał sekwencję działań i finalnie znalazł wariant, który nie był wykrywany przez testowaną rodzinę EDR.
Obrona: detekcja behawioralna (EDR/XDR), analizatory sandboxowe z ML, monitorowanie anomalii i cyfrowy forensics.
Jak defensywnie wykorzystywać AI w SOC‑ach, EDR‑ach i SIEM‑ach
AI w SOC — korelacja, redukcja szumu i priorytetyzacja
Co robi AI w SOC: analiza ogromnych zbiorów logów, korelacja zdarzeń, redukcja fałszywych pozytywów, automatyczne triage i rekomendacje playbooków.
Korzyści: szybciej wykryte incydenty, mniej czasu traconego na noise, możliwość predykcji ataków bazowanych na anomaliach.
Moje doświadczenie: wdrożenie SIEM z ML w banku spowodowało zmniejszenie liczby daily alerts o rzędy wielkości dzięki automatycznej agregacji i grupowaniu incydentów — analitycy mogli skupić się na rzeczywistych zagrożeniach.
AI w EDR/XDR — detekcja zero‑day i zachowań
Mechanika: EDR wykorzystuje ML do wykrywania sekwencji działań (parent‑child process relationships, nietypowe uruchomienia skryptów, ruchy lateralne).
Przykład praktyczny: AI wykryła nietypowe uruchomienie PowerShella i sekwencję działań sugerującą beacon C2, co umożliwiło zatrzymanie ataku przed fazą eskalacji praw.
AI w SIEM — automatyczne playbooki i SOAR
Jak pomaga: AI umożliwia automatyczne uruchamianie playbooków, wzbogacanie IOC, i generowanie raportów incydentów. To obniża czas reakcji i poprawia powtarzalność działań.
Zastosowanie: integracja SIEM z TheHive/Cortex, MISP, Velociraptor — AI generuje case’y i wykonuje zdalne kolekcje artefaktów.
Realne case‑studies z praktyki
Case 1: Deepfake w testach socjotechnicznych
Scenariusz: red team wygenerował audio‑deepfake prezesa. Cel: sprawdzenie procedur weryfikacji poleceń finansowych.
Wynik: dyrektor finansowy zareagował, co wykazało brak wielokanałowej weryfikacji. Zarekomendowano politykę potwierdzeń i techniczne kontrole (np. wewnętrzne tokeny potwierdzające autentyczność).
Case 2: AI‑wspierana kampania phishingowa (symulacja)
Scenariusz: wewnętrzna symulacja z użyciem lokalnego LLM do generowania spersonalizowanego spear‑phishingu.
Wynik: znaczny wzrost skuteczności kliknięć. Program szkoleniowy został zmodyfikowany, by uczyć rozpoznawania sygnałów kontekstowych (nie tylko „błędów językowych”).
Case 3: Adaptive malware w laboratorium
Scenariusz: analiza polimorficznego loadera testowanego na kilku silnikach EDR.
Wynik: konieczność przestawienia detekcji z sygnatur na behawior, wdrożenie detektorów anomalii i integracja z SIEM, by natychmiast zbierać artefakty i prowadzić badania DFIR.
Katalog narzędzi open‑source (wybrane, praktyczne)
Poniższa lista zawiera narzędzia przydatne do etycznych testów, badań i wdrożeń defensywnych. Używaj ich wyłącznie w środowiskach testowych lub w ramach umów i autoryzacji.
Adversarial ML i testy odporności modeli
- Adversarial Robustness Toolbox (ART) — testowanie odporności modeli ML na ataki adwersarialne; adversarial training. (defence)
- CleverHans — benchmarki i generatory przykładów adwersarialnych. (defence)
- Foolbox — narzędzia do ataków adwersarialnych na modele (white/grey‑box). (defence)
Phishing / socjotechnika (symulacje)
- Gophish — framework do legalnych kampanii phishingowych i raportów. (offense: red team / defense: awareness)
- Moduły LLM offline (lokalne instancje LLaMA, GPT‑style models) — generowanie szablonów w środowisku testowym. (offense: red team / defense: testy)
Deepfake / media manipulation
- DeepFaceLab — research i tworzenie demonstracyjnych artefaktów do testów detekcji. (offense: research / defense: training datasets)
- FaceForensics++ — dataset do trenowania detektorów. (defense)
DFIR / SOC / SIEM / XDR
- Velociraptor — zdalne kolekcje endpointowe, VQL queries. (defense)
- Wazuh — open SIEM + endpoint monitoring; rozszerzalny. (defense)
- MISP — platforma do dzielenia się IOC i wzbogacania danych. (defense)
- TheHive + Cortex — case management i automatyczna analiza obserwabli. (defense)
Wsparcie i biblioteki
- SIGMA rules — uniwersalny format reguł do przenoszenia wykryć między SIEM‑ami. (defense)
- Awesome lists i repozytoria researchowe — kuracje datasetów i narzędzi (użyteczne do researchu). (research)
Uwaga etyczna: każdy użytek narzędzi ofensywnych powinien być umówiony z właścicielem systemu (scope, ROE). Publikacja wyników powinna anonimować dane osobowe i nie zawierać materiałów wygenerowanych bez zgody.
Rekomendacje praktyczne i wnioski
- Zacznij od danych. Modele uczą się na Twoich danych — lepsze telemetrie to lepsze modele. Zadbaj o jakość logów i kontekst (device, user, geolocation).
- Nie zastępuj ludzi, wspieraj ich. AI powinna przyspieszać triage i dawać wskazówki, ale decyzje o eskalacji powinien podejmować człowiek (albo mieć możliwość ręcznego nadpisania).
- Zastosuj podejście warstwowe. AI w detekcji, weryfikacji i w automatyzacji reakcji — ale nie polegaj wyłącznie na jednym modelu.
- Trenuj modele na swoich danych. Gotowe modele chmurowe są pomocne, ale lokalne (dostosowane) modele lepiej rozumieją specyfikę organizacji.
- Audytuj i versionuj modele. Dokumentuj dane treningowe, metody i metryki wydajności — aby móc odtworzyć decyzje.
- Przygotuj procedury na wypadek AI‑driven incidentów. Playbooki na przejęcie konta spowodowane deepfake, phish, lub malware adaptacyjny.
