|

AI w cyberbezpieczeństwie: Wróg czy sprzymierzeniec?

AI-w-cyber

Kiedy w 2021 roku po raz pierwszy testowałem w red teamie model uczenia maszynowego do wykrywania anomalii w ruchu sieciowym, traktowałem to bardziej jako ciekawostkę niż realne narzędzie. Dziś, w 2025, nie wyobrażam sobie nowoczesnego SOC-a bez wsparcia sztucznej inteligencji — ale też coraz częściej widzę, jak AI staje się narzędziem w rękach atakujących.

Sztuczna inteligencja nie ma moralności. Nie jest ani dobra, ani zła. Jest po prostu skuteczna. I dlatego w świecie cyberbezpieczeństwa pełni dziś podwójną rolę — broni i bronią się przed sobą.

Jak AI wspiera atakujących

Od kilku lat obserwuję wyraźną zmianę w krajobrazie zagrożeń: większość udanych ataków socjotechnicznych, które analizowałem, ma komponent AI. Nie zawsze zaawansowany, ale często wystarczający, by przechytrzyć ludzką czujność.

Deepfake — socjotechnika 2.0

Czym są: deepfake’y to materiały audio/video/image wygenerowane lub zmodyfikowane przez modele generatywne (GAN, diffusion itp.). Stały się narzędziem do precyzyjnych oszustw socjotechnicznych.

Typowe wektory ataku:

  • Fałszywe instrukcje od „przełożonych” (audio, wideo)
  • Fałszywe wywiady / oświadczenia pojawiające się w mediach
  • Podmiana treści marketingowych / PR przed publikacją

Moje doświadczenie: podczas autoryzowanego testu red teamowego stworzyliśmy audio‑deepfake prezesa z kilku minut publicznego wystąpienia. W warunkach testowych dyrektor finansowy niemal bezwiednie wykonał instrukcję „przetransferuj środki” — dowód, jak skuteczne są dobrze przygotowane deepfake’i w środowisku korporacyjnym.

Obrona: weryfikacja wielokanałowa, mechanizmy kryptograficznego potwierdzania źródła materiałów, detekcja artefaktów z użyciem modeli detekcyjnych oraz szkolenie personelu na przykładach.

Automatyzacja phishingu i spear‑phishingu

Czym jest: AI (NLP, LLM) automatyzuje tworzenie spersonalizowanych wiadomości, analizuje profile ofiar i samodzielnie eskaluje konwersacje.

Skutek praktyczny: zwiększona liczba udanych kliknięć i „odpowiedzi” — testy symulacyjne pokazują znaczący wzrost skuteczności, gdy phishing jest tworzony przez AI zamiast ręcznie.

Moje doświadczenie: w kontrolowanej kampanii symulacyjnej wykorzystaliśmy lokalny model językowy do generowania spersonalizowanych e‑maili. Wskaźnik kliknięć wzrósł znacząco w porównaniu z klasycznymi szablonami. Kluczowy wniosek: język naturalny i kontekst to dziś główne powody sukcesu socjotechniki.

Obrona: wdrażanie AI‑based filtrów anty‑phishingowych, szerokie stosowanie DMARC/SPF/DKIM, regularne symulacje i szkolenia.

Malware evasion — adaptacyjne złośliwe oprogramowanie

Czym jest: złośliwe oprogramowanie wykorzystuje algorytmy uczenia maszynowego, aby modyfikować swoje zachowanie i kod w celu uniknięcia detekcji (polimorfizm, adversarial behaviour).

Przykład: skonstruowany w laboratorium polimorficzny loader sprawdził różne warianty w sandboxie, dopasowywał sekwencję działań i finalnie znalazł wariant, który nie był wykrywany przez testowaną rodzinę EDR.

Obrona: detekcja behawioralna (EDR/XDR), analizatory sandboxowe z ML, monitorowanie anomalii i cyfrowy forensics.

Jak defensywnie wykorzystywać AI w SOC‑ach, EDR‑ach i SIEM‑ach

AI w SOC — korelacja, redukcja szumu i priorytetyzacja

Co robi AI w SOC: analiza ogromnych zbiorów logów, korelacja zdarzeń, redukcja fałszywych pozytywów, automatyczne triage i rekomendacje playbooków.

Korzyści: szybciej wykryte incydenty, mniej czasu traconego na noise, możliwość predykcji ataków bazowanych na anomaliach.

Moje doświadczenie: wdrożenie SIEM z ML w banku spowodowało zmniejszenie liczby daily alerts o rzędy wielkości dzięki automatycznej agregacji i grupowaniu incydentów — analitycy mogli skupić się na rzeczywistych zagrożeniach.

AI w EDR/XDR — detekcja zero‑day i zachowań

Mechanika: EDR wykorzystuje ML do wykrywania sekwencji działań (parent‑child process relationships, nietypowe uruchomienia skryptów, ruchy lateralne).

Przykład praktyczny: AI wykryła nietypowe uruchomienie PowerShella i sekwencję działań sugerującą beacon C2, co umożliwiło zatrzymanie ataku przed fazą eskalacji praw.

AI w SIEM — automatyczne playbooki i SOAR

Jak pomaga: AI umożliwia automatyczne uruchamianie playbooków, wzbogacanie IOC, i generowanie raportów incydentów. To obniża czas reakcji i poprawia powtarzalność działań.

Zastosowanie: integracja SIEM z TheHive/Cortex, MISP, Velociraptor — AI generuje case’y i wykonuje zdalne kolekcje artefaktów.

Realne case‑studies z praktyki

Case 1: Deepfake w testach socjotechnicznych

Scenariusz: red team wygenerował audio‑deepfake prezesa. Cel: sprawdzenie procedur weryfikacji poleceń finansowych.

Wynik: dyrektor finansowy zareagował, co wykazało brak wielokanałowej weryfikacji. Zarekomendowano politykę potwierdzeń i techniczne kontrole (np. wewnętrzne tokeny potwierdzające autentyczność).

Case 2: AI‑wspierana kampania phishingowa (symulacja)

Scenariusz: wewnętrzna symulacja z użyciem lokalnego LLM do generowania spersonalizowanego spear‑phishingu.

Wynik: znaczny wzrost skuteczności kliknięć. Program szkoleniowy został zmodyfikowany, by uczyć rozpoznawania sygnałów kontekstowych (nie tylko „błędów językowych”).

Case 3: Adaptive malware w laboratorium

Scenariusz: analiza polimorficznego loadera testowanego na kilku silnikach EDR.

Wynik: konieczność przestawienia detekcji z sygnatur na behawior, wdrożenie detektorów anomalii i integracja z SIEM, by natychmiast zbierać artefakty i prowadzić badania DFIR.

Katalog narzędzi open‑source (wybrane, praktyczne)

Adversarial ML i testy odporności modeli

  • Adversarial Robustness Toolbox (ART) — testowanie odporności modeli ML na ataki adwersarialne; adversarial training. (defence)
  • CleverHans — benchmarki i generatory przykładów adwersarialnych. (defence)
  • Foolbox — narzędzia do ataków adwersarialnych na modele (white/grey‑box). (defence)

Phishing / socjotechnika (symulacje)

  • Gophish — framework do legalnych kampanii phishingowych i raportów. (offense: red team / defense: awareness)
  • Moduły LLM offline (lokalne instancje LLaMA, GPT‑style models) — generowanie szablonów w środowisku testowym. (offense: red team / defense: testy)

Deepfake / media manipulation

  • DeepFaceLab — research i tworzenie demonstracyjnych artefaktów do testów detekcji. (offense: research / defense: training datasets)
  • FaceForensics++ — dataset do trenowania detektorów. (defense)

DFIR / SOC / SIEM / XDR

  • Velociraptor — zdalne kolekcje endpointowe, VQL queries. (defense)
  • Wazuh — open SIEM + endpoint monitoring; rozszerzalny. (defense)
  • MISP — platforma do dzielenia się IOC i wzbogacania danych. (defense)
  • TheHive + Cortex — case management i automatyczna analiza obserwabli. (defense)

Wsparcie i biblioteki

  • SIGMA rules — uniwersalny format reguł do przenoszenia wykryć między SIEM‑ami. (defense)
  • Awesome lists i repozytoria researchowe — kuracje datasetów i narzędzi (użyteczne do researchu). (research)

Rekomendacje praktyczne i wnioski

  1. Zacznij od danych. Modele uczą się na Twoich danych — lepsze telemetrie to lepsze modele. Zadbaj o jakość logów i kontekst (device, user, geolocation).
  2. Nie zastępuj ludzi, wspieraj ich. AI powinna przyspieszać triage i dawać wskazówki, ale decyzje o eskalacji powinien podejmować człowiek (albo mieć możliwość ręcznego nadpisania).
  3. Zastosuj podejście warstwowe. AI w detekcji, weryfikacji i w automatyzacji reakcji — ale nie polegaj wyłącznie na jednym modelu.
  4. Trenuj modele na swoich danych. Gotowe modele chmurowe są pomocne, ale lokalne (dostosowane) modele lepiej rozumieją specyfikę organizacji.
  5. Audytuj i versionuj modele. Dokumentuj dane treningowe, metody i metryki wydajności — aby móc odtworzyć decyzje.
  6. Przygotuj procedury na wypadek AI‑driven incidentów. Playbooki na przejęcie konta spowodowane deepfake, phish, lub malware adaptacyjny.

Similar Posts

Leave a Reply

Your email address will not be published. Required fields are marked *