Jak wygląda dzisiejszy wyścig zbrojeń: malware kontra obrona
Nowe oblicze malware: od prostych wirusów do bezplikowych ataków
Malware nie oznacza już wyłącznie wirusa dołączonego do podejrzanego pliku .exe. Dzisiejszy krajobraz zagrożeń jest znacznie bardziej zróżnicowany, a wiele rodzajów złośliwego oprogramowania projektuje się pod kątem omijania klasycznych antywirusów i maksymalizacji zysków przestępców. W praktyce najczęściej pojawiają się:
- Ransomware – szyfruje dane na stacjach roboczych i serwerach, po czym żąda okupu (zwykle w kryptowalutach). Często rozprzestrzenia się bocznie w sieci lokalnej, atakując też kopie zapasowe.
- Trojany zdalnego dostępu (RAT) – umożliwiają przejęcie kontroli nad komputerem: podgląd ekranu, klawiatury, plików. Używane do kradzieży danych, dalszych ataków lub długotrwałego szpiegowania.
- Botnety – sieci zainfekowanych urządzeń (PC, serwery, routery, IoT), wykorzystywane do ataków DDoS, rozsyłania spamu, kopania kryptowalut lub masowego skanowania internetu pod kątem podatności.
- Stealery – wyspecjalizowane w kradzieży haseł, ciasteczek sesyjnych, danych kart płatniczych. Często działają bardzo krótko, wysyłając łup na serwer i samousuwając się z systemu.
- Malware bezplikowy (fileless) – wykorzystuje legalne komponenty systemu (np. PowerShell, WMI, makra Office), działa głównie w pamięci RAM, praktycznie nie zostawiając śladów w plikach na dysku.
Klasyczne antywirusy oparte głównie na sygnaturach mają tu poważny problem. Potrafią wykryć znane próbki malware, ale słabiej radzą sobie z nowymi wariantami, polimorficznym kodem czy atakami, gdzie kluczową rolę odgrywa zachowanie procesu, a nie jego zawartość binarna. W efekcie rośnie rola systemów, które obserwują, jak program się zachowuje, a nie tylko jak wygląda.
Tempo zmian: automatyzacja po stronie atakujących
Cykl życia współczesnego malware jest często liczony w godzinach. Przestępcy używają zautomatyzowanych narzędzi do generowania setek lub tysięcy wariantów tego samego zagrożenia, różniących się drobnymi elementami kodu. Celem jest przejście przez filtry antywirusów, które nie zdążyły jeszcze otrzymać nowych sygnatur.
Rozpowszechnienie się platform „malware-as-a-service” oznacza, że atakujący nie musi już być genialnym programistą. Może kupić dostęp do:
- panelu do generowania nowych próbek ransomware,
- infrastruktury command & control,
- skryptów do automatycznego rozsyłania kampanii phishingowych,
- botów do skanowania luk w popularnych systemach (WordPress, VPN, RDP).
Dodając do tego elementy sztucznej inteligencji (np. generowanie treści maili, analizę tego, które kampanie są skuteczniejsze), przestępcy mogą szybciej testować i optymalizować swoje ataki. Z perspektywy obrony oznacza to, że okno czasowe na reakcję niebezpiecznie się kurczy.
Od pojedynczego ataku do masowej kampanii
Wiele organizacji nadal myśli o cyberzagrożeniach w kategoriach pojedynczego incydentu: „ktoś próbował włamać się na nasz serwer”. Rzeczywistość coraz częściej przypomina jednak masową kampanię marketingową – tyle że po stronie atakujących. Zamiast ręcznie przygotowanego ataku na jeden cel, przestępcy:
- automatycznie skanują tysiące adresów IP i domen,
- sprawdzają znane podatności (np. niezałatane VPN, stare wersje CMS),
- profilują ofiary na podstawie publicznych danych (LinkedIn, strony www, rejestry),
- generują spersonalizowane wiadomości phishingowe dla konkretnych ról (np. księgowość, HR, dyrektorzy).
Każdy pojedynczy atak może wyglądać na „ręcznie zrobiony”, ale w tle działa skrypt lub bot sterowany danymi. Dzięki temu koszt jednej próby po stronie atakującego jest niemal zerowy, a efekt skali pozwala mu zarabiać nawet przy niewielkim współczynniku sukcesu.
Dlaczego człowiek sam nie nadąża za atakami
Nawet w małej organizacji generuje się dziś ogromne ilości logów: z systemów operacyjnych, firewalli, serwerów aplikacyjnych, SaaS, urządzeń użytkowników, systemów poczty. Administrator, który próbuje ręcznie śledzić i analizować wszystkie źródła, w praktyce szybko się poddaje lub reaguje tylko na najbardziej oczywiste problemy.
Typowy problem w działach IT i SOC to „zmęczenie alertowe” – gdy narzędzia bezpieczeństwa generują tak wiele ostrzeżeń, że:
- większość z nich jest ignorowana lub pobieżnie przeglądana,
- wiele prawdziwych incydentów ginie w tłumie fałszywych alarmów,
- reaguje się dopiero, gdy szkody są już widoczne (np. zaszyfrowane pliki, spadek wydajności, skargi klientów).
Stąd presja, by część analizy i decyzji przenieść na algorytmy uczące się, które potrafią selekcjonować informacje, wyłapywać anomalia i automatycznie wykonywać przynajmniej podstawowe akcje obronne. Sztuczna inteligencja nie zastępuje człowieka, ale jest jedyną szansą, by człowiek nie utonął w nadmiarze danych.
Podstawy – co właściwie robi AI w narzędziach bezpieczeństwa
Od sygnatur do analizy zachowania: różnica w podejściu
Klasyczny „silnik antywirusowy” opiera się głównie na sygnaturach, czyli charakterystycznych fragmentach kodu złośliwego oprogramowania. Jeśli plik pasuje do znanej sygnatury, jest blokowany. To działa dobrze na stare, znane zagrożenia, ale ma kilka oczywistych wad:
- nie chroni przed nowymi, nieznanymi wcześniej wariantami,
- wymaga ciągłej aktualizacji bazy sygnatur,
- łatwo go obejść, modyfikując niewielkie fragmenty kodu.
Moduły ML/AI (uczenia maszynowego i szerzej rozumianej sztucznej inteligencji) działają inaczej. Zamiast szukać konkretnych „odcisków palca” pliku, analizują szersze wzorce i zachowania, np.:
- jakie funkcje systemowe wywołuje proces,
- jak intensywnie i w jaki sposób komunikuje się z siecią,
- czy próbuje modyfikować pliki systemowe lub rejestr,
- jakie procesy potomne uruchamia,
- jak wygląda ciąg zdarzeń w czasie (np. nagły wysyp prób logowania, nieudanych połączeń).
Na tej podstawie model ocenia, czy dane zachowanie jest typowe dla legalnego oprogramowania, czy raczej przypomina znane kampanie malware. Tego typu podejście lepiej radzi sobie z nieznanymi wariantami oraz atakami bezplikowymi, ponieważ liczy się co program robi, a nie tylko jak wygląda.
Uczenie nadzorowane i nienadzorowane: dwa światy detekcji
W narzędziach cyberbezpieczeństwa stosuje się głównie dwa rodzaje podejścia: uczenie nadzorowane i uczenie nienadzorowane.
Uczenie nadzorowane bazuje na oznaczonych danych: zestawie próbek, które ktoś wcześniej sklasyfikował jako „złośliwe” lub „bezpieczne”. Model uczy się rozpoznawać cechy charakterystyczne obu klas. Stosuje się je m.in. w:
- klasyfikacji plików jako malware / nie-malware,
- rozpoznawaniu typów ataków (phishing, brute-force, skanowanie portów),
- filtrowaniu spamu.
Uczenie nienadzorowane nie wymaga etykiet. Model analizuje dane, szukając naturalnych klastrów i anomalii. W bezpieczeństwie wykorzystuje się je do:
- wykrywania nietypowych zachowań użytkowników (np. logowanie z nietypowego kraju, pory, urządzenia),
- identyfikowania anomalii w ruchu sieciowym (nagłe wzrosty, nietypowe kierunki transmisji),
- sygnalizowania „czegoś nowego”, co nie było wcześniej widoczne w środowisku.
Praktycznie wszystkie poważniejsze platformy bezpieczeństwa łączą oba podejścia, tworząc hybrydowe modele zdolne reagować zarówno na znane kampanie, jak i na zupełnie nowe wzorce aktywności.
Skąd biorą się dane do trenowania modeli
Sztuczna inteligencja w cyberbezpieczeństwie jest tak dobra, jak dane, na których się uczy. Źródła takich danych to przede wszystkim:
- Logi systemowe – zdarzenia z systemów operacyjnych, usług katalogowych (np. Active Directory), aplikacji biznesowych.
- Próbki malware – zebrane przez firmy antywirusowe, zespoły CERT, systemy honeypot, piaskownice (sandboxy) analizujące podejrzane pliki.
- Ruch sieciowy – z firewalli, IDS/IPS, proxy, rozwiązań monitorujących ruch na poziomie sieci lokalnej i wyjścia do internetu.
- Zachowanie użytkowników – dane o logowaniach, sesjach, używanych aplikacjach, częstotliwości i godzinach pracy.
- Źródła zewnętrzne – dane wywiadowcze o zagrożeniach (threat intelligence), bazy złośliwych IP, domen, hashe znanych malware.
Duzi dostawcy mają przewagę skali: ich modele uczą się na danych z milionów urządzeń i tysięcy klientów. Mniejsza organizacja, korzystając z takiego rozwiązania w chmurze, „dziedziczy” część tego doświadczenia bez inwestowania w własny, rozbudowany zespół analityków.
Ograniczenia i błędy: AI nie jest magiczną tarczą
Algorytmy uczące się potrafią robić rzeczy, na które człowiekowi zabrakłoby czasu lub cierpliwości, ale mają też poważne ograniczenia. Najważniejsze z nich z punktu widzenia praktyka:
- Śmieciowe dane => śmieciowe predykcje – jeśli model uczy się na niepełnych lub błędnych danych, będzie generował błędne alarmy albo przegapi istotne ataki.
- Uprzedzenia modeli – model może uznać pewne typy ruchu, aplikacji czy zachowań za „domyślnie bezpieczne” lub „domyślnie podejrzane”, jeśli tak wyglądała próbka treningowa. To prowadzi do niewidocznych „dziur” w detekcji.
- Fałszywe alarmy – nadwrażliwy model zasypie dział IT alertami, które nie oznaczają realnego zagrożenia. Po kilku tygodniach nikt nie traktuje ich poważnie.
- Brak kontekstu biznesowego – AI nie wie, że akurat dziś księgowość robi inwentaryzację i generuje nietypowo duży ruch w systemie finansowym, albo że pracownik jedzie w delegację do kraju, z którego zwykle nikt się nie loguje.
Dlatego algorytmy uczące się muszą być osadzone w sensownych politykach bezpieczeństwa, wspierane przez ludzi, którzy rozumieją zarówno technikę, jak i realia firmy. Bez tego szybko zamienią się w kolejne źródło hałasu, a nie realnego wsparcia.

Jak cyberprzestępcy używają AI – ciemna strona algorytmów
Phishing nowej generacji: język naturalny, personalizacja, przekonujące treści
Największy zysk z AI po stronie przestępców widać w obszarze socjotechniki. Narzędzia generujące tekst potrafią tworzyć maile i wiadomości w języku naturalnym, bez rażących błędów ortograficznych i stylistycznych, dopasowane do profilu ofiary. Znika charakterystyczny sygnał „to chyba automat z translatora”.
Przykładowe zastosowania AI w phishingu:
- generowanie spersonalizowanych maili do konkretnych ról (np. „do księgowej”, „do specjalisty ds. kadr”),
- tworzenie przekonujących pretekstów, bazujących na publicznych informacjach o firmie (nowe projekty, zmiany kadrowe, aktualne przetargi),
- automatyczne modyfikowanie treści kampanii w zależności od skuteczności (A/B testy na ogromną skalę),
- tworzenie fałszywych stron logowania, które wizualnie idealnie naśladują oryginalne serwisy.
Dla małej lub średniej firmy oznacza to, że „dziwne maile”, które kiedyś łatwo było wyłapać, stają się znacznie bardziej wiarygodne. Szkolenia użytkowników i filtracja poczty muszą zostać podniesione na wyższy poziom, bo przestępcy mają teraz narzędzia jakościowo lepsze niż kilka lat temu.
Deepfake głosu i wideo w wyłudzaniu pieniędzy
Technologia deepfake pozwala na generowanie głosu i wideo, które imitują prawdziwe osoby. Do tej pory było to głównie ciekawostką z internetu, ale coraz częściej pojawia się w scenariuszach oszustw finansowych.
Automatyzacja ataków: skanowanie, exploitowanie, lateral movement
Drugim obszarem, w którym cyberprzestępcy mocno korzystają z algorytmów, jest automatyzacja całego łańcucha ataku. Dawniej skanowanie sieci, wyszukiwanie podatności czy próby włamań wymagały sporo ręcznej pracy. Dziś znaczną część tego procesu da się zautomatyzować i zoptymalizować, używając uczenia maszynowego.
Przykładowe zastosowania:
- inteligentne skanowanie – systemy, które analizują publiczne informacje (DNS, portale społecznościowe, rejestry domen) i „podpowiadają”, które cele są najłatwiejsze i najbardziej opłacalne,
- dobór exploitów – modele analizujące wersje systemów i aplikacji, a potem automatycznie wybierające najbardziej prawdopodobne do zadziałania exploity,
- uczące się narzędzia do lateral movement – skrypty, które obserwują odpowiedzi systemów i dynamicznie modyfikują taktykę poruszania się po sieci w oparciu o zebrane dane.
Dla obrońcy oznacza to, że ataki stają się mniej „szablonowe”, a bardziej adaptacyjne. Standardowe reguły typu „zablokuj 100 nieudanych logowań pod rząd” nie wystarczą, gdy atakujący dostosowuje tempo i wzorzec prób tak, aby nie wyróżniać się na tle codziennego szumu.
Generowanie i modyfikacja malware „na żądanie”
Algorytmy mogą wspierać przestępców także po stronie samego złośliwego oprogramowania. Nie chodzi tylko o pisanie kodu od zera, ale o masową, automatyczną modyfikację istniejących rodzin malware, tak aby ciągle wymykały się sygnaturom i prostym modelom detekcji.
Najczęstsze techniki to m.in.:
- polimorfizm wspierany ML – automatyczne generowanie nowych wariantów binariów lub skryptów, które działają tak samo, ale wyglądają inaczej z perspektywy antywirusa,
- kreatory makr i skryptów – narzędzia, które na podstawie kilku parametrów (cel, system, wektor wejścia) generują gotowe makra Office, skrypty PowerShell czy VBA,
- optymalizacja pod kątem detekcji – testowanie wariantów malware w usługach typu „AV sandbox” i automatyczne poprawianie tych, które zostały wykryte, aż do uzyskania wersji przechodzącej przez większość skanerów.
W praktyce prowadzi to do lawinowego wzrostu liczby „unikalnych” próbek, choć w rzeczywistości różnią się one od siebie kilkoma procentami kodu. Dla klasycznych systemów opartych na sygnaturach jest to poważny problem, bo wymagałoby to nieustannego dopisywania nowych wzorców.
Ataki na same modele: trojanizacja i zatruwanie danych
Coraz popularniejszym kierunkiem jest atakowanie nie tylko infrastruktury czy użytkowników, ale samych modeli ML. Jeżeli ochrona opiera się na algorytmach, ich kompromitacja otwiera zupełnie nową ścieżkę nadużyć.
Stosowane są m.in. takie scenariusze:
- trojanizacja modelu – wprowadzenie do modelu „tylnych drzwi”, które sprawiają, że określone typy ruchu lub pliki zawsze uznawane są za bezpieczne,
- poisoning danych – umieszczanie w logach lub strumieniach danych dużej liczby starannie przygotowanych przykładów, które przesuwają granicę pomiędzy tym, co uznawane jest za normalne, a tym, co podejrzane,
- adversarial examples – celowo modyfikowane próbki (np. pliki, pakiety sieciowe), które wyglądają dla człowieka tak samo, a dla modelu – zupełnie inaczej, omijając detekcję.
Tego typu ataki wymagają wyższego poziomu kompetencji technicznych, ale stawka jest duża: jeśli uda się zneutralizować lub „ogłupić” model ochronny, napastnik ma dużo łatwiejszą drogę do celu. Dla wielu organizacji to argument, aby trzymać kluczowe modele i dane treningowe pod szczególnym nadzorem, zbliżonym do ochrony systemów finansowych czy administracji tożsamością.
Gdzie AI faktycznie wygrywa z malware – mocne strony
Wykrywanie ataków bezplikowych i „cichych” kampanii
Jednym z obszarów, w których algorytmy naprawdę robią różnicę, jest detekcja ataków bezplikowych i długotrwałych, mało widocznych kampanii (tzw. low & slow). Klasyczne antywirusy patrzą głównie na pliki – jeśli atak opiera się na skryptach w pamięci, legalnych narzędziach (PowerShell, PsExec, WMI) i ostrożnych zmianach w konfiguracji, ich skuteczność gwałtownie spada.
Modele analizujące zachowanie:
- patrzą na ciągi zdarzeń, a nie pojedyncze logi,
- łączą informacje z różnych systemów (stacje robocze, serwery, sieć, Active Directory),
- potrafią zauważyć wzorzec „powolnego” przejmowania środowiska – kilka nietypowych logowań, niewielkie zmiany uprawnień, dyskretne skanowanie zasobów.
Przykład z praktyki: w średniej firmie usługowej system EDR oparty na ML wykrył, że na jednej z mniej istotnych maszyn helpdesku co kilka dni uruchamiane są nietypowe komendy PowerShell, a następnie wykonywany jest skan udziałów sieciowych. Dla człowieka w natłoku logów byłoby to praktycznie niewidoczne, dla modelu – ewidentny odstęp od normy.
Skalowanie analizy: od setek do milionów zdarzeń dziennie
Nawet najlepszy analityk może przejrzeć tylko ograniczoną liczbę alertów dziennie. W średniej organizacji generuje się ich często o rząd wielkości więcej. Tu właśnie algorytmy dają najwięcej: potrafią przeżuć ogromne ilości danych i wstępnie posortować je pod kątem priorytetu.
Typowy schemat wygląda tak:
- modele klasyfikują zdarzenia według ryzyka (niski, średni, wysoki, krytyczny),
- łączą pozornie niezwiązane incydenty w pojedyncze „incydenty skorelowane”,
- przygotowują analitykowi kontekst: oś czasu, listę zaangażowanych urządzeń i kont, powiązane reguły.
Efekt jest dość prosty do policzenia: jeśli z 10 000 dziennych alertów otrzymujesz do ręcznej weryfikacji 30–50 skorelowanych incydentów, rośnie szansa, że ktoś faktycznie przejrzy każdy z nich i podejmie decyzję. To nie magia, tylko zmiana proporcji między hałasem a sygnałem.
Automatyczne reakcje na typowe scenariusze
Drugą mocną stroną AI jest automatyzacja reakcji na powtarzalne, dobrze opisane typy zagrożeń. Podstawowe scenariusze, takie jak ransomware, podejrzenie przejęcia konta czy wykrycie malware na stacji roboczej, można zamknąć w półautomatycznych playbookach.
Typowe działania, które da się delegować na system:
- izolacja zainfekowanej stacji roboczej od sieci,
- wymuszenie zmiany hasła i wylogowanie aktywnych sesji,
- zablokowanie ruchu do podejrzanego adresu IP lub domeny,
- przywrócenie plików z najnowszej kopii zapasowej, jeśli model oceni, że zaszyfrowanie jest wynikiem ransomware.
Klucz w tym, aby algorytmy nie działały całkowicie „na ślepo”. Dobrą praktyką jest wprowadzenie progów zaufania: poniżej pewnej pewności model generuje tylko alert, powyżej – wykonuje akcję automatyczną, a w strefie pośredniej pyta człowieka o zgodę. Dzięki temu unika się paraliżu biznesu przez nadgorliwe reguły.
Lepsze wykorzystanie istniejącej infrastruktury
Wiele firm ma już firewalle, systemy SIEM, EDR czy rozwiązania pocztowe, ale używa ich w ułamku możliwości. AI pozwala wyciągnąć więcej z tego, co już stoi w serwerowni lub chmurze, bez natychmiastowych, dużych inwestycji sprzętowych.
Przykłady takich „taniej poprawionej” ochrony:
- dodanie warstwy analizy behawioralnej do istniejącego EPP/antywirusa na stacjach roboczych,
- uruchomienie modułu UEBA (User and Entity Behavior Analytics) w posiadanym już SIEM, aby lepiej wykrywać nadużycia kont,
- wykorzystanie funkcji analizy treści (NLP) w bramce pocztowej do lepszego wyłapywania spear-phishingu.
Często są to funkcje dostępne w wyższych planach licencyjnych lub jako dodatki. Z punktu widzenia kosztów bardziej opłaca się włączyć dodatkowy moduł u obecnego dostawcy, niż wdrażać zupełnie nowy system tylko po to, by zyskać kilka algorytmów ML.

Słabe punkty i pułapki AI w cyberbezpieczeństwie
Zbyt duże zaufanie do „czarnej skrzynki”
Najczęstszy błąd organizacji polega na traktowaniu modelu jako nieomylnego orakla. Algorytm wskazuje, że incydent jest „niski” – więc nikt się nim nie zajmuje. Algorytm nie podnosi alarmu – więc zakłada się, że wszystko jest w porządku. To prosta droga do przeoczenia poważnych ataków.
Modele, zwłaszcza te głębokie, działają jak czarne skrzynki. Bez dodatkowych mechanizmów wyjaśnialności (XAI) trudno ustalić, dlaczego uznały coś za bezpieczne lub złośliwe. W praktyce potrzebne są:
- regularne przeglądy jakości detekcji – np. raz na kwartał ocena, jak model poradził sobie z wybranymi incydentami,
- możliwość ręcznego nadpisywania decyzji (whitelisting/blacklisting) z sensownym procesem akceptacji,
- logowanie decyzji modelu i kontekstu, aby można je było potem przeanalizować.
Bez tego organizacja przerzuca odpowiedzialność z ludzi na algorytm, ale nie zyskuje realnej kontroli nad ryzykiem.
Fałszywe pozytywy i „zmęczenie alertami”
Nadmiar alertów to nie tylko problem klasycznych systemów regułowych. Źle skalibrowane modele ML potrafią produkować tysiące fałszywych pozytywów. Efekt uboczny jest dobrze znany: po kilku tygodniach zespół zaczyna ignorować komunikaty, a realne incydenty giną w tłumie.
Najczęstsze przyczyny to:
- modele trenowane na zupełnie innym profilu organizacji niż docelowa (np. dane z korporacji vs. realia małej firmy produkcyjnej),
- brak fazy „uczenia środowiska”, w której system przez kilka tygodni tylko obserwuje ruch i buduje punkt odniesienia,
- „fabryczne” ustawienia bez korekty progów czułości i priorytetów.
Pragmatyczne podejście: traktować wdrożenie AI jak proces strojenia, a nie „instalację oprogramowania”. Pierwsze tygodnie powinny być przeznaczone głównie na kalibrację – kto tego etapu nie przejdzie, zwykle kończy z wyłączonymi funkcjami ML, bo „tylko przeszkadzają”.
Zależność od dostawcy i zamknięte ekosystemy
Wielu producentów buduje swoje rozwiązania w sposób silnie zamknięty: modele działają wyłącznie w ich chmurze, dostęp do surowych danych jest ograniczony, eksport wyników – minimalny. Z perspektywy bezpieczeństwa i budżetu ma to dwie konsekwencje:
- trudno samodzielnie zweryfikować jakość i uprzedzenia modelu,
- zmiana dostawcy po kilku latach oznacza konieczność „nauki wszystkiego od zera” i potencjalne okresy obniżonej ochrony.
Jeśli to możliwe, sensownie jest wybierać rozwiązania, które:
- pozwalają eksportować przynajmniej część danych i metryk do zewnętrznego SIEM lub lake’a,
- udostępniają informacje o logice działania (np. które cechy zaważyły na decyzji modelu),
- integrują się z narzędziami innych producentów poprzez API, a nie tylko w ramach jednego „super-pakietu”.
Nie zawsze da się to osiągnąć przy minimalnym budżecie, ale nawet podstawowe wymagania integracyjne w przetargu czy zapytaniu ofertowym pomagają uniknąć najbardziej zamkniętych ekosystemów.
Koszty ukryte: ludzie, procesy, utrzymanie
Same licencje na rozwiązania z AI to często mniejsza część kosztu. Do tego dochodzą:
- czas ludzi na wdrożenie i kalibrację,
- przygotowanie i porządkowanie źródeł danych (logi, integracje),
- monitorowanie jakości modeli i ich regularne dostrajanie.
Model bez danych jest bezużyteczny
Narzędzie z AI nie zadziała lepiej niż dane, którymi je karmisz. Jeśli logi są niekompletne, niespójne czasowo albo znikają po kilku dniach, nawet najlepszy algorytm zacznie generować losowe wrażenia zamiast sensownych wniosków.
Typowe problemy, które wychodzą dopiero po wdrożeniu:
- brak logów z kluczowych systemów (np. ERP, VPN, kontrolery domeny),
- różne formaty i strefy czasowe, które utrudniają korelację zdarzeń,
- agresywna rotacja logów „bo brakuje miejsca na dysku”,
- brak danych o kontekście biznesowym (kto jest VIP-em, które serwery są krytyczne).
Rozsądny krok przed inwestycją w AI to mini-audyt danych: lista źródeł logów, czas retencji, sposób centralizacji. Często wystarczy wydłużyć retencję najważniejszych dzienników i dopiąć brakujące integracje, żeby algorytm nagle „zobaczył” całe środowisko zamiast jego losowych wycinków.
W niewielkich organizacjach opłaca się zacząć od jednego, dobrze ogarniętego strumienia danych (np. logi z VPN + kontrolerów domeny) i dopiero później dokładać kolejne. Przeżuwalna ilość informacji, ale lepiej opisana, bywa cenniejsza niż morze śmieci.
Przeciwnik też testuje Twoje modele
Zaawansowani atakujący zakładają, że po drugiej stronie stoi nie tylko człowiek, ale i algorytm. Testują, jak system reaguje na małe zmiany zachowania, szukają progów czułości, sprawdzają, co da się „przepchnąć” bez podniesienia alarmu.
Przykładowe techniki omijania modeli:
- powolna eskalacja – zamiast masowych zmian uprawnień w jeden dzień, pojedyncze modyfikacje rozciągnięte na tygodnie,
- maskowanie się w szczytach ruchu – wykonywanie nietypowych operacji w godzinach backupów lub aktualizacji, gdy środowisko i tak „wariuje”,
- drobne modyfikacje malware – tak, by każda próbka była inna, ale funkcjonalnie identyczna, co utrudnia klasyczną detekcję na podstawie sygnatur i hashy.
Obroną nie jest „kolejny model”, tylko zmienność i testy. Prosty, ale skuteczny zabieg to cykliczne symulacje ataków (purple teaming lub tańsze testy scenariuszowe) i obserwowanie, które elementy łańcucha ataku przeszły pod radarem. Jeśli zawsze te same – to dobry sygnał, że model ma ślepe pole.
Jak zacząć z AI w bezpieczeństwie przy ograniczonym budżecie
Wykorzystaj to, za co już płacisz
Zanim pojawi się pomysł na nowy „magiczny” produkt, opłaca się sprawdzić, jakie funkcje AI/ML są już dostępne w obecnych licencjach. Wielu dostawców chowa je w wyższych planach lub jako moduły, które da się włączyć jednym przełącznikiem – bez wymiany całej infrastruktury.
Podstawowy plan działania:
- Lista obecnych narzędzi – AV/EPP, EDR, firewall, bramka pocztowa, SIEM, usługi w chmurze (Microsoft 365, Google Workspace, AWS, Azure).
- Sprawdzenie katalogu funkcji – co ma w nazwie „behavioral”, „ML”, „UEBA”, „anomaly detection”, „threat intelligence”.
- Kontakt z obecnym dostawcą – proste pytanie: „Jakie funkcje AI mamy w naszym planie i czego realnie możemy użyć bez dopłaty?”.
Często okazuje się, że minimalna zmiana planu (np. przejście na wyższą wersję pakietu biurowego) daje w cenie całkiem sensowny moduł ochrony poczty czy endpointów oparty na ML. To tańsze niż kupowanie osobnego rozwiązania tylko po to, żeby „mieć AI”.
Priorytet: poczta i tożsamość
Jeśli budżet jest cienki, najbardziej opłacalne są dwa obszary: poczta i tożsamość użytkowników. To tam zaczyna się większość skutecznych ataków.
Przy ograniczonych środkach warto skupić się na:
- AI w ochronie poczty – moduły analizujące treść wiadomości (NLP) pod kątem phishingu, nietypowych próśb o przelewy, podszywania się pod zarząd,
- detekcja anomalii logowań – modele wbudowane w usługi chmurowe, które wykrywają logowania z nietypowych lokalizacji, urządzeń czy w dziwnych godzinach,
- automatyczne polityki dostępu warunkowego – na bazie ryzyka sesji (np. wymuś MFA lub blokadę przy wysokim ryzyku z oceną modelu).
Nawet prosty scenariusz typu: „jeśli system ocenia logowanie jako wysokie ryzyko – wymuś dodatkowe uwierzytelnienie” potrafi odciąć znaczną część ataków na przejęte hasła bez angażowania SOC-u.
Start od jednego, wąskiego use case’u
Największy błąd przy ograniczonym budżecie to próba „zrobienia wszystkiego naraz”: SIEM, EDR, SOAR, klasyfikacja DLP i jeszcze chatbot do obsługi incydentów. Znacznie rozsądniej jest wybrać jeden problem, który realnie boli, i dobrać pod niego małe, ale konkretne rozwiązanie z AI.
Przykładowe, wykonalne na start scenariusze:
- redukcja phishingu kierowanego na księgowość i zarząd,
- wczesne wykrywanie przejętych kont VPN lub kont w M365,
- automatyczna izolacja stacji z podejrzeniem ransomware.
Wybór jednego obszaru pozwala:
- jasno zmierzyć efekt (np. spadek liczby skutecznych phishingów),
- ograniczyć czas wdrożenia i kalibracji,
- zebrać argumenty biznesowe na kolejne, większe projekty.
W średniej firmie handlowej sensownie zadziałał prosty krok: dołożenie modułu AI do istniejącej bramki pocztowej, ale tylko dla działów finansowych i zarządu. Ochrona kluczowych osób wzrosła, koszt licencji pozostał umiarkowany, a resztę użytkowników objęto dopiero w kolejnym etapie.
Usługi zarządzane zamiast własnego SOC
Budowa własnego zespołu monitorującego 24/7 to luksus, na który większość firm nie może sobie pozwolić. Dla nich bardziej opłacalnym wariantem są usługi zarządzane (MDR/XDR/SOC-as-a-Service), w których dostawca udostępnia swoje narzędzia AI i ludzi „w pakiecie”.
W praktyce wygląda to tak:
- instalujesz lekkiego agenta lub konfigurujesz integracje logów,
- dostawca uruchamia swoje modele detekcji,
- zespół analityków po jego stronie filtruje alerty i zgłasza Ci tylko istotne incydenty, często z gotową rekomendacją reakcji.
Kluczowe pytania przy wyborze takiej usługi:
- jakie źródła danych są w cenie (endpointy, poczta, chmura, VPN),
- co jest automatyzowane, a co trafia do człowieka,
- jak szybko reagują na incydent (SLA w godzinach, nie w dniach),
- jaki raport z działania modeli dostajesz (przykłady wykrytych anomalii, wskaźniki fałszywych alarmów).
W wielu przypadkach koszt MDR/XDR dla kilkudziesięciu–kilkuset stacji jest niższy niż pensja jednego doświadczonego analityka bezpieczeństwa. Dla organizacji bez działu SOC to często jedyny realny sposób na wykorzystanie AI w detekcji 24/7.
Tanie „boostery” – skrypty i automatyzacje wokół AI
Narzędzie z AI zyskuje na wartości, gdy dookoła niego pojawiają się małe, sprytne automatyzacje. Nie trzeba od razu wdrażać pełnego SOAR-a; często wystarczą skrypty PowerShell, Python lub lekkie workflowy wbudowane w narzędzie.
Proste, a skuteczne przykłady:
- skrypt, który po wykryciu incydentu wysokiego ryzyka automatycznie zbiera podstawowe artefakty z maszyny (listę procesów, otwarte porty, wersje kluczowych aplikacji),
- webhook z systemu EDR do komunikatora firmowego – incydenty krytyczne trafiają na dedykowany kanał zespołu IT,
- półautomatyczny playbook: „alert o podejrzeniu przejęcia konta → powiadomienie użytkownika SMS-em + wymuszenie zmiany hasła przy następnym logowaniu”.
Takie dodatki rzadko wymagają dużych inwestycji, a wyraźnie skracają czas reakcji. Dają też możliwość „doprogramowania” zachowań, które lepiej pasują do specyfiki firmy niż gotowe playbooki od producenta.
Szkolenie ludzi pod to, co podpowiada model
Bez podstawowej świadomości wśród użytkowników i działu IT algorytm będzie ciągle walczył z tym samym zestawem błędów ludzkich. Kosztownych szkoleń z górnej półki da się często uniknąć, jeśli treść dopasuje się do tego, co naprawdę wychodzi z alertów.
Praktyczny sposób na tanie, ale skuteczne szkolenia:
- raz na kwartał zebrać kilka realnych incydentów wykrytych przez system (anonimizując dane wrażliwe),
- przygotować krótkie omówienie: jak wyglądał atak, co uruchomiło alert, co można było zrobić wcześniej, żeby do niego nie doszło,
- omówić to z kluczowymi grupami (helpdesk, administratorzy, księgowość, sprzedaż),
- połączyć z krótkim testem socjotechniki – np. kampanią phishingową.
Taki format lepiej łączy technikę z praktyką biznesową niż ogólne prezentacje o cyberzagrożeniach. AI podpowiada, gdzie są realne luki w zachowaniu ludzi; szkolenie adresuje już konkretne błędy, a nie hipotetyczne scenariusze.
Stopniowe podnoszenie poziomu „agresywności” AI
Na starcie rozsądniej jest, aby algorytmy więcej obserwowały niż blokowały. Zbyt szybkie włączenie agresywnych polityk (automatyczne izolacje, blokady kont, masowe akcje na stacjach) kończy się zwykle frustracją użytkowników i presją, by „to całe AI” wyłączyć.
Bezpieczny schemat wdrożeniowy wygląda następująco:
- Faza 1 – tryb monitoringu: system generuje alerty, ale niczego sam nie blokuje. Zespół zbiera statystyki, kalibruje progi, dopracowuje wyjątki.
- Faza 2 – reakcje na wysokie ryzyko: automatyczne akcje tylko dla incydentów o najwyższym poziomie pewności modelu, reszta – ręczna akceptacja.
- Faza 3 – rozszerzanie zaufania: stopniowe dodawanie kolejnych automatyzacji tam, gdzie przez dłuższy czas nie było fałszywych blokad.
Taki model „schodków” pozwala organizacji przyzwyczaić się do algorytmów i jednocześnie budować zaufanie na realnych wynikach, a nie na obietnicach producenta.






