Raport o Zagrożeniach w Chmurze 2026: Sztuczna Inteligencja Generatywna Podwaja Ryzyko Wycieku Danych

Odkryj najnowsze trendy cyberbezpieczeństwa 2026. Użycie AI wzrosło 3-krotnie, naruszenia danych 2-krotnie. Sprawdź, jak chronić firmę przed zagrożeniami.

3/3/2026

robo hand with shield above it
robo hand with shield above it
Wprowadzenie: Nowa Era Zagrożeń Cybernetycznych
Raport Netskope o zagrożeniach w chmurze za 2026 rok ujawnia fundamentalną zmianę w krajobrazie cyberbezpieczeństwa. Gwałtowna adopcja generatywnej sztucznej inteligencji (genAI) nie zastąpiła istniejących zagrożeń, lecz dodała nowe, złożone warstwy ryzyka do już istniejących wyzwań bezpieczeństwa. Jest to zjawisko, które eksperci nazywają "addytywnym modelem zagrożeń" - gdzie nowe technologie nie eliminują starych problemów, ale tworzą dodatkowe powierzchnie ataku.
W 2025 roku byliśmy świadkami bezprecedensowego tempa adopcji narzędzi AI w środowisku korporacyjnym. Organizacje na całym świecie zmagały się z wyzwaniami związanymi z bezpieczeństwem danych w chmurze, uporczywymi kampaniami phishingowymi oraz malware rozprzestrzeniającym się przez zaufane kanały. Wprowadzenie szerokiego wykorzystania AI, szczególnie zjawiska "shadow AI" oraz powstających systemów "agentic AI", nałożyło nowe i skomplikowane ryzyka ekspozycji danych na współczesne środowisko korporacyjne.
Ten kompleksowy raport dostarcza analizy najważniejszych trendów z 2025 roku i służy jako krytyczny przegląd ewoluującego krajobrazu zagrożeń na 2026 rok. Podkreśla addytywną naturę ryzyk, z którymi zespoły bezpieczeństwa muszą się teraz mierzyć. Nie tylko muszą zarządzać istniejącymi zagrożeniami, ale także nowymi ryzykami tworzonymi przez sztuczną inteligencję generatywną.
Kluczowe Odkrycia Raportu
Najbardziej natychmiastowym ryzykiem specyficznym dla genAI jest znaczący wzrost ekspozycji danych. Wskaźnik naruszeń polityki bezpieczeństwa związanych z wykorzystaniem aplikacji genAI podwoił się w zeszłym roku. Ta przyspieszona adopcja jest często napędzana przez shadow AI - wykorzystanie przez pracowników niezarządzanych usług i osobistych kont - co skutkuje wyciekiem wysoce wrażliwych materiałów, w tym kodu źródłowego, danych regulowanych i własności intelektualnej.
Jednocześnie operacyjne wprowadzenie systemów agentic AI, które wykonują złożone, autonomiczne działania na zasobach wewnętrznych i zewnętrznych, tworzy rozległą, nową powierzchnię ataku. Wymaga to fundamentalnej ponownej oceny perametrów bezpieczeństwa i modeli zaufania w organizacjach.
Eksplozja Wykorzystania AI w Firmach
W ciągu ostatniego roku przedsiębiorstwa nadal zmagały się z tym, jak pracownicy wykorzystują narzędzia sztucznej inteligencji generatywnej. Podobnie jak w początkowych dniach SaaS i platform chmurowych, wielu pracowników zaczęło eksperymentować z aplikacjami AI na własną rękę, zazwyczaj logując się za pomocą osobistych kont na długo przed tym, zanim zespoły IT lub bezpieczeństwa wdrożyły zatwierdzone przez firmę narzędzia genAI wśród pracowników.
Liczba pracowników korzystających z aplikacji AI jak ChatGPT czy Google Gemini wzrosła trzykrotnie w ciągu ostatniego roku. Co jeszcze bardziej znaczące, liczba zapytań (promptów) wysyłanych do tych aplikacji wzrosła aż sześciokrotnie - z 3 000 do 18 000 miesięcznie w przeciętnej organizacji. W górnym kwartylu organizacji liczba ta przekracza 70 000 promptów miesięcznie, a w top 1% organizacji przekracza 1,4 miliona promptów miesięcznie.
Problem Shadow AI i Przejście na Konta Zarządzane
Ten wzorzec doprowadził do powstania tego, co obecnie nazywamy shadow AI - wykorzystania AI, które występuje poza widocznością organizacyjną, polityką i kontrolą. Nawet przy szybkim dążeniu do licencjonowania korporacyjnego i ram zarządzania, nieuregulowany dostęp jest nadal szeroko rozpowszechniony. Wewnętrzny monitoring w organizacjach pokazuje, że znaczna część pracowników polega na narzędziach takich jak ChatGPT, Google Gemini i Copilot, używając poświadczeń niezwiązanych z ich organizacją.
Dobra wiadomość jest taka, że to zachowanie zmienia się w dobrym kierunku. Użycie kont osobistych znacznie spadło w ciągu ostatniego roku - procent użytkowników AI, którzy używają osobistych aplikacji AI, spadł z 78% do 47%. Równolegle, procent osób korzystających z kont zarządzanych przez organizację wzrósł z 25% do 62%, sygnalizując, że więcej firm standaryzuje dostęp do AI i dojrzewa w swoim nadzorze.
Jednak istnieje rosnące nakładanie się osób, które przełączają się między kontami osobistymi a korporacyjnymi, rosnąc z 4% użytkowników do 9% użytkowników. To nakładanie się wskazuje, że przedsiębiorstwa nadal mają pracę do wykonania, aby zapewnić poziomy wygody lub funkcje, których użytkownicy pragną. Przejście na konta zarządzane jest zachęcające, jednak podkreśla również, jak szybko zachowanie pracowników może wyprzedzić zarządzanie. Organizacje, które chcą zmniejszyć ekspozycję, będą potrzebować jaśniejszych polityk, lepszego provisioningu i ciągłej widoczności tego, jak narzędzia AI są faktycznie używane w całej sile roboczej.
Najpopularniejsze Aplikacje AI w Organizacjach
W ciągu ostatniego roku kilka aplikacji genAI stało się podstawą w różnych regionach i branżach. ChatGPT zarejestrował adopcję na poziomie 77%, a następnie Google Gemini z 69%. Microsoft 365 Copilot osiągnął 52% adopcji, pokazując silne zainteresowanie funkcjami AI zintegrowanymi z codziennymi środowiskami pracy. Poza tymi wiodącymi narzędziami, organizacje również szeroko wykorzystywały różne wyspecjalizowane i wbudowane aplikacje AI dostosowane do potrzeb operacyjnych, analitycznych i związanych z przepływem pracy.
Perplexity również doświadczył stałego wzrostu, zwiększając się z 23% do 35%, prawdopodobnie napędzany rosnącą popularnością przeglądarki Comet i jej uproszczonego przepływu pracy AI skoncentrowanego na wyszukiwaniu. Co godne uwagi, Grok, wcześniej jedna z najczęściej blokowanych aplikacji genAI, zaczął zyskiwać na popularności w kwietniu, z użyciem rosnącym do 28%, ponieważ więcej organizacji eksperymentowało z jego możliwościami pomimo wcześniejszych ograniczeń.
Podwójny Wzrost Naruszeń Bezpieczeństwa Danych
W poprzedniej sekcji podkreśliliśmy trzykrotny wzrost liczby użytkowników genAI i sześciokrotny wzrost liczby promptów wysyłanych do aplikacji SaaS genAI. Głównym powodem, dla którego ten trend powinien być niepokojący dla specjalistów ds. cyberbezpieczeństwa, jest to, że wraz ze wzrostem użycia następuje wzrost niechcianych ekspozycji danych na rzecz stron trzecich.
To ryzyko jest zakorzenione w codziennych sposobach używania tych narzędzi. Niezależnie od tego, czy użytkownik prosi system AI o podsumowanie dokumentów, zestawów danych czy kodu, czy polega na nim przy generowaniu tekstu, mediów lub fragmentów oprogramowania, przepływ pracy prawie zawsze wymaga przesłania wewnętrznych danych do zewnętrznej usługi lub w inny sposób połączenia wewnętrznych magazynów danych z zewnętrzną aplikacją AI. Samo to wymaganie tworzy znaczne ryzyko ekspozycji.
W przeciętnej organizacji zarówno liczba użytkowników popełniających naruszenia polityki danych, jak i liczba incydentów naruszeń polityki danych wzrosła dwukrotnie w ciągu ostatniego roku, przy średnio 3% użytkowników genAI popełniających średnio 223 naruszenia polityki danych genAI miesięcznie. Tymczasem górne 25% organizacji widzi średnio 2 100 incydentów miesięcznie wśród 13% ich bazy użytkowników genAI, ilustrując, że dotkliwość problemu znacznie się różni w różnych organizacjach.
Luka w Wykrywaniu Zagrożeń
Ta rozbieżność - dwukrotny wzrost naruszeń polityki danych w porównaniu z trzykrotnym wzrostem użytkowników genAI i sześciokrotnym wzrostem promptów - ujawnia krytyczną lukę w postawie bezpieczeństwa organizacyjnego. Dwukrotny wzrost naruszeń reprezentuje tylko wykryte incydenty. Mniejszy wzrost naruszeń w stosunku do użycia podkreśla, że wiele organizacji nie osiągnęło jeszcze dojrzałości w zarządzaniu tą aktywnością.
W pełni 50% organizacji nie posiada egzekwowalnych polityk ochrony danych dla aplikacji genAI. W tych środowiskach pracownicy mogą wysyłać wrażliwe dane do modeli AI bez wykrycia, maskując prawdziwy zakres wycieku danych. Dlatego obserwowany dwukrotny wzrost jest prawdopodobnie niedoszacowaniem rzeczywistego ryzyka ekspozycji danych, sugerując, że problem jest gorszy w większości organizacji, które nadal polegają na zaufaniu użytkowników, a nie na technicznym egzekwowaniu. Takie organizacje powinny zdecydowanie rozważyć wzmocnienie zarządzania danymi i wdrożenie egzekwowalnych, świadomych treści kontroli.
Rodzaje Naruszanych Danych
Ryzyka ekspozycji danych związane z genAI są wzmacniane przez dużą liczbę dostępnych narzędzi AI i ciągłą obecność narzędzi shadow AI używanych bez zgody lub nadzoru. W rezultacie organizacje regularnie napotykają kilka kategorii wrażliwych danych przesyłanych do platform genAI z naruszeniem wewnętrznych polityk.
Trzy kategorie danych najczęściej zaangażowane w naruszenia polityki danych genAI w ciągu ostatniego roku to:
1. Kod źródłowy (42%) - użytkownicy często przesyłają kod, szukając pomocy w debugowaniu, sugestii refaktoryzacji lub generowania kodu. Programiści rutynowo kopiują całe fragmenty kodu zawierające logikę biznesową, algorytmy własnościowe, a nawet poświadczenia dostępu.
2. Dane regulowane (32%) - takie jak dane osobowe, finansowe lub zdrowotne. Obejmuje to informacje podlegające RODO, HIPAA, PCI DSS i innym regulacjom. Pracownicy często przesyłają arkusze kalkulacyjne z danymi klientów, raporty medyczne lub dokumenty finansowe do analizy.
3. Własność intelektualna (16%) - w tym umowy, dokumenty wewnętrzne i badania własnościowe, które pracownicy przesyłają do analizy lub podsumowania. Często są to strategiczne plany biznesowe, wyniki badań, dokumentacja patentowa.
4. Hasła i klucze (10%) - które często pojawiają się w przykładach kodu lub plikach konfiguracyjnych. Pracownicy nieświadomie udostępniają klucze API, hasła do baz danych, certyfikaty SSL i inne poufne dane dostępowe.
Zwiększona częstotliwość takich incydentów jest napędzana przez różne czynniki, od szybkiej adopcji narzędzi genAI i ich głębszej integracji w codzienne przepływy pracy, po brak świadomości bezpieczeństwa danych u pracowników podczas korzystania z narzędzi AI, z których często korzystają bez zgody lub nadzoru IT/bezpieczeństwa.
Strategie Redukcji Ryzyka
Poprzednia sekcja skupiała się na tym, jak polityki ochrony danych świadome treści mogą kontrolować przepływ wrażliwych danych w aplikacjach genAI. Podstawowym założeniem było, że te aplikacje muszą być bezpieczne w użyciu w określonych kontekstach i służyć jakiemuś uzasadnionemu celowi biznesowemu. Gdy aplikacja nie jest bezpieczna w użyciu w żadnym kontekście lub nie służy żadnemu uzasadnionemu celowi biznesowemu, redukcja ryzyka staje się znacznie łatwiejsza: po prostu zablokuj aplikację całkowicie.
90% organizacji używa tej podstawowej, ale skutecznej strategii, przy czym przeciętna organizacja aktywnie blokuje 10 aplikacji. Tutaj "aktywna blokada" oznacza nie tylko, że organizacja ma politykę blokowania aplikacji dla wszystkich swoich użytkowników, ale że polityka aktywnie zapobiega próbom użycia aplikacji przez użytkowników (w przeciwieństwie do polityki, która blokuje coś, czego nikt nie próbuje używać).
Najczęściej Blokowane Aplikacje AI
ZeroGPT jest obecnie najczęściej blokowaną aplikacją związaną z genAI, z 45% organizacji ograniczających dostęp. Wiele zespołów bezpieczeństwa postrzega usługę jako wysokie ryzyko, ponieważ narzędzia do wykrywania AI często wymagają od użytkowników przesłania pełnego tekstu, kodu źródłowego lub innych wrażliwych materiałów do analizy.
DeepSeek następuje z 43% organizacji blokujących go, napędzany obawami o ograniczoną przejrzystość, szybko ewoluujące zachowanie platformy, suwerenność danych i niepewności związane z powstającymi ekosystemami AI. Organizacje są szczególnie zaniepokojone brakiem przejrzystości w zakresie tego, gdzie dane są przechowywane i przetwarzane.
Te trendy blokowania sugerują, że organizacje nie tylko reagują na ryzyka stwarzane przez poszczególne narzędzia, ale także dojrzewają w swoich strategiach zarządzania. Nacisk przesuwa się w kierunku zapobiegania opuszczaniu organizacji przez wrażliwe dane w pierwszej kolejności, szczególnie do usług z niejasymi gwarancjami bezpieczeństwa lub niewystarczającym ujawnieniem tego, jak treści użytkowników są przetwarzane i przechowywane.
Skuteczność Polityk Blokowania
Polityki blokowania dla niechcianych aplikacji AI były generalnie bardzo skuteczne. Chociaż liczba aplikacji genAI śledzonych przez Netskope Threat Labs wzrosła pięciokrotnie, z 317 do ponad 1 600 w ciągu ostatniego roku, średnia liczba aplikacji AI używanych w organizacji wzrosła tylko o 33% z 6 do 8. Tylko w górnym 1% organizacji, gdzie kontrole są luźniejsze, zaobserwowaliśmy znaczące wzrosty, z 47 do 89 aplikacji.
Te organizacje odstające powinny służyć jako przypomnienie dla wszystkich organizacji, aby przeprowadziły inwentaryzację, ile aplikacji genAI używają i czy wszystkie służą uzasadnionemu celowi biznesowemu. Organizacje odstające mogą znacznie zmniejszyć swoje ryzyko, po prostu ograniczając dostęp do aplikacji, które nie są krytyczne dla biznesu, i stosując polityki ochrony danych i coachingu do aplikacji.
Autonomiczne Systemy AI Amplifikują Ryzyko
Wraz z przeglądarkami AI i serwerami MCP, innym pojawiającym się trendem w przestrzeni genAI, który zmusza organizacje do ewolucji swojej postawy bezpieczeństwa, jest agentic AI. Systemy agentic AI to te, które wykonują złożone, autonomiczne działania na zasobach wewnętrznych i zewnętrznych. Organizacje już widzą szybką adopcję agentic AI, zarówno przy użyciu usług SaaS, jak i platform AI takich jak Azure OpenAI.
Podczas gdy wczesna adopcja faworyzowała aplikacje SaaS ze względu na ich wygodę, rozwiązania oparte na platformach pozwalają teraz firmom hostować modele wewnętrznie, integrować je z istniejącą infrastrukturą i budować niestandardowe aplikacje lub autonomiczne agenty dostosowane do konkretnych przepływów pracy.
Adopcja Platform Enterprise AI

Obecnie 33% organizacji używa usług OpenAI przez Azure, 27% używa Amazon Bedrock, a 10% wykorzystuje Google Vertex AI. Przejście w kierunku tych platform klasy korporacyjnej jest napędzane przez rozszerzającą się dostępność bezpiecznych, opartych na chmurze usług genAI, które oferują silniejsze kontrole prywatności i głębsze opcje integracji.

Wzrost rok do roku dodatkowo podkreśla ten impet, liczba użytkowników Bedrock i ilość ruchu Bedrock wzrosły trzykrotnie, podczas gdy liczba użytkowników Vertex AI wzrosła sześciokrotnie z dziesięciokrotnym wzrostem ruchu. Te trendy podkreślają, jak szybko organizacje skalują swoją infrastrukturę genAI, gdy eksplorują bardziej prywatne, elastyczne i zgodne z przepisami ramy wdrożeniowe.

Ryzyko Pomimo Zarządzanych Platform
Nawet gdy dane coraz częściej przepływają przez zarządzane frameworki, czy to przez hostowane modele, czy autonomiczne agenty AI, ryzyko bezpieczeństwa pozostaje wysokie. Szybki wzrost systemów agentycznych wprowadza nowe wektory ataku, w tym:

- Niewłaściwe użycie narzędzi

- Niebezpieczne autonomiczne działania

- Rozszerzone ścieżki eksfiltracji danych

- Prompt injection

- Nadmiernie uprawniony dostęp do narzędzi

- Niezabezpieczone integracje API

- Niezamierzony wyciek danych między kontekstami

Zarządzane modele zmniejszają niektóre ryzyka, ale nie mogą wyeliminować ekspozycji. Gdy agenci AI zyskują zdolność do wykonywania zadań i interakcji z usługami wewnętrznymi i zewnętrznymi, potencjalny wpływ błędnych konfiguracji lub skompromitowanych przepływów pracy znacznie rośnie. Organizacje adoptujące te platformy muszą połączyć modernizację z rygorystycznymi kontrolami bezpieczeństwa, ciągłym monitoringiem i projektowaniem najmniejszego przywileju, aby zapewnić, że skalowalność nie odbywa się kosztem bezpieczeństwa.
API jako Główny Kanał Dostępu
Nawet gdy agenci i aplikacje AI działają lokalnie lub w zarządzanych środowiskach korporacyjnych, podstawowe modele są nadal często dostępne przez API hostowane w chmurze, a nie przez tradycyjne interfejsy przeglądarki. Podczas gdy interakcje oparte na przeglądarce kierują przez domeny takie jak chatgpt.com, zautomatyzowane przepływy pracy, wewnętrzne narzędzia i agenci AI polegają zamiast tego na punktach końcowych takich jak api.openai.com dla dostępu programowego.
To przesunięcie przyspiesza szybko. Dzisiaj 70% organizacji łączy się z api.openai.com, odzwierciedlając dominującą rolę OpenAI w użyciu genAI poza przeglądarką w wewnętrznych narzędziach i systemach agentycznych. AssemblyAI następuje z 54%, napędzany przez swoje silne możliwości zamiany mowy na tekst i inteligencji audio. API Anthropic są używane przez 30% organizacji, trend napędzany przez rosnącą adopcję deweloperów modeli Claude do zadań wymagających intensywnego rozumowania, analizy strukturalnej i rozwoju aplikacji.
Stałe Ryzyko Osobistych Aplikacji Chmurowych
Do tej pory ten raport skupiał się na addytywnych ryzykach cyberbezpieczeństwa tworzonych przez szybką adopcję genAI. W tej sekcji skupiamy się na wykorzystaniu osobistych aplikacji chmurowych, które nadal jest głównym czynnikiem ryzyka ekspozycji danych wewnętrznych. Pracownicy często polegają na osobistych kontach dla wygody, współpracy lub dostępu do narzędzi AI, a to zachowanie wprowadza znaczące wyzwania dla organizacji próbujących chronić wrażliwe informacje.
60% incydentów zagrożeń wewnętrznych dotyczy osobistych instancji aplikacji chmurowych, z danymi regulowanymi, własnością intelektualną, kodem źródłowym i poświadczeniami często wysyłanymi do osobistych aplikacji z naruszeniem polityk organizacji. Chociaż ruch do aplikacji chmurowych przez osobiste konta pozostał zasadniczo niezmieniony w ciągu ostatniego roku, organizacje poprawiły swoją postawę obronną.
Poprawa Kontroli Bezpieczeństwa
Liczba organizacji umieszczających kontrole w czasie rzeczywistym na danych wysyłanych do osobistych aplikacji wzrosła z 70% do 77%, odzwierciedlając rosnące skupienie na zapobieganiu wyciekowi wrażliwych danych do niezarządzanych środowisk. DLP jest jednym z najpopularniejszych narzędzi do zmniejszania ryzyka związanego z używaniem osobistych aplikacji, używanym przez 63% organizacji. Stanowi to kontrast z genAI, gdzie tylko 50% organizacji używa DLP do łagodzenia ryzyka niechcianej ekspozycji danych.
Organizacje nadal wdrażają szereg środków w celu zmniejszenia ryzyka ekspozycji danych poprzez osobiste aplikacje chmurowe i genAI. Te strategie obejmują:

- Blokowanie przesyłania do osobistych aplikacji

- Zapewnienie wskazówek użytkownikom w czasie rzeczywistym, aby pomóc pracownikom bezpiecznie obsługiwać wrażliwe informacje

- Wykorzystanie rozwiązań DLP do zapobiegania nieautoryzowanym transferom danych do niezarządzanych usług

Najczęściej Kontrolowane Aplikacje
Google Drive jest najczęściej kontrolowaną aplikacją, z 43% organizacji wdrażających ochronę w czasie rzeczywistym, następnie Gmail z 31% i OneDrive z 28%. Co ciekawe, osobisty ChatGPT zajmuje czwarte miejsce z 28%, pomimo szerokiej adopcji, sugerując, że organizacje nadal nadrabiają zaległości w zarządzaniu narzędziami genAI w porównaniu z tradycyjnymi platformami chmurowymi. Te liczby podkreślają ciągłe wysiłki w celu ograniczenia nieautoryzowanego ruchu danych i złagodzenia ryzyka związanego z używaniem osobistych kont na niezarządzanych usługach.
Wzrost Naruszeń w Aplikacjach Osobistych
W ciągu ostatniego roku procent użytkowników przesyłających dane do osobistych aplikacji chmurowych wzrósł o 21%. Dziś 31% użytkowników w przeciętnej organizacji przesyła dane do osobistych aplikacji chmurowych co miesiąc. To ponad dwukrotnie więcej niż liczba użytkowników, którzy wchodzą w interakcję z aplikacjami AI co miesiąc (15%). Chociaż nie rośnie w tym samym tempie co adopcja AI, rosnąca liczba osób wysyłających dane do osobistych aplikacji chmurowych stanowi rosnące ryzyko bezpieczeństwa danych.
63% organizacji używających DLP do monitorowania i zarządzania ruchem wrażliwych danych do osobistych aplikacji zapewnia nam migawkę typów danych, które użytkownicy przesyłają z naruszeniem polityk organizacji:

- Dane regulowane (54%) - w tym informacje osobowe, finansowe i zdrowotne

- Własność intelektualna (22%) - odzwierciedlająca ciągłe ryzyko opuszczania zatwierdzonych środowisk przez informacje własnościowe

- Kod źródłowy (15%) - często zawierający logikę biznesową i algorytmy

- Hasła i klucze API (8%) - stanowiące bezpośrednie zagrożenie bezpieczeństwa

Ewolucja Taktyk Phishingowych
Poprzednie sekcje skupiały się głównie na ryzykach wewnętrznych związanych z adopcją AI i używaniem osobistych aplikacji chmurowych w przedsiębiorstwie. W tej sekcji przesuwamy naszą uwagę na zewnętrznych przeciwników i ciągłe ryzyka, które nadal stanowią dla organizacji na całym świecie. Kampanie phishingowe ukierunkowane na środowiska chmurowe nadal rosną w wyrafinowaniu.

Atakujący coraz częściej polegają na:

- Fałszywych stronach logowania

- Złośliwych aplikacjach OAuth

- Kitach phishingowych opartych na reverse-proxy, które kradną poświadczenia i ciasteczka sesji w czasie rzeczywistym

Gdy organizacje przenoszą więcej krytycznych przepływów pracy do aplikacji chmurowych, tożsamość skutecznie stała się nowym perimetrem, czyniąc kradzież poświadczeń aplikacji chmurowych jedną z najbardziej wydajnych ścieżek do kompromitacji.
Pozytywny Trend w Podatności Użytkowników
Zachęcająco, podatność użytkowników nieznacznie spadła w ciągu ostatniego roku, kliknięcia na linki phishingowe spadły ze 119 na 10 000 użytkowników w zeszłym roku do 87 na 10 000 użytkowników w tym roku, co stanowi spadek o 27%. Jednak phishing nadal odpowiada za znaczną część prób początkowego dostępu i pozostaje trudny do pełnego złagodzenia, o czym świadczy znaczna liczba osób nadal klikających na linki phishingowe.
Podszywanie się pod Marki
Podszywanie się pod marki nadal jest podstawową taktyką. Microsoft jest teraz najbardziej fałszowaną marką z 52% kliknięć w kampaniach phishingowych w chmurze, z Hotmail (11%) i DocuSign (10%) na kolejnych miejscach. Te przynęty często naśladują przepływy uwierzytelniania lub podpowiedzi podpisywania dokumentów, aby zebrać poświadczenia lub uzyskać wrażliwe uprawnienia aplikacji.
Rosnącym trendem jest nadużycie phishingu zgody OAuth, gdzie atakujący oszukują użytkowników, aby przyznali dostęp do złośliwych aplikacji chmurowych, całkowicie omijając hasła i uwierzytelnianie wieloskładnikowe (MFA). W połączeniu ze wzrostem kitów przechwytywania sesji, phishing przesuwa się z prostego oszustwa e-mail do wysoce technicznych ataków na warstwę tożsamości, które wykorzystują sposób, w jaki nowoczesne aplikacje chmurowe uwierzytelniają i utrzymują użytkowników zalogowanych.
Zmiana Celów Phishingu

Cele phishingu zmieniły się zauważalnie, gdy atakujący podążają za tym, gdzie żyją najcenniejsze poświadczenia:

- Portale bankowe (23%) - odzwierciedlając skupienie atakujących na oszustwach finansowych i przejęciach kont

- Usługi rządowe (21%) - napędzane przez atakujących wykorzystujących portale cyfrowych ID i usług obywatelskich do kradzieży tożsamości i oszustw podatkowych

- Pakiety produktywności w chmurze - nadal stanowiące główny cel

- Platformy e-commerce - rosnące jako cel ze względu na przechowywane dane płatności

- Media społecznościowe - wykorzystywane do dalszego rozprzestrzeniania kampanii

Organizacje potrzebują wzmocnionego ciągłego monitoringu sesji, ochrony tokenów i wykrywania nietypowego dostępu, zamiast polegać wyłącznie na szkoleniach użytkowników lub filtrach e-mail.

Malware w Zaufanych Kanałach
Ostatnia warstwa naszego złożonego modelu zagrożeń wchodząc w 2026 rok to uporczywość zewnętrznych przeciwników w nadużywaniu zaufanych kanałów i wykorzystywaniu znanych przepływów pracy, aby oszukać ofiary do instalowania złośliwego oprogramowania. Przeciwnicy coraz częściej nadużywają zaufanych usług chmurowych do dystrybucji złośliwego oprogramowania, wiedząc, że użytkownicy są komfortowi w interakcji ze znanymi platformami.
GitHub pozostaje najbardziej nadużywaną usługą, z 12% organizacji wykrywających ekspozycję pracowników na złośliwe oprogramowanie za pośrednictwem aplikacji każdego miesiąca, następnie Microsoft OneDrive (10%) i Google Drive (5,8%). Ich wszechobecność w współpracy i rozwoju oprogramowania czyni je idealnymi kanałami do rozprzestrzeniania zainfekowanych plików, zanim dostawcy mogą je usunąć.
Zaawansowane Techniki Dystrybucji
Poza zagrożeniami opartymi na plikach, złośliwe oprogramowanie dostarczane przez sieć nadal rośnie w objętości i wyrafinowaniu. Nowoczesne kampanie coraz częściej polegają na dynamicznych, zwodniczych komponentach sieciowych, a nie na tradycyjnych pobraniach. Techniki obejmują:

- Wstrzyknięcia oparte na iframe - osadzają ukryte ramki, które po cichu ładują złośliwy JavaScript, umożliwiając automatyczne przekierowania, nieautoryzowane wykonanie skryptu lub pobrania drive-by

- Fałszywe uploadery - które naśladują legalne przepływy pracy pobierania plików, aby przechwycić poświadczenia lub dostarczyć ładunki

- Fałszywe strony CAPTCHA - które używają interaktywnych elementów, aby przekonać użytkowników do włączenia skryptów lub ominięcia ochrony przeglądarki

Rosnącą obawą jest pojawienie się złośliwego oprogramowania wspomaganego przez LLM, gdzie atakujący używają dużych modeli językowych do generowania adaptowalnego złośliwego kodu lub automatyzacji zaciemniania. To przesunięcie umożliwia szybsze cykle rozwoju i bardziej dostosowywalne ładunki, które są coraz trudniejsze do wykrycia i blokowania na dużą skalę.
Ataki na Łańcuch Dostaw Oprogramowania
Ataki na łańcuch dostaw oprogramowania nadal rosną, gdy przeciwnicy coraz częściej celują w relacje zaufania między połączonymi usługami, platformami SaaS i ekosystemami pakietów. Jeden niedawny przykład to nowa fala aktywności Shai-Hulud ukierunkowana na łańcuch dostaw npm, gdzie złośliwe pakiety próbują dystrybuować szkodliwy kod przez przepływy pracy deweloperów.
Poza ekosystemami pakietów, integracje SaaS-to-SaaS pojawiły się jako krytyczny słaby punkt, z atakującymi wykorzystującymi łańcuchy zaufania API do poruszania się bocznego między aplikacjami chmurowymi. W jednym głośnym przypadku Salesforce wykrył podejrzane wywołania API pochodzące z adresów IP spoza białej listy za pośrednictwem integracji Gainsight, skłaniając Salesforce do unieważnienia powiązanych tokenów dostępu, ograniczenia funkcjonalności i rozpoczęcia pełnego dochodzenia.
Innym godnym uwagi incydentem było naruszenie Salesloft śledzone jako UNC6395, wieloetapowy atak na łańcuch dostaw zidentyfikowany przez Mandiant/Google. Atakujący nadużywali niemonitorowanych integracji między aplikacjami, konkretnie Salesloft Drift, ilustrując, jak skompromitowane łączniki SaaS mogą stać się niewidocznym kanałem kradzieży danych.
Razem te incydenty podkreślają trend, który ma się kontynuować w 2026 roku: ataki na łańcuch dostaw przesunęły się z tradycyjnych aktualizacji oprogramowania do nowoczesnego stosu chmurowego, celując w rejestry pakietów, potoki automatyzacji i połączone ekosystemy SaaS, gdzie kontrole bezpieczeństwa są często pofragmentowane lub ślepe.
Model Context Protocol i AI Browsers
Poza tradycyjnymi aplikacjami genAI, pojawiające się technologie, takie jak przeglądarki zasilane AI i aplikacje wykorzystujące Model Context Protocol (MCP) - szybko stający się preferowaną metodą łączenia agentów AI z zasobami przedsiębiorstwa - prezentują dodatkowe potencjalne ryzyka.
Te narzędzia mogą:

- Wykonywać zadania autonomicznie

- Uzyskiwać dostęp do zasobów lokalnych lub chmurowych

- Wchodzić w interakcje z innym oprogramowaniem w imieniu użytkownika

- Efektywnie rozszerzać powierzchnię ataku organizacji

Ponieważ agenci z obsługą MCP mogą łączyć się z zewnętrznymi usługami lub narzędziami, wrażliwe informacje mogą być nieumyślnie ujawnione, a złośliwi aktorzy mogą wykorzystać te możliwości do kompromitacji systemów lub przepływów pracy. Nawet bez szerokiej adopcji, organizacje powinny traktować przeglądarki AI i systemy zintegrowane z MCP jako pojawiające się obszary obaw i odpowiednio wdrażać zarządzanie, monitoring i polityki użytkowania.
Wzrost przeglądarek AI i serwerów MCP w 2026 roku wzmocni już nasilający się problem wycieków danych genAI, zmuszając więcej organizacji do uzyskania lepszej widoczności i kontroli nad ich wykorzystaniem technologii AI. Centralnym pytaniem dla liderów bezpieczeństwa pozostanie, jak chronić wrażliwe materiały, jednocześnie umożliwiając siły roboczej korzystanie z genAI.
Rekomendacje dla Organizacji na 2026 Rok
Krajobraz cyberbezpieczeństwa na 2026 rok jest fundamentalnie zdefiniowany przez złożone warstwy złożoności napędzane przez szybką i często niezarządzaną adopcję sztucznej inteligencji generatywnej. Ta ewolucja nie zastąpiła istniejących zagrożeń, ale raczej nałożyła nowe, skomplikowane ryzyka na nie. Najbardziej natychmiastowym wyzwaniem jest znaczny wzrost niechcianej ekspozycji danych.

Kluczowe Działania Ochronne

1. Inspekcja Całego Ruchu Sieciowego
Organizacje powinny sprawdzać wszystkie pobrania HTTP i HTTPS, w tym cały ruch internetowy i chmurowy, aby zapobiec infiltracji złośliwego oprogramowania do sieci. Klienci Netskope mogą skonfigurować swój Netskope One NG-SWG z polityką ochrony przed zagrożeniami, która ma zastosowanie do pobrań ze wszystkich kategorii i dotyczy wszystkich typów plików.
2. Kontrola Dostępu do Aplikacji
Blokuj dostęp do aplikacji, które nie służą żadnemu uzasadnionemu celowi biznesowemu lub które stanowią nieproporcjonalne ryzyko dla organizacji. Dobrym punktem wyjścia jest polityka zezwalająca na renomowane aplikacje obecnie używane, jednocześnie blokując wszystkie inne. Organizacje powinny regularnie przeglądać i aktualizować listę dozwolonych aplikacji.
3. Wdrożenie Zaawansowanych Polityk DLP
Użyj polityk DLP do wykrywania potencjalnie wrażliwych informacji, w tym:
- Kodu źródłowego i algorytmów własnościowych
- Danych regulowanych (RODO, HIPAA, PCI DSS)
- Haseł, kluczy API i certyfikatów
- Własności intelektualnej i dokumentów strategicznych
- Zaszyfrowanych danych
Polityki te powinny być stosowane do osobistych instancji aplikacji, aplikacji genAI lub innych nieautoryzowanych lokalizacji.
4. Remote Browser Isolation (RBI)
Użyj technologii Remote Browser Isolation, aby zapewnić dodatkową ochronę, gdy istnieje potrzeba odwiedzenia witryn, które należą do kategorii mogących przedstawiać wyższe ryzyko, takich jak nowo zaobserwowane i nowo zarejestrowane domeny. RBI izoluje potencjalnie niebezpieczną zawartość od sieci korporacyjnej.
5. Edukacja i Świadomość Pracowników
Wzmocnienie świadomości bezpieczeństwa danych wśród pracowników poprzez:
- Regularne szkolenia na temat bezpiecznego korzystania z AI
- Jasne wytyczne dotyczące tego, jakie dane można udostępniać aplikacjom AI
- Przykłady rzeczywistych incydentów i ich konsekwencji
- Procedury zgłaszania podejrzanych aktywności
6. Zarządzanie Tożsamością i Dostępem
- Wdrożenie silnego uwierzytelniania wieloskładnikowego (MFA) wszędzie
- Ciągłe monitorowanie sesji i wykrywanie anomalii
- Ochrona tokenów i certyfikatów
- Regularne przeglądy uprawnień i dostępu
7. Monitorowanie i Analiza
Ustanowienie ciągłego monitoringu obejmującego:
- Przepływy danych do aplikacji AI
- Nietypowe wzorce dostępu
- Próby eksfiltracji danych
- Aktywność agentów AI
- Integracje API i połączenia między aplikacjami

Prognoza na 2026 Rok

Dalszy Wykładniczy Wzrost AI
Oczekujemy kontynuacji wykładniczego wzrostu wykorzystania genAI w funkcjach biznesowych. Liczba użytkowników prawdopodobnie się podwoi, a liczba interakcji może wzrosnąć dziesięciokrotnie, gdy AI stanie się głębiej zintegrowana z codziennymi przepływami pracy.
Dominacja Ekosystemu Gemini
Przy obecnym tempie Gemini ma szansę wyprzedzić ChatGPT w pierwszej połowie 2026 roku, odzwierciedlając intensywną konkurencję i szybką innowację w przestrzeni. To przesunięcie będzie napędzane przez integrację Gemini z szerszym ekosystemem Google i jej rosnące możliwości.
Ewolucja Agentic AI
Systemy agentyczne staną się bardziej wyrafinowane i autonomiczne, wykonując złożone zadania wieloetapowe z minimalnym nadzorem człowieka. To dramatycznie zwiększy zarówno produktywność, jak i ryzyko bezpieczeństwa.
AI-Wzmocnione Ataki
Atakujący będą wykorzystywać AI do:
- Przeprowadzania skutecznego rozpoznania
- Tworzenia wysoce dostosowanych ataków ukierunkowanych na modele własnościowe
- Generowania bardziej przekonujących przynęt phishingowych
- Automatyzacji rozwoju złośliwego oprogramowania
Konwergencja Zagrożeń
Nowe zagrożenia związane z AI nie zastąpią tradycyjnych metod ataku, ale je wzmocnią. Organizacje będą musiały zarządzać warstwowym modelem zagrożeń, gdzie każda nowa technologia dodaje dodatkowe ryzyka do istniejących.
Regulacje i Zgodność
Oczekujemy wprowadzenia nowych regulacji dotyczących używania AI w biznesie, szczególnie w zakresie ochrony danych i prywatności. Organizacje będą musiały dostosować się do ewoluujących wymogów zgodności.
Nowy Paradygmat Bezpieczeństwa
Rok 2026 przynosi fundamentalną zmianę w cyberbezpieczeństwie. Nie jest to już kwestia ochrony przed tradycyjnymi zagrożeniami lub nowymi zagrożeniami AI - to kwestia zarządzania oboma jednocześnie. Sukces będzie wymagał:

Holistycznego Podejścia do Bezpieczeństwa

Organizacje muszą przyjąć zintegrowane podejście, które uwzględnia zarówno tradycyjne, jak i związane z AI zagrożenia. Nie można traktować bezpieczeństwa AI jako oddzielnej inicjatywy - musi być zintegrowane z ogólną strategią bezpieczeństwa.

Równowagi Między Innowacją a Bezpieczeństwem

Kluczem jest umożliwienie innowacji i produktywności przy jednoczesnym utrzymaniu silnej postawy bezpieczeństwa. Organizacje, które będą zbyt restrykcyjne, ryzykują utratę przewagi konkurencyjnej, podczas gdy te, które będą zbyt liberalne, narażą się na poważne naruszenia.

Ciągłej Adaptacji

Krajobraz zagrożeń ewoluuje szybciej niż kiedykolwiek. Organizacje muszą być przygotowane do ciągłej adaptacji swoich strategii bezpieczeństwa, gdy pojawiają się nowe technologie i zagrożenia.

Współpracy i Dzielenia się Wiedzą

Żadna organizacja nie może sama stawić czoła tym wyzwaniom. Współpraca w branży, dzielenie się informacjami o zagrożeniach i wspólne najlepsze praktyki będą kluczowe dla utrzymania przewagi nad atakującymi.
Ostateczna Rekomendacja
Organizacje wchodzące w 2026 rok muszą traktować bezpieczeństwo AI jako priorytet strategiczny na najwyższym szczeblu. To nie jest już kwestia IT czy nawet bezpieczeństwa - to kwestia przetrwania biznesu. Firmy, które nie zdołają odpowiednio zabezpieczyć swojego wykorzystania AI, narażą się nie tylko na naruszenia danych i straty finansowe, ale także na utratę zaufania klientów i przewagi konkurencyjnej.
Czas na działanie jest teraz. Organizacje muszą przeprowadzić kompleksową ocenę swojego wykorzystania AI, wdrożyć odpowiednie kontrole bezpieczeństwa i ustanowić jasne polityki zarządzania. Tylko poprzez proaktywne podejście do bezpieczeństwa AI organizacje mogą w pełni wykorzystać transformacyjną moc tej technologii, jednocześnie chroniąc się przed jej ryzykami.
an abstract photo of a curved building with a blue sky in the background

Nawiąż współpracę

Umów się na bezpłatną konsultację i zobacz nasze rozwiązania.