Korzystanie z DeepSeek niebezpieczne dla firmowych danych
Katgoria: BEZPIECZEŃSTWO IT / Utworzono: 26 luty 2025
DeepSeek miał podbić świat i zrewolucjonizować podejście do trenowania modeli językowych. Twórcy deklarowali, że jest tani i może uczyć się szybciej niż najlepsze dostępne na rynku rozwiązania. Specjaliści z Palo Alto Networks odkryli jednak, że za tą fasadą kryje się oprogramowanie zawierające krytyczne luki bezpieczeństwa. Mogą one prowadzić nie tylko do wycieków danych użytkowników, ale również do wzrostu cyberprzestępczości.
Technologiczny świat zachwiał się w posadach, kiedy chińska spółka zadeklarowała, że model językowy można wytrenować nie tylko szybko, ale również tanio. W ten sposób DeepSeek przyczynił się do największej w historii przeceny na amerykańskiej giełdzie – notowania spółki Nvidia w ciągu jednej tylko sesji spadły aż o 470 mld dolarów .
Jednak po fali euforii okraszonej paniką inwestorów przyszedł czas na dokładniejsze analizy. Jednostka badawcza Unit 42 Palo Alto Networks wykryła, że chiński model posiada poważne luki w zabezpieczeniach i może być niebezpieczny dla korzystających z niego firm .
Na pierwszy rzut oka DeepSeek wydaje się być tak samo wydajny jak najnowocześniejsze narzędzia oferowane przez OpenAI i Google. Co więcej, został wydany na licencji open source, więc każdy programista może go modyfikować bez konieczności uzyskiwania dostępu do kosztownych procesorów graficznych. To bardzo duże przewagi nad konkurencją, dlatego DeepSeek został okrzyknięty „momentem Sputnika” dla sztucznej inteligencji i wywołał panikę wśród inwestorów.
Jednak badania specjalistów z Palo Alto Networks ujawniły niepokojącą prawdę – chiński model sztucznej inteligencji ma poważne luki w zabezpieczeniach i jest szczególnie podatny na tzw. jailbreak . Cyberprzestępcy coraz częściej wykorzystują tę metodę, by oszukać generatywną AI i zmusić ją do tworzenia nielegalnych treści. Dla porównania dobrze zabezpieczony czatbot natychmiast odrzuci próbę uzyskania informacji o budowie ładunku wybuchowego, co jest kluczowym mechanizmem przeciwdziałania zagrożeniom terrorystycznym. Niestety, model DeepSeek może być bezbronny wobec takich prób. Testy wykazały, że potrafi on dostarczać szczegółowych instrukcji dotyczących tworzenia złośliwego oprogramowania do kradzieży haseł i danych, a nawet wyjaśniać, jak skonstruować urządzenia zapalające. Te luki to nie tylko techniczne niedociągnięcia – to furtka dla potencjalnych tragedii.
W najbliższych latach każda organizacja wypracuje własne zasady dotyczące nowych modeli sztucznej inteligencji. Już teraz niektóre z nich całkowicie ich zakazują, inne zezwalają na ograniczone, eksperymentalne i ściśle kontrolowane użycie. Jeszcze inne będą spieszyć się z wdrażaniem AI w jak najszerszym zakresie, chcąc osiągnąć większą wydajność i optymalizację kosztów.
W związku z dużym zapotrzebowaniem na niedrogie rozwiązania DeepSeek nie jest ostatnim modelem, który zaskoczy świat. Minie trochę czasu, zanim technologie AI zostaną w pełni zrozumiane i wyłonią się wyraźni liderzy. Zanim to nastąpi, należy bardzo skrupulatnie podchodzić do wszelkich nowości na tym rynku. Tym bardziej że pokusa testowania nowych modeli jest ogromna.
Organizacje mogą zmienić LLM przy niewielkich lub nawet zerowych kosztach. Zastąpienie oprogramowania opartego na modelach OpenAI, Google lub Anthropic modelem DeepSeek – lub jakimkolwiek innym, który pojawi się w przyszłości – zwykle wymaga aktualizacji zaledwie kilku linijek kodu. Z tego powodu wiele organizacji chętnie sprawdza kolejne rozwiązania, ulegając wizji, że nowy model jest dokładnie tym, czego potrzeba, aby zrewolucjonizować rynek albo pokonać konkurencję.
Chociaż zagwarantowanie pełnej ochrony przed wszystkimi technikami przeciwnika dla konkretnego LLM może być wyzwaniem, organizacje mogą wdrożyć środki bezpieczeństwa, które pomogą monitorować, kiedy i w jaki sposób pracownicy korzystają z LLM. To bardzo ważne, jeśli firmy decydują się na wdrażanie nieautoryzowanych modeli językowych. To nie tylko poprawia bezpieczeństwo firmy, ale również uczy pracowników odpowiedzialnego korzystania z narzędzi.
Źródło: Palo Alto Networks
Jednak po fali euforii okraszonej paniką inwestorów przyszedł czas na dokładniejsze analizy. Jednostka badawcza Unit 42 Palo Alto Networks wykryła, że chiński model posiada poważne luki w zabezpieczeniach i może być niebezpieczny dla korzystających z niego firm .
Na pierwszy rzut oka DeepSeek wydaje się być tak samo wydajny jak najnowocześniejsze narzędzia oferowane przez OpenAI i Google. Co więcej, został wydany na licencji open source, więc każdy programista może go modyfikować bez konieczności uzyskiwania dostępu do kosztownych procesorów graficznych. To bardzo duże przewagi nad konkurencją, dlatego DeepSeek został okrzyknięty „momentem Sputnika” dla sztucznej inteligencji i wywołał panikę wśród inwestorów.
Jednak badania specjalistów z Palo Alto Networks ujawniły niepokojącą prawdę – chiński model sztucznej inteligencji ma poważne luki w zabezpieczeniach i jest szczególnie podatny na tzw. jailbreak . Cyberprzestępcy coraz częściej wykorzystują tę metodę, by oszukać generatywną AI i zmusić ją do tworzenia nielegalnych treści. Dla porównania dobrze zabezpieczony czatbot natychmiast odrzuci próbę uzyskania informacji o budowie ładunku wybuchowego, co jest kluczowym mechanizmem przeciwdziałania zagrożeniom terrorystycznym. Niestety, model DeepSeek może być bezbronny wobec takich prób. Testy wykazały, że potrafi on dostarczać szczegółowych instrukcji dotyczących tworzenia złośliwego oprogramowania do kradzieży haseł i danych, a nawet wyjaśniać, jak skonstruować urządzenia zapalające. Te luki to nie tylko techniczne niedociągnięcia – to furtka dla potencjalnych tragedii.
Cyberprzestępcy otrzymują w ten sposób nowe narzędzia, które mogą ich wspierać w prowadzeniu szeroko zakrojonych cyberataków na przedsiębiorstwa i instytucje publiczne. Przypadek DeepSeek i podatności na jailbreak pokazuje, że nadal w domowych warunkach można nakłonić model językowy do tworzenia złośliwego oprogramowania. Doświadczeni cyberprzestępcy mogą wykorzystać takie narzędzia na znacznie szerszą skalę. W miarę jak LLM stają się coraz bardziej zintegrowane z różnymi aplikacjami, skuteczne zabezpieczanie ich przed niewłaściwym wykorzystaniem jest niezbędne dla rozwoju i wdrażania AI w biznesie bez szkody dla użytkowników i klientów” – powiedział Grzegorz Latosiński, dyrektor krajowy Palo Alto Networks w Polsce.
W najbliższych latach każda organizacja wypracuje własne zasady dotyczące nowych modeli sztucznej inteligencji. Już teraz niektóre z nich całkowicie ich zakazują, inne zezwalają na ograniczone, eksperymentalne i ściśle kontrolowane użycie. Jeszcze inne będą spieszyć się z wdrażaniem AI w jak najszerszym zakresie, chcąc osiągnąć większą wydajność i optymalizację kosztów.
W związku z dużym zapotrzebowaniem na niedrogie rozwiązania DeepSeek nie jest ostatnim modelem, który zaskoczy świat. Minie trochę czasu, zanim technologie AI zostaną w pełni zrozumiane i wyłonią się wyraźni liderzy. Zanim to nastąpi, należy bardzo skrupulatnie podchodzić do wszelkich nowości na tym rynku. Tym bardziej że pokusa testowania nowych modeli jest ogromna.
Organizacje mogą zmienić LLM przy niewielkich lub nawet zerowych kosztach. Zastąpienie oprogramowania opartego na modelach OpenAI, Google lub Anthropic modelem DeepSeek – lub jakimkolwiek innym, który pojawi się w przyszłości – zwykle wymaga aktualizacji zaledwie kilku linijek kodu. Z tego powodu wiele organizacji chętnie sprawdza kolejne rozwiązania, ulegając wizji, że nowy model jest dokładnie tym, czego potrzeba, aby zrewolucjonizować rynek albo pokonać konkurencję.
Chociaż zagwarantowanie pełnej ochrony przed wszystkimi technikami przeciwnika dla konkretnego LLM może być wyzwaniem, organizacje mogą wdrożyć środki bezpieczeństwa, które pomogą monitorować, kiedy i w jaki sposób pracownicy korzystają z LLM. To bardzo ważne, jeśli firmy decydują się na wdrażanie nieautoryzowanych modeli językowych. To nie tylko poprawia bezpieczeństwo firmy, ale również uczy pracowników odpowiedzialnego korzystania z narzędzi.
Źródło: Palo Alto Networks
Najnowsze wiadomości
Customer-specific AI: dlaczego w 2026 roku to ona przesądza o realnym wpływie AI na biznes
W 2026 roku sztuczna inteligencja przestaje być ciekawostką technologiczną, a zaczyna być rozliczana z realnego wpływu na biznes. Organizacje oczekują dziś decyzji, którym można zaufać, procesów działających przewidywalnie oraz doświadczeń klientów, które są spójne w skali. W tym kontekście coraz większe znaczenie zyskuje customer-specific AI - podejście, w którym inteligencja jest osadzona w danych, procesach i regułach konkretnej firmy, a nie oparta na generycznych, uśrednionych modelach.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
SkyAlyne stawia na IFS dla utrzymania floty RCAF
SkyAlyne, główny wykonawca programu Future Aircrew Training (FAcT), wybrał IFS Cloud for Aviation Maintenance jako cyfrową platformę do obsługi technicznej lotnictwa i zarządzania majątkiem. Wdrożenie ma zapewnić wgląd w czasie rzeczywistym w utrzymanie floty, zasoby i zgodność, ograniczyć przestoje oraz zwiększyć dostępność samolotów szkoleniowych RCAF w skali całego kraju. To ważny krok w modernizacji kanadyjskiego systemu szkolenia załóg lotniczych.
Wykorzystanie AI w firmach rośnie, ale wolniej, niż oczekiwano. Towarzyszy temu sporo rozczarowań
Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znacznie wolniejsze od wcześniejszych oczekiwań rynku. Dane pokazują, że z rozwiązań AI korzysta dziś wciąż niewiele przedsiębiorstw, a menedżerowie coraz częściej wskazują na bariery regulacyjne, koszty oraz brak powtarzalnych efektów biznesowych. W praktyce technologia jest testowana głównie w wybranych obszarach, a kluczowe decyzje nadal pozostają po stronie człowieka. Również w firmach, które wdrożyły AI, nierzadko towarzyszą temu rozczarowania.
Europejski przemysł cyfryzuje się zbyt wolno – ERP, chmura i AI stają się koniecznością
Europejski przemysł średniej wielkości wie, że cyfryzacja jest koniecznością, ale wciąż nie nadąża za tempem zmian. Ponad 60% firm ocenia swoje postępy w transformacji cyfrowej jako zbyt wolne, mimo rosnącej presji konkurencyjnej, regulacyjnej i kosztowej. Raport Forterro pokazuje wyraźną lukę między świadomością potrzeby inwestycji w chmurę, ERP i AI a realną zdolnością do ich wdrożenia – ograniczaną przez braki kompetencyjne, budżety i gotowość organizacyjną.
Najnowsze artykuły
5 pułapek zarządzania zmianą, które mogą wykoleić transformację cyfrową i wdrożenie ERP
Dlaczego jedne wdrożenia ERP dowożą korzyści, a inne kończą się frustracją, obejściami w Excelu i spadkiem zaufania do systemu? Najczęściej decyduje nie technologia, lecz to, jak organizacja prowadzi zmianę: czy liderzy biorą odpowiedzialność za decyzje czy tempo jest dopasowane do zdolności absorpcji oraz czy ludzie dostają klarowność ról i realne kompetencje. Do tego dochodzi pytanie: co po go-live - stabilizacja czy chaos w firmie? Poniżej znajdziesz 5 pułapek, które najczęściej wykolejają transformację i praktyczne sposoby, jak im zapobiec.
SAP vs Oracle vs Microsoft: jak naprawdę wygląda chmura i sztuczna inteligencja w ERP
Wybór systemu ERP w erze chmury i sztucznej inteligencji to decyzja, która determinuje sposób działania organizacji na lata — a często także jej zdolność do skalowania, adaptacji i realnej transformacji cyfrowej. SAP, Oracle i Microsoft oferują dziś rozwiązania, które na pierwszy rzut oka wyglądają podobnie, lecz w praktyce reprezentują zupełnie odmienne podejścia do chmury, AI i zarządzania zmianą. Ten artykuł pokazuje, gdzie kończą się deklaracje, a zaczynają realne konsekwencje biznesowe wyboru ERP.
Transformacja cyfrowa z perspektywy CFO: 5 rzeczy, które przesądzają o sukcesie (albo o kosztownej porażce)
Transformacja cyfrowa w finansach często zaczyna się od pytania o ERP, ale w praktyce rzadko sprowadza się wyłącznie do wyboru systemu. Dla CFO kluczowe jest nie tylko „czy robimy pełną wymianę ERP”, lecz także jak policzyć ryzyko operacyjne po uruchomieniu, ocenić wpływ modelu chmurowego na koszty OPEX oraz utrzymać audytowalność i kontrolę wewnętrzną w nowym modelu działania firmy.
Agentic AI rewolucjonizuje HR i doświadczenia pracowników
Agentic AI zmienia HR: zamiast odpowiadać na pytania, samodzielnie realizuje zadania, koordynuje procesy i podejmuje decyzje zgodnie z polityką firmy. To przełom porównywalny z transformacją CRM – teraz dotyczy doświadczenia pracownika. Zyskują HR managerowie, CIO i CEO: mniej operacji, więcej strategii. W artykule wyjaśniamy, jak ta technologia redefiniuje rolę HR i daje organizacjom przewagę, której nie da się łatwo nadrobić.
Composable ERP: Przewodnik po nowoczesnej architekturze biznesowej
Czy Twój system ERP nadąża za tempem zmian rynkowych, czy stał się cyfrową kotwicą hamującą rozwój? W dobie nieciągłości biznesowej tradycyjne monolity ustępują miejsca elastycznej architekturze Composable ERP. To rewolucyjne podejście pozwala budować środowisko IT z niezależnych modułów (PBC) niczym z klocków, zapewniając zwinność nieosiągalną dla systemów z przeszłości. W tym raporcie odkryjesz, jak uniknąć pułapki długu technologicznego, poznasz strategie liderów rynku (od SAP po MACH Alliance) i wyciągniesz lekcje z kosztownych błędów gigantów takich jak Ulta Beauty. To Twój strategiczny przewodnik po transformacji z cyfrowego "betonu" w adaptacyjną "plastelinę".
Oferty Pracy
-
Młodszy konsultant programista Microsoft Dynamics 365 Business Central
-
Konsultant programista Microsoft Dynamics 365 Business Central
-
Konsultant Microsoft Dynamics 365
-
Konsultant Wdrożeniowy Symfonia – księgowość
-
Microsoft Fabric Engineer (MFE)
-
Data/Business Analyst (PBI/Fabric)
-
CRM consultant
-
Starszy architekt systemów rozproszonych
-
Inżynier Zastosowań AI
Przeczytaj Również
Cyberodporność fabryk: AI na straży ciągłości produkcji
Cyberataki to poważne zagrożenia wycieku danych oraz utraty zaufania partnerów biznesowych. Coraz c… / Czytaj więcej
Wnioski z NIS2: Kryzys zasobów i kompetencji w obliczu cyberzagrożeń
Dyrektywa NIS2 miała poprawić cyberbezpieczeństwo europejskich firm. W praktyce obnaża ic… / Czytaj więcej
97% firm doświadcza incydentów związanych z Gen AI – jak budować odporność na 2026
Z raportu Capgemini Research Institute „New defenses, new threats: What AI and Gen AI bring to cybe… / Czytaj więcej
Polskie firmy pod presją ransomware - nowe dane ESET
Polskie firmy mierzą się z gwałtownym wzrostem zagrożeń cybernetycznych, a najnowszy raport „Cyberp… / Czytaj więcej
Gdy AI przechodzi na ciemną stronę: złośliwe LLM-y jako nowa broń cyberprzestępców
Sztuczna inteligencja nie tylko automatyzuje procesy biznesowe – coraz częściej napędza też najbard… / Czytaj więcej
Cyberbezbronność polskich MŚP: Tylko 2% firm gotowych na starcie z AI
Polska gospodarka stoi na małych i średnich przedsiębiorstwach, ale ich cyfrowe fundamenty są kruch… / Czytaj więcej
3 na 4 projekty związane z agentową AI napotkają poważne trudności związane z bezpieczeństwem
W ciągu ostatniego roku Palo Alto Networks współpracowało z 3000 czołowych europejskich liderów biz… / Czytaj więcej
