Sztuczna inteligencja – nowa broń cyberprzestępców wymierzona w biznes

Tomasz Janas Prezes Zarządu Advisory, PKF Polska

Wyobraź sobie taką sytuację: otrzymujesz od centrali firmy e-mail z prośbą o pilny przelew dużej kwoty. Sprawdzasz – wygląda podejrzanie, więc żądasz potwierdzenia. W odpowiedzi dostajesz link do wideokonferencji, na której pojawia się Twój dyrektor finansowy w otoczeniu znanych Ci pracowników i osobiście potwierdza polecenie przelewu. Wszystko wydaje się w porządku – głos, obraz, zachowanie uczestników bez zarzutu. Decydujesz się wykonać przelew… Niestety, po fakcie okazuje się, że żaden z Twoich rozmówców nie był prawdziwy. Całe spotkanie zostało spreparowane przez oszustów z użyciem technologii deepfake, a firmę kosztowało to 25,6 mln dolarów. Choć brzmi to jak scenariusz filmu, takie zdarzenie miało miejsce naprawdę – i stanowi sygnał alarmowy dla przedsiębiorców na całym świecie.
Komentarz Uwaga na pozory!
Cyberprzestępcy potrafią dziś perfekcyjnie podszywać się pod zaufane osoby. Nawet jeśli wideo lub głos brzmi wiarygodnie, nigdy nie wykonujmy ważnych dyspozycji finansowych bez niezależnego potwierdzenia ich autentyczności.
Nowa jakość … oszustw. Opisana metoda działania to efekt rosnącej dostępności narzędzi sztucznej inteligencji. Deepfake – technologia pozwalająca na realistyczne podrobienie wizerunku i głosu – stała się kolejną bronią w arsenale atakujących.
Cyberprzestępcy coraz częściej wykorzystują deepfake w swoich oszustwach, podszywając się pod znane postaci, ekspertów czy przełożonych, by wzbudzić zaufanie ofiar. Już nie tylko w fałszywych spotach inwestycyjnych z celebrytami, ale i w codziennej komunikacji pojawia się to niebezpieczeństwo. Skutki takich ataków mogą być dramatyczne – od strat finansowych (jak w przytoczonym przypadku), po wyciek wrażliwych danych lub zablokowanie działania firmy.
AI w służbie przestępców. Sztuczna inteligencja zmienia również oblicze znanych nam cyberzagrożeń. Do niedawna wiele prób phishingu można było rozpoznać po łamanej polszczyźnie lub oczywistych błędach. Dziś jednak algorytmy generatywne (podobne do ChatGPT) umożliwiają automatyczne tworzenie bezbłędnych,
spersonalizowanych wiadomości phishingowych. Co więcej, powstają już narzędzia AI bez żadnych wbudowanych ograniczeń – jak WormGPT, będący „mrocznym bliźniakiem” ChatGPT, stworzonym specjalnie na potrzeby cyberprzestępców. Specjaliścicyberbezpieczeństwa pokazali, że przy pomocy takiego modelu można wygenerować niezwykle przekonujący e-mail nakłaniający ofiarę do opłacenia fałszywej faktury. Nawet osoba bez doświadczenia w hackingu jest w stanie, dzięki AI, tworzyć złośliwy kod czy wiarygodne treści phishingowe.
Rezultat? Powódź nowych ataków zalewa skrzynki i komunikatory firm, zwiększając szansę, że ktoś w pośpiechu popełni błąd.
Konsekwencje dla firm. Trendy na rok 2025 nie pozostawiają złudzeń – cyberbezpieczeństwo stało się priorytetem numer jeden dla organizacji. Skoro przestępcy zbroją się w AI, przedsiębiorstwa muszą odpowiedzieć.

Po pierwsze, świadomość zagrożeń wśród kadry i pracowników jest kluczowa. Kadra zarządzająca nie może już myśleć: „to problem działu IT” – ataki coraz częściej wymierzone są w ludzi i procedury, nie tylko w systemy. Koniecznie trzeba przygotować i testować Plan Ciągłości Działania (BCP) i Odtworzenia po Awarii
(DRP) oparte na Analizie Ryzyka ICT. Warto organizować szkolenia uczące rozpoznawania nowych form oszustw oraz procedury weryfikacji podejrzanych żądań. Zasada ograniczonego zaufania powinna obowiązywać na nowych polach: np. potwierdzanie ważnych poleceń finansowych drugim kanałem komunikacji (telefon do przełożonego, osobiste spotkanie) to obecnie wymóg, a nie przesadna ostrożność.
Równie ważne jest inwestowanie w nowoczesne zabezpieczenia. Coraz więcej dostawców narzędzi technologicznych oferuje rozwiązania wykorzystujące AI, do wykrywania anomalii w sieci, analizowania zachowań użytkowników czy nawet rozpoznawania syntetycznych (podrobionych) głosów i obrazów. Choć żadna technologia nie zapewnia 100% ochrony, połączenie czujności ludzi i inteligentnych systemów znacząco podnosi szanse na udaremnienie ataku, zanim spowoduje on nieodwracalne szkody.
Cyberprzestępcy wykorzystują najnowsze zdobycze technologii – od generatywnej AI po deepfake – aby przechytrzyć firmy i ich pracowników. Nie możemy lekceważyć tych zagrożeń. Każda firma, niezależnie od wielkości, powinna dziś zakładać, że może stać się celem ataku i przygotować plan obrony. W świecie, w którym obraz i dźwięk można tak łatwo podrobić, kluczowe staje się budowanie kultury cyberbezpieczeństwa – opartej na wiedzy, ograniczonym zaufaniu i zasadzie, że lepiej kilka razy sprawdzić, niż raz dać się oszukać. Dzięki
temu nawet najbardziej wyrafinowane sztuczki cyberoszustów nie zaskoczą naszej firmy.

 

https://www.pkfpolska.pl/cyberbezpieczenstwo-5887

 

Autor: Tomasz Janas
Prezes Zarządu Advisory, PKF Polska

Udostępnij post
Sprawdź najnowsze posty