Sztuczna inteligencja, zwłaszcza technologia deepfake, staje się coraz potężniejszym narzędziem w rękach przestępców, prowadząc do wzrostu oszustw finansowych i infiltracji rynku pracy. Wzrost możliwości technologicznych i powszechna dostępność narzędzi open-source obniżają barierę wejścia dla cyberprzestępców.
Oszustwa finansowe z wykorzystaniem sztucznej inteligencji, szczególnie deepfejków (generowanych przez AI wideo, audio i zdjęć), przestały być marginesem. Według raportu Citi Institute, ich udział w ogólnej liczbie fraudów wzrósł z 0,1% w 2022 r. do blisko 5% w 2024 r., a liczba deepfejków podwaja się co pół roku.
Problem ten dotyka również przedsiębiorstwa – w sektorze kredytów konsumenckich deepfejki odpowiadają za blisko 12% prób oszustw, a w branży nieruchomości za około 8%. Globalny koszt cyberprzestępczości ma osiągnąć w 2025 roku 10,5 biliona dolarów.
Niepokojącym trendem jest infiltracja miejsc pracy dzięki AI, gdzie celem jest nie tylko kradzież wynagrodzenia, ale także dostęp do systemów firmowych, tajemnic handlowych i własności intelektualnej. Prognozy wskazują, że do 2028 roku co czwarty profil kandydata do pracy na świecie może być częściowo lub całkowicie wygenerowany przez AI.
Zorganizowane grupy przestępcze i działania na szczeblu państwowym wykorzystują AI do tworzenia fałszywych CV i profili w mediach społecznościowych, a podczas rozmów kwalifikacyjnych stosują klonowanie głosu i wideo. Przykładem są działania Korei Północnej, której pracownicy IT mieli przeniknąć do ponad 320 zachodnich firm przy użyciu fałszywych tożsamości i technologii deepfake.
Wśród strategii obrony przed deepfejkami wymienia się model „zerowego zaufania” (Zero Trust), który zakłada dodatkową weryfikację każdej interakcji. Banki wykorzystują sztuczną inteligencję do analizy strumienia audio w czasie rzeczywistym, wykrywając syntetyczne artefakty pozostawione przez przestępców.
Eksperci przewidują, że społeczeństwo z czasem nauczy się lepiej rozpoznawać deepfejki, podobnie jak ma to miejsce w przypadku spamu e-mailowego. Paradoksalnie, duża ilość niskiej jakości treści generowanych przez AI (tzw. AI slop) może pomóc w identyfikacji oszustw, zwiększając świadomość społeczną i zapotrzebowanie na dowody autentyczności treści.
Źródło: https://www.bankier.pl/wiadomosc/Nie-ufaj-temu-co-widzisz-i-slyszysz-Tak-AI-zmienia-oszustwa-bankowosc-czy-rynek-pracy-9058679.html
