w8w logo
10 grudnia, 2025

Nieautoryzowane użycie AI w firmach prowadzi do wycieku poufnych danych

Pracownicy coraz częściej używają narzędzi AI bez zgody firmy, co tworzy zjawisko „shadow AI”. Niekontrolowane wykorzystanie technologii prowadzi do poważnego ryzyka wycieku poufnych informacji.

Czym jest zjawisko shadow AI

Termin „shadow AI” opisuje sytuacje, w których pracownicy korzystają z narzędzi sztucznej inteligencji, takich jak ChatGPT, Gemini czy Copilot, bez wiedzy i zgody pracodawcy. Choć często wynika to z chęci zwiększenia produktywności, stwarza to poważne zagrożenie dla bezpieczeństwa danych firmowych.

Problem pojawia się, gdy do publicznie dostępnych modeli AI wprowadzane są poufne informacje, takie jak dane klientów, strategie biznesowe czy fragmenty umów. Organizacja traci wówczas kontrolę nad tym, gdzie i jak te dane są przetwarzane, co może prowadzić do ich nieodwracalnego wycieku.

Główne zagrożenia i scenariusze wycieku

Według Matta Ausmana, CIO w Zebra Technologies, największym ryzykiem jest ujawnienie na zewnątrz poufnych danych firmowych, w tym finansowych, własności intelektualnej czy danych osobowych. Informacje te mogą być przechwytywane, przechowywane i wykorzystywane do trenowania modeli AI, często bez świadomości użytkownika.

Eksperci wskazują, że od 13% do nawet 45% danych wprowadzanych do narzędzi generatywnej AI może zawierać informacje wrażliwe. Do ich ujawnienia może dojść poprzez ponowne wykorzystanie danych przez dostawcę usługi AI lub w wyniku cyberataku na jego infrastrukturę.

Konsekwencje i środki zaradcze

Niekontrolowane użycie AI otwiera furtkę dla cyberprzestępców, którzy wykorzystują wyciekłe dane do tworzenia zaawansowanych oszustw typu deepfake czy phishing. Raport Elastic 2025 Global Threat Report wskazuje na 15% wzrost wykorzystania AI do tworzenia złośliwego oprogramowania w ciągu ostatniego roku.

Aby zminimalizować ryzyko, firmy powinny wprowadzać formalne polityki korzystania z AI, określając dozwolone narzędzia i zasady ich użycia. Kluczowe jest połączenie rozwiązań technicznych, takich jak blokowanie nieautoryzowanych usług, z regularną edukacją pracowników na temat zagrożeń.

Źródło: https://www.bankier.pl/wiadomosc/Sztuczna-inteligencja-za-plecami-szefa-Shadow-AI-rosnie-w-sile-i-zagraza-klientom-9045436.html

Comments are closed

    Powiązane wpisy