GDPR.pl – ochrona danych osobowych w UE, RODO, IOD

Niekontrolowane wykorzystywanie narzędzi AI rodzi poważne ryzyko wycieku danych

Niekontrolowane wykorzystywanie narzędzi AI rodzi poważne ryzyko wycieku danych

Niekontrolowane wykorzystywanie narzędzi AI rodzi poważne ryzyko wycieku danych

Zgodnie z raportem Cyberhaven Labs, pracownicy coraz częściej i coraz chętniej wykorzystują narzędzia AI w codziennej pracy. Niestety, często robią to bez zgody, a nawet wiedzy organizacji. W rezultacie może dochodzić do tzw. „shadow AI”, czyli wykorzystywania narzędzi AI przez pracowników (np. Chat GPT) z użyciem ich prywatnych kont, bez wiedzy przełożonych. Zjawisko to może natomiast rodzić znaczne ryzyko związane z przetwarzaniem danych osobowych w organizacji.

Przebadanych ponad 3 miliony pracowników

Jak czytamy na stronie internetowej Cyberhaven, raport został przygotowany w oparciu o wzorce wykorzystywania narzędzi AI przez 3 miliony pracowników. Zgodnie z raportem, zastosowanie sztucznej inteligencji w pracy rośnie w tempie wykładniczym, podobnie jak ilość danych korporacyjnych przesyłanych do narzędzi AI. Według wyliczeń Cyberhaven, od marca 2023 r. do marca 2024 r. ilość danych korporacyjnych umieszczonych przez pracowników w narzędziach AI wzrosła aż o 485 procent!

AI uczy się danych organizacji

Raport Cyberhaven Labs kładzie duży naciska na problem zjawiska „shadow AI”. Pracownicy często wykorzystują narzędzia AI bez zgody właściwych działów w firmie (np. IT, czy działu bezpieczeństwa), a w niektórych przypadkach nawet bez ich wiedzy. Cyberhaven zwraca uwagę, że nieświadomi pracownicy w ten sposób w rzeczywistości dostarczają sztucznej inteligencji wiedzy do nauki. To może z kolei doprowadzić do sytuacji, w której określone narzędzie AI przyswoi niejawne dane organizacji, a następnie wykorzysta je do wygenerowania określonej treści dla innego użytkownika.

Meta wykorzysta dane do szkolenia AI  – bez Twojej zgody

Cyberhaven zwraca uwagę, że OpenAI w sierpniu 2023 r. uruchomiło wersję korporacyjną ChatGPT (Chat GPT Enterprise). Wersja ta oferuje lepsze zabezpieczenia oraz gwarancje, że informacje od klientów korporacyjnych nie będą wykorzystywane do szkolenia modeli dostępnych publicznie, co może zapobiec wyciekom danych. Raport Cyberhaven Labs wskazuje jednak, że wciąż znaczna ilość pracowników korzysta w pracy z prywatnych, niekomercyjnych, kont Chat GPT, co napędza dalszy wzrost zjawiska „shadow AI”.

Pracownicy coraz częściej przekazują AI cenne dane

Cyberhaven podkreśla w raporcie, że zaobserwować można znaczny wzrost udostępniania w narzędziach AI danych z jakichś względów wrażliwych lub szczególnie chronionych. W marcu 2024 r. aż 27% danych, które zostały umieszczone przez pracowników w narzędziach AI stanowiło tego typu dane, podczas gdy rok wcześniej odsetek ten wynosił 10,7%. Według raportu, najczęstszym rodzajem wrażliwych informacji, które umieszczane są przez pracowników w narzędziach AI stanowią dane zgromadzone w związku z obsługą klienta, obejmujące jego poufne informacje (16,3%). Duży odsetek stanowią również dane związane z kodami źródłowymi (12,7%).

Sztuczna Inteligencja (AI) oczami organów nadzoru

Edukacja przede wszystkim

Nie ma wątpliwości, że niekontrolowane wykorzystywanie przez pracowników narzędzi AI, w tym  poprzez ich prywatne konta, może generować znaczne problemy dla organizacji, w tym np. doprowadzić do wycieku danych osobowych. Trzeba mieć świadomość, że administrator może utracić kontrolę nad danymi osobowymi w momencie, w którym dane te zostaną przesłane do narzędzia sztucznej inteligencji (np. Chat GPT). Bardzo ważne jest więc odpowiednie wewnętrzne uregulowanie zasad korzystania z narzędzi AI w organizacji oraz odpowiednie przeszkolenie pracowników w tym zakresie.

 

Źródło:

https://www.cyberhaven.com/blog/shadow-ai-how-employees-are-leading-the-charge-in-ai-adoption-and-putting-company-data-at-risk