Streszczenie: Wykorzystanie komercyjnych usług sztucznej inteligencji (AI) wiąże się z ryzykiem ujawnienia poufnych danych firmowych. Przykładem jest incydent w firmie Samsung, gdzie pracownik przesłał zastrzeżone informacje do ChatGPT. Obawy te przypominają wcześniejsze lęki związane z wprowadzaniem chmur obliczeniowych, które z czasem zostały rozwiane dzięki spełnieniu wymogów bezpieczeństwa i prywatności. Obecnie jednak usługi AI, zwłaszcza generatywna AI, są mniej dojrzałe pod względem zabezpieczeń. Duże modele językowe (LLM), takie jak ChatGPT, są trenowane na ogromnych zbiorach danych, często bez zgody właścicieli treści, co prowadzi do sporów prawnych, jak w przypadku pozwu przeciwko OpenAI złożonego przez grupę autorów bestsellerów, w tym George’a R.R. Martina. Firmy obawiają się, że dane przesyłane do komercyjnych usług LLM mogą zostać wykorzystane jako dane szkoleniowe. W związku z tym menedżerowie poszukują sposobów na lepszą ochronę swoich zasobów i efektywne zarządzanie danymi podczas rozwijania korporacyjnej AI, aby zdobyć i utrzymać zaufanie klientów.
Komercyjne usługi związane z wykorzystywaniem sztucznej inteligencji mogą narażać firmowe dane wrażliwe na ryzyko ujawnienia. Istnieją jednak alternatywy.
Włączenie sztucznej inteligencji do codziennej pracy na różnych szczeblach organizacji, od wyższej kadry kierowniczej po szeregowych pracowników, stwarza szanse na zwiększenie produktywności podczas wykonywania takich zadań jak pisanie notatek, tworzenie oprogramowania czy opracowywanie kampanii marketingowych. Firmy jednak słusznie obawiają się ryzyka związanego z udostępnianiem danych zewnętrznym dostawcom usług AI. Przestrogą była dla nich słynna sytuacja, kiedy pracownik firmy Samsung ujawnił zastrzeżone informacje, przesyłając je do ChatuGPT.
Przypomina to obawy, z którymi firmy mierzyły się na początku wprowadzania chmur obliczeniowych, kiedy użytkownicy martwili się o bezpieczeństwo i prawa własności danych wysyłanych do zdalnych serwerów. Teraz menedżerowie mogą bez obaw korzystać z bezpiecznych usług przetwarzania w chmurach, które spełniają wiele wymogów regulacyjnych i biznesowych związanych z bezpieczeństwem, prywatnością i własnością danych. Usługi AI, zwłaszcza generatywna sztuczna inteligencja, są pod tym względem znacznie mniej dojrzałe – częściowo dlatego, że wykorzystanie tych algorytmów jeszcze raczkuje, ale także dlatego, że systemy te mają niemal niewyczerpany apetyt na dane szkoleniowe.
Duże modele językowe (LLM), takie jak ChatGPT, zostały przeszkolone na ogromnym zbiorze treści, do których można uzyskać dostęp za pośrednictwem internetu, bez względu na to, kto jest właścicielem tych danych. Firmie OpenAI obecnie grozi pozew złożony przez grupę autorów bestsellerów, w tym George’a R.R. Martina, za wykorzystanie bez pozwolenia ich dzieł chronionych prawem autorskim w celu umożliwienia LLM‑om tworzenia plagiatów. Starając się aktywnie chronić swoje dane, tradycyjne media zaangażowały się w spory licencyjne z twórcami sztucznej inteligencji. Jednak negocjacje pomiędzy OpenAI a „The New York Times” zostały zerwane.
Firmy eksperymentujące z generatywną sztuczną inteligencją najbardziej martwią się o to, jak bezpiecznie sprawdzać możliwości wykorzystywania LLM‑ów przy wykorzystywaniu danych wewnętrznych. Obawiają się, że wszystko, co zostanie przesłane do komercyjnych usług LLM, może zostać przechwycone jako dane szkoleniowe. W jaki sposób menedżerowie mogą lepiej chronić własne, tajne zasoby, a także usprawnić zarządzanie danymi podczas rozwijania korporacyjnej sztucznej inteligencji, aby zdobyć i utrzymać zaufanie klientów?
Materiał dostępny tylko dla subskrybentów
Dołącz do subskrybentów MIT Sloan Management Review Polska Premium!
Kup subskrypcję
