Komercyjne usługi związane z wykorzystywaniem sztucznej inteligencji mogą narażać firmowe dane wrażliwe na ryzyko ujawnienia. Istnieją jednak alternatywy.
Włączenie sztucznej inteligencji do codziennej pracy na różnych szczeblach organizacji, od wyższej kadry kierowniczej po szeregowych pracowników, stwarza szanse na zwiększenie produktywności podczas wykonywania takich zadań jak pisanie notatek, tworzenie oprogramowania czy opracowywanie kampanii marketingowych. Firmy jednak słusznie obawiają się ryzyka związanego z udostępnianiem danych zewnętrznym dostawcom usług AI. Przestrogą była dla nich słynna sytuacja, kiedy pracownik firmy Samsung ujawnił zastrzeżone informacje, przesyłając je do ChatuGPT.
Przypomina to obawy, z którymi firmy mierzyły się na początku wprowadzania chmur obliczeniowych, kiedy użytkownicy martwili się o bezpieczeństwo i prawa własności danych wysyłanych do zdalnych serwerów. Teraz menedżerowie mogą bez obaw korzystać z bezpiecznych usług przetwarzania w chmurach, które spełniają wiele wymogów regulacyjnych i biznesowych związanych z bezpieczeństwem, prywatnością i własnością danych. Usługi AI, zwłaszcza generatywna sztuczna inteligencja, są pod tym względem znacznie mniej dojrzałe – częściowo dlatego, że wykorzystanie tych algorytmów jeszcze raczkuje, ale także dlatego, że systemy te mają niemal niewyczerpany apetyt na dane szkoleniowe.
Duże modele językowe (LLM), takie jak ChatGPT, zostały przeszkolone na ogromnym zbiorze treści, do których można uzyskać dostęp za pośrednictwem internetu, bez względu na to, kto jest właścicielem tych danych. Firmie OpenAI obecnie grozi pozew złożony przez grupę autorów bestsellerów, w tym George’a R.R. Martina, za wykorzystanie bez pozwolenia ich dzieł chronionych prawem autorskim w celu umożliwienia LLM‑om tworzenia plagiatów. Starając się aktywnie chronić swoje dane, tradycyjne media zaangażowały się w spory licencyjne z twórcami sztucznej inteligencji. Jednak negocjacje pomiędzy OpenAI a „The New York Times” zostały zerwane.
Firmy eksperymentujące z generatywną sztuczną inteligencją najbardziej martwią się o to, jak bezpiecznie sprawdzać możliwości wykorzystywania LLM‑ów przy wykorzystywaniu danych wewnętrznych. Obawiają się, że wszystko, co zostanie przesłane do komercyjnych usług LLM, może zostać przechwycone jako dane szkoleniowe. W jaki sposób menedżerowie mogą lepiej chronić własne, tajne zasoby, a także usprawnić zarządzanie danymi podczas rozwijania korporacyjnej sztucznej inteligencji, aby zdobyć i utrzymać zaufanie klientów?