Streszczenie: Artykuł analizuje wyzwania związane z przypisaniem odpowiedzialności producentom sztucznej inteligencji ogólnego przeznaczenia (GPAI). Wskazuje na potrzebę wprowadzenia kompleksowych regulacji prawnych, które uwzględniają specyfikę tych technologii. Podkreśla znaczenie przejrzystości w procesie tworzenia i wdrażania modeli AI oraz konieczność monitorowania ich wpływu na użytkowników i społeczeństwo. Artykuł sugeruje, że odpowiedzialność powinna być dzielona między producentów, dostawców i użytkowników, z uwzględnieniem ich roli w cyklu życia systemu AI. Zwraca również uwagę na potrzebę międzynarodowej współpracy w zakresie tworzenia standardów i norm dotyczących odpowiedzialności za AI.
Czy twórcy generatywnych modeli AI mogą ponosić odpowiedzialność za swoje produkty? A jeśli tak, to jak tę odpowiedzialność zdefiniować i skutecznie egzekwować? Zastanawiają się na tym eksperci zaproszeni przez „MIT Sloan Management Review”.
Od czterech lat rok do roku „MIT Sloan Management Review” oraz Boston Consulting Group (BCG) organizują międzynarodowy panel ekspertów w dziedzinie AI. W jego skład weszli naukowcy i praktycy, a ich celem była próba zrozumienia, jak w w organizacjach na całym świecie wdrażana jest odpowiedzialna sztuczna inteligencja (Responsible AI, RAI). W ubiegłym roku eksperci wypowiadali się w szerokim zakresie tematów m.in. o zdolności organizacji do zarządzania ryzykiem związanym z AI, przygotowaniem na europejskie rozporządzenie o sztucznej inteligencji, znaczenia przejrzystości w zakresie ujawniania informacji o algorytmach, a także wyzwań związanych z globalnym chaosem regulacyjnym w obszarze zarządzania AI.
Tegoroczna dyskusja zaczęła się od kwestii związanych z odpowiedzialnością producentów modeli sztucznej inteligencji ogólnego przeznaczenia (general-purpose AI, GPAI). Nazywany również modelem podstawowym, GPAI odnosi się do modelu lub systemu sztucznej inteligencji zdolnego do wykonywania szerokiego zakresu zadań poznawczych, który można łatwo zintegrować z różnymi systemami lub aplikacjami niższego rzędu. Przykładem są generatywne modele AI, które – po odpowiednim dostrojeniu – mogą wspierać różne zastosowania, takie jak np. obsługa klienta za pośrednictwem chatbota.
Producenci GPAI powinni ponosić odpowiedzialność za swoje produkty. Wymaga to jednak złożonego i wieloaspektowego podejścia.
Z tym poglądem zgadza się lub zdecydowanie się zgadza aż 73% respondentów. Biorąc pod uwagę skalę możliwości i rosnący wpływ systemów GPAI, odpowiedzialność za ich rozwój i użytkowanie to kluczowa kwestia do osiągnięcia wyników zgodnych z etyką AI, jak również korzystnych z perspektywy biznesowej. Jednak ustanowienie odpowiedzialności za rozwój tych systemów jest wyjątkowo trudne, ponieważ w przeciwieństwie do tradycyjnych statycznych produktów, ewoluują one wraz z użytkowaniem. Wdrażanie GPAI niemal zawsze wiąże się z jego dalszym rozwojem. W takim kontekście nasuwa się pytanie: czy w ogóle możliwe jest skuteczne pociągnięcie producentów GPAI do odpowiedzialności za ich produkty?

W obliczu tej złożonej sytuacji zapytaliśmy ekspertów o to, czy producenci sztucznej inteligencji ogólnego przeznaczenia (np. takie firmy jak DeepSeek, OpenAI czy Anthropic) mogą być pociągnięci do odpowiedzialności za sposób wykorzystywania swoich produktów. Zdecydowana większość (73%) zgadza się lub zdecydowanie zgadza się z tym stwierdzeniem. Argumentowali , że producenci GPAI wręcz powinni być rozliczani ze swoich działań. Jednocześnie podkreślali, że będzie to wymagało wielowymiarowego podejścia, które uwzględnia złożone łańcuchy wartości AI oraz liczne podmioty zaangażowane w funkcjonowanie tego ekosystemu.
W dalszej części tekstu dzielimy się spostrzeżeniami naszych panelistów i korzystamy z własnego doświadczenia w zakresie RAI (odpowiedzialnej sztucznej inteligencji), by zaproponować konkretne rekomendacje dotyczące tego, w jaki sposób pociągać organizacje opracowujące rozwiązania AI ogólnego przeznaczenia do odpowiedzialności za ich produkty.
Przeczytaj także: Sztuczna inteligencja i prawdziwa odpowiedzialność
Odpowiedzi panelistów
Wszystkie firmy mogą zostać pociągnięte do odpowiedzialności, producenci GPAI nie są u wyjątkiem. Nasi eksperci w zdecydowanej większości uważają, że producenci sztucznej inteligencji ogólnego przeznaczenia mogą zostać pociągnięci do odpowiedzialności za swoje produkty.
Jeff Easley, dyrektor generalny RAI Institute, tłumaczy: „Tak jak firmy farmaceutyczne odpowiadają za bezpieczeństwo leków, a producenci samochodów – za standardy pojazdów, tak samo rozsądne są oczekiwania, że firmy tworzące AI przeprowadzą rygorystyczne testy, wdrożą odpowiednie środki bezpieczeństwa i zastosują się do wytycznych dotyczących etycznego wprowadzania AI podczas procesu rozwoju”. Podobnego zdania jest Yan Chow, globalny lider ds. opieki zdrowotnej w firmie Automation Anywhere: „Producenci AI ogólnego przeznaczenia mogą, a wręcz powinni być pociągani do odpowiedzialności za sposób opracowywania swoich produktów, tak jak firmy sprzedające inne towary i usługi są odpowiedzialne za sposób produkcji, projektowanie produktów, badanie ich zagrożenia dla bezpieczeństwa, spełnianie obietnic marketingowych i w końcu za recykling odpadów”.
Zdecydowanie się zgadzam
„Każda firma może zostać pociągnięta do odpowiedzialności za sposób, w jaki rozwija swoje produkty. Ta kwestii nie pozostawia jakichkolwiek wątpliwości” – stwierdził Teemu Roos z Uniwersytetu Helsińskiego. Według Richarda Benjaminsa, założyciela i dyrektora generalnego RAIght.ai, skala wpływu producentów GPAI jest ważnym czynnikiem przy rozważaniach na temat ich odpowiedzialności: „Każda firma może i powinna ponosić odpowiedzialność za sposób opracowywania produktów. Tym bardziej tyczy się to systemów AI ogólnego przeznaczenia, z których korzystają miliony ludzi na całym świecie, wywierają one ogromny wpływ na biznes, społeczeństwo, środowisko naturalne i rynek pracy”. Z tym stanowiskiem zgadza się Damina Satija z Amnesty International, który zauważył, że w branżach, w których technologia może znacząco wpływać na dobrobyt lub prawa jednostki oraz całej społeczności – jak przemysł spożywczy, farmaceutyczny czy lotniczy – regulacje i nadzór nie mogą być pozostawione wyłącznie decyzji podmiotów prywatnych. Aby pociągnąć producentów GPAI do rzeczywistej odpowiedzialności, niezbędne są wiążące przepisy. Choć wśród ekspertów panuje konsensus co do potrzeby wzięcia odpowiedzialności, wielu z nich wyraża sceptycyzm, czy jest to w ogóle możliwe bez odpowiednich regulacji prawnych. Globalny dyskurs na temat zarządzania AI skupia się głównie na tych producentach, którzy sami siebie regulują poprzez niewiążące zasady etycznego lub odpowiedzialnego korzystania z AI. Są to jednak reguły, które w każdej chwili można odrzucić bez ponoszenia jakiejkolwiek odpowiedzialności. Philip Dawson, szef polityki AI w Armilla AI podkreślił, że większość obowiązków spoczywających na twórcach modeli podstawowych ma obecnie charakter dobrowolny i opiera się na ogólnych, niewiążących ramach. „Systemy AI są często udostępniane w takiej postaci, w jakiej je stworzono – bez gwarancji dokładności, bezpieczeństwa czy niezawodności. Takie działanie przenosi to odpowiedzialność na użytkowników. Dzieje się tak, pomimo że ci użytkownicy – podobnie jak kolejni producenci korzystający z modeli GPAI – nie mają dostępu do szczegółów opracowywania modeli GPAI lub danych wykorzystywanych do ich trenowania” – dodał Tshilidzi Marwala z United Nations University. Simon Chesterman, profesor i wicerektor Narodowego Uniwersytetu Singapuru ostrzega, że bez silniejszych regulacji, nakazów przejrzystości i zewnętrznego nadzoru odpowiedzialność programistów AI pozostanie raczej teoretyczna niż realna. Panelista również podkreślił tę dysproporcję w nadzorze. „Gdyby na uniwersytecie opracowano system zdolny pełnić funkcję terapeuty lub przyjaciela, instytucjonalne komisje nadzorcze i panele etyczne czuwałyby nad procesem wdrażania. Takie zabezpieczenia nie są jednak stosowane w przypadku prywatnych firm rozwijających podobne technologie”.
Na szczęście systemy GPAI coraz częściej podlegają regulacjom. Franziska Weindauer, CEO TÜV AI.Lab, wskazała że kluczowe dla zapewnienia przejrzystości, rozliczalności i zaufania są takie inicjatywy jak Kodeks postępowania w zakresie ogólnego zastosowania sztucznej inteligencji opracowany przez Komisję Europejską, nowe unijne rozporządzenie o sztucznej inteligencji (AI Act) i ogólne rozporządzenie UE o ochronie danych osobowych (RODO). Z kolei Rainer Hoffmann, dyrektor ds. danych w EnBW, podkreślił znaczenie wymogów zawartych w unijnym rozporządzeniu o AI. Zgodnie z nimi producenci GPAI będą zobowiązani do przekazywania Europejskiemu Urzędowi ds. Sztucznej Inteligencji, a także dostawcom aplikacji końcowych, informacji technicznych o swoich modelach, wraz z podsumowaniem wykorzystanych danych szkoleniowych
Zgadzam się
„Obecnie obowiązujące przepisy dotyczą przede wszystkim deweloperów aplikacji i podmiotów wdrażających rozwiązania. To na nich przerzucony jest cały ciężar zapewnienia bezpieczeństwa AI i odpowiedzialnego jej wykorzystywania. Jeśli wystąpi incydent – bez względu na to, czy z powodu stronniczych wyników, podatności użytkownika na ataki, czy innych awarii – odpowiedzialność spada na wdrażającego. Nawet jeśli bezpośrednia przyczyna leżała w modelu” – zauważył Philip Dawson z Armilla AI. Z kolei Shelley McKinley, dyrektorka ds. prawnych GitHub, zgadza się, że potrzeba regulacji produktów AI ogólnego przeznaczenia niczym nie różni się od potrzeby regulacji działalności innych firm i branż. Ekspertka uważa jednak, że regulacja powinna przenosić odpowiedzialność na producentów komercyjnych, nie zaś na deweloperów tworzących otwarte komponenty, które mogą zostać zintegrowane z takimi systemami. Brak ochrony w stosunku do takich deweloperów mógłby bowiem wpłynąć na niekorzyść przyszłych innowacji. Rozporządzenie UE o AI zdaje się odzwierciedlać te obawy, gdyż przewiduje pewne wyjątki dla rozwiązań open source oraz łagodzi wymogi wobec GPAI rozwijanych w oparciu o otwarte licencje. Eksperci podkreślają, że oprócz regulacji, potrzebne są wielowymiarowe ramy odpowiedzialności. Jai Ganesh, dyrektor ds. produktów w Harman Digital Transformation Solutions, proponuje, aby połączyć branżowe wytyczne i standardy etyczne; ramy regulacyjne w celu ustanowienia jasnych reguł i przepisy dotyczące rozwoju AI; obowiązek przeprowadzania audytów i oceny w celu ułatwienia identyfikacji potencjalnych zagrożeń i błędów w systemach AI. Do tego konieczne jest ustalenie ram związanych z przejrzystością i możliwością poznania sposobów działania systemów AI. Natomiast Yasodara Cordova z Unico IDtech uważa, że niezależne audyty i zewnętrzny nadzór mogą wzmocnić poczucie odpowiedzialności, a zachęty, takie jak możliwość uzyskania certyfikatów zgodności i finansowania AI chroniącej prywatność, mogą zachęcać do etycznego rozwoju. Nanjira Sambuli z Carnegie Endowment for International Peace opowiada się za połączeniem narzędzi kontroli: audytów, ocen i open source, podczas gdy Ryan Carrier, założyciel ForHumanity, dodaje, że decyzje podejmowane przez nabywców i konsumentów z uwzględnieniem bezpieczeństwa modeli mogą dodatkowo wzmacniać odpowiedzialność producentów GPAI. Amit Shah, założyciel Instalily, ostrzega jednak przed zbyt daleko idącą odpowiedzialnością producentów GPAI: „Obwinianie twórców AI za każde niezamierzone zastosowanie czy złośliwe użycie ignoruje zarówno podmiotowość wdrażających, jak i złożoność realnych scenariuszy. Tak jak producent samochodów nie odpowiada za każdego pirata drogowego, tak firmy AI nie mogą kontrolować każdego nieprzewidzianego rezultatu wykorzystania algorytmów”. Sameer Gupta, dyrektor ds. analityki w DBS Bank, postrzega jednak analogię do samochodu inaczej: „Producenci muszą spełniać standardy bezpieczeństwa, dystrybutorzy – zapewnić jakość konkretnego pojazdu, a kierowcy – przejść szkolenie. Podobnie rzecz się ma w przypadku AI: producenci powinni minimalizować ryzyko niewłaściwego wykorzystywania modeli, organizacje wdrażające – opracować własne ramy zarządzania, a użytkownicy – zdobywać wiedzę o ryzyku i zapobieganiu mu”.
„Bezpieczeństwo to sport zespołowy” – podsumowuje Rebecca Finlay, dyrektorka generalna Partnership on AI.
Producenci GPAI mogą zostać pociągnięci do odpowiedzialności za sposoby wykorzystania, które są w stanie przewidzieć
Stefaan Verhulst, współzałożyciel GovLab, opowiada się za rozłożeniem odpowiedzialności w ekosystemie AI w oparciu o kontrolę i wpływ. Podkreśla, że twórcy GPAI powinni zapewnić przejrzystość, zabezpieczenia techniczne i bezpieczeństwo swoich modelu. Z kolei Elizabeth Anne Watkins, badaczka w Intel Labs, pociągnęłaby producentów GPAI do odpowiedzialności za odpowiedzialne gromadzenie, etykietowanie, sortowanie i selekcjonowanie danych szkoleniowych. Yan Chow podkreśla znaczenie właściwego doboru treści treningowych, przeciwdziałania stronniczości, filtrowania danych oraz prowadzenia dokładnej dokumentacji znanych ograniczeń i zagrożeń, a Finlay uzupełnia listę praktyk, które mogą zwiększyć odpowiedzialność producentów GPA o selekcjonowanie i filtrowanie danych szkoleniowych, wewnętrzne testy typu red teaming (próby hakowania systemu) oraz dostarczanie dokumentacji, np. kart modeli dla programistów niższego szczebla. Jednocześnie Tshilidzi Marwala wskazuje na różnicę między odpowiedzialnością etyczną a odpowiedzialnością prawną. W rezultacie eksperci zaznaczają, że trzeba przełożyć odpowiedzialność etyczną na odpowiedzialność prawną. „W przypadku wypadków drogowych obowiązują jasno określone procedury i wytyczne – w kontekście incydentów związanych z AI takich ram wciąż brakuje” – wyjaśnia Gupta. Philip Dawson zgadza się z tym podejściem. Ostrzega jednak: „Z uwagi na złożoność tych systemów prześledzenie źródła błędów i udowodnienie związku przyczynowego może być niezwykle trudne”.
„Niezwykle trudno jest określić, czy problem pojawiający się podczas korzystania z ogólnego modelu AI jest wynikiem sposobu, w jaki producenci opracowali produkt, czy też sposobu, w jaki wdrażający i/lub użytkownik wykorzystali ten produkt” – doprecyzowuje Ben Dias, główny naukowiec ds. AI w IAG. W rezultacie w praktyce twórcy modeli podstawowych pozostają w dużej mierze zwolnieni z odpowiedzialności.
Zgadzam się
Wątpliwości budzi również zakres, w jakim producenci mogą zostać pociągnięci do odpowiedzialności za nieprzewidziane niewłaściwe użycie i niezamierzone konsekwencje wykorzystywania modeli oraz za szersze skutki społeczne, takie jak wpływ na rynek pracy i gospodarkę. W jakim stopniu to powinno się odbywać? Są to przecież obszary, w których firmy mają ograniczoną kontrolę. „Mimo to można argumentować, że mają obowiązek przewidywania i łagodzenia potencjalnych szkód„ – przyznaje Linda Leopold z Grupy H&M. Bruno Bioni, dyrektor założyciel Data Privacy Brasil, uważa, że odpowiedzialność, podobnie jak jej egzekwowanie, powinna być analizowana w świetle określonych zasad, takich jak obowiązek zachowania ostrożności, przewidywanie ryzyka i wdrożenie odpowiednich zabezpieczeń technicznych i prawnych. Ramy te powinny być proporcjonalne do stopnia kontroli i wpływu, jaki każdy podmiot wywiera na cały system. Rebecca Finlay podkreśla, że odpowiedzialność producentów GPAI powinna być rozpatrywana w ramach całego łańcucha wartości AI. Carrier wskazuje natomiast na potrzebę zaistnienia stosownych orzeczeń sądowych dla producentów GPAI, które pomogą przy jednoznacznym zdefiniowaniu poziomu ich odpowiedzialności.
Przeczytaj także: Dlaczego sztuczna inteligencja powinna być odpowiedzialna
Rekomendacje
W jaki sposób można wspierać podnoszenie odpowiedzialności w całym ekosystemie sztucznej inteligencji ogólnego przeznaczenia?
1. Producenci GPAI powinni ponosić odpowiedzialność.
Odpowiedzialność za systemy GPAI zaczyna się od tych, którzy je opracowują. Katia Walsh, liderka ds. AI w Apollo Global Management, podkreśla, że niezwykle ważne jest włączenie zasad etyki i odpowiedzialności od samego początku i stworzenie fundamentów dla technologii, która przysłuży się do rozwoju ludzkości, ponieważ producenci GPAI nie mogą być pociągnięci do odpowiedzialności za każdy wynik tego, co opracowują. W tym zakresie producenci GPAI mogą przestrzegać ustalonych wytycznych etycznych dotyczących AI i standardów branżowych. Oznacza to m.in. przeprowadzanie regularnych audytów i oceny skutków, a także niezależne opinie stron trzecich dotyczące wydajności modelu, uczciwości i bezpieczeństwa. Priorytetowe powinno być traktowanie przejrzystości, w tym obowiązkowe publikowanie raportów i udostępnianie karty modeli, zapewnianie zgodności z obowiązującymi przepisami prawa i regulacjami, w tym przepisami dotyczącymi prywatności, i przyjmowanie odpowiedzialności za incydenty i szkody spowodowane przez ich modele.
2. Firmy powinny aktywnie wpływać na decydentów politycznych w celu jak najszybszego wprowadzania odpowiednich przepisów.
Dla firm kluczowe jest aktywne uczestnictwo w grupach wielostronnych utworzonych przez organy regulacyjne i decydentów politycznych, by wspierać wdrażanie istniejących przepisów oraz wskazywać kierunki ustanawiania przyszłych. Tego typu zaangażowanie może pomóc pociągnąć wszystkie jednostki w ekosystemie AI do odpowiedzialności za swoją rolę w łańcuchu wartości. Na przykład odnotowano zauważalny brak zaangażowania przemysłu w kluczowe grupy robocze w UE, które wpływają na rozwój i interpretację ram regulacyjnych, takich jak Kodeks postępowania w zakresie ogólnego przeznaczenia AI. Bez większego zaangażowania biznesu twórcy GPAI będą nadal nadreprezentowani w tych grupach, co może podważyć wysiłki na rzecz większej odpowiedzialności.
3. Firmy powinny lepiej współpracować ze sobą, aby określić wymagania dotyczące przejrzystości.
Aby promować odpowiedzialność producentów GPAI, firmy powinny wspólnie określić potrzeby dotyczące przejrzystości. Zamiast skupiać się na sztywnych standardach, mogą przedstawić swoje oczekiwania na temat tego, jakie dane wejściowe są wymagane do skutecznej integracji modeli GPAI. Przykładowo, ich zalecenia dotyczące przejrzystości mogłyby obejmować interpretowalność modelu, wykorzystanie danych, uczciwość oraz kryteria podejmowania decyzji, które kierują rozwojem modeli przez deweloperów GPAI.
4. Legislatorzy powinni zapewnić solidne ramy prawne jako fundament odpowiedzialności.
Wiążące regulacje są niezbędne do zapewnienia pełnej odpowiedzialności producentów GPAI. Zasady same w sobie jednak nie wystarczą. Ich przełożenie na praktyczne ramy działania oraz odpowiedzialność prawną może wymagać powołania niezależnych, zewnętrznych instytucji nadzorujących, wyposażonych w specjalistyczną wiedzę techniczną i odpowiednie zasoby. Takie organizacje powinny nakazywać i nadzorować raportowanie o przejrzystości, egzekwować regularne audyty i oceny skutków działania oraz badać wpływające skargi. Powinny także promować współpracę transgraniczną w zakresie ram odpowiedzialności, wspierać najlepsze praktyki i standardy branżowe oraz angażować opinię publiczną i szerokie grono interesariuszy.
O panelu
W międzynarodowym panelu ponad 50 praktyków branżowych, naukowców, badaczy i decydentów podzieliło się swoimi poglądami na kluczowe kwestie dotyczące odpowiedzialnej AI. W ciągu pięciu miesięcy paneliści odpowiadali na pytania dotyczące odpowiedzialnej AI i starali się przedstawić krótkie uzasadnienie swoich poglądów.
Źródło: How to Hold General-Purpose AI Producers Accountable


