Strona główna > Autorzy > Elizabeth M. Renieris
redaktorka gościnna cyklu Big Idea poświęconego odpowiedzialnej sztucznej inteligencji w „MIT Sloan Management Review”, starsza pracowniczka naukowa w Instytucie Etyki Sztucznej Inteligencji na Uniwersytecie Oksfordzkim, stypendystka w Centre for International Governance Innovation oraz autorka książki Beyond Data: Reclaiming Human Rights at the Dawn of the Metaverse (MIT Press, 2023)
Eksperci debatują, czy wdrożenie agentowej sztucznej inteligencji wymaga nowego podejścia do zarządzania.
Już czwarty rok z rzędu „MIT Sloan Management Review” i Boston Consulting Group (BCG) gromadzą międzynarodowy panel ekspertów w dziedzinie sztucznej inteligencji złożony zarówno z naukowców, jak i praktyków, aby lepiej zrozumieć, jak w organizacjach na całym świecie wdrażana jest odpowiedzialna sztuczna inteligencja (responsible AI). Wiosną 2025 r. przeprowadziliśmy również globalne badanie wśród kadry zarządzającej, zebraliśmy 1 221 odpowiedzi na temat tego, w jakim stopniu przedsiębiorstwa zajmują się kwestią odpowiedzialnego wykorzystania AI. Ostatnio badaliśmy zależność między możliwością wyjaśnienia działań AI a nadzorem człowieka jako kluczowymi mechanizmami odpowiedzialności za systemy AI. Tym razem przyglądamy się bliżej kwestii odpowiedzialności w kontekście agentowej sztucznej inteligencji (agentic AI). Choć nie ma jednej powszechnie przyjętej definicji, termin ten odnosi się ogólnie do systemów AI, które samodzielnie, bez stałego nadzoru człowieka dążą do realizacji celów, podejmując decyzje, wykonując działania i adaptując się do zmieniającego się otoczenia. MIT AI Agent Index wskazuje, że wykorzystanie tego typu systemów rośnie zwłaszcza w takich obszarach jak inżynieria oprogramowania czy obsługa klienta. Dzieje się to pomimo ograniczonej transparentności w zakresie technicznych komponentów takich rozwiązań, ich przeznaczenia oraz poziomu bezpieczeństwa.
Czy twórcy generatywnych modeli AI mogą ponosić odpowiedzialność za sposób, w jaki rozwijają swoje produkty? Jeśli tak, to w jaki sposób – zastanawiają się eksperci.
Już czwarty rok z rzędu MIT Sloan Management Review oraz Boston Consulting Group (BCG) zorganizowały międzynarodowy panel ekspertów w dziedzinie AI. W jego skład weszli naukowcy i praktycy, celem zrozumienia, jak w jak w organizacjach na całym świecie wdrażana jest odpowiedzialna sztuczna inteligencja (Responsible AI, RAI). W ubiegłym roku eksperci wypowiadali się w szerokim zakresie tematów m.in. odnośnie: zdolności organizacji do zarządzania ryzykiem związanym z AI, przygotowania na europejskie rozporządzenie o sztucznej inteligencji, znaczenia przejrzystości w zakresie ujawniania informacji o algorytmach, a także wyzwań związanych z globalnym chaosem regulacyjnym w obszarze zarządzania AI.
Tegoroczna dyskusja zaczyna się od kwestii odpowiedzialności producentów modeli sztucznej inteligencji ogólnego przeznaczenia (ang. general-purpose AI, GPAI). Nazywany również modelem podstawowym, GPAI odnosi się do modelu lub systemu sztucznej inteligencji zdolnego do wykonywania szerokiego zakresu zadań poznawczych, który można łatwo zintegrować z różnymi systemami lub aplikacjami niższego rzędu. Przykładem są generatywne modele AI, które – po odpowiednim „dostrojeniu” – mogą wspierać różne zastosowania, takie jak zapewnienie obsługi klienta za pośrednictwem chatbota.
Zagrożenia i porażki wywołane przez zewnętrzne algorytmy sztucznej inteligencji sprawiają firmom problemy natury komercyjnej, prawnej i reputacyjnej. Większość organizacji ignoruje to ryzyko.
Zagrożenia i porażki wywołane przez zewnętrzne algorytmy sztucznej inteligencji sprawiają firmom problemy natury komercyjnej, prawnej i reputacyjnej. Większość organizacji ignoruje to ryzyko.
Miesiące, które upłynęły od premiery algorytmu ChatGPT firmy OpenAI, nie tylko pokazały możliwości sztucznej inteligencji, ale też obnażyły problemy natury etycznej oraz niepowodzenia, które może przynieść jej wykorzystanie. Pojawiły się niezliczone przykłady fałszywych informacji podawanych przez tego czatbota, a wśród nich przypadek niesłusznego oskarżenia profesora prawa o molestowanie seksualne, a także wplątanie burmistrza australijskiego miasta w fikcyjny skandal korupcyjny, co doprowadziło do złożenia pierwszego pozwu o zniesławienie przeciwko czatbotowi. W kwietniu o firmie Samsung zrobiło się głośno za sprawą trójki pracowników, którzy niechcący wypuścili w świat poufne dane, w tym notatki ze spotkań i kod źródłowy oprogramowania, bo wprowadzili je do ChatuGPT. Tego typu doniesienia popchnęły wiele organizacji, między innymi JPMorgan i Verizon, do zablokowania dostępu do czatbotów wykorzystujących sztuczną inteligencję z poziomu swoich systemów korporacyjnych. Niemal połowa firm uczestniczących w niedawno przeprowadzonej przez Bloomberga ankiecie stwierdziła, że opracowuje politykę regulującą korzystanie z czatbotów przez pracowników, co sugeruje, że sporo organizacji dało się zaskoczyć i nie spodziewało się takiego obrotu spraw.
Niewątpliwie szybki rozwój sztucznej inteligencji utrudnia odpowiedzialne z niej korzystanie i sprawia, że inicjatywy firm na rzecz odpowiedzialnej sztucznej inteligencji (responsible artificial intelligence, RAI) ledwo nadążają za dokonującym się postępem. Na przykład pojawia się coraz więcej zagrożeń natury komercyjnej, prawnej i reputacyjnej, spowodowanych rosnącą zależnością wielu organizacji od coraz obfitszej oferty narzędzi AI oferowanych przez dostawców zewnętrznych. Przybierająca na sile popularność generatywnej sztucznej inteligencji – algorytmów (takich jak ChatGPT, Dall‑E czy Midjourney) wykorzystujących dane treningowe do generowania realistycznych albo z pozoru prawdziwych tekstów, obrazów i dźwięków – powoduje, że coraz trudniej zarządzać używaniem AI w pracy. W niektórych przypadkach menedżerowie nawet nie mają pojęcia o tym, że ich pracownicy i inne osoby związane z firmą korzystają z tego typu narzędzi. To zjawisko niekontrolowanego stosowania sztucznej inteligencji zostało określone mianem shadow AI i odnosi się do sztucznej inteligencji działającej w cieniu. Riyanka Roy Choudhury, pracowniczka naukowa ośrodka badawczego CodeX na wydziale prawa Uniwersytetu Stanforda, twierdzi, że inicjatywy wspierające odpowiedzialną sztuczną inteligencję nie powstawały z myślą o nagłych i licznych zagrożeniach wywołanych przez narzędzia generatywnej AI.
Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!