Dołącz do grona liderów, którzy chcą więcej
AI SZTUCZNA INTELIGENCJA

Dlaczego sztuczna inteligencja powinna być odpowiedzialna

13 czerwca 2024 4 min czytania
Elizabeth M. Renieris
Steven Mills
Zdjęcie David Kiron - dyrektor ds. wydawniczych w „MIT Sloan Management Review” oraz współautor książki Workforce Ecosystems: Reaching Strategic Goals with People, Partners, and Technology (MIT Press, 2023)
David Kiron
Dlaczego sztuczna inteligencja powinna być odpowiedzialna

Streszczenie: Zewnętrzne algorytmy sztucznej inteligencji niosą ze sobą poważne ryzyka komercyjne, prawne i reputacyjne dla firm. Przykłady obejmują przypadki rozpowszechniania fałszywych informacji przez ChatGPT, co doprowadziło do niesłusznych oskarżeń i pozwów o zniesławienie. Dodatkowo, incydenty takie jak nieumyślne ujawnienie poufnych danych przez pracowników Samsunga, którzy wprowadzili je do ChatGPT, skłoniły firmy takie jak JPMorgan i Verizon do zablokowania dostępu do czatbotów AI w swoich systemach korporacyjnych. MIT Sloan Management Review Polska Wiele organizacji nie posiada polityk regulujących korzystanie z AI przez pracowników, co prowadzi do zjawiska "shadow AI", gdzie narzędzia sztucznej inteligencji są używane bez wiedzy i kontroli menedżerów. Obecne programy odpowiedzialnej sztucznej inteligencji (RAI) często koncentrują się na wewnętrznych systemach, pomijając te dostarczane przez zewnętrznych dostawców, mimo że większość firm korzysta właśnie z takich rozwiązań. MIT Sloan Management Review Polska Aby skutecznie zarządzać ryzykiem związanym z AI, organizacje powinny przyjąć proaktywne podejście, obejmujące zarówno wewnętrzne, jak i zewnętrzne narzędzia. Etyczne zasady powinny być stosowane niezależnie od źródła pochodzenia systemu AI, ponieważ dla poszkodowanych nie ma znaczenia, czy narzędzie zostało opracowane wewnętrznie czy zakupione na rynku. MIT Sloan Management Review Polska

Pokaż więcej

Zagrożenia i porażki wywołane przez zewnętrzne algorytmy sztucznej inteligencji sprawiają firmom problemy natury komercyjnej, prawnej i reputacyjnej. Większość organizacji ignoruje to ryzyko.

Miesiące, które upłynęły od premiery algorytmu ChatGPT firmy OpenAI, nie tylko pokazały możliwości sztucznej inteligencji, ale też obnażyły problemy natury etycznej oraz niepowodzenia, które może przynieść jej wykorzystanie. Pojawiły się niezliczone przykłady fałszywych informacji podawanych przez tego czatbota, a wśród nich przypadek niesłusznego oskarżenia profesora prawa o molestowanie seksualne, a także wplątanie burmistrza australijskiego miasta w fikcyjny skandal korupcyjny, co doprowadziło do złożenia pierwszego pozwu o zniesławienie przeciwko czatbotowi. W kwietniu o firmie Samsung zrobiło się głośno za sprawą trójki pracowników, którzy niechcący wypuścili w świat poufne dane, w tym notatki ze spotkań i kod źródłowy oprogramowania, bo wprowadzili je do ChatuGPT. Tego typu doniesienia popchnęły wiele organizacji, między innymi JPMorgan i Verizon, do zablokowania dostępu do czatbotów wykorzystujących sztuczną inteligencję z poziomu swoich systemów korporacyjnych. Niemal połowa firm uczestniczących w niedawno przeprowadzonej przez Bloomberga ankiecie stwierdziła, że opracowuje politykę regulującą korzystanie z czatbotów przez pracowników, co sugeruje, że sporo organizacji dało się zaskoczyć i nie spodziewało się takiego obrotu spraw.

Niewątpliwie szybki rozwój sztucznej inteligencji utrudnia odpowiedzialne z niej korzystanie i sprawia, że inicjatywy firm na rzecz odpowiedzialnej sztucznej inteligencji (responsible artificial intelligence, RAI) ledwo nadążają za dokonującym się postępem. Na przykład pojawia się coraz więcej zagrożeń natury komercyjnej, prawnej i reputacyjnej, spowodowanych rosnącą zależnością wielu organizacji od coraz obfitszej oferty narzędzi AI oferowanych przez dostawców zewnętrznych. Przybierająca na sile popularność generatywnej sztucznej inteligencji – algorytmów (takich jak ChatGPT, Dall‑E czy Midjourney) wykorzystujących dane treningowe do generowania realistycznych albo z pozoru prawdziwych tekstów, obrazów i dźwięków – powoduje, że coraz trudniej zarządzać używaniem AI w pracy. W niektórych przypadkach menedżerowie nawet nie mają pojęcia o tym, że ich pracownicy i inne osoby związane z firmą korzystają z tego typu narzędzi. To zjawisko niekontrolowanego stosowania sztucznej inteligencji zostało określone mianem shadow AI i odnosi się do sztucznej inteligencji działającej w cieniu. Riyanka Roy Choudhury, pracowniczka naukowa ośrodka badawczego CodeX na wydziale prawa Uniwersytetu Stanforda, twierdzi, że inicjatywy wspierające odpowiedzialną sztuczną inteligencję nie powstawały z myślą o nagłych i licznych zagrożeniach wywołanych przez narzędzia generatywnej AI.

Ten trend nastręcza wielu problemów zwłaszcza organizacjom wdrażającym programy RAI skoncentrowane na tworzonych wewnętrznie narzędziach i systemach opartych na sztucznej inteligencji. Prawda jest taka, że ogromna większość analizowanych przez nas przedsiębiorstw wykorzystuje narzędzia AI pochodzące od dostawców zewnętrznych, a wśród nich większość stosuje tylko takie rozwiązania i w ogóle nie posiada własnych. Przewidywanie i przeciwdziałanie, a nie jedynie rozwiązywanie po fakcie problemów powodowanych przez sztuczną inteligencję dostarczaną z zewnątrz, wymaga proaktywnego podejścia do oceny takich rozwiązań. Z naszych badań wynika, że tego rodzaju problemy stanowią ponad połowę sytuacji, w których AI zawodzi. Linda Leopold, szefowa obszaru RAI i danych w H&M Group, zauważa: „Programy wspierające odpowiedzialne korzystanie ze sztucznej inteligencji powinny obejmować zarówno narzędzia wewnętrzne, jak i zewnętrzne. Niezależnie od pochodzenia systemu AI powinny obowiązywać te same reguły etyczne. Bo ostatecznie gdyby zdarzyło się coś złego, to dla osoby poszkodowanej nie będzie miało znaczenia, czy dane narzędzie było opracowane wewnętrznie czy kupione na rynku”.

Przejdź do artykułu

O autorach
Tematy

Może Cię zainteresować

Lekcje od pionierki innowacji Florence Nightingale

Historia Florence Nightingale to opowieść o tym, jak dane, proste instrukcje i edukacja zmieniły ochronę zdrowia i mogą inspirować liderów dziś.

Wdrażanie AI z ludzkiej perspektywy. Praktyczne lekcje

Dlaczego w wielu branżach AI wciąż budzi opór zamiast entuzjazmu? Ten tekst pokazuje, że o sukcesie wdrożeń decydują nie algorytmy, lecz ludzie, ich nawyki i sposób pracy.

Dlaczego niektórzy pracownicy zawsze odpowiadają jako ostatni i co to tak naprawdę sygnalizuje

Opóźnione odpowiedzi w pracy rzadko są przypadkowe. To często subtelny sygnał statusu i kontroli, który wpływa na tempo pracy zespołu i poziom zaufania.

Zasady przywództwa: jak procentuje inspiracja

Jak stworzyć zasady przywództwa, które naprawdę działają? Dwie szkoły biznesu pokazują, że kluczem jest współtworzenie, autentyczność i konsekwencja w działaniu – a nie same deklaracje wartości.

Gdy odpowiedzialność zespołu spada: cztery trudne pytania dla liderów

Brak odpowiedzialności w zespole rzadko wynika ze złej woli pracowników. Częściej jest skutkiem przeciążenia, niejasnych ról, nadmiaru osób i zadań oraz stylu zarządzania, który nie sprzyja otwartości. Cztery pytania pomagają liderce zdiagnozować prawdziwe źródło problemu i wprowadzić konkretne zmiany.

Dlaczego sukcesja na stanowisku CEO rzadko przynosi rzeczywistą zmianę

Chociaż firmy głośno deklarują potrzebę głębokiej transformacji, proces sukcesji na stanowisku dyrektora generalnego często sprowadza się do wyboru najbezpieczniejszej opcji. Odkryj, dlaczego zarządy wpadają w pułapkę „homospołecznej reprodukcji”, powielając znane profile menedżerskie i nieświadomie blokując strategiczny rozwój swojej organizacji.

Praca w erze AI: Zaskakująca lekcja biznesu z książki dla dzieci

Rozwój sztucznej inteligencji budzi uzasadnione obawy o przyszłość rynku pracy i stabilność zatrudnienia. Odkryj, dlaczego eksperci od zarządzania szukają odpowiedzi w klasycznej literaturze i w jaki sposób historia o przestarzałej koparce parowej może pomóc Ci zaplanować udaną reorientację kariery w nowej, technologicznej rzeczywistości.

Jak czerpać skumulowane korzyści z generatywnej sztucznej inteligencji

Jak sprawić, aby każda interakcja z generatywną sztuczną inteligencją zwiększała kompetencje organizacji, a nie tylko przyspieszała pracę? Kluczem jest przejście od konsumpcji wyników AI do systematycznego uczenia się na ich podstawie.

Cieśnina Ormuz: Które sektory i regiony najmocniej odczują skutki kryzysu?

Trwający kryzys na Bliskim Wschodzie i zakłócenia w żegludze przez Cieśninę Ormuz uderzają w globalne łańcuchy dostaw, uderzając w rynki daleko poza sektorem energetycznym. Poznaj najnowsze analizy i dowiedz się, które branże są najbardziej narażone na straty oraz w jaki sposób liderzy biznesu powinni zabezpieczyć swoje organizacje przed eskalacją ryzyka operacyjnego.

Ropa, wojna i gospodarka. Jak rynki wyceniają kryzys w Zatoce Perskiej

Szok naftowy, widmo powrotu uporczywej inflacji i geopolityczne trzęsienie ziemi na Bliskim Wschodzie. Atak USA i Izraela na Iran poddał globalne rynki brutalnej próbie stresu, jednak zamiast ślepej paniki, kapitał rozpoczął chłodną kalkulację zawirowań. Jak brzmi rynkowa narracja  na parkietach i w jaki sposób liderzy biznesu powinni nawigować w epoce nowej, ekstremalnej niepewności?

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!