Najpopularniejsze tematy:

Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Jesteś Subskrybentem? Zaloguj się

Premium

Subskrybenci wiedzą więcej!

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>
Dlaczego sztuczna inteligencja powinna być odpowiedzialna

Zagrożenia i porażki wywołane przez zewnętrzne algorytmy sztucznej inteligencji sprawiają firmom problemy natury komercyjnej, prawnej i reputacyjnej. Większość organizacji ignoruje to ryzyko.

Miesiące, które upłynęły od premiery algorytmu ChatGPT firmy OpenAI, nie tylko pokazały możliwości sztucznej inteligencji, ale też obnażyły problemy natury etycznej oraz niepowodzenia, które może przynieść jej wykorzystanie. Pojawiły się niezliczone przykłady fałszywych informacji podawanych przez tego czatbota, a wśród nich przypadek niesłusznego oskarżenia profesora prawa o molestowanie seksualne, a także wplątanie burmistrza australijskiego miasta w fikcyjny skandal korupcyjny, co doprowadziło do złożenia pierwszego pozwu o zniesławienie przeciwko czatbotowi. W kwietniu o firmie Samsung zrobiło się głośno za sprawą trójki pracowników, którzy niechcący wypuścili w świat poufne dane, w tym notatki ze spotkań i kod źródłowy oprogramowania, bo wprowadzili je do ChatuGPT. Tego typu doniesienia popchnęły wiele organizacji, między innymi JPMorgan i Verizon, do zablokowania dostępu do czatbotów wykorzystujących sztuczną inteligencję z poziomu swoich systemów korporacyjnych. Niemal połowa firm uczestniczących w niedawno przeprowadzonej przez Bloomberga ankiecie stwierdziła, że opracowuje politykę regulującą korzystanie z czatbotów przez pracowników, co sugeruje, że sporo organizacji dało się zaskoczyć i nie spodziewało się takiego obrotu spraw.

Niewątpliwie szybki rozwój sztucznej inteligencji utrudnia odpowiedzialne z niej korzystanie i sprawia, że inicjatywy firm na rzecz odpowiedzialnej sztucznej inteligencji (responsible artificial intelligence, RAI) ledwo nadążają za dokonującym się postępem. Na przykład pojawia się coraz więcej zagrożeń natury komercyjnej, prawnej i reputacyjnej, spowodowanych rosnącą zależnością wielu organizacji od coraz obfitszej oferty narzędzi AI oferowanych przez dostawców zewnętrznych. Przybierająca na sile popularność generatywnej sztucznej inteligencji – algorytmów (takich jak ChatGPT, Dall‑E czy Midjourney) wykorzystujących dane treningowe do generowania realistycznych albo z pozoru prawdziwych tekstów, obrazów i dźwięków – powoduje, że coraz trudniej zarządzać używaniem AI w pracy. W niektórych przypadkach menedżerowie nawet nie mają pojęcia o tym, że ich pracownicy i inne osoby związane z firmą korzystają z tego typu narzędzi. To zjawisko niekontrolowanego stosowania sztucznej inteligencji zostało określone mianem shadow AI i odnosi się do sztucznej inteligencji działającej w cieniu. Riyanka Roy Choudhury, pracowniczka naukowa ośrodka badawczego CodeX na wydziale prawa Uniwersytetu Stanforda, twierdzi, że inicjatywy wspierające odpowiedzialną sztuczną inteligencję nie powstawały z myślą o nagłych i licznych zagrożeniach wywołanych przez narzędzia generatywnej AI.

Ten trend nastręcza wielu problemów zwłaszcza organizacjom wdrażającym programy RAI skoncentrowane na tworzonych wewnętrznie narzędziach i systemach opartych na sztucznej inteligencji. Prawda jest taka, że ogromna większość analizowanych przez nas przedsiębiorstw wykorzystuje narzędzia AI pochodzące od dostawców zewnętrznych, a wśród nich większość stosuje tylko takie rozwiązania i w ogóle nie posiada własnych. Przewidywanie i przeciwdziałanie, a nie jedynie rozwiązywanie po fakcie problemów powodowanych przez sztuczną inteligencję dostarczaną z zewnątrz, wymaga proaktywnego podejścia do oceny takich rozwiązań. Z naszych badań wynika, że tego rodzaju problemy stanowią ponad połowę sytuacji, w których AI zawodzi. Linda Leopold, szefowa obszaru RAI i danych w H&M Group, zauważa: „Programy wspierające odpowiedzialne korzystanie ze sztucznej inteligencji powinny obejmować zarówno narzędzia wewnętrzne, jak i zewnętrzne. Niezależnie od pochodzenia systemu AI powinny obowiązywać te same reguły etyczne. Bo ostatecznie gdyby zdarzyło się coś złego, to dla osoby poszkodowanej nie będzie miało znaczenia, czy dane narzędzie było opracowane wewnętrznie czy kupione na rynku”.

Przejdź do artykułu

STEVEN MILLS

dyrektor zarządzający i partner w BCG, gdzie pełni funkcję głównego specjalisty ds. etyki AI

ELIZABETH M. RENIERIS

redaktorka gościnna cyklu Big Idea poświęconego odpowiedzialnej sztucznej inteligencji w „MIT Sloan Management Review”, starsza pracowniczka naukowa w Instytucie Etyki Sztucznej Inteligencji na Uniwersytecie Oksfordzkim, stypendystka w Centre for International Governance Innovation oraz autorka książki Beyond Data: Reclaiming Human Rights at the Dawn of the Metaverse (MIT Press, 2023)

David Kiron

dyrektor ds. wydawniczych w „MIT Sloan Management Review” oraz współautor książki Workforce Ecosystems: Reaching Strategic Goals with People, Partners, and Technology (MIT Press, 2023)

Polecane artykuły


Najpopularniejsze tematy