Reklama
OFERTA SPECJALNA na NAJWYŻSZY pakiet subskrypcji! Wersję Platinum - OFERTA LIMITOWANA
Premium
Komunikacja
Magazyn (Nr 23, kwiecień - maj 2024)

Dlaczego sztuczna inteligencja powinna być odpowiedzialna

1 kwietnia 2024 21 min czytania
Elizabeth M. Renieris
Steven Mills
Zdjęcie David Kiron - dyrektor ds. wydawniczych w „MIT Sloan Management Review” oraz współautor książki Workforce Ecosystems: Reaching Strategic Goals with People, Partners, and Technology (MIT Press, 2023)
David Kiron
Dlaczego sztuczna inteligencja powinna być odpowiedzialna

Streszczenie: Sztuczna inteligencja (AI) staje się integralną częścią wielu organizacji, jednak jej nieodpowiedzialne stosowanie może prowadzić do poważnych zagrożeń. Przykłady takie jak fałszywe informacje generowane przez ChatGPT, niesłuszne oskarżenia czy wycieki poufnych danych po wprowadzeniu ich do AI podkreślają potrzebę odpowiedzialnego zarządzania tymi technologiami. Zjawisko „shadow AI”, polegające na niekontrolowanym używaniu narzędzi AI przez pracowników bez wiedzy przełożonych, dodatkowo komplikuje sytuację. Eksperci zwracają uwagę na konieczność proaktywnego podejścia do oceny i zarządzania rozwiązaniami AI, zarówno tymi rozwijanymi wewnętrznie, jak i pochodzącymi od zewnętrznych dostawców, aby uniknąć potencjalnych ryzyk. MIT Sloan Management Review Polska

Pokaż więcej

Zagrożenia i porażki wywołane przez zewnętrzne algorytmy sztucznej inteligencji sprawiają firmom problemy natury komercyjnej, prawnej i reputacyjnej. Większość organizacji ignoruje to ryzyko.

Miesiące, które upłynęły od premiery algorytmu ChatGPT firmy OpenAI, nie tylko pokazały możliwości sztucznej inteligencji, ale też obnażyły problemy natury etycznej oraz niepowodzenia, które może przynieść jej wykorzystanie. Pojawiły się niezliczone przykłady fałszywych informacji podawanych przez tego czatbota, a wśród nich przypadek niesłusznego oskarżenia profesora prawa o molestowanie seksualne, a także wplątanie burmistrza australijskiego miasta w fikcyjny skandal korupcyjny, co doprowadziło do złożenia pierwszego pozwu o zniesławienie przeciwko czatbotowi. W kwietniu o firmie Samsung zrobiło się głośno za sprawą trójki pracowników, którzy niechcący wypuścili w świat poufne dane, w tym notatki ze spotkań i kod źródłowy oprogramowania, bo wprowadzili je do ChatuGPT. Tego typu doniesienia popchnęły wiele organizacji, między innymi JPMorgan i Verizon, do zablokowania dostępu do czatbotów wykorzystujących sztuczną inteligencję z poziomu swoich systemów korporacyjnych. Niemal połowa firm uczestniczących w niedawno przeprowadzonej przez Bloomberga ankiecie stwierdziła, że opracowuje politykę regulującą korzystanie z czatbotów przez pracowników, co sugeruje, że sporo organizacji dało się zaskoczyć i nie spodziewało się takiego obrotu spraw.

Niewątpliwie szybki rozwój sztucznej inteligencji utrudnia odpowiedzialne z niej korzystanie i sprawia, że inicjatywy firm na rzecz odpowiedzialnej sztucznej inteligencji (responsible artificial intelligence, RAI) ledwo nadążają za dokonującym się postępem. Na przykład pojawia się coraz więcej zagrożeń natury komercyjnej, prawnej i reputacyjnej, spowodowanych rosnącą zależnością wielu organizacji od coraz obfitszej oferty narzędzi AI oferowanych przez dostawców zewnętrznych. Przybierająca na sile popularność generatywnej sztucznej inteligencji – algorytmów (takich jak ChatGPT, Dall‑E czy Midjourney) wykorzystujących dane treningowe do generowania realistycznych albo z pozoru prawdziwych tekstów, obrazów i dźwięków – powoduje, że coraz trudniej zarządzać używaniem AI w pracy. W niektórych przypadkach menedżerowie nawet nie mają pojęcia o tym, że ich pracownicy i inne osoby związane z firmą korzystają z tego typu narzędzi. To zjawisko niekontrolowanego stosowania sztucznej inteligencji zostało określone mianem shadow AI i odnosi się do sztucznej inteligencji działającej w cieniu. Riyanka Roy Choudhury, pracowniczka naukowa ośrodka badawczego CodeX na wydziale prawa Uniwersytetu Stanforda, twierdzi, że inicjatywy wspierające odpowiedzialną sztuczną inteligencję nie powstawały z myślą o nagłych i licznych zagrożeniach wywołanych przez narzędzia generatywnej AI.

Zostało 89% materiału do przeczytania

Materiał dostępny tylko dla subskrybentów

Dołącz do subskrybentów MIT Sloan Management Review Polska Premium!

Kup subskrypcję
O autorach
Tematy

Może Cię zainteresować

przywództwo bez hierarchii w korporacji Jak Samsung Electronics Polska rzuca wyzwanie hierarchii

W obliczu rosnącej złożoności biznesu hierarchiczne modele zarządzania coraz częściej zawodzą. Artykuł analizuje, jak Samsung Electronics Polska wdraża koncepcję „Leader to Leader”, odwracając tradycyjną piramidę decyzyjną. Na przykładzie tej transformacji pokazujemy, dlaczego bezpieczeństwo psychologiczne, decentralizacja decyzji i świadome oddanie kontroli mogą stać się źródłem przewagi konkurencyjnej nawet w najbardziej sformalizowanych organizacjach.

Wideokonferencje i nowoczesne biuro: jak technologia i przestrzeń tworzą nowy standard współpracy. CZĘŚĆ II

Jak wybrać kabinę akustyczną do pracy hybrydowej, by spotkania online były naprawdę efektywne? W drugiej części cyklu pokazujemy checklistę decyzji, typowe błędy oraz technologie Jabra, które zapewniają widoczność i świetny dźwięk.

Wideokonferencje i nowoczesne biuro: jak technologia i przestrzeń tworzą nowy standard współpracy. CZĘŚĆ I

Wideokonferencje nie działają „same z siebie”. O jakości spotkań hybrydowych decyduje widoczność, dźwięk i przestrzeń, która wspiera koncentrację. Sprawdź, jak technologia Jabra i kabiny akustyczne Bene tworzą nowy standard współpracy.

Niektórzy wcale nie ciepią na wypalenie. Są wyczerpani etycznie

Wypalenie zawodowe jest powszechnym zjawiskiem wśród osób pracujących pod nieustanną presją. Ale nie zawsze jest to właściwa diagnoza. Gdy ludzie są wyczerpani pracą, która wydaje się pusta lub niespójna z ich wartościami, problemem nie jest brak wytrzymałości. Problemem jest brak sensu. Dopóki organizacje nie będą gotowe skonfrontować się z tym rozróżnieniem, będą nadal leczyć niewłaściwy problem i dziwić się, że nic się nie zmienia.

 

Poradnik CEO: Jak radzić sobie z trudnymi członkami rad nadzorczych

Prezesi i dyrektorzy zarządzający (CEO) nie unikną kontaktu z trudnymi osobowościami w radach nadzorczych, ale mogą nauczyć się mitygować wyzwania, jakie te postaci stwarzają. Kluczem do sukcesu jest odróżnienie problemów personalnych od wadliwych procesów, współpraca z kluczowymi sojusznikami oraz konsekwentne wzmacnianie relacji w celu budowania wartości biznesowej.

AI w polskiej medycynie: lepsza diagnostyka vs. ryzyko utraty kompetencji

Polskie szpitale i uczelnie medyczne coraz śmielej korzystają z możliwości sztucznej inteligencji – od precyzyjnej diagnostyki onkologicznej w Tychach, po zaawansowane systemy wizyjne rozwijane na AGH. Algorytmy stają się „drugim okiem” lekarza, istotnie zwiększając wykrywalność zmian nowotworowych. Jednak za technologiczną euforią kryje się ryzyko nazywane „lenistwem poznawczym” – lekarze wspierani przez AI tracą biegłość w samodzielnej diagnozie.

Puste przeprosiny w pracy, czyli więcej szkody niż pożytku

Większość menedżerów uważa, że szczere wyznanie winy zamyka temat błędu. Tymczasem w środowisku zawodowym puste deklaracje skruchy działają gorzej niż ich brak – budują kulturę nieufności i wypalają zespoły. Jeśli po Twoim „przepraszam” następuje „ale”, właśnie wysłałeś sygnał, że nie zamierzasz nic zmieniać.

Dlaczego 95% wdrożeń AI kończy się porażką? I jak znaleźć 5% tych udanych?

Sztuczna inteligencja nie jest dziś wyzwaniem technologicznym, lecz testem dojrzałości organizacyjnej. W rozmowie z Tomaszem Kostrząbem AI jawi się nie jako cel sam w sobie, ale jako narzędzie głębokiej transformacji procesów, ról i sposobu myślenia liderów. Tekst pokazuje, dlaczego większość wdrożeń AI kończy się porażką, gdzie firmy popełniają kluczowe błędy oraz jak połączyć technologię z ludźmi i biznesem, by osiągnąć realną wartość.

zarządzanie szybkim wzrostem firmy Jak radzić sobie z szybkim wzrostem

Szybki wzrost organizacji niesie ze sobą wyzwania związane z podziałami między wczesnymi członkami zespołu a nowo przyjętymi pracownikami. Kluczem do sukcesu jest budowanie wspólnego języka, tożsamości oraz kultury sprzeciwu, które pomagają skutecznie integrować różnorodne zespoły i wykorzystywać potencjał różnorodności.

Od czego zacząć porządkowanie analityki internetowej?

Chaotyczna analityka internetowa prowadzi do błędnych decyzji i nieefektywnego wydatkowania budżetów marketingowych. Audyt danych, właściwa konfiguracja GA4, zarządzanie zgodami oraz centralizacja tagów w Google Tag Managerze to fundamenty, od których należy zacząć porządkowanie analityki, aby realnie wspierała cele biznesowe.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!