Reklama
OFERTA SPECJALNA na NAJWYŻSZY pakiet subskrypcji! Wersję Platinum - OFERTA LIMITOWANA
BIZNES I TECHNOLOGIE

Niepewność AI – klucz do etycznej technologii przyszłości

5 stycznia 2022 6 min czytania
Mark Nitzberg
Niepewność AI - klucz do etycznej technologii przyszłości

Streszczenie: W obliczu coraz większych obaw związanych z rozwojem sztucznej inteligencji, pojawia się potrzeba zmiany podejścia do projektowania algorytmów. Aktualnie wykorzystywane mechanizmy, jak te w serwisach społecznościowych, niejednokrotnie wzmacniają negatywne zjawiska, takie jak dezinformacja czy polityczna polaryzacja. Problem polega na tym, że algorytmy są zaprojektowane z myślą o maksymalnym zaangażowaniu użytkowników, co często prowadzi do promowania kontrowersyjnych treści. Zamiast dążyć do nieograniczonego zaangażowania, autorzy raportu wzywają do wdrożenia tzw. narzuconej niepewności, czyli modelu AI, który nie ma określonego celu i zamiast tego służy lepszemu zrozumieniu potrzeb użytkownika. Dzięki temu ryzyko szkodliwych skutków byłoby mniejsze, a sama technologia mogłaby działać bardziej etycznie.

Pokaż więcej

Co by było, gdyby firmy tworzyły algorytmy z myślą o potrzebach użytkowników, a nie o własnych celach?

Najpoważniejsze obawy, jakie dziś wzbudza sztuczna inteligencja, nie mają nic wspólnego z dystopijną wizją androidów przejmujących władzę nad ludzkością. Zamiast tego martwi nas, że maszyny mogą wzmacniać niepożądane ludzkie zachowania. Do najbardziej wyrazistych przykładów należy działanie algorytmów w mediach społecznościowych.

Weźmy choćby serwis YouTube, który przez lata udoskonalał mechanizmy rekomendacji mające sprawić, że użytkownik będzie stale przyklejony do ekranu. Jak w 2019 roku donosił „The New York Times”, wielu skrajnie prawicowych twórców nauczyło się tak nagrywać materiały, by były atrakcyjne dla algorytmu, i w ten sposób kierować wielu użytkowników w stronę coraz bardziej skrajnych treści. W odpowiedzi na to YouTube podjął działania obejmujące między innymi usuwanie z serwisu mowy nienawiści. Według niezależnych badań, których wyniki opublikowano w 2019 roku, YouTube swego czasu dobrze radził sobie z eliminacją „radykalnych lub skrajnych treści” i ze zniechęcaniem internautów do nich. Ale już dwa lata później, w czerwcu 2021 roku, nowe badania dowiodły, że serwis, choć przecież nie taka była intencja jego założycieli, przyczyniał się do podsycania podziałów społecznych i rozpowszechniania szkodliwej dezinformacji.

Twitter i Facebook, mierząc się z podobnymi kontrowersjami, podjęły podobne kroki w celu uporania się z fałszywymi informacjami i nienawistnymi treściami. Skoro jednak celem działalności tych firm jest utrzymanie użytkowników na platformie, to trudno oczekiwać, by zmieniły model biznesowy na taki, który całkowicie uniemożliwi promowanie problematycznych treści.

Algorytmy, takie jak mechanizm rekomendacji YouTube’a, są przecież zaprogramowane z myślą o jednym rezultacie: maksymalnym zaangażowaniu użytkownika. Za pomocą uczenia maszynowego system adaptuje się i optymalizuje, bazując na zachowaniach użytkowników. Im bardziej popularna treść, tym częściej algorytm rekomenduje ją innym osobom – wszystko w imię realizacji tego zadania.

Z perspektywy społeczeństwa może to mieć dalekosiężne konsekwencje. Jak to ujął senator Chris Coons, komentujący zeznania szefów YouTube’a, Facebooka i Twittera składane przed Kongresem, „te algorytmy wzmacniają fałszywe informacje, napędzając polityczną polaryzację, rozpraszając nas i izolując nas od innych”.

Chcąc temu zaradzić, firmy i liderzy muszą przemyśleć etyczne implikacje modeli biznesowych bazujących na technologii. W jaki sposób jednak miałby działać algorytm, skoro cel tego działania nie byłby z góry założony?

Bez ustalonego celu

Autorzy raportu przygotowanego dla Center for Human‑Compatible AI wzywają do wdrożenia nowego modelu AI. Koncentrującego się na idei, która może wydawać się radykalna, czyli na tzw. narzuconej niepewności (explicit uncertainty). Algorytm działający w ramach tego modelu nie miałby wyznaczonego żadnego celu, a każdy jego krok służyłby odkrywaniu potrzeb użytkownika.

Taki model AI niósłby ze sobą mniejsze ryzyko wyrządzenia poważnych szkód. Fakt, że użytkownik obejrzał i polubił jakąś treść, nie powodowałby, że serwis zarekomenduje ją milionom innych, gdyż zaangażowanie użytkowników nie byłoby założonym celem jego działania.

Zgodnie z naszym modelem algorytm przypominałby otwartą księgę, osobną dla każdego użytkownika. Aby poznać potrzeby użytkownika, algorytm pytałby go relatywnie często – zwłaszcza na początku – co chciałby zobaczyć. Przykładowo klipowi wideo czy artykułowi mógłby towarzyszyć komunikat: „Czy chciałbyś zweryfikować fakty na ten temat w jednym z poniższych źródeł?”. Jeśli internauta wybierze którąś z opcji, sztuczna inteligencja nauczy się, że właśnie taka propozycja jest akceptowana i w przyszłości będzie mogła oferować mu więcej podobnych zasobów. W pewnym stopniu podobny mechanizm widzimy obecnie w systemach nawigacyjnych, które pytają: „Czy chcesz jechać alternatywną trasą, żeby zaoszczędzić 20 minut?”. Takie doświadczenie zachęca użytkowników do zatrzymania się i rozważenia, co będzie dla nich najkorzystniejsze i najbardziej użyteczne.

Inny przykład – wyobraźmy sobie fabrykę, w której algorytm zarządza linią produkcyjną. Jeśli jego celem jest wytworzenie tak wielu produktów, jak tylko się da, może nadać jej zbyt dużą szybkość, ryzykując wypadki przy pracy i obrażenia personelu. Gdyby zamiast tego algorytm od samego początku nie miał założonego celu, zapamiętałby tempo pracy i nauczyłby się działać z ludźmi w harmonii, optymalizując efektywność produkcji przy odpowiedniej dla nich prędkości.

Większa rola człowieka

Poprzez projektowanie algorytmów w bardziej zorientowany na użytkownika sposób, organizacja mogłaby utrudnić osobom działającym w złej wierze „ogrywanie” systemu i wpływanie na doświadczenia innych. Projektanci mogliby zaszyć w systemach mechanizmy służące odkrywaniu preferencji użytkowników, a może nawet takie, które zachęcałyby ich do aktywnego wyrażania własnych upodobań.

Naturalnie ludzkie błędy poznawcze i niedostatki zawsze będą problemem. Nie da się zapobiec każdej potencjalnej szkodzie, jaką może spowodować każdy wytwór człowieka – nie inaczej jest ze sztuczną inteligencją. A jednak ten nowy model, czyniąc normę z narzuconej niepewności, pomógłby to osiągnąć. Taki paradygmat zachęciłby firmy i liderów do spojrzenia na modele biznesowe w długoterminowej perspektywie, z uwzględnieniem potrzeb użytkowników, oraz dałby możliwość zabezpieczenia się przed potencjalnymi niezamierzonymi konsekwencjami.

Możemy uczynić sztuczną inteligencję bardziej elastyczną oraz sprawić, by lepiej odpowiadała na potrzeby pojedynczych osób i była podporządkowana ich osobistym wyborom. Algorytmy w coraz większym stopniu wpływają na nasz świat – czas na zmianę kursu.

O autorach
Tematy

Może Cię zainteresować

Od bankructwa do marki premium. Czego o zarządzaniu uczy historia Delta Air Lines?

Kiedy w ciągu trzech miesięcy przychody spadają do zera, a firma musi skurczyć operacje o połowę, podręcznikowe zarządzanie sugeruje cięcia etatów. Ed Bastian, CEO Delta Air Lines, wybrał jednak inną drogę. W szczerej rozmowie z McKinsey wyjaśnia, dlaczego w czasach dominacji sztucznej inteligencji i niestabilności geopolitycznej to „wspomagana inteligencja” oraz radykalna lojalność wobec pracowników stanowią o przewadze konkurencyjnej firmy, która właśnie świętuje swoje stulecie.

AI wywraca handel do góry nogami. Jak wygrywać w erze „AI-first”?

Sztuczna inteligencja nie tylko przegląda internet – ona rekomenduje produkty i umożliwia ich bezpośredni zakup. Platformy takie jak ChatGPT, Google AI czy Perplexity zmieniają zasady gry w retailu. Detaliści stoją przed strategicznym wyborem: walczyć o bycie miejscem docelowym, poddać się rynkowej ewaluacji czy przyjąć model hybrydowy?

Promocje to za mało. Czego oczekują klienci w czasie świątecznych zakupów 2025?

Jak bardzo sfrustrowani są klienci w czasie świątecznych zakupów poziomem obsługi klienta? Jeden z kluczowych wskaźników (CX Index) dla konsumentów spada nieprzerwanie od czterech lat. Oprócz elementów stanowiących „niezbędne minimum”, takich jak bezproblemowy proces płatności, sprzedawcy powinni skupić się na pięciu priorytetach: znaczeniu osobistej ekspresji, pozycjonowaniu opartym na wartości, programach lojalnościowych, technologiach wspierających oraz szybkości biznesowej.

Budowanie odporności organizacji Prawdziwa odporność to potrzeba rzadszej, a nie szybszej regeneracji

Odporność organizacji to nie kwestia tego, jak szybko zespoły wracają do równowagi, lecz jak rzadko w ogóle muszą się podnosić. Odkryj, jak liderzy mogą budować systemy pracy, które chronią ludzi przed wypaleniem, rozkładają presję i wprowadzają kulturę regeneracji. Poznaj praktyczne wskazówki, które pomogą przekształcić wysiłek w zrównoważony sukces.

pokorna autentyczność w przywództwie Czy jesteś autentycznym liderem, a może autentycznym… bucem?

Autentyczność to cenna cecha lidera, ale może też stać się przeszkodą, jeśli nie towarzyszy jej pokora i otwartość na feedback. Dowiedz się, jak rozwijać „pokorną autentyczność”, by budować zaufanie i skutecznie wpływać na zespół.

Światło, które naprawdę pracuje razem z Tobą. Jak oświetlenie wpływa na komfort i efektywność w biurze

Nowoczesne biura coraz częściej wykorzystują światło jako narzędzie wspierające koncentrację, kreatywność i dobrostan zespołów. Eksperci Bene i Waldmann pokazują, że właściwie zaprojektowane oświetlenie staje się integralnym elementem środowiska pracy – wpływa na procesy poznawcze, emocje oraz rytm biologiczny, a jednocześnie podnosi efektywność organizacji.

Multimedia
Neverending Start-up. Jak zarządzać firmą na przekór kryzysom? Lekcje Krzysztofa Folty

Jak przetrwać transformację ustrojową, pęknięcie bańki internetowej, kryzys budowlany, krach finansowy 2008 roku i pandemię, budując przy tym firmę wartą ponad miliard złotych? Gościem Pawła Kubisiaka jest Krzysztof Folta – założyciel i wieloletni prezes TIM S.A., autor strategii „Neverending Startup”. W szczerej rozmowie dzieli się lekcjami z ponad 40 lat prowadzenia biznesu – od biura na 16 metrach kwadratowych w PRL-u, po stworzenie giganta e-commerce w branży elektrotechnicznej.

Od gry w Go do Nagrody Nobla: Jak AlphaFold zmienia biznes farmaceutyczny

Kiedy Google DeepMind zaczynało prace nad strukturami białek, wielu wątpiło, czy AI znana z gier planszowych poradzi sobie z „wielkim wyzwaniem biologii”. Dziś, z Nagrodą Nobla na koncie, twórcy AlphaFold udowadniają, że to dopiero początek rewolucji. Jak narzędzie, które skróciło czas badań z miesięcy do godzin, wpływa na branżę farmaceutyczną i dlaczego naukowcy porównują je do „ChatGPT dla biologii”? Poznaj kulisy technologii, która rewolucjonizuje proces odkrywania leków.

Umiejętności negocjacyjne. Jak pokonać lęk i osiągać lepsze wyniki

Kiedy niepewni negocjatorzy angażują się w zachowania takie jak nieśmiałe prośby, zbyt szybkie ustępowanie lub przegapianie korzystnych kompromisów, ograniczają własny sukces – i swój potencjał do poprawy. Liderzy mogą pomóc członkom zespołu rozwijać zaawansowane umiejętności przy stole negocjacyjnym i w tym procesie zwiększać ich pewność siebie. Postępuj zgodnie z trzema podejściami do poprawy umiejętności negocjacyjnych i poznaj pięć pytań, na które każdy powinien umieć odpowiedzieć przed rozpoczęciem negocjacji.

Era przedsiębiorstwa agentowego: Jak nawigować w dobie AI

Czy jesteśmy świadkami końca ery „gadającej i piszącej” sztucznej inteligencji? Najnowszy raport MIT Sloan Management Review i Boston Consulting Group sugeruje, że tak. Wchodzimy w fazę, w której AI przestaje być tylko inteligentnym asystentem, a staje się autonomicznym współpracownikiem. To zmiana paradygmatu, która wymusza na liderach zmianę struktur, procesów i – co najważniejsze – nowe podejście do zaufania.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!