Co by było, gdyby firmy tworzyły algorytmy z myślą o potrzebach użytkowników, a nie o własnych celach?
Najpoważniejsze obawy, jakie dziś wzbudza sztuczna inteligencja, nie mają nic wspólnego z dystopijną wizją androidów przejmujących władzę nad ludzkością. Zamiast tego martwi nas, że maszyny mogą wzmacniać niepożądane ludzkie zachowania. Do najbardziej wyrazistych przykładów należy działanie algorytmów w mediach społecznościowych.
Weźmy choćby serwis YouTube, który przez lata udoskonalał mechanizmy rekomendacji mające sprawić, że użytkownik będzie stale przyklejony do ekranu. Jak w 2019 roku donosił „The New York Times”, wielu skrajnie prawicowych twórców nauczyło się tak nagrywać materiały, by były atrakcyjne dla algorytmu, i w ten sposób kierować wielu użytkowników w stronę coraz bardziej skrajnych treści. W odpowiedzi na to YouTube podjął działania obejmujące między innymi usuwanie z serwisu mowy nienawiści. Według niezależnych badań, których wyniki opublikowano w 2019 roku, YouTube swego czasu dobrze radził sobie z eliminacją „radykalnych lub skrajnych treści” i ze zniechęcaniem internautów do nich. Ale już dwa lata później, w czerwcu 2021 roku, nowe badania dowiodły, że serwis, choć przecież nie taka była intencja jego założycieli, przyczyniał się do podsycania podziałów społecznych i rozpowszechniania szkodliwej dezinformacji.
Twitter i Facebook, mierząc się z podobnymi kontrowersjami, podjęły podobne kroki w celu uporania się z fałszywymi informacjami i nienawistnymi treściami. Skoro jednak celem działalności tych firm jest utrzymanie użytkowników na platformie, to trudno oczekiwać, by zmieniły model biznesowy na taki, który całkowicie uniemożliwi promowanie problematycznych treści.
Algorytmy, takie jak mechanizm rekomendacji YouTube’a, są przecież zaprogramowane z myślą o jednym rezultacie: maksymalnym zaangażowaniu użytkownika. Za pomocą uczenia maszynowego system adaptuje się i optymalizuje, bazując na zachowaniach użytkowników. Im bardziej popularna treść, tym częściej algorytm rekomenduje ją innym osobom – wszystko w imię realizacji tego zadania.
Z perspektywy społeczeństwa może to mieć dalekosiężne konsekwencje. Jak to ujął senator Chris Coons, komentujący zeznania szefów YouTube’a, Facebooka i Twittera składane przed Kongresem, „te algorytmy wzmacniają fałszywe informacje, napędzając polityczną polaryzację, rozpraszając nas i izolując nas od innych”.
Chcąc temu zaradzić, firmy i liderzy muszą przemyśleć etyczne implikacje modeli biznesowych bazujących na technologii. W jaki sposób jednak miałby działać algorytm, skoro cel tego działania nie byłby z góry założony?
Bez ustalonego celu
Autorzy raportu przygotowanego dla Center for Human‑Compatible AI wzywają do wdrożenia nowego modelu AI. Koncentrującego się na idei, która może wydawać się radykalna, czyli na tzw. narzuconej niepewności (explicit uncertainty). Algorytm działający w ramach tego modelu nie miałby wyznaczonego żadnego celu, a każdy jego krok służyłby odkrywaniu potrzeb użytkownika.
Taki model AI niósłby ze sobą mniejsze ryzyko wyrządzenia poważnych szkód. Fakt, że użytkownik obejrzał i polubił jakąś treść, nie powodowałby, że serwis zarekomenduje ją milionom innych, gdyż zaangażowanie użytkowników nie byłoby założonym celem jego działania.
Zgodnie z naszym modelem algorytm przypominałby otwartą księgę, osobną dla każdego użytkownika. Aby poznać potrzeby użytkownika, algorytm pytałby go relatywnie często – zwłaszcza na początku – co chciałby zobaczyć. Przykładowo klipowi wideo czy artykułowi mógłby towarzyszyć komunikat: „Czy chciałbyś zweryfikować fakty na ten temat w jednym z poniższych źródeł?”. Jeśli internauta wybierze którąś z opcji, sztuczna inteligencja nauczy się, że właśnie taka propozycja jest akceptowana i w przyszłości będzie mogła oferować mu więcej podobnych zasobów. W pewnym stopniu podobny mechanizm widzimy obecnie w systemach nawigacyjnych, które pytają: „Czy chcesz jechać alternatywną trasą, żeby zaoszczędzić 20 minut?”. Takie doświadczenie zachęca użytkowników do zatrzymania się i rozważenia, co będzie dla nich najkorzystniejsze i najbardziej użyteczne.
Inny przykład – wyobraźmy sobie fabrykę, w której algorytm zarządza linią produkcyjną. Jeśli jego celem jest wytworzenie tak wielu produktów, jak tylko się da, może nadać jej zbyt dużą szybkość, ryzykując wypadki przy pracy i obrażenia personelu. Gdyby zamiast tego algorytm od samego początku nie miał założonego celu, zapamiętałby tempo pracy i nauczyłby się działać z ludźmi w harmonii, optymalizując efektywność produkcji przy odpowiedniej dla nich prędkości.
Większa rola człowieka
Poprzez projektowanie algorytmów w bardziej zorientowany na użytkownika sposób, organizacja mogłaby utrudnić osobom działającym w złej wierze „ogrywanie” systemu i wpływanie na doświadczenia innych. Projektanci mogliby zaszyć w systemach mechanizmy służące odkrywaniu preferencji użytkowników, a może nawet takie, które zachęcałyby ich do aktywnego wyrażania własnych upodobań.
Naturalnie ludzkie błędy poznawcze i niedostatki zawsze będą problemem. Nie da się zapobiec każdej potencjalnej szkodzie, jaką może spowodować każdy wytwór człowieka – nie inaczej jest ze sztuczną inteligencją. A jednak ten nowy model, czyniąc normę z narzuconej niepewności, pomógłby to osiągnąć. Taki paradygmat zachęciłby firmy i liderów do spojrzenia na modele biznesowe w długoterminowej perspektywie, z uwzględnieniem potrzeb użytkowników, oraz dałby możliwość zabezpieczenia się przed potencjalnymi niezamierzonymi konsekwencjami.
Możemy uczynić sztuczną inteligencję bardziej elastyczną oraz sprawić, by lepiej odpowiadała na potrzeby pojedynczych osób i była podporządkowana ich osobistym wyborom. Algorytmy w coraz większym stopniu wpływają na nasz świat – czas na zmianę kursu.