biznes technologie innowacje
technologiczna strona biznesu
biznes technologie innowacje
najważniejsze informacje zebrane w jednym miejscu

Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>
Co tracą ludzie, gdy pozwalamy sztucznej inteligencji podejmować decyzje

Co tracą ludzie, gdy pozwalamy sztucznej inteligencji podejmować decyzje

Minęło ponad 50 lat od czasu, gdy HAL, złośliwy komputer z filmu 2001: Odyseja kosmiczna, po raz pierwszy przeraził widzów, zwracając się przeciwko ludziom, których miał chronić. To tylko film, ale dobrze pokazuje to, co nas w sztucznej inteligencji przeraża: że zyska ona nadludzkie moce i zechce podporządkować sobie człowieka.

Czy już teraz należy zacząć się martwić o sztuczną inteligencję?

Zamiast zamartwiać się futurystycznymi koszmarami rodem z filmów SF, powinniśmy zwrócić uwagę na równie niepokojący scenariusz, który rozgrywa się na naszych oczach: w coraz większym stopniu nieświadomie, choć przecież dobrowolnie, rezygnujemy z prawa do podejmowania decyzji na podstawie własnego osądu, w tym przekonań moralnych.

Istnieje jednak ryzyko, że to, co uważamy za „słuszne”, przestanie być kwestią etyki, a stanie się po prostu „prawidłowym” wynikiem obliczeń matematycznych. Komputery już podejmują za nas wiele decyzji i na pierwszy rzut oka wydaje się, że robią to dobrze, nie popełniając grubszych błędów.

W biznesie systemy AI realizują transakcje finansowe i pomagają działom kadr w ocenie kandydatów do pracy. W życiu prywatnym polegamy na spersonalizowanych rekomendacjach podczas zakupów internetowych, monitorujemy nasze zdrowie fizyczne za pomocą urządzeń noszonych na ciele i mieszkamy w domach wyposażonych w „inteligentne” technologie, które sterują oświetleniem, klimatyzacją, systemami rozrywki i sprzętem AGD. Niestety bliższe przyjrzenie się temu, w jaki sposób korzystamy dziś z systemów sztucznej inteligencji, sugeruje, że możemy się mylić, zakładając, że ich rosnąca potęga posłuży głównie dobru. Choć większość obecnej krytyki AI nadal opiera się na dystopiach science fiction, sposób, w jaki jest ona obecnie wykorzystywana, staje się coraz bardziej niebezpieczny. Nie dlatego, że Google i Alexa są złe, ale dlatego, że obecnie polegamy na maszynach, które podejmują za nas decyzje, a tym samym coraz częściej zastępują ludzki osąd obliczeniami opartymi na danych. Grozi to fundamentalną, być może nieodwracalną zmianą naszej moralności, o czym przekonywaliśmy w naszym niedawnym eseju w „Academy of Management Learning & Education” (z którego też korzystaliśmy, pisząc ten artykułu)Indeks górny 1.

Gdy sami podejmujemy decyzję,  uwzględnia ona kontekst społeczny i historyczny,  a jej celem jest, jak pisał filozof John Dewey, „doprowadzenie niekompletnej sytuacji do jej realizacji”Indeks górny 2. Ludzkie decyzje są wynikiem nie tylko rozumowania, lecz także, co ważne, takich cech, jak wyobraźnia, refleksja, badanie, wartościowanie oraz empatia. Dlatego mają wymiar moralny.

Z kolei systemy algorytmiczne podejmują decyzje po przetworzeniu danych za pomocą kumulacji rachunku, obliczeń i racjonalności opartej na prostych regułach – co nazywamy kalkulacjąIndeks górny 3. Problem polega na tym, że po przetworzeniu naszych danych odpowiedzi udzielane przez te systemy są ograniczone wąskimi celami, dla których zostały zaprojektowane, bez uwzględnienia potencjalnie szkodliwych konsekwencji, które naruszają nasze standardy sprawiedliwości i uczciwości. Widzieliśmy to na przykładzie podatnej na błędy, stronniczej pod względem rasowym analityki predykcyjnej stosowanej przez wielu amerykańskich sędziów przy wydawaniu wyrokówIndeks górny 4.

W Holandii około 40 tys. rodzin poniosło straty, przede wszystkim finansowe, z powodu błędu urzędu skarbowego, który stosował algorytmy sztucznej inteligencji do wykrywania nadużyć związanych z programem ulg podatkowych na dzieci. Skandal, jaki wówczas wybuchł, zmusił w styczniu 2021 roku rząd holenderski do ustąpienia.

Uwaga na lukę

Tego rodzaju niezamierzone konsekwencje nie powinny być zaskoczeniem. Algorytmy to nic innego jak według jednej z definicji „precyzyjne przepisy, które określają dokładną sekwencję kroków wymaganych do rozwiązania problemu”Indeks górny 5. Precyzja i szybkość rozwiązania problemu sprawiają, że łatwo zaakceptować odpowiedź algorytmu jako rozstrzygającą, zwłaszcza że mamy do czynienia z coraz większą liczbą systemów zaprojektowanych do uczenia się, a następnie autonomicznego działania. Jak jednak sugerują powyższe przykłady, rozdźwięk pomiędzy naszymi wygórowanymi oczekiwaniami względem tego, co powinien wykonać algorytm, a jego rzeczywistymi możliwościami może okazać się niebezpieczny. Choć komputery potrafią obecnie uczyć się samodzielnie, wyciągać wnioski z danych zbieranych z otoczenia, a następnie działać na podstawie tego, czego się nauczyły, wciąż posiadają znaczne ograniczenia. Nie należy jednak tych ułomności algorytmów traktować wyłącznie w kategorii „tendencyjności”, ponieważ tendencje można próbować przezwyciężyć. AI mogłaby wówczas przedstawić pełną i rzetelną reprezentację rzeczywistości. Tak jednak nie jest. Problem okazuje się znacznie bardziej złożony.

Systemy sztucznej inteligencji opierają swoje decyzje na tym, co filozof Vilém Flusser nazwał „obrazami technicznymi”: na abstrakcyjnych wzorach pikseli lub bajtów – cyfrowych obrazach „świata”, do których tworzenia i przetwarzania komputer został przeszkolony. Obraz techniczny jest obliczeniową transformacją zdigitalizowanych danych dotyczących jakiegoś obiektu albo idei i jako taki stanowi reprezentację świata. Jednak, jak każda reprezentacja, jest niekompletny; dzieli to, co jest ciągłe, i czyni statycznym to, co jest dynamiczne, dlatego trzeba nauczyć się, jak z niego inteligentnie korzystać. Jest to reprezentacja wybiórcza, podobnie jak dwuwymiarowa mapa i może być przecież błędnie sformułowana. W trakcie tworzenia mapy wielowymiarowa rzeczywistość zostaje zredukowana poprzez „umieszczenie” jej na dwuwymiarowej powierzchni z ograniczoną liczbą kolorów oraz symboli. Wielu z nas nadal wie, jak posługiwać się mapą. Kłopot z systemami sztucznej inteligencji polega na tym, że nie możemy w pełni zrozumieć, w jaki sposób maszyna „rysuje” swoje obrazy techniczne – co w nich podkreśla, co postanawia pominąć i w jaki sposób łączy fragmenty informacji w procesie przekształcania ich w obraz techniczny. Jak zauważył kiedyś statystyk George Box: „Wszystkie modele są błędne, ale niektóre są użyteczne”. My dodajemy: „Jeśli nie wiemy, w jaki sposób model jest błędny, jest on nie tylko bezużyteczny, lecz także stosowanie go może być niebezpieczne”. Dzieje się tak dlatego, że kalkulacje oparte na obrazie technicznym nigdy nie mogą ujawnić całej prawdy, po prostu dlatego, że nie po to zostały stworzone.

W procesie kalkulacji maszyny podejmują decyzje – zasadniczo oparte na obrazach technicznych – które sprawiają wrażenie precyzyjnych i bezdyskusyjnie poprawnych. Ryzyko polega na tym, że przez to w końcu możemy zacząć kształtować siebie i nasze społeczeństwo na podstawie obrazu, jaki stworzyła technologia. Jeżeli będziemy zbytnio polegać na algorytmach, możemy skończyć tak jak nieszczęśni kierowcy w Marsylii, którzy pozwolili, by GPS skierował ich prosto z ulicy do morza. Rozważmy na przykład sposób, w jaki ludzie wykorzystują tzw. elektronikę ubieralną (wearable), monitorując funkcje organizmu, w tym tętno, liczbę kroków, temperaturę i liczbę godzin snu, jako wskaźniki stanu zdrowia. Zamiast pytać siebie, jak się czujesz, możesz sprawdzić swoje urządzenie. W odpowiedzi może ono poinformować, że należałoby się zacząć martwić, ponieważ nie robisz minimalnej liczby kroków zalecanej dla zdrowego trybu życia. To oczywiście dobra rada, ale… nie wtedy, gdy w powietrzu wisi smog lub masz problemy z kolanami.

W jaki sposób możemy wykorzystać niezaprzeczalne zalety inteligentnych maszyn, nie myląc maszynowej abstrakcji z sednem sprawy i nie powierzając sztucznej inteligencji skomplikowanych i brzemiennych w skutki decyzji, które powinny być podejmowane przez ludzi? Problemem są nie tyle maszyny, co raczej my sami. Nasze zaufanie do sztucznej inteligencji prowadzi do mylenia kalkulacji (podejmowania decyzji opartych na sumowaniu różnego rodzaju danych i obrazów technicznych) z osądem. Zbytnia wiara w maszynę – oraz w naszą zdolność do jej programowania i kontrolowania – może powodować sytuacje niemożliwe do opanowania, a czasem nawet nieodwracalne. W odpowiedziach AI dopatrujemy się tego rodzaju pewności, której nasi przodkowie na próżno szukali, wróżąc ze zwierzęcych wnętrzności, kart lub gwiazd.

W procesie kalkulacji maszyny podejmują decyzje – zasadniczo oparte na obrazach technicznych – które sprawiają wrażenie precyzyjnych i bezdyskusyjnie poprawnych. Ryzyko polega na tym, że przez to w końcu możemy zacząć kształtować siebie i nasze społeczeństwo na podstawie obrazu stworzonego przez technologię.

Niektórzy obserwatorzy – naukowcy, menedżerowie, decydenci – uważają, że przestrzeganie zasad odpowiedzialnego rozwoju sztucznej inteligencji jest słusznym oraz skutecznym podejściem do wprowadzania względów etycznych do systemów AI. Zgadzamy się z nimi, gdy twierdzą, że sztuczna inteligencja jako produkt kulturowy musi odzwierciedlać poglądy ludzi, którzy stoją za powstaniem algorytmu i tych, którzy go zamówili, by następnie z niego korzystać. Nie zgadzamy się, gdy twierdzą, że dlatego wystarczy uważna obserwacja całego projektu i jego programowania, aby wyniki były w większości pozytywne. Coraz częściej pojawiają się głosy krytyczne wobec naszej zdolności do wpajania sztucznej inteligencji zasad etycznych, stawiające podstawowe pytanie, czy w ogóle możemy „uczyć” systemy AI etyki. Wracając do korzeni sztucznej inteligencji, powinniśmy zdać sobie sprawę, że czym innym jest osąd, a czym innym kalkulacja. I nie da się ich ze sobą pogodzić. Oznacza to, że systemy AI nigdy nie będą zdolne do osądzania, a jedynie do kalkulacji. Każda próba wprowadzenia etyki do sztucznej inteligencji oznacza zatem, że etyka zostanie zakuta w kaftan bezpieczeństwa, zniekształcona i zubożona tak, aby pasowała do cech charakterystycznych dla kalkulacji.

Ci, którzy wierzą w etyczną sztuczną inteligencję, uważają tę technologię za narzędzie, na równi z innymi narzędziami, które stanowią zasadniczo przedłużenie ludzkiego ciała, takimi jak okulary (poprawiające ostrość wzroku) czy łyżki i śrubokręty (zwiększające sprawność rąk). My, autorzy tego artykułu, jesteśmy jednak sceptyczni. Naszym zdaniem, podobnie jak w przypadku urządzeń typu wearables, kluczowe znaczenie ma traktowanie użytkownika jako części narzędzia. Musimy się dobrze zastanowić nad tym, jaki wpływ na nas ma zastosowanie algorytmów. Jeśli zastępowanie ludzkiego osądu kalkulacjami bazującymi na danych jest czymś, do czego należy podchodzić z dużą ostrożnością, to podążanie za postulatem rozwijania odpowiedzialnej sztucznej inteligencji nie pomoże nam wyeliminować tego zjawiska. Co zatem możemy z tym zrobić?

PRZECZYTAJ TAKŻE

AI - regulacje prawne. Czy firmy mają się czego obawiać? 

Ayanna Howard

Dyskusja na temat standardów wykorzystania sztucznej inteligencji w organizacjach staje się coraz gorętsza.

Wezwanie do działania (ale też bezczynności)

Widzimy dwie drogi rozwoju.

Po pierwsze, chcemy wezwać do bezczynności. Musimy przestać próbować automatyzować wszystko, co da się zautomatyzować, tylko dlatego, że jest to technicznie możliwe. Trend ten Jewgienij Morozow (Яўгені Марозаў) określa mianem technologicznego solucjonizmu: szukania rozwiązań problemów, które tak naprawdę wcale problemami nie sąIndeks górny 6. Zachwycony obietnicą wiecznego doskonalenia, technologiczny solucjonizm stępia naszą zdolność do głębokiego zastanawiania się nad tym, czy, kiedy, jak i dlaczego używać danego narzędzia.

Przy braku czujności lub wątpliwości możemy przegapić moment, w którym nasze ramy decyzyjne przechodzą od osądu do kalkulacji. Oznaczałoby to, że przekazalibyśmy nasze uprawnienia do podejmowania decyzji moralnych w ręce maszyny.

Wszyscy musimy na nowo nauczyć się podejmować decyzje, opierają się na własnym osądzie, nie pozwalając, by zwiodła nas złudna pewność, jaką proponują nam algorytmy.

Po drugie, wzywamy też do działania. Jako społeczeństwo musimy dowiedzieć się, czym naprawdę jest sztuczna inteligencja i jak z nią należy pracować. W szczególności musimy nauczyć się, jak zrozumieć i wykorzystać jej obrazy techniczne, podobnie jak musieliśmy nauczyć się pracować z modelami i mapami – nie tylko w sensie ogólnym, abstrakcyjnym i wyidealizowanym, lecz w odniesieniu do każdego konkretnego projektu, w którym zaplanowano jej wykorzystanie.

Unikanie ogólnych zastosowań tej technologii oznacza poważne traktowanie ograniczeń sztucznej inteligencji. Na przykład, pomimo że algorytmy zyskują coraz większą zdolność przewidywania, gdy otrzymują więcej danych, zawsze będą zakładać statyczny model społeczeństwa, podczas gdy w rzeczywistości czas oraz okoliczności podlegają nieustającym zmianom. Jeżeli menedżerowie uznają sztuczną inteligencję za narzędzie przydatne w danym projekcie, to w dalszym ciągu ma sens zachowywanie czujności w stosunku do AI i pewnych wątpliwości. Dzieje się tak dlatego, że przy braku czujności lub wątpliwości możemy przegapić moment, w którym nasze ramy decyzyjne zamienią się z osądu w kalkulację. Oznaczałoby to, że przekazalibyśmy nasze uprawnienia do podejmowania decyzji moralnych w ręce maszyny.

Biorąc pod uwagę szybki rozwój sztucznej inteligencji, czasu pozostało niewiele. Wszyscy musimy na nowo nauczyć się podejmować decyzje na podstawie własnego osądu, nie pozwalając, by zwiodła nas złudna pewność, jaką proponują nam algorytmy.

PRZYPISY

1. C. Moser, F. den Hond i D. Lindebaum, Morality in the Age of Artificially Intelligent Algorithms, Academy of Management Learning & Education, 7 kwietnia 2021 r., https:// journals.aom.org.

2. J. Dewey, Essays in Experimental Logic, Chicago: University of Chicago Press, 1916, 362.

3. B.C. Smith, The Promise of Artificial Intelligence: Reckoning and Judgment, Cambridge, Massachusetts: MIT Press, 2019.

4. K.B. Forrest, When Machines Can Be Judge, Jury, and Executioner: Justice in the Age of Artificial Intelligence, Singapur: World Scientific Publishing, 2021.

5. J. MacCormick, Nine Algorithms That Changed the Future, Princeton, New Jersey, Princeton University Press, 2012, 3.

6. J. Morozow, To Save Everything, Click Here: The Folly of Technological Solutionism, Nowy Jork: PublicAffairs, 2013.

Christine Moser

Profesor nadzwyczajna teorii organizacji na Vrije Universiteit Amsterdam w Holandii.

Frank den Hond

Profesor w dziedzinie zarządzania i organizacji w Hanken School of Economics w Finlandii, związany z Vrije Universiteit Amsterdam.

Dirk Lindenbaum

Starszy profesor organizacji i zarządzania w Grenoble Ecole de Management.