Minęło ponad 50 lat od czasu, gdy HAL, złośliwy komputer z filmu 2001: Odyseja kosmiczna, po raz pierwszy przeraził widzów, zwracając się przeciwko ludziom, których miał chronić. To tylko film, ale dobrze pokazuje to, co nas w sztucznej inteligencji przeraża: że zyska ona nadludzkie moce i zechce podporządkować sobie człowieka.
Czy już teraz należy zacząć się martwić o sztuczną inteligencję?
Zamiast zamartwiać się futurystycznymi koszmarami science fiction, powinniśmy zwrócić uwagę na równie niepokojący scenariusz, który rozgrywa się na naszych oczach: w coraz większym stopniu nieświadomie, choć przecież dobrowolnie, rezygnujemy z prawa do podejmowania decyzji w oparciu o własny osąd, w tym przekonania moralne.
Istnieje bowiem ryzyko, że to, co uważamy za „słuszne”, przestanie być kwestią etyki, a stanie się po prostu „prawidłowym” wynikiem obliczeń matematycznych. Komputery już podejmują za nas wiele decyzji i na pierwszy rzut oka wydaje się, że robią to dobrze, nie popełniając grubszych błędów.
W biznesie systemy AI realizują transakcje finansowe i pomagają działom kadr w ocenie kandydatów do pracy. W życiu prywatnym polegamy na spersonalizowanych rekomendacjach podczas zakupów internetowych, monitorujemy nasze zdrowie fizyczne za pomocą urządzeń noszonych na ciele i mieszkamy w domach wyposażonych w „inteligentne” technologie, które sterują oświetleniem, klimatyzacją, systemami rozrywki i sprzętem AGD. Niestety, bliższe przyjrzenie się temu, w jaki sposób korzystamy dziś z systemów sztucznej inteligencji, sugeruje, że możemy się mylić, zakładając, że ich rosnąca potęga posłuży głównie dobru. Choć większość obecnej krytyki AI nadal opiera się na dystopiach science fiction, sposób, w jaki jest ona obecnie wykorzystywana, staje się coraz bardziej niebezpieczny. Nie dlatego, że Google i Alexa są złe, ale dlatego, że obecnie polegamy na maszynach, które podejmują za nas decyzje, a tym samym coraz częściej zastępują ludzki osąd obliczeniami opartymi na danych. Grozi to fundamentalną, być może nieodwracalną zmianą naszej moralności, o czym przekonywaliśmy w naszym niedawnym eseju w „Academy of Management Learning & Education” (z którego korzystaliśmy pisząc ten artykułu)Indeks górny 11.
Gdy sami podejmujemy decyzję, uwzględnia ona kontekst społeczny i historyczny, a jej celem jest, jak pisał filozof John Dewey, „doprowadzenie niekompletnej sytuacji do jej realizacji”Indeks górny 22. Ludzkie decyzje są wynikiem nie tylko rozumowania, lecz także, co ważne, takich cech jak wyobraźnia, refleksja, badanie, wartościowanie oraz empatia. Dlatego mają wymiar moralny.
Z kolei systemy algorytmiczne podejmują decyzje po przetworzeniu danych poprzez kumulację rachunku, obliczeń i racjonalności opartej na prostych regułach – co nazywamy kalkulacjąIndeks górny 33. Problem polega na tym, że po przetworzeniu naszych danych odpowiedzi udzielane przez te systemy są ograniczone wąskimi celami, dla których zostały zaprojektowane, bez uwzględnienia potencjalnie szkodliwych konsekwencji, które naruszają nasze standardy sprawiedliwości i uczciwości. Widzieliśmy to na przykładzie podatnej na błędy, stronniczej pod względem rasowym analityki predykcyjnej stosowanej przez wielu amerykańskich sędziów przy wydawaniu wyrokówIndeks górny 44.