Strona główna > Autorzy > Ayanna Howard
Sztuczna inteligencja wciąż popełnia poważne błędy, więc ludzie potrzebują wskazówek, kiedy powinni poddawać w wątpliwość wyniki jej działania.
Od wielu lat zajmuję się kwestią zaufania do technologii. Oto jeden z przykładów: w 2011 r. prowadziłam badania nad postrzeganiem robotów w sytuacjach krytycznych wymagających szybkiego działania. Zespół, w którym pracowałam, skupiał się na ewakuacjach w sytuacjach zagrożenia i przeprowadzał eksperymenty, polegające na tym, że uczestnicy znajdowali się w pomieszczeniu, w którym uruchamiały się alarmy przeciwpożarowe. Gdy wychodzili do zadymionych korytarzy, do wyjścia prowadził ich robot. Część uczestników wcześniej miała już okazję zapoznać się z tym robotem, który zaprowadził ich do złej sali.
Celowo zaprogramowaliśmy robota tak, by oddalał się od wyjścia ewakuacyjnego.
Ludzie widzieli znaki wskazujące drogę ewakuacyjną. Widzieli dym. A mimo to, jak udowodniły nasze obserwacje, nawet gdy robot zachowywał się niewłaściwie i prowadził ich w złą stronę, i tak za nim podążali.
Roboty od dawna są uznawane za idealne rozwiązanie do przejęcia najbardziej “brudnych”, nudnych i niebezpiecznych zadań w społeczeństwie, od robotów odkurzających (brudnych) po roboty produkcyjne (nudne) i roboty wojskowe (niebezpieczne). Wszystkie te role były oczywiście kiedyś wykonywane przez ludzi, a osoby pełniące te funkcje będą nadal zastępowane przez roboty.
Od dawna mówi się, że roboty idealnie nadają się do tego, by przejąć zadania uważane za najbardziej brudne (sprzątanie), nudne (praca na akord przy taśmie produkcyjnej) i niebezpieczne (działania militarne). Oczywiście wszystkie prace, do których pasują te przymiotniki, wykonywane są jeszcze przez ludzi, ale prawdopodobnie będą oni konsekwentnie zastępowani przez roboty.
Przed pandemią COVID‑19 większość ludzi w mniejszym lub większym stopniu obawiała się sztucznej inteligencji.
Chociaż te przekonania pierwotnie mogły zostać ukształtowane przez dystopijne wizje technologii pojawiające się w literaturze i filmach science fiction, to niepokój był wzmacniany przez uzasadnione obawy. Niektóre z biznesowych zastosowań AI doprowadziły do utraty miejsc pracy, wzmocnienia tendencyjności oraz naruszeń prywatności danych osobowych.
Dyskusja na temat standardów wykorzystania sztucznej inteligencji w organizacjach staje się coraz gorętsza.
Co się dzieje, kiedy niesprawiedliwość jest efektem działań nie pojedynczych osób czy organizacji, lecz komputerów? Ostatnio coraz więcej uwagi zwraca się na zagrożenia, które mogą towarzyszyć wprowadzaniu sztucznej inteligencji. Analizowane są też potencjalne szkody społeczne, począwszy od nierównego dostępu do szans i możliwości po eskalację polaryzacji społecznej. Dlatego nie dziwi fakt, że rozgorzała dyskusja na temat: AI -regulacje prawne. Czy potrzebujemy nowych praw i zasad w celu nadzorowania firm i ich postępowania w procesie projektowania i wykorzystania sztucznej inteligencji?
Newsletter
Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!