Strona główna > Autorzy > Ayanna Howard
Roboty od dawna są uznawane za idealne rozwiązanie do przejęcia najbardziej “brudnych”, nudnych i niebezpiecznych zadań w społeczeństwie, od robotów odkurzających (brudnych) po roboty produkcyjne (nudne) i roboty wojskowe (niebezpieczne). Wszystkie te role były oczywiście kiedyś wykonywane przez ludzi, a osoby pełniące te funkcje będą nadal zastępowane przez roboty.
Od dawna mówi się, że roboty idealnie nadają się do tego, by przejąć zadania uważane za najbardziej brudne (sprzątanie), nudne (praca na akord przy taśmie produkcyjnej) i niebezpieczne (działania militarne). Oczywiście wszystkie prace, do których pasują te przymiotniki, wykonywane są jeszcze przez ludzi, ale prawdopodobnie będą oni konsekwentnie zastępowani przez roboty.
Przed pandemią COVID‑19 większość ludzi w mniejszym lub większym stopniu obawiała się sztucznej inteligencji.
Chociaż te przekonania pierwotnie mogły zostać ukształtowane przez dystopijne wizje technologii pojawiające się w literaturze i filmach science fiction, to niepokój był wzmacniany przez uzasadnione obawy. Niektóre z biznesowych zastosowań AI doprowadziły do utraty miejsc pracy, wzmocnienia tendencyjności oraz naruszeń prywatności danych osobowych.
Dyskusja na temat standardów wykorzystania sztucznej inteligencji w organizacjach staje się coraz gorętsza.
Co się dzieje, kiedy niesprawiedliwość jest efektem działań nie pojedynczych osób czy organizacji, lecz komputerów? Ostatnio coraz więcej uwagi zwraca się na zagrożenia, które mogą towarzyszyć wprowadzaniu sztucznej inteligencji. Analizowane są też potencjalne szkody społeczne, począwszy od nierównego dostępu do szans i możliwości po eskalację polaryzacji społecznej. Dlatego nie dziwi fakt, że rozgorzała dyskusja na temat: AI -regulacje prawne. Czy potrzebujemy nowych praw i zasad w celu nadzorowania firm i ich postępowania w procesie projektowania i wykorzystania sztucznej inteligencji?
Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!