Strona główna > Autorzy > elmiravandenbroek
Jjest adiunktem w Stockholm School of Economics i stowarzyszonym badaczem w Wallenberg Ai, Autonomous Systems and Software Program -Humanity and Society (WASP-HS), Szwecja.
Podejście globalnego detalisty do etyki sztucznej inteligencji zakłada, że formalne procedury mają ograniczony zasięg. Menedżerowie koncentrują się na wzmacnianiu moralnego kompasu wszystkich pracowników – tak, by potrafili podejmować trafne decyzje, krok po kroku, rozmowa po rozmowie.
Sztuczna inteligencja zmienia sposób funkcjonowania organizacji – i właśnie dlatego stanowi wyzwanie etyczne. Kto powinien ponosić odpowiedzialność za zautomatyzowane decyzje i działania? Jak szeroka powinna być decyzyjność algorytmów? Jak projektować interakcje między ludzkim umysłem a maszyną? Jak technologia wpływa na pracowników? Gdzie w systemie kryją się uprzedzenia?
Firmy, regulatorzy i decydenci starają się znaleźć trwałe zasady etyczne, które pomogą im poruszać się w tym moralnym labiryncie. Zazwyczaj stosują pozornie logiczne podejście: najpierw identyfikują uniwersalne wartości (takie jak przejrzystość, sprawiedliwość, autonomia człowieka czy możliwość wyjaśnienia decyzji), następnie określają praktyczne zastosowania tych wartości (np. w procesach decyzyjnych czy rekrutacji wspieranej przez AI), a na końcu formalizują je w kodeksach postępowania. Założenie jest takie, że kodeksy etyczne powinny mieć pierwszeństwo przed „kodeksem obliczeniowym” AI.
Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!