Streszczenie: Wiele organizacji publicznie deklaruje przywiązanie do zasad Responsible AI (RAI), lecz w praktyce ma trudności z ich operacjonalizacją. Głośne przypadki, takie jak problemy z miejskim chatbotem w Nowy Jork, pokazują, że różnica między aspiracją a wdrożeniem może prowadzić do poważnych konsekwencji reputacyjnych i regulacyjnych. Nasze badania, oparte na wywiadach z liderami AI i członkami najwyższej kadry zarządzającej, identyfikują trzy powtarzające się luki: rozliczalności, strategiczną i zasobową. Odpowiedzią na nie jest model SHARP – zestaw pięciu wzajemnie wzmacniających się strategii, które pomagają trwale wbudować etykę w struktury organizacyjne, systemy motywacyjne i codzienne procesy decyzyjne. Odpowiedzialna AI okazuje się nie tyle wyzwaniem technologicznym, ile organizacyjnym: wymaga zmiany domyślnych mechanizmów działania, a nie jedynie publikacji zasad.
Zasady etyki AI ma dziś niemal każda duża firma. Niewiele potrafi jednak przełożyć je na konkretne decyzje projektowe, systemy motywacyjne i realny nadzór. Kluczowe pytanie nie brzmi już: „W co wierzymy?”, lecz „Jakie mechanizmy sprawiają, że rzeczywiście tak działamy?”.
Materiał dostępny tylko dla subskrybentów
Dołącz do subskrybentów MIT Sloan Management Review Polska Premium!
Kup subskrypcję
