Reklama
OFERTA SPECJALNA na NAJWYŻSZY pakiet subskrypcji! Wersję Platinum - OFERTA LIMITOWANA
AI SZTUCZNA INTELIGENCJA

Trzy przeszkody spowalniające rozwój odpowiedzialnej sztucznej inteligencji

6 listopada 2025 21 min czytania
Zdjęcie Öykü Işık - Ekspertka strategii cyfrowej i bezpieczeństwa cybernetycznego w IMD Business School.
Öykü Işık
odpowiedzialna sztuczna inteligencja

Streszczenie: Firmy na całym świecie coraz częściej tworzą kodeksy etyki AI, ale niewiele z nich potrafi skutecznie wcielić je w życie. Brak jasno określonej odpowiedzialności, oderwanie etyki od strategii biznesowej i niedostateczne zasoby sprawiają, że zasady pozostają jedynie deklaracjami. Model SHARP pokazuje, jak przełożyć etyczne intencje na praktykę – poprzez budowanie struktur odpowiedzialności, włączenie etyki w codzienne procesy i systemy motywacyjne oraz rozwijanie zdolności do etycznego myślenia.

Pokaż więcej

Wiele organizacji deklaruje przywiązanie do zasad etyki w obszarze sztucznej inteligencji, ale niewiele z nich potrafi faktycznie przełożyć te wartości na codzienną praktykę. Jak więc pokonać tę przepaść między deklaracjami a działaniem?

W październiku 2023 roku Nowy Jork ogłosił swój plan działania w zakresie sztucznej inteligencji — oficjalnie zobowiązując się do jej odpowiedzialnego i transparentnego wykorzystania. W dokumencie znalazły się kluczowe zasady, takie jak odpowiedzialność, sprawiedliwość i przejrzystość, a także nowa funkcja w strukturach miasta: oficer ds. zarządzania algorytmami i polityki, który miał czuwać nad właściwym wdrażaniem tych zasad.

Jednak już na początku 2024 roku ambitne plany miasta zaczęły budzić kontrowersje. Okazało się, że chatbot stworzony do udzielania przedsiębiorcom informacji o przepisach prawnych często wprowadzał ich w błąd. Media donosiły, że system podawał nieprawidłowe dane dotyczące prawa pracy i wymogów licencyjnych, a czasem wręcz sugerował działania, które mogły prowadzić do naruszenia przepisów.

Eksperci zaczęli kwestionować nie tylko techniczną poprawność narzędzia, ale też sposób, w jaki miasto nadzoruje projekty AI — od procedur wdrożenia po mechanizmy kontroli i odpowiedzialności. Cała sytuacja stała się lekcją ostrzegawczą — nie tylko dla instytucji publicznych, ale dla każdej organizacji, która planuje wdrażać rozwiązania oparte na sztucznej inteligencji na szeroką skalę.

Ten przypadek to tylko jeden z wielu przykładów szerszego zjawiska. W różnych branżach firmy coraz chętniej posługują się językiem „odpowiedzialnej sztucznej inteligencji” (Responsible AI; RAI), podkreślając znaczenie uczciwości, przejrzystości i odpowiedzialności. Jednak w praktyce wdrażanie tych zasad często nie nadąża za deklaracjami — systemy AI wciąż generują stronnicze wyniki, są trudne do zrozumienia i wyjaśnienia, a ich użytkownicy coraz częściej reagują nieufnością lub sprzeciwem.

W odpowiedzi na te problemy regulatorzy na całym świecie wprowadzają nowe przepisy. Unia Europejska przyjęła AI Act, Kanada opracowała Artificial Intelligence and Data Act, a Korea Południowa zaktualizowała swoje regulacje dotyczące AI — wszystkie te działania mają zmusić organizacje do faktycznego wdrażania zasad przejrzystości, bezpieczeństwa i nadzoru człowieka nad technologią.

Mimo to nawet firmy, które doskonale rozumieją potencjalne ryzyka, poruszają się po tym obszarze z różną skutecznością. W efekcie narażają się na utrwalenie błędów i uprzedzeń w swoich procesach lub – co gorsza – na popełnienie nieoczekiwanych, a czasem poważnych naruszeń etycznych na dużą skalę.

Uważaj na luki w odpowiedzialnej sztucznej inteligencji (RAI)

W ramach rozmów z ponad dwudziestoma liderami AI, specjalistami ds. etyki i menedżerami wyższego szczebla z różnych branż — od technologii i finansów po ochronę zdrowia i sektor publiczny — przyjrzeliśmy się wewnętrznym mechanizmom, które kształtują inicjatywy związane z odpowiedzialnym wykorzystaniem sztucznej inteligencji (RAI).

Odkryliśmy, że w niektórych przypadkach ramy RAI pełnią jedynie funkcję dekoracyjną — służą poprawie wizerunku, a nie realnej zmianie. Organizacjom często brakuje rzeczywistego zaangażowania w przekładanie zasad na praktykę. Ale za tym stoją również głębsze bariery — zarówno strukturalne, jak i kulturowe — które utrudniają przejście od deklaracji do trwałych, systemowych działań.

Zidentyfikowaliśmy trzy powtarzające się luki, które szczególnie utrudniają ten proces. W dalszej części artykułu przyglądamy się im bliżej i przedstawiamy konkretne strategie, jak można je skutecznie wypełnić.

1. Luka w odpowiedzialności

Spośród wszystkich wyzwań związanych z wdrażaniem zasad odpowiedzialnej sztucznej inteligencji, jedno okazuje się szczególnie trudne do pokonania — odpowiedzialność. Nawet jeśli firmy publikują swoje zasady etycznego wykorzystania AI, rzadko precyzują, kto konkretnie odpowiada za ich włączenie w codzienną praktykę. Jeszcze rzadziej definiują, w jaki sposób ta odpowiedzialność ma być faktycznie realizowana. W efekcie odpowiedzialność jest rozproszona — teoretycznie dzielą ją wszyscy, ale w praktyce nikt nie czuje się jej właścicielem. Dobre intencje nie przekładają się więc na realne procesy.

Problem często zaczyna się już na etapie formułowania zasad etycznych. Jak zauważył jeden z doradców ds. RAI:

„Firmy definiują swoje zasady na podstawie tego, co już robią. To sposób na legitymizowanie obecnych praktyk, a nie na rzeczywistą zmianę.”

W takich przypadkach zasady dają złudzenie postępu — tworzą wrażenie, że organizacja działa odpowiedzialnie, choć w rzeczywistości brakuje jej systemów i struktur, które mogłyby te wartości faktycznie urzeczywistnić.

Nawet jeśli intencje są szczere, a polityki jasno sformułowane, wdrażanie zasad często zatrzymuje się w miejscu — zwykle z powodu braku jasno określonych procesów odpowiedzialności. Kto zatwierdza wyniki analiz dotyczących uczciwości algorytmu? Kto weryfikuje, czy system rzeczywiście działa w sposób zrozumiały i możliwy do wyjaśnienia? Co dzieje się, gdy ktoś zgłasza zastrzeżenia? W większości firm odpowiedzi na te pytania nie są sprecyzowane, a działania mają charakter doraźny.

Jak przyznał jeden z oficerów ds. zgodności:

„Nie mamy formalnych szkoleń ani audytów — tylko listę kontrolną, którą przeglądają inżynierowie i zespół compliance. Nie ma niezależnej weryfikacji.”

Taki „patchworkowy” system sprawia, że kluczowe obowiązki łatwo wymykają się spod kontroli. Przeglądy uczciwości algorytmów często prowadzą te same zespoły, które je tworzyły, a uprzedzenia zakorzenione w danych historycznych pozostają nietknięte. Jak ujął to jeden z menedżerów sektora finansowego:

„Nie mamy jeszcze uporządkowanego sposobu, by takie błędy naprawiać — i w gruncie rzeczy nikt nie czuje się za to naprawdę odpowiedzialny.”

Dodatkowym problemem jest fragmentacja systemów. Jeden z ekspertów opisał sytuację, w której analizował rozwiązanie złożone z wewnętrznych narzędzi i komponentów firm trzecich:

„To była konstrukcja na taśmę klejącą. Nikt tak naprawdę nie wiedział, jak to działa. Kiedy zapytaliśmy klienta, odpowiedział: ‘Dla nas to czarna skrzynka.’

Nawet organizacje z dobrze rozwiniętą kulturą audytu mają trudności z nadzorem nad sztuczną inteligencją. Jak zauważył jeden z menedżerów:

„Wiemy, jak audytować sprawozdania finansowe. Ale systemy algorytmiczne? Nie istnieje żaden odpowiednik zasad GAAP dla uczciwości.”

Odpowiedzialność nie może się jednak opierać wyłącznie na procedurach – potrzebuje także systemu motywacyjnego, który uwzględnia etyczny wymiar pracy z AI. Tymczasem większość specjalistów od sztucznej inteligencji jest wciąż oceniana wyłącznie na podstawie szybkości, dokładności i terminowości realizacji zadań — nie za to, czy tworzone przez nich modele są sprawiedliwe, przejrzyste i społecznie odpowiedzialne.

Jak ujął to jeden z praktyków:

„Nikt nas nie zachęca, żeby się zatrzymać i zastanowić nad etycznymi kompromisami. Nagrody są za to, że model działa — i że działa szybko.”

Bez jasno przypisanej odpowiedzialności, konsekwentnego nadzoru i powtarzalnych procesów kontrolnych inicjatywy w zakresie odpowiedzialnej AI łatwo stają się czysto symboliczne. Firmy publikują polityki, ogłaszają wartości i przypominają zespołom, by „działały etycznie” — ale bez rzeczywistego systemu zarządzania etyką nie dochodzi do żadnych trwałych zmian.

2. Luka strategiczna

Mimo że coraz więcej organizacji deklaruje przywiązanie do zasad etyki w obszarze sztucznej inteligencji, w praktyce rzadko są one powiązane z tym, jak firma tworzy wartość i jak mierzy sukces. To właśnie ten rozdźwięk określamy mianem luki strategicznej — czyli braku integracji etycznych aspektów AI z logiką biznesową i operacyjną organizacji.

Z naszych rozmów wynika, że zasady odpowiedzialnej AI (RAI) rzadko wpływają na kluczowe decyzje dotyczące rozwoju produktów, strategii rynkowej czy alokacji zasobów. Zamiast tego inicjatywy RAI często trafiają do działów zgodności, prywatności lub zarządzania ryzykiem — obszarów, które działają reaktywnie, a nie strategicznie, i które zwykle włączają się dopiero po podjęciu decyzji biznesowych.

Jak ujął to jeden z liderów ds. RAI:

„Wciąż traktuje się nas jak dodatek. Konsultują się z nami dopiero wtedy, gdy produkt jest już gotowy — a nie wtedy, gdy dopiero powstaje.”

W organizacjach, które premiują szybkie tempo innowacji, kwestie etyki często postrzegane są jak próg zwalniający — coś, co spowalnia, zamiast wspierać rozwój. Jedna z prawniczek opowiadała o kilku projektach pilotażowych, które utknęły nie z powodów technicznych, lecz dlatego, że pojawiły się trudne pytania o możliwość niewłaściwego wykorzystania technologii.

„Zespoły były zachwycone technologią, ale nie zdawały sobie sprawy, że produkt może być niezgodny z wartościami firmy. Nikt nie podjął tej rozmowy na samym początku” — wyjaśniła.

To pokazuje, jak ważne jest, by kwestie etyczne były brane pod uwagę już na etapie podejmowania decyzji strategicznych, a nie dopiero później, gdy produkt trafia do oceny działu zgodności czy prawnego.

Firmy, które koncentrują się przede wszystkim na zwiększaniu efektywności, często dostrzegają konflikt między tym celem a inicjatywami RAI, które kładą nacisk na uczciwość, przejrzystość i odpowiedzialność. W efekcie etyka bywa postrzegana jako hamulec innowacji, a nie jako jej motor — czynnik, który może wzmacniać zaufanie klientów, poprawiać jakość produktów, budować odporność organizacji i wspierać jej długofalowe cele.

Jeśli zasady etyczne nie są trwale powiązane ze strategią biznesową, decyzje produktowe pozbawione są niezbędnych „barier ochronnych”, a programy nadzoru nad AI tracą realny wpływ na kierunek działania firmy.

3. Luka zasobów

Nawet tam, gdzie widać szczere zaangażowanie w etyczne praktyki związane ze sztuczną inteligencją, często pojawia się rozbieżność między ambicjami organizacji a tym, co faktycznie umożliwiają jej struktury, zasoby kadrowe i narzędzia. Jak zauważył jeden z doradców:

„To wciąż inicjatywa napędzana przez ludzi, którym naprawdę zależy. Organizacja jako całość jeszcze nie zbudowała wokół tego odpowiednich kompetencji.”

W praktyce finansowanie i wsparcie dla inicjatyw RAI często pojawia się na końcu listy priorytetów. Jeden z liderów danych przyznał:

„Nie mamy ustrukturyzowanych szkoleń ani procedur. Mamy listę rzeczy, które powinniśmy robić — ale to raczej kwestia zachowania zgodności z przepisami niż realnej zmiany.”

Przeglądy dotyczące uczciwości algorytmów są tu dobrym przykładem. Choć ich przeprowadzenie jest technicznie możliwe, rzadko otrzymują odpowiednie wsparcie. Wiele osób, z którymi rozmawialiśmy, przyznało, że ich zespoły AI nie mają dostępu do specjalistów przeszkolonych w zakresie ograniczania uprzedzeń w danych i modelach. A nawet jeśli takie kompetencje istnieją, zespoły często nie mają ani czasu, ani wpływu politycznego, by spowolnić lub wstrzymać projekt z powodów etycznych.

Inni rozmówcy opowiadali o radach ds. etyki AI, które działały z dobrymi intencjami, ale z czasem traciły znaczenie — brakowało im zasobów i priorytetu wobec innych zadań. Jak ujął to jeden z liderów ds. polityki AI:

„Jeśli ktoś nie zajmuje się tym na pełen etat, temat po prostu znika w tle.”

Technologia również bywa zawodna. Jeden z analityków danych z instytucji finansowej opisał sytuację, w której jego zespół miał dostęp do otwartego zestawu narzędzi do oceny uczciwości modeli, ale:

„Nie było żadnej integracji z naszymi procesami ani wskazówek, kiedy i jak z tego korzystać. Więc… po prostu tego nie robimy.”

W efekcie wiele organizacji niedoinwestowuje ludzi, procesy i infrastrukturę, które są niezbędne, by etyczna sztuczna inteligencja stała się realną praktyką, a nie tylko deklaracją. Bez dedykowanych ról, kompleksowych szkoleń, właściwych narzędzi oceny i systemu motywacji wspierającego etyczną rozwagę, odpowiedzialna AI pozostaje — jak trafnie podsumował jeden z rozmówców —

„dobrze brzmiącą aspiracją — obecną w zasadach, ale nie w codziennym działaniu.”

Model SHARP – jak przejść od zasad do praktyki w odpowiedzialnej sztucznej inteligencji

Choć różnica między deklaracjami a praktyką w zakresie odpowiedzialnej AI (RAI) wciąż jest duża, można ją skutecznie zmniejszyć. W różnych branżach coraz więcej organizacji potrafi rzeczywiście wbudować etykę w rdzeń swoich procesów — zarówno w tworzeniu, jak i wdrażaniu rozwiązań opartych na sztucznej inteligencji.

Firmy, którym się to udaje, stosują pięć kluczowych strategii, tworzących akronim SHARP:

S – Structure ownership at the project level (Nadaj odpowiedzialności strukturę na poziomie projektu)

H – Hardwire ethics into everyday procedures (Wpisz etykę w codzienne procesy)

A – Align ethical risk with business risk (Zsynchronizuj ryzyko etyczne z biznesowym)

R – Reward responsible behavior (Nagradzaj odpowiedzialne zachowania)

P – Practice ethical judgment, not just compliance (Ćwicz etyczne myślenie, nie tylko przestrzegaj zasad)

Model SHARP trafia w sedno strukturalnych i kulturowych barier, które utrudniają wdrażanie RAI. To nie zestaw linearnych kroków ani uniwersalny szablon, lecz zbiór praktyk, które pomagają firmom na nowo zaprojektować swoje struktury, systemy motywacyjne i codzienne rutyny tak, by etyka stała się realnym elementem działania, a nie tylko hasłem w raporcie.

Nadaj odpowiedzialności strukturę na poziomie projektu

Wyraźne określenie osoby odpowiedzialnej za etyczny nadzór nad projektem pozwala uniknąć sytuacji, w której kwestie etyki traktowane są doraźnie lub przypadkowo. Badania nad systemami wspieranymi przez AI pokazują, że użytkownicy mają tendencję do oddawania decyzyjności algorytmom — traktują ich wyniki jak niepodważalne. To właśnie dlatego tak ważne jest, by w każdej organizacji powstały formalne struktury odpowiedzialności, które będą działać na etapie projektowania i wdrażania systemów, a nie dopiero po fakcie.

Kilka firm poradziło sobie z tym wyzwaniem, wyznaczając lidera RAI dla każdej inicjatywy związanej ze sztuczną inteligencją o dużym wpływie. Zamiast umieszczać nadzór wyłącznie w działach prawnych czy compliance, organizacje włączają te role bezpośrednio w zespoły projektowe. Ich zadaniem jest wczesne identyfikowanie ryzyk etycznych, tworzenie odpowiedniej dokumentacji oraz łączenie decyzji produktowych z wartościami organizacji.

Dobrym przykładem jest globalna firma produkcyjna, w której zespół ds. etyki cyfrowej działa na poziomie całej organizacji, wspierając wszystkie inicjatywy cyfrowe i mając realny wpływ na decyzje — wykraczający poza symboliczne gesty. Jeden z liderów opisał swoją rolę w ten sposób:

„Współpracuję z ludźmi z całej organizacji, będąc głosem etyki biznesu i dbając o to, by nasze wartości faktycznie kierowały decyzjami dotyczącymi projektów cyfrowych.”

Fakt, że lider ds. etyki ma otwarte drzwi i stały dostęp do zespołów, pokazuje, jak poważnie firma traktuje swoje wartości. Tworzy to przestrzeń do refleksji i rozmów o etyce na każdym poziomie organizacji. Liderzy RAI nie stoją z boku procesu — są jego częścią. Dzięki swojej pozycji i integracji z zespołami mogą interweniować na wczesnym etapie, zadawać trudne pytania i realnie wpływać na rezultaty.

Podobne rozwiązanie wprowadzono w jednej z firm z sektora finansowego, gdzie ustanowienie liderów ds. etyki na poziomie projektów przyniosło większą przejrzystość i zaangażowanie wśród zespołów. Jak ujął to szef ds. nadzoru nad AI w tej organizacji:

„Jeśli coś jest zadaniem wszystkich, to tak naprawdę nie jest zadaniem nikogo.”

Wyznaczenie konkretnej osoby dało zespołom jasny punkt kontaktu i odpowiedzialności — kogoś, kto ma za zadanie wcześnie identyfikować ryzyka etyczne i zgłaszać je, gdy jest to potrzebne. Dzięki temu udało się uniknąć typowej sytuacji rozmycia odpowiedzialności, w której każdy zakłada, że ktoś inny zajmuje się potencjalnymi problemami.

Taki model sprawił, że liderzy RAI nie byli już odizolowanymi głosami, lecz stali się integralną częścią procesu, łącząc zespoły techniczne z działami compliance, prawnym i zarządzania ryzykiem. W efekcie kwestie etyczne zaczęły pojawiać się na wczesnym etapie i stawały się elementem formalnych procesów decyzyjnych, zamiast wypływać zbyt późno — albo wcale.

Dzięki jasno określonym kompetencjom i możliwości egzekwowania zasad, liderzy RAI mogą realnie wpływać na praktyki odpowiedzialnego wykorzystania AI. Ta strategia odzwierciedla szerszą zmianę organizacyjną — przejście od symbolicznych deklaracji do osadzonych w strukturze ról, które mają realną sprawczość.

Wbuduj etykę w codzienne procesy


Wiele organizacji zaczyna formalizować praktyki etyczne w cyklu rozwoju produktów, ale samo odhaczanie punktów na liście kontrolnej to za mało. Narzędzia takie jak Ethical Matrix czy Explainable Fairness Framework mogą być dobrym punktem wyjścia, jednak – jak podkreślają eksperci RAI – audyt etyczny musi uwzględniać wpływ na społeczności oraz ocenę potencjalnych szkód w konkretnym kontekście. Oznacza to konieczność tworzenia mechanizmów nadzoru ludzkiego, które wykraczają poza prostą zgodność z procedurami i angażują interesariuszy w realny proces przeglądu.

Przykładem może być firma z branży analityki medycznej, w której zespoły wspólnie opracowały listę kontrolną etyki, obowiązkową przed wdrożeniem każdego modelu AI do produkcji. Obejmuje ona m.in. weryfikację danych treningowych, konsultacje z interesariuszami oraz dokumentowanie przewidywanych ryzyk i szkód. Co ważne, lista ta została zintegrowana z pipeline’em DevOps, podobnie jak testy automatyczne czy procedury wdrożeniowe.

„Nie chcieliśmy, żeby to była przeszkoda,” – wyjaśnił lider zespołu inżynieryjnego. – „To miało być coś, co robimy naturalnie, a nie coś, co ktoś nam nakazuje.”

Kiedy elementy RAI są wpisane w codzienny workflow, od razu wiadomo, kto jest za nie odpowiedzialny. Ujednolicone procesy ułatwiają też śledzenie decyzji i uzasadnień, co sprzyja przejrzystości i konsekwencji w działaniu.

Powiąż ryzyko etyczne z ryzykiem biznesowym


W wielu firmach inicjatywy RAI wciąż funkcjonują niezależnie od kluczowych wskaźników biznesowych. Aby zyskały realny wpływ, ryzyko etyczne należy przedstawić w kategoriach zrozumiałych dla kadry zarządzającej – takich jak reputacja, ryzyko regulacyjne czy zakłócenia operacyjne.

Europejska firma ubezpieczeniowa dokonała takiego przesunięcia, modelując potencjalne skutki finansowe i reputacyjne ujawnienia algorytmicznego uprzedzenia w mediach. Zespół ds. ryzyka wykorzystał rzeczywiste przykłady, aby pokazać, jak awaria systemu AI może wywołać efekt domina kosztów – od utraty klientów po uszczerbek na wizerunku marki.

„Gdy pokazaliśmy te skutki w całym łańcuchu,” – powiedział jeden z menedżerów – „rozmowa od razu nabrała innego charakteru.”

W innej organizacji wskaźniki RAI zostały włączone do ogólnych pulpitów ryzyka korporacyjnego, obok cyberbezpieczeństwa i integralności operacyjnej. Dzięki temu etyka AI przestała być postrzegana jako kwestia wartości, a zaczęła być traktowana jako konkretne zagadnienie zarządzania ryzykiem.

Efekt był dwojaki: nie tylko wzrosła uwaga kierownictwa, ale też zespoły produktowe zaczęły same identyfikować ryzyka etyczne w ramach własnej odpowiedzialności, zamiast czekać na późniejsze kontrole.

Nagradzaj odpowiedzialne zachowania


Jeśli menedżerowie naprawdę chcą, by twórcy systemów AI uwzględniali etykę w swojej pracy, muszą jasno określić i wzmacniać takie postawy poprzez systemy motywacyjne. To szczególnie ważne, bo działania etyczne często stoją w sprzeczności z innymi oczekiwaniami — jak szybkie tempo pracy czy dotrzymywanie terminów wdrożeń.

Nordycka firma energetyczna rozwiązała ten problem, dodając do ocen rocznych zespołów AI i danych nowy wymiar – „świadomość wpływu”. Naukowcy zajmujący się danymi byli doceniani za udział w audytach sprawiedliwości, zwiększanie przejrzystości modeli czy podnoszenie kwestii etycznych podczas projektowania i wdrażania systemów.

„Nie chodzi o karanie punktami,” – wyjaśnił wiceprezes ds. danych – „ale o pokazanie, co naprawdę cenimy.”

Podobnie europejska firma telekomunikacyjna wprowadziła wewnętrzną nagrodę za odpowiedzialną innowację, wyróżniając zespoły, które podjęły trudne decyzje etyczne — na przykład zrezygnowały z obiecującego modelu ze względu na ryzyko uprzedzeń albo postawiły na transparentność kosztem wydajności.

Zmiany te mogą wydawać się niewielkie, ale wysyłają kluczowy sygnał: odpowiedzialne zachowania są dostrzegane, doceniane i realnie wpływają na rozwój zawodowy.

Ćwicz etyczne myślenie, nie tylko zgodność z procedurami


Żaden proces nie zastąpi w pełni ludzkiego osądu, zwłaszcza tam, gdzie kwestie etyczne są subtelne lub zmieniają się w czasie. Dlatego wiele organizacji, obok szkoleń formalnych, tworzy przestrzenie do praktycznego rozwijania wrażliwości etycznej – poprzez dialog, refleksję i wspólne rozwiązywanie dylematów.

Jedna z agencji publicznych wprowadziła cykliczne „laboratoria etyki AI”, czyli moderowane spotkania interdyscyplinarnych zespołów, które analizowały rzeczywiste przypadki użycia i wspólnie pracowały nad etycznymi wyzwaniami. Formuła tych spotkań była celowo nieformalna – nie chodziło o podejmowanie decyzji, lecz o rozwijanie języka, sposobu myślenia i odwagi w zgłaszaniu wątpliwości.

Z kolei w firmie logistycznej rozszerzono retrospektywy sprintów o krótkie, rotacyjne pytania dotyczące wykorzystania danych, zgody użytkowników czy niezamierzonych konsekwencji wdrażanych rozwiązań. Takie krótkie rozmowy pomogły oswoić refleksję etyczną i włączyć ją naturalnie w rytm codziennej pracy zespołów zwinnych.

W obu przypadkach organizacje w dużym stopniu polegały na systemach wspieranych przez sztuczną inteligencję, dlatego ich celem było zachowanie aktywnej roli człowieka w procesie decyzyjnym — tak, aby użytkownicy nie stawali się biernymi odbiorcami podpowiedzi algorytmu, lecz pozostawali świadomymi, odpowiedzialnymi uczestnikami procesu.

Jak ostrzegają badacze zajmujący się odpowiedzialnym wykorzystaniem AI, nadmierne poleganie na systemach algorytmicznych może z czasem osłabić nawyk etycznej refleksji. Bez świadomego wzmacniania zdolności do etycznego myślenia poprzez praktykę, nawet najlepiej zaprojektowane rozwiązania mogą prowadzić do spadku indywidualnych kompetencji moralnych.

W obu organizacjach celem nie była więc zwykła zgodność z procedurami, lecz rozwijanie zdolności ludzi do podejmowania etycznych decyzji. Jakość decyzji znacząco rośnie, gdy zespoły mają nie tylko checklisty, ale też przestrzeń do wspólnego przepracowania złożonych dylematów.

Co jest potrzebne, by zamknąć lukę w odpowiedzialnym wykorzystaniu AI

Dobrze sformułowane zasady to za mało, by zapewnić powszechne wdrożenie odpowiedzialnej sztucznej inteligencji (RAI). Jak pokazują badania, główną barierą nie jest brak świadomości czy zaangażowania, lecz trudność w przekładaniu abstrakcyjnych zasad na konkretne działania – zwłaszcza w złożonych organizacjach, które działają pod presją czasu i ograniczonych zasobów.

W tym kontekście RAI nie można traktować wyłącznie jako wyzwania technologicznego czy etycznego. To wyzwanie organizacyjne. Wymaga ono stworzenia odpowiedniego zaplecza operacyjnego – ludzi, procesów, systemów motywacyjnych i codziennych rutyn – które pozwolą, by etyczne intencje stały się trwałą praktyką, a nie jednorazową inicjatywą.

Największe postępy osiągają nie te firmy, które mają najbardziej wzniosłe deklaracje wartości, lecz te, które budują lepsze nawyki i domyślne wzorce działania. Nie chodzi o perfekcyjne rozwiązania, ale o struktury i mechanizmy, które systematycznie kierują zespoły ku bardziej odpowiedzialnym decyzjom. Organizacje, które inwestują w jasno określoną odpowiedzialność, powiązanie etyki z systemem motywacji i przestrzeń do wspólnej refleksji nad trudnymi dylematami, stają się liderami w tej dziedzinie. To właśnie one włączają etyczne myślenie w codzienne operacje.

Kluczową rolę w tym procesie odgrywa przywództwo – nie jako jedyny właściciel inicjatyw RAI, lecz jako twórca warunków kulturowych i strukturalnych, które pozwalają im się zakorzenić. Odpowiedzialna sztuczna inteligencja to nie checklist ani projekt do odhaczenia. To długofalowa kompetencja, która wystawia na próbę spójność organizacji, jej zdolność adaptacji i gotowość do działania w warunkach niepewności.

Najpilniejsze pytanie nie brzmi już „Co sądzimy o AI?”, lecz: „Co robimy – systematycznie i konsekwentnie – aby wprowadzać te przekonania w życie?”

O autorach
Tematy

Może Cię zainteresować

Światło, które naprawdę pracuje razem z Tobą. Jak oświetlenie wpływa na komfort i efektywność w biurze

Nowoczesne biura coraz częściej wykorzystują światło jako narzędzie wspierające koncentrację, kreatywność i dobrostan zespołów. Eksperci Bene i Waldmann pokazują, że właściwie zaprojektowane oświetlenie staje się integralnym elementem środowiska pracy – wpływa na procesy poznawcze, emocje oraz rytm biologiczny, a jednocześnie podnosi efektywność organizacji.

Multimedia
Neverending Start-up. Jak zarządzać firmą na przekór kryzysom? Lekcje Krzysztofa Folty

Jak przetrwać transformację ustrojową, pęknięcie bańki internetowej, kryzys budowlany, krach finansowy 2008 roku i pandemię, budując przy tym firmę wartą ponad miliard złotych? Gościem Pawła Kubisiaka jest Krzysztof Folta – założyciel i wieloletni prezes TIM S.A., autor strategii „Neverending Startup”. W szczerej rozmowie dzieli się lekcjami z ponad 40 lat prowadzenia biznesu – od biura na 16 metrach kwadratowych w PRL-u, po stworzenie giganta e-commerce w branży elektrotechnicznej.

Od gry w Go do Nagrody Nobla: Jak AlphaFold zmienia biznes farmaceutyczny

Kiedy Google DeepMind zaczynało prace nad strukturami białek, wielu wątpiło, czy AI znana z gier planszowych poradzi sobie z „wielkim wyzwaniem biologii”. Dziś, z Nagrodą Nobla na koncie, twórcy AlphaFold udowadniają, że to dopiero początek rewolucji. Jak narzędzie, które skróciło czas badań z miesięcy do godzin, wpływa na branżę farmaceutyczną i dlaczego naukowcy porównują je do „ChatGPT dla biologii”? Poznaj kulisy technologii, która rewolucjonizuje proces odkrywania leków.

Umiejętności negocjacyjne. Jak pokonać lęk i osiągać lepsze wyniki

Kiedy niepewni negocjatorzy angażują się w zachowania takie jak nieśmiałe prośby, zbyt szybkie ustępowanie lub przegapianie korzystnych kompromisów, ograniczają własny sukces – i swój potencjał do poprawy. Liderzy mogą pomóc członkom zespołu rozwijać zaawansowane umiejętności przy stole negocjacyjnym i w tym procesie zwiększać ich pewność siebie. Postępuj zgodnie z trzema podejściami do poprawy umiejętności negocjacyjnych i poznaj pięć pytań, na które każdy powinien umieć odpowiedzieć przed rozpoczęciem negocjacji.

Era przedsiębiorstwa agentowego: Jak nawigować w dobie AI

Czy jesteśmy świadkami końca ery „gadającej i piszącej” sztucznej inteligencji? Najnowszy raport MIT Sloan Management Review i Boston Consulting Group sugeruje, że tak. Wchodzimy w fazę, w której AI przestaje być tylko inteligentnym asystentem, a staje się autonomicznym współpracownikiem. To zmiana paradygmatu, która wymusza na liderach zmianę struktur, procesów i – co najważniejsze – nowe podejście do zaufania.

jak przekazywać złe wiadomości jako lider Test przywództwa, którego nikt nie chce. Jak skutecznie przekazywać złe wiadomości

Przekazywanie złych wiadomości to jeden z najtrudniejszych momentów dla każdego lidera. Niewłaściwa komunikacja może podważyć zaufanie i osłabić zespół, ale jeśli zostanie przeprowadzona świadomie, może stać się szansą na odbudowę i nowy start. W artykule przedstawiamy cztery typy komunikatów, które pomagają radzić sobie z kryzysami i zmianami: „naprawimy to”, „odbijemy się od dna”, „zamykamy to” oraz „idziemy dalej”. Dowiedz się, jak rozpoznać, w jakim momencie się znajdujesz i jak przekazać trudne informacje, by zmobilizować zespół i zachować jego energię. Pełna wersja artykułu dostępna dla subskrybentów.

system merytokracji i charakter w centrum Aby naprawić system merytokracji, postaw charakter w centrum

Idea merytokracji, czyli obsadzania stanowisk zasługą i kompetencjami, jest dziś mocno krytykowana – nazywa się ją mitem czy „alibi dla plutokracji”. Jednak mimo licznych problemów warto ją reformować, a nie porzucać. Klucz do sukcesu to szersze rozumienie „zasług” – nie tylko kompetencje zawodowe, ale też cechy charakteru, takie jak uczciwość, pokora czy empatia.

Problem w tym, że ocena tych cech bywa subiektywna i narażona na uprzedzenia, a w wielu organizacjach stosuje się podwójne standardy. Skuteczne wdrożenie merytokracji wymaga jasnych reguł, przejrzystych procesów oraz konsekwentnego egzekwowania wartości.

Szczególnie ważne jest ocenianie charakteru liderów, ponieważ od tego zależy kultura organizacji, zaufanie i wiarygodność w zarządzaniu. Jak to zrobić skutecznie? M.in. przez formalne kodeksy postępowania, szkolenia, niezależne oceny i transparentność.

Aby w pełni wykorzystać potencjał AI, zainwestuj w swoich pracowników

Sztuczna inteligencja to dziś jeden z najpotężniejszych motorów transformacji biznesowej, który może przynieść firmom nieporównywalne dotąd zyski i przewagę konkurencyjną. Jednak mimo szerokiego wdrożenia narzędzi AI, zaledwie około 5% firm generuje realną, skalowalną wartość z tych inwestycji. Co stoi na przeszkodzie, aby w pełni wykorzystać potencjał AI? Odpowiedź jest jednoznaczna: kluczową rolę odgrywają ludzie i ich nowe kompetencje, wspierane przez strategiczne przywództwo i gruntowną zmianę sposobu pracy.

Multimedia
Noblista Daron Acemoglu studzi oczekiwania wobec sztucznej inteligencji

Czy sztuczna inteligencja naprawdę zrewolucjonizuje gospodarkę i rynek pracy w ciągu najbliższych lat? Daron Acemoglu, laureat Nagrody Nobla i wybitny ekonomista, przedstawia zaskakująco umiarkowaną prognozę. W rozmowie z MIT Sloan Management Review obala popularne mity o potędze AI, wyjaśniając, dlaczego technologia ta zautomatyzuje jedynie ułamek zadań i doda skromny, ale wartościowy wkład do światowego PKB. Posłuchaj, jak ekspert pokazuje, że kluczem do sukcesu jest mądra współpraca ludzi z AI oraz inwestycje w innowacje, a nie ślepe podążanie za modą na automatyzację.

Królicze nory i piękny problem AI: Jak Reddit poprawia personalizację reklam

Vishal Gupta, menedżer ds. inżynierii uczenia maszynowego w Reddit , wyjaśnia, jak platforma radzi sobie z miliardem postów i 100 000 społeczności. Kluczem jest sztuczna inteligencja, która nie tylko pomaga użytkownikom odkrywać niszowe treści , ale także rewolucjonizuje trafność reklam. To delikatna sztuka balansu między eksploracją a eksploatacją , celami reklamodawców a doświadczeniem użytkownika oraz między treściami generowanymi przez AI a autentyczną ludzką rozmową, która – zdaniem Gupty – staje się przez to jeszcze cenniejsza.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!