Streszczenie: Grupa H&M wdraża etykę sztucznej inteligencji w sposób, który wykracza poza tradycyjne podejście oparte na zasadach i formalnych kodeksach. Zamiast szukać uniwersalnych reguł, firma stawia na moralne uczenie się w praktyce — poprzez debaty, analizę realnych scenariuszy i rozwijanie zbiorowego kompasu etycznego. Tekst przedstawia trzy kluczowe elementy tej strategii: pracę na konkretnych przypadkach, traktowanie zasad jako narzędzi refleksji oraz tworzenie infrastruktury organizacyjnej wspierającej dyskusję i rozwój etyczny. To podejście może inspirować liderów, którzy chcą wbudować etykę AI w DNA swojej organizacji — z dala od dogmatów, bliżej realnych decyzji.
Podejście globalnego detalisty do etyki sztucznej inteligencji zakłada, że formalne procedury mają ograniczony zasięg. Menedżerowie koncentrują się na wzmacnianiu moralnego kompasu wszystkich pracowników – tak, by potrafili podejmować trafne decyzje, krok po kroku, rozmowa po rozmowie.
Sztuczna inteligencja zmienia sposób funkcjonowania organizacji – i właśnie dlatego stanowi wyzwanie etyczne. Kto powinien ponosić odpowiedzialność za zautomatyzowane decyzje i działania? Jak szeroka powinna być decyzyjność algorytmów? Jak projektować interakcje między ludzkim umysłem a maszyną? Jak technologia wpływa na pracowników? Gdzie w systemie kryją się uprzedzenia?
Firmy, regulatorzy i decydenci starają się znaleźć trwałe zasady etyczne, które pomogą im poruszać się w tym moralnym labiryncie. Zazwyczaj stosują pozornie logiczne podejście: najpierw identyfikują uniwersalne wartości (takie jak przejrzystość, sprawiedliwość, autonomia człowieka czy możliwość wyjaśnienia decyzji), następnie określają praktyczne zastosowania tych wartości (np. w procesach decyzyjnych czy rekrutacji wspieranej przez AI), a na końcu formalizują je w kodeksach postępowania. Założenie jest takie, że kodeksy etyczne powinny mieć pierwszeństwo przed „kodeksem obliczeniowym” AI.
Być może jednak to linearne podejście jest zbyt uproszczone. Niemiecki filozof technologii Günther Anders przestrzegał przed „przepaścią prometeusza” – dystansem między naszą zdolnością do tworzenia nowych technologii a etyczną dojrzałością potrzebną do ich zrozumienia i kontrolowania1. W przypadku AI ta przepaść rośnie. Gwałtowny rozwój i zakłócenia wywoływane przez sztuczną inteligencję coraz bardziej wyprzedzają etyczne refleksje i próby stworzenia ram regulacyjnych.
Etyka oparta na stałych regułach nie nadąża za dynamicznym rozwojem technologii sztucznej inteligencji — ponieważ to właśnie te technologie podważają fundamenty naszych wartości, a nawet samego człowieczeństwa, jak zauważają autorzy raportu Harvard’s Edmond & Lily Safra Center for Ethics2. Sugerują oni, że „etyka eksperymentowania”, a nie klasyczne podejście normatywne, to „jedyny rodzaj ram, który może realnie przystawać do wyzwań teraźniejszości”.
Dla organizacji korzystających z AI rodzi się zatem pytanie: jak taka „etyka eksperymentowania” wygląda w praktyce? I jak firmy mogą pokonać przepaść prometejską dzielącą moralną wyobraźnię od technologicznej potęgi AI?
W poszukiwaniu pragmatycznych, opartych na doświadczeniu odpowiedzi, podjęliśmy współpracę z globalnym sprzedawcą detalicznym H&M Group, by zbadać jego podejście do etyki AI. Linda Leopold, szefowa strategii AI w H&M Group (obejmującej również obszar etyki), od sześciu lat prowadzi działania na rzecz odpowiedzialnego wykorzystywania sztucznej inteligencji w całej organizacji.
„Nasza strategia opiera się na połączeniu systemu zarządzania i kultury organizacyjnej” — wyjaśnia Leopold. „Nie da się podejść do etyki AI wyłącznie za pomocą formalnych procedur. To kwestia nie tylko charakteru samej etyki i tempa rozwoju technologii, lecz także tego, jak funkcjonują ludzie. Trzeba oddziaływać zarówno na rozum, jak i na serce”.
Budowanie kultury etyki AI w Grupie H&M: trzy kluczowe elementy
Nasze badania nad strategią etyki AI w H&M Group przynoszą cenne wnioski dla praktyków w innych organizacjach. Przeanalizowaliśmy działania firmy na rzecz rozwoju kultury etycznej — obejmujące podnoszenie świadomości, umiejętność rozpoznawania oraz reagowania na dylematy moralne związane z technologią — i zidentyfikowaliśmy trzy kluczowe elementy, które pomagają pracownikom H&M przekładać etykę AI na konkretne działania.
Elementy te — uzupełniające tradycyjne metody zarządzania i narzędzia compliance — tworzą swoisty kompas moralny, wspierający podejmowanie trafnych decyzji w dynamicznym i niepewnym otoczeniu biznesowym3.
Dyskutuj na konkretnych przykładach — i nie dąż do perfekcji
„Dżina nie da się włożyć z powrotem do butelki” — powiedział Demis Hassabis, dyrektor generalny Google DeepMind i laureat Nagrody Nobla, podczas ostatniego Światowego Forum Ekonomicznego w Davos. Ostrzegł przy tym, że sztuczna inteligencja może zagrozić „przyszłości ludzkości, kondycji człowieka i kierunkowi, w jakim jako społeczeństwo chcemy zmierzać”.
Kwestie etyczne poruszane przez Hassabisa, a także przez Yuvala Harariego czy Geoffreya Hintona — określanego często mianem „ojca chrzestnego AI” — bez wątpienia są istotne. Jednak zamiast rozważać, czy sztuczna inteligencja zwiastuje zmierzch czy świt ludzkości, Grupa H&M koncentruje się na etycznych wyzwaniach związanych z jej realnym, bieżącym wykorzystaniem.
W celu zwiększenia świadomości i zrozumienia, firma promuje dyskusje o etyce AI w odniesieniu do konkretnych, codziennych przypadków biznesowych. Inicjatywa rozpoczęła się w 2019 r. jako eksperyment: powołano wtedy Klub Debat Etyki AI, w którym pracownicy mogli wspólnie analizować fikcyjne, lecz realistyczne scenariusze dylematów moralnych wynikających z użycia AI. Od tamtej pory H&M rozwija ten format i organizuje liczne sesje, często z udziałem publiczności obserwującej przebieg debaty.
Debaty stały się jednym z kluczowych narzędzi budowania kultury etycznej i podnoszenia kompetencji w zakresie odpowiedzialnego korzystania z AI.
Jednym z pierwszych scenariuszy dyskusyjnych był przypadek firmowego chatbota o imieniu Mauricio, który udziela młodym klientom H&M porad dotyczących mody. Mauricio jest cierpliwy, uprzejmy, empatyczny i obdarzony poczuciem humoru — jednym słowem: naprawdę sympatyczny „rozmówca”. Podczas rozmów o modzie gromadzi jednak także znaczne ilości danych — również tych wrażliwych, związanych z samopoczuciem, problemami psychologicznymi, intymnymi lękami, pragnieniami czy zaburzeniami użytkowników. Bywa, że Mauricio wie o swoich rozmówcach więcej niż ich rodzice czy najlepsi przyjaciele.
Ten przypadek stawia organizację przed konkretnym dylematem etycznym: gdzie leży moralna odpowiedzialność firmy? Czy powinna wykorzystywać zebrane dane — mimo że użytkownicy wyrazili na to zgodę? Czy H&M Group powinna uruchomić infolinię wsparcia dla młodzieży zmagającej się z trudnościami? A może lepiej byłoby całkowicie wyłączyć Mauricio?
Jak zauważa Linda Leopold, etyka bywa często rozważana w sposób zbyt abstrakcyjny, co utrudnia przekładanie zasad na konkretne zachowania. Tymczasem każdy potrafi odnieść się do postaci takiej jak Mauricio, dostrzec potencjalne wyzwania moralne i rozważyć argumenty „za” lub „przeciw” konkretnemu działaniu.
Praca grupy polega na tym, by stosować etykę jako element codziennej praktyki organizacyjnej — a nie na kontemplacji uniwersalnych zasad — i wykorzystywać storytelling do budowania zaangażowania — tłumaczy Leopold.
Scenariusze są pisane jak krótkie opowieści, mają bawić, prowokować i pobudzać wyobraźnię — zauważa Leopold. Wszystko to służy budowaniu kultury, wzmacnianiu świadomości etycznej i moralnego kompasu.
Obecnie firma wykorzystuje te scenariusze w sesjach podnoszących świadomość, które są dostosowywane do specyfiki poszczególnych funkcji biznesowych. Dzięki temu łatwiej uczestnikom identyfikować i analizować nowe sytuacje wymagające etycznej refleksji w ich własnym kontekście — dodaje Leopold.
To podejście, określane jako „etyka w terenie”, ma filozoficzne zakorzenienie. Już Arystoteles uważał, że moralności uczymy się krok po kroku. Tak samo jak w przypadku nauki gry na fortepianie, golfa czy języka: uczymy się poprzez działanie, próby, błędy i kolejne podejścia. Potrafimy skutecznie rozwiązywać dylematy moralne w konkretnej sytuacji; jesteśmy zdolni rozpoznać, co jest lepsze. Ale, jak pokazuje 2 500 lat daremnych poszukiwań uniwersalnych zasad moralnych, nie jesteśmy w stanie jednoznacznie zdefiniować, co jest dobre, a co złe, w sposób absolutny.
Podejście oparte na moralnym uczeniu się zachęca jednostki i organizacje do stawania się coraz lepszą wersją samych siebie, nawet jeśli nie wiemy (i być może nigdy się nie dowiemy), co jest wersją „najlepszą”. W praktyce wystarczy, że wiemy, co jest lepsze, by móc podjąć właściwą decyzję. Możemy się nie zgadzać co do tego, jakie jest idealne zastosowanie sztucznej inteligencji, ale w konkretnej sytuacji (takiej jak pozyskiwanie danych przez Mauricio) możemy rozważyć argumenty, ocenić konsekwencje i dojść do tymczasowego wniosku. Może nie będzie to rozwiązanie doskonałe, ale będzie wystarczająco dobre.
„Zasady to narzędzia” – stawiaj na ocenę, nie osąd
Drugim filarem podejścia Grupy H&M są zasady etyki cyfrowej, oparte na wartościach takich jak przejrzystość, uczciwość czy odpowiedzialność środowiskowa. Zasady te wspierane są przykładami praktycznego zastosowania oraz zestawami kluczowych pytań, które zachęcają pracowników do refleksji, analizy moralnych dylematów i podejmowania świadomych decyzji.
Co istotne, zasady te nie podpowiadają jednoznacznie, co należy zrobić, lecz jakie pytania warto postawić i jakie kwestie wziąć pod uwagę — tak, aby każdy mógł wypracować własne, świadome odpowiedzi w różnych kontekstach zawodowych. Funkcjonują zatem nie jako instrukcja działań, lecz jako materiał przygotowujący do spotkania z rzeczywistymi dylematami moralnymi. W tym sensie stanowią fundament ogólnofirmowej strategii rozwijania zdolności do etycznego działania.
Z perspektywy badań nad etyką, podejście H&M wykazuje istotne podobieństwa do etyki pragmatystycznej. John Dewey, jedna z kluczowych postaci tego nurtu, uważał, że „zasady to narzędzia”. Nie są one — w jego ujęciu — abstrakcyjnymi normami pozwalającymi jednoznacznie rozstrzygać, co jest dobre, a co złe w danej sytuacji. Rzeczywiste wyzwania etyczne, zwłaszcza w kontekście AI, są zbyt dynamiczne, złożone i nieprzewidywalne, by można je było rozwiązywać przy pomocy sztywnych reguł.
Zasady służą raczej do odkrywania istotnych aspektów sytuacji i poszerzania perspektyw moralnych. Parafrazując Deweya: „reguły moralne są słabym narzędziem dedukcji, ale skutecznym narzędziem eksploracji”.
W Grupie H&M zasady etyki cyfrowej są wykorzystywane właśnie jako narzędzia odkrywania: zachęcają pracowników do badania różnych punktów widzenia i moralnych perspektyw, jakie mogą przyjąć członkowie organizacji. Pomagają zrozumieć warunki oraz możliwe konsekwencje podejmowanych działań, a jednocześnie wyrażają etyczne stanowisko firmy. Działają jako fundament i drogowskaz — wspierając podejmowanie świadomych decyzji zgodnych z wartościami organizacji.
Takie podejście, traktujące zasady jako narzędzia, przesuwa akcent z osądu na ocenę. Gdy pracownik staje przed konkretnym przypadkiem, jego zadaniem nie jest kategoryczne stwierdzenie, czy dane rozwiązanie jest moralnie dobre czy złe, lecz raczej ocena potencjalnych konsekwencji decyzji — zarówno dla firmy, jak i dla różnych grup interesariuszy. Pracownicy zazwyczaj dobrze sobie radzą z oceną tego, co jest dobre, a co lepsze — nawet jeśli nie potrafią zdefiniować, co byłoby najlepsze.
By lepiej zobrazować tę różnicę, można sięgnąć po analogię: ocena artykułu naukowego, pomysłu na nowy produkt czy filmu rzadko opiera się na jednoznacznym określeniu „najlepszego”. Ale potrafimy z łatwością stwierdzić, który artykuł jest bardziej inspirujący, który pomysł rokuje największy potencjał, a który film zapewnia większą satysfakcję. Taka ocena, choć nie ostateczna, pozostawia ślad, z którego czerpiemy przy kolejnych decyzjach. W ten sposób uruchamiana jest organizacyjna pętla uczenia się.
Stwórz przestrzeń dla infrastruktury etycznej
Konkretne przykłady i umiejętność oceny współdziałają, wspierając świadome działanie. Jednak aby moralne uczenie się mogło być trwałe i skalowalne, nie może opierać się wyłącznie na indywidualnej refleksji — potrzebuje strukturalnego wsparcia ze strony organizacji.
Wczesne sesje Klubu Debat Etyki AI4 w Grupie H&M oraz obecne debaty organizowane w różnych częściach firmy to przykłady ustrukturyzowanych i psychologicznie bezpiecznych przestrzeni, w których przedstawiciele różnych działów — od ekspertów ds. praw człowieka, przez menedżerów ds. zrównoważonego rozwoju, po data scientistów i inżynierów — mogą wspólnie analizować i oceniać kwestie etyczne.
Choć obecnie H&M organizuje mniej formalnych sesji debat niż wcześniej, podejście oparte na otwartej dyskusji o dylematach moralnych pozostaje fundamentem niemal wszystkich prezentacji dotyczących etyki AI, prowadzonych dla zespołów i działów w całej organizacji — podkreśla Leopold. Celem jest budowanie kultury etycznej opartej na słuchaniu, wypowiadaniu się, refleksji i stawianiu pytań.
Projektowanie takich dyskusji ma kluczowe znaczenie. Kto bierze w nich udział, co trafia (lub nie trafia) do agendy, jakie są role uczestników i moderatorów, jaki jest rytm argumentów „za” i „przeciw” — wszystkie te elementy składają się na infrastrukturę etyczną. Grupa H&M projektuje debaty w sposób umożliwiający uczenie się moralne: uczestnicy analizują scenariusze, przyjmują określone punkty widzenia, konfrontują się z odmiennymi stanowiskami, a następnie wspólnie wypracowują możliwe rozwiązania etycznych dylematów.
Jednym z kluczowych założeń jest to, że role w debacie są przydzielane uczestnikom z góry — a nie wybierane przez nich samych. Celem nie jest prezentowanie własnych opinii, lecz praktyka i nauka, ćwiczenie argumentacji, obracanie tematów z różnych stron, bez względu na osobiste przekonania — wyjaśnia Leopold.
Największe znaczenie ma sam proces; debata, przyjmowanie odmiennych perspektyw oraz refleksja nad moralnymi konsekwencjami decyzji biznesowych.
Założenie, które stoi za koncepcją infrastruktury etycznej, może wydawać się niekonwencjonalne: często postrzegamy moralność jako coś zakorzenionego w świadomości jednostki, jej współczuciu czy intuicji. Grupa H&M podchodzi do tego inaczej — koncentruje się na rozwijaniu zbiorowego rozumowania moralnego, czyli zdolności organizacji, jako podmiotu moralnego, do świadomego rozróżniania tego, co powinna, a czego nie powinna robić.
Infrastruktura etyczna sprawia, że uczenie się moralne nie jest dziełem przypadku, lecz staje się celowo projektowanym i integralnym elementem życia organizacyjnego.
Zbuduj moralny kompas swojej organizacji
Jak pokazuje przykład Grupy H&M, organizacje mogą praktykować etykę AI i systematycznie się doskonalić — nawet jeśli nie mają (i być może nigdy nie będą miały) pełnej wiedzy o tym, jakie są „najlepsze praktyki” w tej dziedzinie.
W obliczu faktu, że klasyczna etyka oparta na regułach nie nadąża za nieprzewidywalną, dynamiczną rzeczywistością AI, proponujemy alternatywny model: etykę opartą na eksperymentowaniu i ciągłym uczeniu się. Dla liderów i menedżerów oznacza to nowy sposób myślenia o etyce jako o drodze moralnego rozwoju organizacji. Taka droga prowadzi od kultury zgodności opartej na odgórnych regulacjach do dojrzałej, ewoluującej kultury etycznej.
Podróż w tym kierunku zaczyna się od pracy z konkretnymi dylematami i to właśnie zrobiła Grupa H&M. Zamiast operować abstrakcyjnymi zasadami, zachęca pracowników do angażowania się w rzeczywiste przypadki i scenariusze osadzone w codziennej praktyce biznesowej. Aby wesprzeć te rozmowy, wykorzystuje zasady jako narzędzia służące odkrywaniu moralnych aspektów zdarzeń i wspólnemu poszukiwaniu możliwych rozwiązań.
Na koniec, kluczowe jest stworzenie warunków, które pozwolą na faktyczne zakorzenienie moralnego uczenia się w organizacji: przestrzeni, czasu i zinstytucjonalizowanych mechanizmów, dzięki którym etyczna refleksja może realnie się wydarzyć, tu i teraz.
Liderzy muszą tworzyć przestrzeń dla głosów sprzeciwu i wspierać rozwój zbiorowej pamięci moralnej — zdolności organizacji do uczenia się na bazie wcześniejszych doświadczeń, refleksji i sporów. To właśnie ona pozwala organizacji stopniowo stawać się lepszą wersją samej siebie, bez presji osiągnięcia statusu „najlepszej” wersji w absolutnym sensie.
Strategia przedstawiona powyżej świadomie rezygnuje z poszukiwania moralnego Świętego Graala, czy Dziesięciu Przykazań etyki dla AI. Jak pokazuje przykład H&M Group, rolą liderów nie jest definiowanie ostatecznych prawd etycznych, lecz wyposażenie organizacyjnych zbiorowości w kompas moralny; narzędzie, które umożliwia podejmowanie lepszych decyzji w sytuacjach pełnych niepewności i napięć etycznych.
W świecie, w którym krajobraz sztucznej inteligencji staje się coraz bardziej złożony i nierówny, moralny kompas może okazać się naszym najcenniejszym narzędziem; jedynym, które naprawdę pomaga utrzymać zespoły na właściwej drodze.
- G. Anders, “Die Antiquiertheit des Menschen,” vol. 1 (Munich: C.H. Beck, 1956); and G. Anders, “Die Antiquiertheit des Menschen,” vol. 2 (Munich: C.H. Beck, 1980). ↩︎
- D. Allen, E. Frankel, W. Lim, et al., “Ethics of Decentralized Social Technologies: Lessons From Web3, the Fediverse, and Beyond,” PDF file (Cambridge, Massachusetts: Justice, Health & Democracy Impact Initiative, March 2023), https://ash.harvard.edu. ↩︎
- For a theoretical treatment of the idea, see M. Kornberger and S. Leixnering, “Moral Learning in Organizations: An Integrative Framework for Organizational Ethics,” Journal of Business Ethics, published online March 15, 2025. ↩︎
- See N. Epley and D. Tannenbaum, “Treating Ethics as a Design Problem,” Behavioral Science & Policy 3, no. 2 (2017): 72-84; and S.R. Martin, J.J. Kish-Gephart, and J.R. Detert, “Blind Forces: Ethical Infrastructures and Moral Disengagement in Organizations,” Organizational Psychology Review 4, no. 4 (November 2014): 295-325. ↩︎