Reklama
Dołącz do liderów przyszłości i zdobądź przewagę! Sprawdź najnowszą ofertę subskrypcji
SZTUCZNA INTELIGENCJA

Lekcje strategii etycznej AI od Grupy H&M

9 czerwca 2025 14 min czytania
Martin Kornberger
Elmira Vanden Broek
Stephan Leixnering
Hiperrealistyczna ilustracja przedstawia przestronne, nowoczesne atrium o minimalistycznym wystroju. W centralnym punkcie podłogi znajduje się świetlista rozeta kompasu, symbolizująca moralne centrum organizacji. Nad nią unoszą się transparentne, kolorowe panele w chłodnych i ciepłych tonacjach, zawieszone w przestrzeni na różnych wysokościach. Naturalne światło wpada przez świetliki dachowe, tworząc spokojną, refleksyjną atmosferę. Całość emanuje równowagą między strukturą a wartościami, technologią a etyką.

Streszczenie: Grupa H&M wdraża etykę sztucznej inteligencji w sposób, który wykracza poza tradycyjne podejście oparte na zasadach i formalnych kodeksach. Zamiast szukać uniwersalnych reguł, firma stawia na moralne uczenie się w praktyce — poprzez debaty, analizę realnych scenariuszy i rozwijanie zbiorowego kompasu etycznego. Tekst przedstawia trzy kluczowe elementy tej strategii: pracę na konkretnych przypadkach, traktowanie zasad jako narzędzi refleksji oraz tworzenie infrastruktury organizacyjnej wspierającej dyskusję i rozwój etyczny. To podejście może inspirować liderów, którzy chcą wbudować etykę AI w DNA swojej organizacji — z dala od dogmatów, bliżej realnych decyzji.

Pokaż więcej

Podejście globalnego detalisty do etyki sztucznej inteligencji zakłada, że formalne procedury mają ograniczony zasięg. Menedżerowie koncentrują się na wzmacnianiu moralnego kompasu wszystkich pracowników – tak, by potrafili podejmować trafne decyzje, krok po kroku, rozmowa po rozmowie.

Sztuczna inteligencja zmienia sposób funkcjonowania organizacji – i właśnie dlatego stanowi wyzwanie etyczne. Kto powinien ponosić odpowiedzialność za zautomatyzowane decyzje i działania? Jak szeroka powinna być decyzyjność algorytmów? Jak projektować interakcje między ludzkim umysłem a maszyną? Jak technologia wpływa na pracowników? Gdzie w systemie kryją się uprzedzenia?

Firmy, regulatorzy i decydenci starają się znaleźć trwałe zasady etyczne, które pomogą im poruszać się w tym moralnym labiryncie. Zazwyczaj stosują pozornie logiczne podejście: najpierw identyfikują uniwersalne wartości (takie jak przejrzystość, sprawiedliwość, autonomia człowieka czy możliwość wyjaśnienia decyzji), następnie określają praktyczne zastosowania tych wartości (np. w procesach decyzyjnych czy rekrutacji wspieranej przez AI), a na końcu formalizują je w kodeksach postępowania. Założenie jest takie, że kodeksy etyczne powinny mieć pierwszeństwo przed „kodeksem obliczeniowym” AI.

Być może jednak to linearne podejście jest zbyt uproszczone. Niemiecki filozof technologii Günther Anders przestrzegał przed „przepaścią prometeusza” – dystansem między naszą zdolnością do tworzenia nowych technologii a etyczną dojrzałością potrzebną do ich zrozumienia i kontrolowania1. W przypadku AI ta przepaść rośnie. Gwałtowny rozwój i zakłócenia wywoływane przez sztuczną inteligencję coraz bardziej wyprzedzają etyczne refleksje i próby stworzenia ram regulacyjnych.

Etyka oparta na stałych regułach nie nadąża za dynamicznym rozwojem technologii sztucznej inteligencji — ponieważ to właśnie te technologie podważają fundamenty naszych wartości, a nawet samego człowieczeństwa, jak zauważają autorzy raportu Harvard’s Edmond & Lily Safra Center for Ethics2. Sugerują oni, że „etyka eksperymentowania”, a nie klasyczne podejście normatywne, to „jedyny rodzaj ram, który może realnie przystawać do wyzwań teraźniejszości”.

Dla organizacji korzystających z AI rodzi się zatem pytanie: jak taka „etyka eksperymentowania” wygląda w praktyce? I jak firmy mogą pokonać przepaść prometejską dzielącą moralną wyobraźnię od technologicznej potęgi AI?

W poszukiwaniu pragmatycznych, opartych na doświadczeniu odpowiedzi, podjęliśmy współpracę z globalnym sprzedawcą detalicznym H&M Group, by zbadać jego podejście do etyki AI. Linda Leopold, szefowa strategii AI w H&M Group (obejmującej również obszar etyki), od sześciu lat prowadzi działania na rzecz odpowiedzialnego wykorzystywania sztucznej inteligencji w całej organizacji.

„Nasza strategia opiera się na połączeniu systemu zarządzania i kultury organizacyjnej” — wyjaśnia Leopold. „Nie da się podejść do etyki AI wyłącznie za pomocą formalnych procedur. To kwestia nie tylko charakteru samej etyki i tempa rozwoju technologii, lecz także tego, jak funkcjonują ludzie. Trzeba oddziaływać zarówno na rozum, jak i na serce”.

Budowanie kultury etyki AI w Grupie H&M: trzy kluczowe elementy

Nasze badania nad strategią etyki AI w H&M Group przynoszą cenne wnioski dla praktyków w innych organizacjach. Przeanalizowaliśmy działania firmy na rzecz rozwoju kultury etycznej — obejmujące podnoszenie świadomości, umiejętność rozpoznawania oraz reagowania na dylematy moralne związane z technologią — i zidentyfikowaliśmy trzy kluczowe elementy, które pomagają pracownikom H&M przekładać etykę AI na konkretne działania.

Elementy te — uzupełniające tradycyjne metody zarządzania i narzędzia compliance — tworzą swoisty kompas moralny, wspierający podejmowanie trafnych decyzji w dynamicznym i niepewnym otoczeniu biznesowym3.

Dyskutuj na konkretnych przykładach — i nie dąż do perfekcji

„Dżina nie da się włożyć z powrotem do butelki” — powiedział Demis Hassabis, dyrektor generalny Google DeepMind i laureat Nagrody Nobla, podczas ostatniego Światowego Forum Ekonomicznego w Davos. Ostrzegł przy tym, że sztuczna inteligencja może zagrozić „przyszłości ludzkości, kondycji człowieka i kierunkowi, w jakim jako społeczeństwo chcemy zmierzać”.

Kwestie etyczne poruszane przez Hassabisa, a także przez Yuvala Harariego czy Geoffreya Hintona — określanego często mianem „ojca chrzestnego AI” — bez wątpienia są istotne. Jednak zamiast rozważać, czy sztuczna inteligencja zwiastuje zmierzch czy świt ludzkości, Grupa H&M koncentruje się na etycznych wyzwaniach związanych z jej realnym, bieżącym wykorzystaniem.

W celu zwiększenia świadomości i zrozumienia, firma promuje dyskusje o etyce AI w odniesieniu do konkretnych, codziennych przypadków biznesowych. Inicjatywa rozpoczęła się w 2019 r. jako eksperyment: powołano wtedy Klub Debat Etyki AI, w którym pracownicy mogli wspólnie analizować fikcyjne, lecz realistyczne scenariusze dylematów moralnych wynikających z użycia AI. Od tamtej pory H&M rozwija ten format i organizuje liczne sesje, często z udziałem publiczności obserwującej przebieg debaty.

Debaty stały się jednym z kluczowych narzędzi budowania kultury etycznej i podnoszenia kompetencji w zakresie odpowiedzialnego korzystania z AI.

Jednym z pierwszych scenariuszy dyskusyjnych był przypadek firmowego chatbota o imieniu Mauricio, który udziela młodym klientom H&M porad dotyczących mody. Mauricio jest cierpliwy, uprzejmy, empatyczny i obdarzony poczuciem humoru — jednym słowem: naprawdę sympatyczny „rozmówca”. Podczas rozmów o modzie gromadzi jednak także znaczne ilości danych — również tych wrażliwych, związanych z samopoczuciem, problemami psychologicznymi, intymnymi lękami, pragnieniami czy zaburzeniami użytkowników. Bywa, że Mauricio wie o swoich rozmówcach więcej niż ich rodzice czy najlepsi przyjaciele.

Ten przypadek stawia organizację przed konkretnym dylematem etycznym: gdzie leży moralna odpowiedzialność firmy? Czy powinna wykorzystywać zebrane dane — mimo że użytkownicy wyrazili na to zgodę? Czy H&M Group powinna uruchomić infolinię wsparcia dla młodzieży zmagającej się z trudnościami? A może lepiej byłoby całkowicie wyłączyć Mauricio?

Jak zauważa Linda Leopold, etyka bywa często rozważana w sposób zbyt abstrakcyjny, co utrudnia przekładanie zasad na konkretne zachowania. Tymczasem każdy potrafi odnieść się do postaci takiej jak Mauricio, dostrzec potencjalne wyzwania moralne i rozważyć argumenty „za” lub „przeciw” konkretnemu działaniu.

Praca grupy polega na tym, by stosować etykę jako element codziennej praktyki organizacyjnej — a nie na kontemplacji uniwersalnych zasad — i wykorzystywać storytelling do budowania zaangażowania — tłumaczy Leopold.

Scenariusze są pisane jak krótkie opowieści, mają bawić, prowokować i pobudzać wyobraźnię — zauważa Leopold. Wszystko to służy budowaniu kultury, wzmacnianiu świadomości etycznej i moralnego kompasu.

Obecnie firma wykorzystuje te scenariusze w sesjach podnoszących świadomość, które są dostosowywane do specyfiki poszczególnych funkcji biznesowych. Dzięki temu łatwiej uczestnikom identyfikować i analizować nowe sytuacje wymagające etycznej refleksji w ich własnym kontekście — dodaje Leopold.

To podejście, określane jako „etyka w terenie”, ma filozoficzne zakorzenienie. Już Arystoteles uważał, że moralności uczymy się krok po kroku. Tak samo jak w przypadku nauki gry na fortepianie, golfa czy języka: uczymy się poprzez działanie, próby, błędy i kolejne podejścia. Potrafimy skutecznie rozwiązywać dylematy moralne w konkretnej sytuacji; jesteśmy zdolni rozpoznać, co jest lepsze. Ale, jak pokazuje 2 500 lat daremnych poszukiwań uniwersalnych zasad moralnych, nie jesteśmy w stanie jednoznacznie zdefiniować, co jest dobre, a co złe, w sposób absolutny.

Podejście oparte na moralnym uczeniu się zachęca jednostki i organizacje do stawania się coraz lepszą wersją samych siebie, nawet jeśli nie wiemy (i być może nigdy się nie dowiemy), co jest wersją „najlepszą”. W praktyce wystarczy, że wiemy, co jest lepsze, by móc podjąć właściwą decyzję. Możemy się nie zgadzać co do tego, jakie jest idealne zastosowanie sztucznej inteligencji, ale w konkretnej sytuacji (takiej jak pozyskiwanie danych przez Mauricio) możemy rozważyć argumenty, ocenić konsekwencje i dojść do tymczasowego wniosku. Może nie będzie to rozwiązanie doskonałe, ale będzie wystarczająco dobre.

„Zasady to narzędzia” – stawiaj na ocenę, nie osąd

Drugim filarem podejścia Grupy H&M są zasady etyki cyfrowej, oparte na wartościach takich jak przejrzystość, uczciwość czy odpowiedzialność środowiskowa. Zasady te wspierane są przykładami praktycznego zastosowania oraz zestawami kluczowych pytań, które zachęcają pracowników do refleksji, analizy moralnych dylematów i podejmowania świadomych decyzji.

Co istotne, zasady te nie podpowiadają jednoznacznie, co należy zrobić, lecz jakie pytania warto postawić i jakie kwestie wziąć pod uwagę — tak, aby każdy mógł wypracować własne, świadome odpowiedzi w różnych kontekstach zawodowych. Funkcjonują zatem nie jako instrukcja działań, lecz jako materiał przygotowujący do spotkania z rzeczywistymi dylematami moralnymi. W tym sensie stanowią fundament ogólnofirmowej strategii rozwijania zdolności do etycznego działania.

Z perspektywy badań nad etyką, podejście H&M wykazuje istotne podobieństwa do etyki pragmatystycznej. John Dewey, jedna z kluczowych postaci tego nurtu, uważał, że „zasady to narzędzia”. Nie są one — w jego ujęciu — abstrakcyjnymi normami pozwalającymi jednoznacznie rozstrzygać, co jest dobre, a co złe w danej sytuacji. Rzeczywiste wyzwania etyczne, zwłaszcza w kontekście AI, są zbyt dynamiczne, złożone i nieprzewidywalne, by można je było rozwiązywać przy pomocy sztywnych reguł.

Zasady służą raczej do odkrywania istotnych aspektów sytuacji i poszerzania perspektyw moralnych. Parafrazując Deweya: „reguły moralne są słabym narzędziem dedukcji, ale skutecznym narzędziem eksploracji”.

W Grupie H&M zasady etyki cyfrowej są wykorzystywane właśnie jako narzędzia odkrywania: zachęcają pracowników do badania różnych punktów widzenia i moralnych perspektyw, jakie mogą przyjąć członkowie organizacji. Pomagają zrozumieć warunki oraz możliwe konsekwencje podejmowanych działań, a jednocześnie wyrażają etyczne stanowisko firmy. Działają jako fundament i drogowskaz — wspierając podejmowanie świadomych decyzji zgodnych z wartościami organizacji.

Takie podejście, traktujące zasady jako narzędzia, przesuwa akcent z osądu na ocenę. Gdy pracownik staje przed konkretnym przypadkiem, jego zadaniem nie jest kategoryczne stwierdzenie, czy dane rozwiązanie jest moralnie dobre czy złe, lecz raczej ocena potencjalnych konsekwencji decyzji — zarówno dla firmy, jak i dla różnych grup interesariuszy. Pracownicy zazwyczaj dobrze sobie radzą z oceną tego, co jest dobre, a co lepsze — nawet jeśli nie potrafią zdefiniować, co byłoby najlepsze.

By lepiej zobrazować tę różnicę, można sięgnąć po analogię: ocena artykułu naukowego, pomysłu na nowy produkt czy filmu rzadko opiera się na jednoznacznym określeniu „najlepszego”. Ale potrafimy z łatwością stwierdzić, który artykuł jest bardziej inspirujący, który pomysł rokuje największy potencjał, a który film zapewnia większą satysfakcję. Taka ocena, choć nie ostateczna, pozostawia ślad, z którego czerpiemy przy kolejnych decyzjach. W ten sposób uruchamiana jest organizacyjna pętla uczenia się.

Stwórz przestrzeń dla infrastruktury etycznej

Konkretne przykłady i umiejętność oceny współdziałają, wspierając świadome działanie. Jednak aby moralne uczenie się mogło być trwałe i skalowalne, nie może opierać się wyłącznie na indywidualnej refleksji — potrzebuje strukturalnego wsparcia ze strony organizacji.

Wczesne sesje Klubu Debat Etyki AI4 w Grupie H&M oraz obecne debaty organizowane w różnych częściach firmy to przykłady ustrukturyzowanych i psychologicznie bezpiecznych przestrzeni, w których przedstawiciele różnych działów — od ekspertów ds. praw człowieka, przez menedżerów ds. zrównoważonego rozwoju, po data scientistów i inżynierów — mogą wspólnie analizować i oceniać kwestie etyczne.

Choć obecnie H&M organizuje mniej formalnych sesji debat niż wcześniej, podejście oparte na otwartej dyskusji o dylematach moralnych pozostaje fundamentem niemal wszystkich prezentacji dotyczących etyki AI, prowadzonych dla zespołów i działów w całej organizacji — podkreśla Leopold. Celem jest budowanie kultury etycznej opartej na słuchaniu, wypowiadaniu się, refleksji i stawianiu pytań.

Projektowanie takich dyskusji ma kluczowe znaczenie. Kto bierze w nich udział, co trafia (lub nie trafia) do agendy, jakie są role uczestników i moderatorów, jaki jest rytm argumentów „za” i „przeciw” — wszystkie te elementy składają się na infrastrukturę etyczną. Grupa H&M projektuje debaty w sposób umożliwiający uczenie się moralne: uczestnicy analizują scenariusze, przyjmują określone punkty widzenia, konfrontują się z odmiennymi stanowiskami, a następnie wspólnie wypracowują możliwe rozwiązania etycznych dylematów.

Jednym z kluczowych założeń jest to, że role w debacie są przydzielane uczestnikom z góry — a nie wybierane przez nich samych. Celem nie jest prezentowanie własnych opinii, lecz praktyka i nauka, ćwiczenie argumentacji, obracanie tematów z różnych stron, bez względu na osobiste przekonania — wyjaśnia Leopold.

Największe znaczenie ma sam proces; debata, przyjmowanie odmiennych perspektyw oraz refleksja nad moralnymi konsekwencjami decyzji biznesowych.

Założenie, które stoi za koncepcją infrastruktury etycznej, może wydawać się niekonwencjonalne: często postrzegamy moralność jako coś zakorzenionego w świadomości jednostki, jej współczuciu czy intuicji. Grupa H&M podchodzi do tego inaczej — koncentruje się na rozwijaniu zbiorowego rozumowania moralnego, czyli zdolności organizacji, jako podmiotu moralnego, do świadomego rozróżniania tego, co powinna, a czego nie powinna robić.

Infrastruktura etyczna sprawia, że uczenie się moralne nie jest dziełem przypadku, lecz staje się celowo projektowanym i integralnym elementem życia organizacyjnego.

Zbuduj moralny kompas swojej organizacji

Jak pokazuje przykład Grupy H&M, organizacje mogą praktykować etykę AI i systematycznie się doskonalić — nawet jeśli nie mają (i być może nigdy nie będą miały) pełnej wiedzy o tym, jakie są „najlepsze praktyki” w tej dziedzinie.

W obliczu faktu, że klasyczna etyka oparta na regułach nie nadąża za nieprzewidywalną, dynamiczną rzeczywistością AI, proponujemy alternatywny model: etykę opartą na eksperymentowaniu i ciągłym uczeniu się. Dla liderów i menedżerów oznacza to nowy sposób myślenia o etyce jako o drodze moralnego rozwoju organizacji. Taka droga prowadzi od kultury zgodności opartej na odgórnych regulacjach do dojrzałej, ewoluującej kultury etycznej.

Podróż w tym kierunku zaczyna się od pracy z konkretnymi dylematami i to właśnie zrobiła Grupa H&M. Zamiast operować abstrakcyjnymi zasadami, zachęca pracowników do angażowania się w rzeczywiste przypadki i scenariusze osadzone w codziennej praktyce biznesowej. Aby wesprzeć te rozmowy, wykorzystuje zasady jako narzędzia służące odkrywaniu moralnych aspektów zdarzeń i wspólnemu poszukiwaniu możliwych rozwiązań.

Na koniec, kluczowe jest stworzenie warunków, które pozwolą na faktyczne zakorzenienie moralnego uczenia się w organizacji: przestrzeni, czasu i zinstytucjonalizowanych mechanizmów, dzięki którym etyczna refleksja może realnie się wydarzyć, tu i teraz.

Liderzy muszą tworzyć przestrzeń dla głosów sprzeciwu i wspierać rozwój zbiorowej pamięci moralnej — zdolności organizacji do uczenia się na bazie wcześniejszych doświadczeń, refleksji i sporów. To właśnie ona pozwala organizacji stopniowo stawać się lepszą wersją samej siebie, bez presji osiągnięcia statusu „najlepszej” wersji w absolutnym sensie.

Strategia przedstawiona powyżej świadomie rezygnuje z poszukiwania moralnego Świętego Graala, czy Dziesięciu Przykazań etyki dla AI. Jak pokazuje przykład H&M Group, rolą liderów nie jest definiowanie ostatecznych prawd etycznych, lecz wyposażenie organizacyjnych zbiorowości w kompas moralny; narzędzie, które umożliwia podejmowanie lepszych decyzji w sytuacjach pełnych niepewności i napięć etycznych.

W świecie, w którym krajobraz sztucznej inteligencji staje się coraz bardziej złożony i nierówny, moralny kompas może okazać się naszym najcenniejszym narzędziem; jedynym, które naprawdę pomaga utrzymać zespoły na właściwej drodze.

  1. G. Anders, “Die Antiquiertheit des Menschen,” vol. 1 (Munich: C.H. Beck, 1956); and G. Anders, “Die Antiquiertheit des Menschen,” vol. 2 (Munich: C.H. Beck, 1980). ↩︎
  2. D. Allen, E. Frankel, W. Lim, et al., “Ethics of Decentralized Social Technologies: Lessons From Web3, the Fediverse, and Beyond,” PDF file (Cambridge, Massachusetts: Justice, Health & Democracy Impact Initiative, March 2023), https://ash.harvard.edu. ↩︎
  3.  For a theoretical treatment of the idea, see M. Kornberger and S. Leixnering, “Moral Learning in Organizations: An Integrative Framework for Organizational Ethics,” Journal of Business Ethics, published online March 15, 2025. ↩︎
  4. See N. Epley and D. Tannenbaum, “Treating Ethics as a Design Problem,” Behavioral Science & Policy 3, no. 2 (2017): 72-84; and S.R. Martin, J.J. Kish-Gephart, and J.R. Detert, “Blind Forces: Ethical Infrastructures and Moral Disengagement in Organizations,” Organizational Psychology Review 4, no. 4 (November 2014): 295-325. ↩︎

O autorach
Tematy

Może Cię zainteresować

Premium
Filozofia pożera sztuczną inteligencję

W 2011 r. Marc Andreessen, programista, a później inwestor venture capital, na łamach „The Wall Street Journal” ogłosił: „Oprogramowanie pożera świat”. Jego manifest opisywał technologię, która z niezwykłą żarłocznością przekształca każdą branżę, którą obejmuje. Nie mylił się – oprogramowanie wciąż dominuje na świecie.

Niecałe sześć lat później Jensen Huang, współzałożyciel i dyrektor generalny Nvidii, odważnie rozwinął myśl Andreessena, stwierdzając: „Oprogramowanie pożera świat… ale AI pożera oprogramowanie”. Nabierające rozpędu przechodzenie od tradycyjnego kodowania przez ludzi do uczenia maszynowego skłoniło Huanga do takiej konstatacji: „Uczenie głębokie to strategiczny imperatyw dla każdej dużej firmy technologicznej. Coraz bardziej przenika ono każdy aspekt pracy – od infrastruktury i narzędzi aż po sposób tworzenia produktów”. Gigantyczna kapitalizacja rynkowa Nvidii jest dowodem na trafność jego przewidywań z 2017 r.

AI to miecz obosieczny. Jak wykorzystać jej moc i nie paść jej ofiarą?
Premium
AI to miecz obosieczny. Jak wykorzystać jej moc i nie paść jej ofiarą?

Isaac Asimov powiedział kiedyś: „Nie boję się komputerów, ale boję się ich braku”. Dziś moglibyśmy powiedzieć to samo o sztucznej inteligencji. Jedni widzą w niej narzędzie oszczędności i rozwoju, inni boją się, że coś im umknie, jeśli jej nie wykorzystają. O tym, czym jest i czym może się stać AI, Paweł Kubisiak rozmawia z Aleksandrą Przegalińską, czołową badaczką sztucznej inteligencji w Polsce.

Paweł Kubisiak: Jako badaczka i wykładowczyni jest pani znana z pionierskiego wykorzystania algorytmów sztucznej inteligencji w pracy i nauczaniu. Dlatego zacznę od podziękowań za to, że dotarła pani na to spotkanie ze mną osobiście, a nie w postaci awatara czy agenta AI.

Aleksandra Przegalińska: Mam wrażenie, że im więcej korzystam z awatara, tym większa staje się moja potrzeba osobistego kontaktu z ludźmi. Awatary są bardzo przydatne w edukacji. Współtworzymy obecnie na Akademii Leona Koźmińskiego projekt „Uniwersytet Europejski” – wirtualny kampus oparty na sztucznej inteligencji. Studenci będą mieli dostęp do kursów prowadzonych przez awatary, będą mogli trenować rozmowy egzaminacyjne czy powtarzać materiał. To fantastyczne narzędzie wspierające naukę. Ale im dłużej nad tym pracujemy, tym bardziej widzimy, jak istotna jest równowaga między technologią a bezpośrednim kontaktem z ludźmi.

10 kluczowych wniosków na temat sztucznej inteligencji dla liderów

Które strategie AI naprawdę działają? Poznaj rekomendacje ekspertów MIT SMR dotyczące najpilniejszych wyzwań związanych ze sztuczną inteligencją.

„Pomimo dwóch lat intensywnych działań zarządczych i szeroko zakrojonych eksperymentów, nadal nie obserwujemy zakrojonych na szeroką skalę transformacji biznesowych napędzanych przez generatywną sztuczną inteligencję, które pierwotnie przewidywano”.

Czy powyższe stwierdzenie autorów MIT SMR, Melissy Webster i George’a Westermana, odpowiada Twoim doświadczeniom? To zrozumiałe. Po dwóch intensywnych latach pełnych szumu medialnego, innowacji i eksperymentów, wielu liderów – być może również Ty i Twoi współpracownicy – nadal oczekuje na realne korzyści biznesowe z zastosowania AI. Niewykluczone, że wciąż nie udało się wam przeprojektować kluczowego procesu, skrócić czasu wprowadzenia produktów na rynek czy znacząco zwiększyć satysfakcji klientów.

Aby skutecznie rozwiązywać konflikty, warto postawić na godność Aby skutecznie rozwiązywać konflikty, warto postawić na godność

Cztery wzajemnie powiązane praktyki mogą wzmocnić poczucie godności u drugiej strony sporu, co sprzyja bardziej konstruktywnemu rozwiązywaniu problemów i lepszej współpracy.

Konflikty między firmami dążącymi do realizacji celów biznesowych a społecznościami broniącymi swoich interesów są powszechne i często nieuniknione, zwłaszcza gdy firmy nie inwestują w budowanie relacji z lokalnym otoczeniem. Przykładem mogą być: szybki rozwój sektora wydobywczego w Ameryce Łacińskiej, projekty z zakresu energii odnawialnej, które nie uwzględniają oporu typu „nie w moim ogródku”, lub przesiedlenia marginalizowanych grup, spowodowane budową niechcianych przez nie obiektów. W wielu przypadkach prace są kontynuowane mimo protestów lokalnych mieszkańców, co prowadzi do długotrwałych i wyniszczających konfliktów.

Liderzy myślący strategicznie i konkurencyjnie mogą uważać, że zarządzanie interesariuszami w takich sytuacjach polega na próbach przechytrzenia drugiej strony. Takie podejście jest jednak krótkowzroczne. Kiedy interesy korporacyjne kolidują z potrzebami i wartościami społeczności, konieczne jest budowanie jeszcze lepszych relacji międzyludzkich, zwłaszcza gdy strony pozostają w konflikcie, a jednocześnie muszą współpracować.

Właśnie tutaj może pomóc podkreślenie godności drugiej strony. W trakcie mojej pracy nad rozwiązywaniem konfliktów w Consensus Building Institute (CBI) dostrzegłem, jak ważne jest umieszczenie podstawowej ludzkiej potrzeby godności w centrum działań. Godność rozumiem jako wewnętrzne poczucie własnej wartości, dumy osobistej oraz potrzebę wpływania na to, co dla nas najważniejsze. Uwzględnienie tego w procesie rozwiązywania konfliktów nie oznacza odrzucenia klasycznych technik negocjacji opartych na interesach; wręcz przeciwnie – stawia je na pierwszym miejscu, kierując się tym, co powoduje ludzkim zachowaniem.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!