Reklama
Dołącz do liderów przyszłości i zdobądź przewagę! Sprawdź najnowszą ofertę subskrypcji
Komunikacja
Magazyn (Nr 22, luty - marzec 2024)

Etyka a AI w praktyce Unilevera: od polityki do wdrożenia

1 lutego 2024 13 min czytania
Zdjęcie Randy Bean - Randy Bean (@randybeannvp) jest branżowym ekspertem, pisarzem i prezesem założonej w 2001 roku firmy konsultingowej NewVantage Partners, która specjalizuje się w doradztwie w zakresie strategii i zarządzania. Współpracuje z czasopismami „MIT Sloan Management Review”, „Forbes”, „Harvard Business Review” i „The Wall Street Journal”. Kontakt: rbean@newvantage.com.
Randy Bean
Thomas H. Davenport
Etyka a AI w praktyce Unilevera: od polityki do wdrożenia

Obecnie wiele dużych firm – globalnie ok. 70% – doszło do przekonania, że sztuczna inteligencja jest ważna, więc szuka zastosowań dla technologii w różnych obszarach swojej działalności. W większości przedsiębiorstwa te mają również świadomość, że zastosowanie AI ma wymiar etyczny i że muszą dopilnować, aby systemy, które tworzą lub wdrażają, były przejrzyste, bezstronne i sprawiedliwe.

Wiele przedsiębiorstw, które zajmują się etyczną stroną sztucznej inteligencji (AI), jest wciąż na początkowym etapie rozstrzygania tej kwestii. Niektóre nakłoniły swoich pracowników, aby w pracy nad użyciem i wykorzystaniem AI kierowali się zasadami etycznymi. Inne opracowały wstępny zbiór procedur służących nadzorowi nad AI. Większość firm nie zrobiła jednak nawet tego. Jak wynika z jednej z ostatnich ankiet, 73% amerykańskich menedżerów wyższego szczebla oświadczyło, że ich zdaniem wytyczne w sferze sztucznej inteligencji są ważne, ale tylko 6% z nich zadbało o ich nakreślenie.

Właściwy proces tworzenia etycznych podstaw funkcjonowania AI w przedsiębiorstwie powinien, według nas, obejmować pięć etapów:

  1. Etap kaznodziejstwa – przedstawiciele firmy propagują znaczenie etyki w sferze AI;

  2. Etap tworzenia procedur – firma obmyśla i zatwierdza wewnętrzne procedury etycznego podejścia do AI;

  3. Etap ewidencjonowania – firma zbiera dane na temat każdego przypadku użycia lub zastosowania AI (przy zastosowaniu takich metod jak karty modeli);

  4. Etap oceny – firma przeprowadza usystematyzowaną analizę każdego przypadku użycia (lub zleca ją zewnętrznemu partnerowi), aby ustalić, czy dany przypadek spełnia kryteria dotyczące etyki w sferze AI;

  5. Etap działania – firma albo akceptuje przypadek użycia w istniejącej wersji, albo odsyła przypadek do korekty przez zgłaszającego go „właściciela”, albo przypadek trafia do lamusa.

Dopiero na wyższych etapach – oceny i działania – firma jest w stanie faktycznie stwierdzić, czy zastosowania AI spełniają ustanowione przez nią kryteria w sferze przejrzystości, bezstronności i sprawiedliwości. Aby przystąpić do pracy nad tymi etapami, firma musi dysponować sporą liczbą projektów AI, procesów i systemów gromadzenia informacji wraz ze strukturami nadzoru służącymi podejmowaniu decyzji dotyczących konkretnych zastosowań. Wiele przedsiębiorstw nie spełnia jeszcze tych wstępnych warunków, ale w miarę osiągania przez te firmy większej dojrzałości w sferze AI i kładzenia na nią większego nacisku spełnienie tych warunków okaże się konieczne.

Wczesne procedury w Unileverze

Brytyjski producent paczkowanych dóbr konsumpcyjnych, firma Unilever, która ma w portfelu takie marki jak Dove, Seventh Generation i Ben & Jerry’s, od dawna stawia na społeczną odpowiedzialność i zrównoważony wpływ na środowisko naturalne. Niedawno firma wdrożyła narzędzie AI, które pozwala na radykalne usprawnienie operacji i procesów decyzyjnych w całej globalnej strukturze organizacyjnej. Jej komitet nadzoru, o nazwie Enterprise Data Executive, uznał, że firma może, bazując na swoich prężnych mechanizmach kontroli w zakresie prywatności, bezpieczeństwa i nadzoru, wbudować odpowiedzialne i etyczne sposoby użycia AI w swoje strategie w zakresie danych. Celem firmy było wykorzystanie napędzanych przez AI innowacji cyfrowych do maksymalizacji własnych zdolności, jak i wspierania społeczeństwa opartego na większej sprawiedliwości i równości. Unilever powołał zespół, którego zadaniem jest zbadanie, co ten cel oznaczał w praktyce, i opracowanie programu działań służących operacjonalizacji tego celu.

Algorytmy służące uczeniu maszynowemu są automatycznie analizowane, aby ustalić, czy nie dyskryminują jakiejkolwiek konkretnej grupy.

Firma zrealizowała już pięć opisanych powyżej etapów, ale patrząc wstecz, należy stwierdzić, że jej pierwszym krokiem było utworzenie zbioru różnych form polityki. Jedna z nich wskazywała na przykład, że jakakolwiek decyzja mająca znaczący wpływ na życie osoby fizycznej nie powinna być całkowicie zautomatyzowana i powinna być podjęta przez człowieka. Do innych przyjętych przez firmę zasad dotyczących AI należą zarządzenia: „Nigdy nie będziemy obwiniać systemu; za każdą decyzją musi stać pracownik naszej firmy” i „Zrobimy, co w naszej mocy, w celu systematycznego monitorowania modeli i wyników osiąganych przez AI, aby zapewnić, że utrzymuje ona swoją skuteczność”.

Członkowie komitetu szybko zdali sobie sprawę z tego, że opracowanie wyłącznie szerokiej polityki nie wystarczy do zapewnienia odpowiedzialnego rozwoju zastosowań AI. Realizacja procesu przyjęcia AI z pełnym przekonaniem i rzeczywiste uwolnienie jej pełnego potencjału wymagały prężnego ekosystemu narzędzi, usług i zasobów ludzkich, gwarantującego, że systemy AI będą funkcjonowały zgodnie z oczekiwaniami.

Członkowie komitetu wiedzieli również, że wiele systemów AI i systemów analitycznych funkcjonujących w firmie Unilever powstawało we współpracy z zewnętrznymi dostawcami oprogramowania i usług. Na przykład współpracujące z firmą agencje reklamowe często wykorzystywały oprogramowanie do zautomatyzowanego zakupu (programmatic buying) mediów, które decydowało o tym, jakie reklamy cyfrowe zamieścić w internecie i na nośnikach mobilnych. Zespół doszedł do wniosku, że w swoim podejściu do etyki w sferze AI musi uwzględniać zdolności pozyskiwane z zewnątrz.

Budowa sprawnego procesu zapewniania jakości AI

Na wczesnym etapie korzystania ze sztucznej inteligencji liderzy obszarów danych i AI w firmie Unilever zauważyli, że niektóre problemy związane z technologią w ogóle nie obejmują kwestii etycznych, ale dotyczą systemów, które nie były efektywne pod względem wykonywania zleconych im zadań. Giles Pavey, globalny dyrektor do spraw danych, który był główną osobą odpowiedzialną za etykę w sferze AI, wiedział, że był to istotny składnik każdego przypadku użycia. „Na przykład system prognozowania przepływów pieniężnych nie niesie ze sobą ryzyka dotyczącego sprawiedliwości lub stronniczości, ale może mu towarzyszyć ryzyko nieefektywności – powiedział. – Uznaliśmy, że ryzyko dotyczące skuteczności powinno być uwzględniane na równi z czynnikami ryzyka etycznego, jakie ewaluujemy”. Firma zaczęła używać szerokiego terminu „zapewnienie jakości AI” (AI assurance), obejmującego w ogólnym zarysie efektywność i etykę narzędzi AI. W procesie oceny zgodności z polityką zapewnienia jakości AI w firmie Unilever chodzi o to, aby zbadać każde nowe zastosowanie AI i określić jego nieodłączny poziom ryzyka, zarówno pod względem efektywności, jak i etyki. Firma korzystała już z dobrze zdefiniowanego podejścia do bezpieczeństwa informacyjnego i prywatności danych, więc jej celem było zastosowanie podobnego podejścia, zapewniającego, że żadne zastosowanie AI nie wejdzie do użytku, zanim nie zostanie ocenione i zatwierdzone. Ostateczną oznaką sukcesu byłoby zintegrowanie procesu zgodności z obszarami zgodności, które już zostały wdrożone, takimi jak ocena ryzyka związanego z prywatnością, bezpieczeństwem informacyjnym i procedurami w zakresie zaopatrzenia.

Debbie Cartledge, która podjęła się roli liderki strategii w dziedzinie danych i etyki AI, objaśniła nam proces, jaki przyjęła jej firma:

Kiedy planujemy wdrożenie nowego rozwiązania AI, pracownik Unilevera lub dostawcy rozwiązania proponuje w zarysie przypadek użycia i metodę, które poprzedzają opracowanie rozwiązania. Przypadek i metoda zostają ocenione wewnętrznie, przy czym bardziej złożone przypadki są oceniane manualnie przez zewnętrznych ekspertów. Osoba proponująca rozwiązanie jest później powiadamiana o potencjalnych czynnikach ryzyka etycznego i efektywnościowego, a także branych pod uwagę sposobach ich złagodzenia. Po opracowaniu rozwiązania AI Unilever lub firma zewnętrzna przeprowadza testy statystyczne, aby upewnić się, czy nie istnieją problemy dotyczące stronniczości lub sprawiedliwości i może zbadać system pod kątem jego skuteczności w osiąganiu celów. Spodziewamy się, że z biegiem czasu większość przypadków użycia będzie mogła być oceniana w całkowicie zautomatyzowany sposób na podstawie informacji dostarczanych przez osobę, która proponuje dane rozwiązanie.

W zależności od tego, w jakiej części firmy rozwiązanie AI będzie wykorzystane, mogą istnieć lokalne regulacje, których system musi przestrzegać. Na przykład sprawdzaniem życiorysów zawodowych kandydatów zajmują się obecnie wyłącznie ludzie. Gdyby to zadanie zostało w pełni zautomatyzowane, ocena rozwiązania mogłaby wykazać, że w pętli informacji zwrotnej musi pojawić się człowiek podejmujący ostateczne decyzje dotyczące tego, czy zaprosić kandydata na rozmowę kwalifikacyjną. Jeśli zastosowaniu AI towarzyszy poważne ryzyko, którego nie da się złagodzić, proces zapewnienia jakości AI odrzuca to rozwiązanie z tego powodu, że wartości, jakie wyznaje Unilever, wykluczają jego wdrożenie. Ostateczne decyzje dotyczące użycia AI są podejmowane przez radę złożoną z menedżerów wyższego szczebla z trzech działów: prawnego, zasobów ludzkich i danych i technologii.

Oto przykład: firma wynajmuje w domach handlowych powierzchnie, na których sprzedaje swoje marki kosmetyczne. Powstał projekt wykorzystania AI opartej na widzeniu komputerowym do automatycznego rejestrowania obecności ekspedientek na podstawie robionych przez nie każdego dnia zdjęć selfie. Dodatkowym ambitnym celem rozwiązania było sprawdzenie, czy ekspedientki dbają o właściwy wygląd. Za sprawą procesu zapewnienia jakości AI zespół projektowy wyszedł w swoim myśleniu poza kwestie regulacji, legalności i skuteczności, uwzględniając potencjalne implikacje w pełni zautomatyzowanego systemu. Członkowie zespołu zidentyfikowali potrzebę ludzkiego nadzoru nad sprawdzaniem zdjęć oznaczonych jako niespełniające wymogów i wzięciem odpowiedzialności za wszelkie wynikające stąd działania.

Współpraca z zewnętrznym partnerem, firmą Holistic AI Zewnętrznym partnerem Unilevera w procesie zapewnienia jakości AI jest firma z Londynu, Holistic AI. Jej założyciele, Emre Kazim i Adriano Koshiyama, współpracują z zespołami AI Unilevera od 2020 roku, a ich firma została oficjalnym partnerem Unilevera w 2021 roku.

Firma Holistic AI utworzyła platformę do zarządzania procesem oceny systemu zapewnienia jakości AI. W kontekście tego procesu „AI” jest szeroką kategorią, obejmującą wszelkie rodzaje prognozowania lub automatyzacji; ocenie podlega nawet arkusz kalkulacyjny Excela używany do klasyfikacji punktowej kandydatów do pracy w dziale HR. Zespół do spraw etyki danych w firmie Unilever używa tej platformy do przeglądu statusu projektów AI i może dzięki niej stwierdzić, które nowe przypadki użycia zostały przedłożone do oceny, czy informacje na ich temat są kompletne i jaki poziom ryzyka został im przypisany – poszczególne poziomy ryzyka symbolizują trzy kolory: czerwony, żółty (w Wielkiej Brytanii określany jako „bursztynowy”) i zielony.

Ostateczne decyzje dotyczące użycia AI są podejmowane przez radę złożoną z menedżerów wyższego szczebla z trzech działów: prawnego, zasobów ludzkich i danych i technologii.

Status rozwiązań objętych systemem odpowiadającym ulicznej sygnalizacji świetlnej jest oceniany na trzech etapach: selekcji metodą triażu, po dalszej analizie i po końcowym złagodzeniu ryzyka i zapewnieniu jakości AI. Na tym ostatnim etapie rating rozwiązań jest interpretowany w następujący sposób: kolor czerwony oznacza, że system AI nie jest zgodny ze standardami Unilevera i nie powinien być rozmieszczany; kolor żółty oznacza, że rozwiązanie AI jest obciążone pewnymi czynnikami ryzyka i że jego biznesowy „właściciel” musi być tych czynników świadomy i musi wziąć za nie odpowiedzialność; a kolor zielony wskazuje na to, że system AI nie obciąża procesu żadnym ryzykiem. Jak dotąd zaledwie garstka z kilkuset przypadków użycia AI w firmie Unilever została oznaczona kolorem czerwonym, w tym opisane wcześniej rozwiązanie w obszarze kosmetyków. Wszystkie osoby zgłaszające te nieliczne przypadki potrafiły rozwiązać zidentyfikowane problemy i przenieść swoje projekty na wyższy poziom, oznaczony kolorem żółtym.

Dla liderów projektów w sferze AI platforma jest tym miejscem, od którego zaczynają ocenę swoich rozwiązań. Przedkładają proponowany przypadek użycia, podając takie szczegóły, jak jego cel i uzasadnienie biznesowe, kto odpowiada za rozwiązanie w firmie Unilever, skład zespołu, użyte dane, rodzaj zastosowanej technologii AI, czy rozwiązanie jest opracowywane wewnętrznie czy przez zewnętrznego dostawcę, stopień autonomii i tak dalej. Platforma wykorzystuje te informacje do punktowej oceny rozwiązania pod względem towarzyszącego mu ryzyka. Do branych pod uwagę domen ryzyka należą: zdolność do objaśnienia projektu, solidność, skuteczność, stronniczość i prywatność. Algorytmy służące uczeniu maszynowemu są automatycznie analizowane, aby ustalić, czy nie dyskryminują jakiejkolwiek konkretnej grupy.

Coraz większy odsetek ewaluacji dokonywanych przy użyciu platformy firmy Holistic AI opiera się na proponowanym przez Unię Europejską akcie w sprawie sztucznej inteligencji, który również szereguje przypadki użycia AI zgodnie z trzema kategoriami ryzyka (nie do przyjęcia, wysokie i nie dość wysokie, by podlegało regulacji). Akt negocjują pomiędzy sobą kraje członkowskie UE, licząc na to, że osiągną porozumienie do końca 2023 roku. Kazim i Koshiyama stwierdzili, że chociaż ustawa będzie miała zastosowanie jedynie do firm europejskich, to Unilever i inne firmy prawdopodobnie zastosują ją w skali globalnej, tak jak zrobiły to z ogólnym rozporządzeniem UE w sprawie danych osobowych.

Kazim i Koshiyama liczą na to, że w przyszłości ich organizacja będzie w stanie agregować dane z różnych firm i stosować wobec nich metodę benchmarkingu. Ich oprogramowanie mogłoby oceniać: relację korzyści do kosztów, skuteczność zewnętrznych dostawców tego samego przypadku użycia i najbardziej efektywne podejścia do zakupów AI. Kazim i Koshiyama rozważają również krok polegający na upublicznieniu w niektórych przypadkach ratingów ryzyka i nawiązanie partnerskiej współpracy z firmą ubezpieczeniową w celu ubezpieczania przypadków użycia AI od pewnych rodzajów ryzyka.

Jesteśmy wciąż na wczesnym etapie zapewniania, że firmy będą stosowały etyczne podejścia do AI, ale to nie oznacza, że wystarczy wydawać oświadczenia i tworzyć procedury, które nie przekładają się na działania. Kwestia, czy rozwiązanie AI jest etyczne czy nie, będzie rozstrzygana przypadek po przypadku. Proces zapewnienia jakości AI w firmie Unilever i jej partnerstwo z firmą Holistic AI w celu ewaluacji każdego przypadku użycia pod względem poziomu ryzyka etycznego są obecnie jedynym sposobem zapewniającym, że systemy AI będą zestrojone z interesem i dobrostanem człowieka.

O autorach
Tematy

Może Cię zainteresować

Cieśnina Ormuz: ceny ropy i łańcuchy dostaw pod presją

Kiedy wojna wybucha w sercu globalnego szlaku paliwowego, konsekwencje są natychmiastowe: rosną ceny paliw, spadają indeksy, narasta niepewność. Cieśnina Ormuz – wąskie gardło, przez które przepływa jedna trzecia światowej ropy raz jeszcze przypomina, jak bardzo biznes jest uzależniony od geopolityki. Czy Europa i Polska są gotowe na kolejne uderzenie w gospodarkę?

Multimedia
Ukryty rynek pracy menedżerów: nowa rzeczywistość rekrutacyjna

Rynek pracy, szczególnie dla kadry menedżerskiej i C-level, dynamicznie się zmienia. W ostatnich latach obserwowana jest ograniczona liczba publikowanych ofert pracy, a procesy rekrutacyjne wydłużają się, osiągając nawet kilkanaście etapów. Agnieszka Myśliwczyk, IT headhunterka i ekspertka rynku, podkreśla, że nie jest to tyle kryzys, co „wyzwanie”, z którym mierzą się liderzy. Ważne jest także odważne sięganie po nowe, z ciekawością i satysfakcją, bez „dziadowania” czy poczucia zmęczenia życiem. Mimo wyzwań, takich jak ageizm czy podwójna dyskryminacja kobiet 50+, optymizm i proaktywne podejście są kluczowe.

Ilustracja ukazująca nowoczesną przestrzeń podzieloną na trzy symboliczne strefy. Po lewej stronie – ciepłe, pomarańczowe światło i zaokrąglone formy przypominające radość. Po prawej – chłodne, niebieskie światło i geometryczne cienie w kolumnach symbolizujące osiągnięcia. Pośrodku – neutralna, jasna przestrzeń ze schodami i świetlnym promieniem na podłodze, wyznaczającym punkt równowagi. Całość tworzy wyrafinowaną metaforę świadomego wyboru i wartościowania czasu. Dobrze wykorzystany czas: Nowy sposób wartościowania czasu może zmienić Twoje życie
Subiektywna wartość czasu to koncepcja, która pozwala dostrzec drobne zmiany w tygodniowym harmonogramie, mogące znacząco zwiększyć satysfakcję z życia i dobrostan. Godzina po godzinie, sposób, w jaki spędzamy czas, składa się na sposób, w jaki spędzamy życie.Dla wielu z nas ta suma bywa jednak rozczarowująca. Kulturowe przekonania, zakorzenione w powiedzeniach typu „czas to pieniądz”, każą […]
Multimedia
Jak zaplanować swoją karierę w nieprzewidywalnych czasach

Każda kariera jest drogą indywidualną i nikt nie zna uniwersalnego przepisu na sukces. Nie można skopiować czyjejś kariery i nałożyć na własne życie. Ale jedno jest pewne: większe szanse na sukces mają te osoby, które przemyślą i dobrze zaplanują swoją drogę zawodową.

Multimedia
LIMITY AI: Czy AI naprawdę odbiera pracę programistom?

W szóstym odcinku „Limitów AI” Iwo Zmyślony rozmawia z Wiktorem Żołnowskim (Co-CEO i Co-Founder Pragmatic Coders) o transformacji rynku IT i roli, jaką odgrywa w niej sztuczna inteligencja. Dlaczego polskie firmy zwalniają programistów? Czy ten trend się utrzyma? Czy mamy już do czynienia z krachem, czy jedynie z korektą? Z czego to się bierze i na czym właściwie polega? Do jakiego stopnia to zasługa AI, a do jakiego tańszej siły roboczej z Wietnamu, Meksyku, Egiptu, Argentyny czy Indii? Jak te zmiany wpływają na pracę programisty? Ile jest warta ta praca? Jakiej pracy biznes przestaje potrzebować, a jakiej poszukuje i nie może znaleźć? Odpowiedzi na te pytania znajdziesz w załączonym podcaście.

Cyberbezpieczeństwo w epoce AI: Polska na cyfrowej krawędzi

Tylko 3% firm w Polsce osiągnęło pełną gotowość na cyberzagrożenia – alarmuje najnowszy raport Cisco. Sztuczna inteligencja staje się nie tylko narzędziem wzrostu, ale też źródłem coraz bardziej wyrafinowanych zagrożeń, polski sektor biznesu balansuje na granicy cyfrowej odporności. Czy liderzy są gotowi spojrzeć prawdzie w oczy?

Zielone wskaźniki mogą być powodem do niepokoju. Dlaczego liderzy powinni się martwić, gdy widzą tylko pozytywne wyniki?

Czy rosnące wskaźniki na prezentacji wyników firmy rzeczywiście zawsze są powodem do radości? Niekoniecznie. Jeśli pojawiają się zbyt często, mogą świadczyć nie o wyjątkowo korzystnej passie, ale o presji dostarczania pozytywnych wiadomości przełożonym. Zamiecione pod dywan problemy jednak prędzej czy później wyjdą na jaw.

Pozytywne wyniki napawają optymizmem. Jeśli jednak pojawiają się zbyt często, powinny stanowić sygnał alarmowy. Czy koniunktura może być bowiem nieprzerwanie korzystna? Jeśli zbyt długo wszystkie wewnętrzne wskaźniki rosną, warto się nad nimi pochylić. Z doświadczeń renomowanej firmy consultingowej Bain & Company wynika, że aż 70% programów transformacji organizacyjnej kończy się fiaskiem. Bardzo często zdarza się tak, że wszystkie założone cele pozornie są realizowane, a dopiero pod koniec projektu wychodzą na jaw mankamenty. Aby uniknąć takich sytuacji, trzeba dokładnie zbadać źródło błędów.

Multimedia
ZDROWIE LIDERA: Zarządzasz firmą. Ale czy zarządzasz swoim zdrowiem?

Codzienność Szpitalnego Oddziału Ratunkowego potrafi być brutalnym lustrem stylu życia liderów. Klaudia Knapik rozmawia z dr Anną Słowikowską – kardiolożką, która zderza mity o zdrowiu z faktami i opowiada o pacjentach, którzy nie zdążyli… wysłać ostatniego maila. To rozmowa o sercu – dosłownie i w przenośni. Dla każdego, kto żyje intensywnie i chce żyć długo.

płaska struktura organizacyjna Ludzie podążają za strukturą: jak mniejsza hierarchia zmienia miejsce pracy

Przejście na samoorganizujące się zespoły i danie większej autonomii pracownikom skutkuje większym zaangażowaniem i lepszymi wynikami. Jednak nie każdemu pracownikowi odpowiada taka zmiana. Menedżerowie coraz częściej dostrzegają, że sposób organizacji firmy wpływa na jej wyniki, dlatego regularnie modyfikują strukturę, licząc na poprawę efektów. Znacznie mniej uwagi poświęca się jednak temu, jak takie zmiany oddziałują na samych pracowników.

Abstrakcyjna ilustracja symbolizująca przywództwo w erze AI: po lewej – chłodne, geometryczne wzory przypominające dane i algorytmy; po prawej – ciepłe, organiczne formy nawiązujące do ludzkiej intuicji. Centralny punkt styku sugeruje integrację logiki i emocji w kontekście sztucznej inteligencji. Lider w erze AI: jak zachować ludzką przewagę w świecie algorytmów

Między AI a ludzką kreatywnością

Kreatywność, wyobraźnia, humor – dotąd uznawane za wyłącznie ludzkie – dziś są imitowane przez sztuczną inteligencję, stawiając fundamentalne pytania o przywództwo w erze AI. Sztuczna inteligencja generuje teksty, obrazy, muzykę, a nawet żarty. Czy oznacza to, że maszyny dorównały człowiekowi także w jego najbardziej subtelnych umiejętnościach?

Bob Mankoff, rysownik magazynu „The New Yorker”, uważa, że nie. Jego zdaniem humor nie rodzi się z danych, lecz z emocji, świadomości własnej niedoskonałości i wrażliwości na kontekst. AI może symulować humor, lecz nie rozumie jego źródła.

To właśnie napięcie – pomiędzy potęgą obliczeniową a nieuchwytną ludzką intuicją – stawia liderów przed istotnymi pytaniami: gdzie kończy się autentyczna twórczość człowieka, a zaczyna jej algorytmiczna symulacja? Jak zarządzać w rzeczywistości, w której inteligencja staje się sztuczna, ale autentyczne przywództwo nadal wymaga człowieka?

Ludzka przewaga: humor, empatia, kreatywność

<!– wp:paragraph –>

W czasach postępującej automatyzacji, paradoksalnie to właśnie cechy głęboko ludzkie – humor, empatia i kreatywność – stają się zasobami o kluczowym znaczeniu dla liderów.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!