Reklama
OFERTA SPECJALNA na NAJWYŻSZY pakiet subskrypcji! Wersję Platinum - OFERTA LIMITOWANA
Komunikacja
Magazyn (Nr 22, luty - marzec 2024)
Polska flaga

Etyka a AI w praktyce Unilevera: od polityki do wdrożenia

1 lutego 2024 13 min czytania
Zdjęcie Randy Bean - doradca dla firm z listy Fortune 1000 w zakresie przywództwa w obszarze danych i AI. Autor książki Fail Fast, Learn Faster: Lessons in Data-Driven Leadership in an Age of Disruption, Big Data, and AI (Wiley, 2021).
Randy Bean
Zdjęcie Thomas H. Davenport - Profesor informatyki i zarządzania w Babson College w Wellesley, w stanie Massachusetts, członek MIT Initiative on the Digital Economy (Inicjatywy MIT na rzecz Gospodarki Cyfrowej) oraz NewVantage Partners. Starszy doradca w Deloitte Analytics.
Thomas H. Davenport
Etyka a AI w praktyce Unilevera: od polityki do wdrożenia

Streszczenie: Unilever, globalny lider w produkcji dóbr konsumpcyjnych, wdrożył zaawansowane narzędzie sztucznej inteligencji (AI), mające na celu usprawnienie procesów operacyjnych i decyzyjnych w swojej strukturze organizacyjnej. Firma, kierując się zasadami odpowiedzialności społecznej i zrównoważonego rozwoju, powołała zespół odpowiedzialny za zbadanie praktycznych aspektów etycznego wykorzystania AI. W ramach tego przedsięwzięcia opracowano program działań, który obejmuje pięć kluczowych etapów: propagowanie znaczenia etyki w AI, tworzenie wewnętrznych procedur etycznych, dokumentowanie przypadków użycia AI, systematyczną ocenę tych przypadków oraz podejmowanie decyzji dotyczących ich akceptacji lub modyfikacji. Dzięki temu podejściu Unilever dąży do zapewnienia przejrzystości, bezstronności i sprawiedliwości w zastosowaniach sztucznej inteligencji, integrując te zasady z ogólną strategią zarządzania danymi i innowacjami cyfrowymi.

Pokaż więcej

Obecnie wiele dużych firm – globalnie ok. 70% – doszło do przekonania, że sztuczna inteligencja jest ważna, więc szuka zastosowań dla technologii w różnych obszarach swojej działalności. W większości przedsiębiorstwa te mają również świadomość, że zastosowanie AI ma wymiar etyczny i że muszą dopilnować, aby systemy, które tworzą lub wdrażają, były przejrzyste, bezstronne i sprawiedliwe.

Wiele przedsiębiorstw, które zajmują się etyczną stroną sztucznej inteligencji (AI), jest wciąż na początkowym etapie rozstrzygania tej kwestii. Niektóre nakłoniły swoich pracowników, aby w pracy nad użyciem i wykorzystaniem AI kierowali się zasadami etycznymi. Inne opracowały wstępny zbiór procedur służących nadzorowi nad AI. Większość firm nie zrobiła jednak nawet tego. Jak wynika z jednej z ostatnich ankiet, 73% amerykańskich menedżerów wyższego szczebla oświadczyło, że ich zdaniem wytyczne w sferze sztucznej inteligencji są ważne, ale tylko 6% z nich zadbało o ich nakreślenie.

Właściwy proces tworzenia etycznych podstaw funkcjonowania AI w przedsiębiorstwie powinien, według nas, obejmować pięć etapów:

  1. Etap kaznodziejstwa – przedstawiciele firmy propagują znaczenie etyki w sferze AI;

  2. Etap tworzenia procedur – firma obmyśla i zatwierdza wewnętrzne procedury etycznego podejścia do AI;

  3. Etap ewidencjonowania – firma zbiera dane na temat każdego przypadku użycia lub zastosowania AI (przy zastosowaniu takich metod jak karty modeli);

  4. Etap oceny – firma przeprowadza usystematyzowaną analizę każdego przypadku użycia (lub zleca ją zewnętrznemu partnerowi), aby ustalić, czy dany przypadek spełnia kryteria dotyczące etyki w sferze AI;

  5. Etap działania – firma albo akceptuje przypadek użycia w istniejącej wersji, albo odsyła przypadek do korekty przez zgłaszającego go „właściciela”, albo przypadek trafia do lamusa.

Dopiero na wyższych etapach – oceny i działania – firma jest w stanie faktycznie stwierdzić, czy zastosowania AI spełniają ustanowione przez nią kryteria w sferze przejrzystości, bezstronności i sprawiedliwości. Aby przystąpić do pracy nad tymi etapami, firma musi dysponować sporą liczbą projektów AI, procesów i systemów gromadzenia informacji wraz ze strukturami nadzoru służącymi podejmowaniu decyzji dotyczących konkretnych zastosowań. Wiele przedsiębiorstw nie spełnia jeszcze tych wstępnych warunków, ale w miarę osiągania przez te firmy większej dojrzałości w sferze AI i kładzenia na nią większego nacisku spełnienie tych warunków okaże się konieczne.

Wczesne procedury w Unileverze

Brytyjski producent paczkowanych dóbr konsumpcyjnych, firma Unilever, która ma w portfelu takie marki jak Dove, Seventh Generation i Ben & Jerry’s, od dawna stawia na społeczną odpowiedzialność i zrównoważony wpływ na środowisko naturalne. Niedawno firma wdrożyła narzędzie AI, które pozwala na radykalne usprawnienie operacji i procesów decyzyjnych w całej globalnej strukturze organizacyjnej. Jej komitet nadzoru, o nazwie Enterprise Data Executive, uznał, że firma może, bazując na swoich prężnych mechanizmach kontroli w zakresie prywatności, bezpieczeństwa i nadzoru, wbudować odpowiedzialne i etyczne sposoby użycia AI w swoje strategie w zakresie danych. Celem firmy było wykorzystanie napędzanych przez AI innowacji cyfrowych do maksymalizacji własnych zdolności, jak i wspierania społeczeństwa opartego na większej sprawiedliwości i równości. Unilever powołał zespół, którego zadaniem jest zbadanie, co ten cel oznaczał w praktyce, i opracowanie programu działań służących operacjonalizacji tego celu.

Algorytmy służące uczeniu maszynowemu są automatycznie analizowane, aby ustalić, czy nie dyskryminują jakiejkolwiek konkretnej grupy.

Firma zrealizowała już pięć opisanych powyżej etapów, ale patrząc wstecz, należy stwierdzić, że jej pierwszym krokiem było utworzenie zbioru różnych form polityki. Jedna z nich wskazywała na przykład, że jakakolwiek decyzja mająca znaczący wpływ na życie osoby fizycznej nie powinna być całkowicie zautomatyzowana i powinna być podjęta przez człowieka. Do innych przyjętych przez firmę zasad dotyczących AI należą zarządzenia: „Nigdy nie będziemy obwiniać systemu; za każdą decyzją musi stać pracownik naszej firmy” i „Zrobimy, co w naszej mocy, w celu systematycznego monitorowania modeli i wyników osiąganych przez AI, aby zapewnić, że utrzymuje ona swoją skuteczność”.

Członkowie komitetu szybko zdali sobie sprawę z tego, że opracowanie wyłącznie szerokiej polityki nie wystarczy do zapewnienia odpowiedzialnego rozwoju zastosowań AI. Realizacja procesu przyjęcia AI z pełnym przekonaniem i rzeczywiste uwolnienie jej pełnego potencjału wymagały prężnego ekosystemu narzędzi, usług i zasobów ludzkich, gwarantującego, że systemy AI będą funkcjonowały zgodnie z oczekiwaniami.

Członkowie komitetu wiedzieli również, że wiele systemów AI i systemów analitycznych funkcjonujących w firmie Unilever powstawało we współpracy z zewnętrznymi dostawcami oprogramowania i usług. Na przykład współpracujące z firmą agencje reklamowe często wykorzystywały oprogramowanie do zautomatyzowanego zakupu (programmatic buying) mediów, które decydowało o tym, jakie reklamy cyfrowe zamieścić w internecie i na nośnikach mobilnych. Zespół doszedł do wniosku, że w swoim podejściu do etyki w sferze AI musi uwzględniać zdolności pozyskiwane z zewnątrz.

Budowa sprawnego procesu zapewniania jakości AI

Na wczesnym etapie korzystania ze sztucznej inteligencji liderzy obszarów danych i AI w firmie Unilever zauważyli, że niektóre problemy związane z technologią w ogóle nie obejmują kwestii etycznych, ale dotyczą systemów, które nie były efektywne pod względem wykonywania zleconych im zadań. Giles Pavey, globalny dyrektor do spraw danych, który był główną osobą odpowiedzialną za etykę w sferze AI, wiedział, że był to istotny składnik każdego przypadku użycia. „Na przykład system prognozowania przepływów pieniężnych nie niesie ze sobą ryzyka dotyczącego sprawiedliwości lub stronniczości, ale może mu towarzyszyć ryzyko nieefektywności – powiedział. – Uznaliśmy, że ryzyko dotyczące skuteczności powinno być uwzględniane na równi z czynnikami ryzyka etycznego, jakie ewaluujemy”. Firma zaczęła używać szerokiego terminu „zapewnienie jakości AI” (AI assurance), obejmującego w ogólnym zarysie efektywność i etykę narzędzi AI. W procesie oceny zgodności z polityką zapewnienia jakości AI w firmie Unilever chodzi o to, aby zbadać każde nowe zastosowanie AI i określić jego nieodłączny poziom ryzyka, zarówno pod względem efektywności, jak i etyki. Firma korzystała już z dobrze zdefiniowanego podejścia do bezpieczeństwa informacyjnego i prywatności danych, więc jej celem było zastosowanie podobnego podejścia, zapewniającego, że żadne zastosowanie AI nie wejdzie do użytku, zanim nie zostanie ocenione i zatwierdzone. Ostateczną oznaką sukcesu byłoby zintegrowanie procesu zgodności z obszarami zgodności, które już zostały wdrożone, takimi jak ocena ryzyka związanego z prywatnością, bezpieczeństwem informacyjnym i procedurami w zakresie zaopatrzenia.

Debbie Cartledge, która podjęła się roli liderki strategii w dziedzinie danych i etyki AI, objaśniła nam proces, jaki przyjęła jej firma:

Kiedy planujemy wdrożenie nowego rozwiązania AI, pracownik Unilevera lub dostawcy rozwiązania proponuje w zarysie przypadek użycia i metodę, które poprzedzają opracowanie rozwiązania. Przypadek i metoda zostają ocenione wewnętrznie, przy czym bardziej złożone przypadki są oceniane manualnie przez zewnętrznych ekspertów. Osoba proponująca rozwiązanie jest później powiadamiana o potencjalnych czynnikach ryzyka etycznego i efektywnościowego, a także branych pod uwagę sposobach ich złagodzenia. Po opracowaniu rozwiązania AI Unilever lub firma zewnętrzna przeprowadza testy statystyczne, aby upewnić się, czy nie istnieją problemy dotyczące stronniczości lub sprawiedliwości i może zbadać system pod kątem jego skuteczności w osiąganiu celów. Spodziewamy się, że z biegiem czasu większość przypadków użycia będzie mogła być oceniana w całkowicie zautomatyzowany sposób na podstawie informacji dostarczanych przez osobę, która proponuje dane rozwiązanie.

W zależności od tego, w jakiej części firmy rozwiązanie AI będzie wykorzystane, mogą istnieć lokalne regulacje, których system musi przestrzegać. Na przykład sprawdzaniem życiorysów zawodowych kandydatów zajmują się obecnie wyłącznie ludzie. Gdyby to zadanie zostało w pełni zautomatyzowane, ocena rozwiązania mogłaby wykazać, że w pętli informacji zwrotnej musi pojawić się człowiek podejmujący ostateczne decyzje dotyczące tego, czy zaprosić kandydata na rozmowę kwalifikacyjną. Jeśli zastosowaniu AI towarzyszy poważne ryzyko, którego nie da się złagodzić, proces zapewnienia jakości AI odrzuca to rozwiązanie z tego powodu, że wartości, jakie wyznaje Unilever, wykluczają jego wdrożenie. Ostateczne decyzje dotyczące użycia AI są podejmowane przez radę złożoną z menedżerów wyższego szczebla z trzech działów: prawnego, zasobów ludzkich i danych i technologii.

Oto przykład: firma wynajmuje w domach handlowych powierzchnie, na których sprzedaje swoje marki kosmetyczne. Powstał projekt wykorzystania AI opartej na widzeniu komputerowym do automatycznego rejestrowania obecności ekspedientek na podstawie robionych przez nie każdego dnia zdjęć selfie. Dodatkowym ambitnym celem rozwiązania było sprawdzenie, czy ekspedientki dbają o właściwy wygląd. Za sprawą procesu zapewnienia jakości AI zespół projektowy wyszedł w swoim myśleniu poza kwestie regulacji, legalności i skuteczności, uwzględniając potencjalne implikacje w pełni zautomatyzowanego systemu. Członkowie zespołu zidentyfikowali potrzebę ludzkiego nadzoru nad sprawdzaniem zdjęć oznaczonych jako niespełniające wymogów i wzięciem odpowiedzialności za wszelkie wynikające stąd działania.

Współpraca z zewnętrznym partnerem, firmą Holistic AI Zewnętrznym partnerem Unilevera w procesie zapewnienia jakości AI jest firma z Londynu, Holistic AI. Jej założyciele, Emre Kazim i Adriano Koshiyama, współpracują z zespołami AI Unilevera od 2020 roku, a ich firma została oficjalnym partnerem Unilevera w 2021 roku.

Firma Holistic AI utworzyła platformę do zarządzania procesem oceny systemu zapewnienia jakości AI. W kontekście tego procesu „AI” jest szeroką kategorią, obejmującą wszelkie rodzaje prognozowania lub automatyzacji; ocenie podlega nawet arkusz kalkulacyjny Excela używany do klasyfikacji punktowej kandydatów do pracy w dziale HR. Zespół do spraw etyki danych w firmie Unilever używa tej platformy do przeglądu statusu projektów AI i może dzięki niej stwierdzić, które nowe przypadki użycia zostały przedłożone do oceny, czy informacje na ich temat są kompletne i jaki poziom ryzyka został im przypisany – poszczególne poziomy ryzyka symbolizują trzy kolory: czerwony, żółty (w Wielkiej Brytanii określany jako „bursztynowy”) i zielony.

Ostateczne decyzje dotyczące użycia AI są podejmowane przez radę złożoną z menedżerów wyższego szczebla z trzech działów: prawnego, zasobów ludzkich i danych i technologii.

Status rozwiązań objętych systemem odpowiadającym ulicznej sygnalizacji świetlnej jest oceniany na trzech etapach: selekcji metodą triażu, po dalszej analizie i po końcowym złagodzeniu ryzyka i zapewnieniu jakości AI. Na tym ostatnim etapie rating rozwiązań jest interpretowany w następujący sposób: kolor czerwony oznacza, że system AI nie jest zgodny ze standardami Unilevera i nie powinien być rozmieszczany; kolor żółty oznacza, że rozwiązanie AI jest obciążone pewnymi czynnikami ryzyka i że jego biznesowy „właściciel” musi być tych czynników świadomy i musi wziąć za nie odpowiedzialność; a kolor zielony wskazuje na to, że system AI nie obciąża procesu żadnym ryzykiem. Jak dotąd zaledwie garstka z kilkuset przypadków użycia AI w firmie Unilever została oznaczona kolorem czerwonym, w tym opisane wcześniej rozwiązanie w obszarze kosmetyków. Wszystkie osoby zgłaszające te nieliczne przypadki potrafiły rozwiązać zidentyfikowane problemy i przenieść swoje projekty na wyższy poziom, oznaczony kolorem żółtym.

Dla liderów projektów w sferze AI platforma jest tym miejscem, od którego zaczynają ocenę swoich rozwiązań. Przedkładają proponowany przypadek użycia, podając takie szczegóły, jak jego cel i uzasadnienie biznesowe, kto odpowiada za rozwiązanie w firmie Unilever, skład zespołu, użyte dane, rodzaj zastosowanej technologii AI, czy rozwiązanie jest opracowywane wewnętrznie czy przez zewnętrznego dostawcę, stopień autonomii i tak dalej. Platforma wykorzystuje te informacje do punktowej oceny rozwiązania pod względem towarzyszącego mu ryzyka. Do branych pod uwagę domen ryzyka należą: zdolność do objaśnienia projektu, solidność, skuteczność, stronniczość i prywatność. Algorytmy służące uczeniu maszynowemu są automatycznie analizowane, aby ustalić, czy nie dyskryminują jakiejkolwiek konkretnej grupy.

Coraz większy odsetek ewaluacji dokonywanych przy użyciu platformy firmy Holistic AI opiera się na proponowanym przez Unię Europejską akcie w sprawie sztucznej inteligencji, który również szereguje przypadki użycia AI zgodnie z trzema kategoriami ryzyka (nie do przyjęcia, wysokie i nie dość wysokie, by podlegało regulacji). Akt negocjują pomiędzy sobą kraje członkowskie UE, licząc na to, że osiągną porozumienie do końca 2023 roku. Kazim i Koshiyama stwierdzili, że chociaż ustawa będzie miała zastosowanie jedynie do firm europejskich, to Unilever i inne firmy prawdopodobnie zastosują ją w skali globalnej, tak jak zrobiły to z ogólnym rozporządzeniem UE w sprawie danych osobowych.

Kazim i Koshiyama liczą na to, że w przyszłości ich organizacja będzie w stanie agregować dane z różnych firm i stosować wobec nich metodę benchmarkingu. Ich oprogramowanie mogłoby oceniać: relację korzyści do kosztów, skuteczność zewnętrznych dostawców tego samego przypadku użycia i najbardziej efektywne podejścia do zakupów AI. Kazim i Koshiyama rozważają również krok polegający na upublicznieniu w niektórych przypadkach ratingów ryzyka i nawiązanie partnerskiej współpracy z firmą ubezpieczeniową w celu ubezpieczania przypadków użycia AI od pewnych rodzajów ryzyka.

Jesteśmy wciąż na wczesnym etapie zapewniania, że firmy będą stosowały etyczne podejścia do AI, ale to nie oznacza, że wystarczy wydawać oświadczenia i tworzyć procedury, które nie przekładają się na działania. Kwestia, czy rozwiązanie AI jest etyczne czy nie, będzie rozstrzygana przypadek po przypadku. Proces zapewnienia jakości AI w firmie Unilever i jej partnerstwo z firmą Holistic AI w celu ewaluacji każdego przypadku użycia pod względem poziomu ryzyka etycznego są obecnie jedynym sposobem zapewniającym, że systemy AI będą zestrojone z interesem i dobrostanem człowieka.

O autorach
Tematy

Może Cię zainteresować

Pięć cech liderów napędzanych technologią Pięć cech liderów napędzanych technologią

W dobie gwałtownych zmian technologicznych to CEO, którzy aktywnie zdobywają kompetencje cyfrowe i odważnie redefiniują swoje modele biznesowe, wyznaczają nową jakość przywództwa. Odkryj, jak pięć cech liderów napędzanych technologią przekłada się na przewagę konkurencyjną i trwały wzrost firmy.

Magazyn
Premium
Dlaczego uważni liderzy lepiej zarządzają zmianą
Samoświadomi i opanowani menedżerowie skuteczniej przeprowadzają swoje zespoły przez okresy niepewności związanej ze zmianami kierunku działania organizacji. Wdrażanie strategicznych zmian ma ogromny wpływ na wyniki przedsiębiorstw. Niezależnie od tego, czy chodzi o zwinne wykorzystanie nowej szansy rynkowej, czy o budowanie długoterminowej odporności. Wielu liderom jest jednak trudno skutecznie przeprowadzić zespół przez ten proces. Takie inicjatywy […]
Premium
W erze cyfrowej zaangażowanie nabiera nowego znaczenia

Automatyzacja bez ludzi nie działa. W erze AI to zaangażowanie, odpowiedzialność i zaufanie stają się nową walutą innowacyjnych organizacji.

chiński e-commerce i social commerce
Premium
Superaplikacje, social commerce i AI, czyli chiński przepis na sukces w e-handlu

Superaplikacje, handel społecznościowy i sztuczna inteligencja tworzą w Chinach nowy model handlu. Ashley Dudarenok tłumaczy, dlaczego przyszłość e-commerce należy do zintegrowanych ekosystemów i inteligentnych agentów AI.

Premium
Zaangażowania można się nauczyć

Zaangażowanie to nie magia, lecz kompetencja. Można je trenować – tak jak empatię, odpowiedzialność czy współpracę – pod warunkiem, że liderzy stworzą ku temu właściwe warunki.

strategie ochrony innowacji
Premium
Jak chronić innowacje przed kopiowaniem

Jak skutecznie bronić innowacji przed kopiowaniem? Czasem wystarczy mądrze zaprojektować produkt – tak, by jego kluczowych elementów nie dało się łatwo odtworzyć ani wykorzystać.

Premium
Efekt domina w zarządzaniu dobrostanem

Kultura dobrostanu staje się nowym filarem przywództwa. Firmy, które inwestują w wellbeing liderów i zespołów, uruchamiają efekt domina – rozwijają kompetencje, wzmacniają kulturę organizacyjną i budują przewagę na rynku.

Wybieram MIT

Cyfrowa transformacja to dziś nie wybór, lecz konieczność. Jak pokazuje doświadczenie Grupy Symfonia, przemyślane inwestycje w technologie potrafią odmienić kierunek rozwoju firmy i stać się impulsem do trwałej przewagi konkurencyjnej.

Premium
Jak zautomatyzować operacje bez nadwyrężania budżetu

Automatyzacja nie musi oznaczać milionowych nakładów. Dzięki tanim i elastycznym technologiom nawet małe firmy mogą usprawnić procesy i zwiększyć produktywność.

środowiska wirtualne w procesie design thinking
Premium
Jak praca zdalna zmienia design thinking

Design thinking wkracza w nowy wymiar. Dzięki środowiskom wirtualnym zespoły mogą współtworzyć, testować i analizować pomysły w czasie rzeczywistym – niezależnie od miejsca i strefy czasowej. To nie tylko narzędzie pracy zdalnej, lecz także przestrzeń do pogłębionej empatii, eksperymentowania i szybszego wdrażania innowacji.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!