Najpopularniejsze tematy:

Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Jesteś Subskrybentem? Zaloguj się

Premium

Subskrybenci wiedzą więcej!

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>
Etyka a AI w praktyce Unilevera: od polityki do wdrożenia

Obecnie wiele dużych firm – globalnie ok. 70% – doszło do przekonania, że sztuczna inteligencja jest ważna, więc szuka zastosowań dla technologii w różnych obszarach swojej działalności. W większości przedsiębiorstwa te mają również świadomość, że zastosowanie AI ma wymiar etyczny i że muszą dopilnować, aby systemy, które tworzą lub wdrażają, były przejrzyste, bezstronne i sprawiedliwe.

Wiele przedsiębiorstw, które zajmują się etyczną stroną sztucznej inteligencji (AI), jest wciąż na początkowym etapie rozstrzygania tej kwestii. Niektóre nakłoniły swoich pracowników, aby w pracy nad użyciem i wykorzystaniem AI kierowali się zasadami etycznymi. Inne opracowały wstępny zbiór procedur służących nadzorowi nad AI. Większość firm nie zrobiła jednak nawet tego. Jak wynika z jednej z ostatnich ankiet, 73% amerykańskich menedżerów wyższego szczebla oświadczyło, że ich zdaniem wytyczne w sferze sztucznej inteligencji są ważne, ale tylko 6% z nich zadbało o ich nakreślenie.

Właściwy proces tworzenia etycznych podstaw funkcjonowania AI w przedsiębiorstwie powinien, według nas, obejmować pięć etapów:

  1. Etap kaznodziejstwa – przedstawiciele firmy propagują znaczenie etyki w sferze AI;

  2. Etap tworzenia procedur – firma obmyśla i zatwierdza wewnętrzne procedury etycznego podejścia do AI;

  3. Etap ewidencjonowania – firma zbiera dane na temat każdego przypadku użycia lub zastosowania AI (przy zastosowaniu takich metod jak karty modeli);

  4. Etap oceny – firma przeprowadza usystematyzowaną analizę każdego przypadku użycia (lub zleca ją zewnętrznemu partnerowi), aby ustalić, czy dany przypadek spełnia kryteria dotyczące etyki w sferze AI;

  5. Etap działania – firma albo akceptuje przypadek użycia w istniejącej wersji, albo odsyła przypadek do korekty przez zgłaszającego go „właściciela”, albo przypadek trafia do lamusa.

Dopiero na wyższych etapach – oceny i działania – firma jest w stanie faktycznie stwierdzić, czy zastosowania AI spełniają ustanowione przez nią kryteria w sferze przejrzystości, bezstronności i sprawiedliwości. Aby przystąpić do pracy nad tymi etapami, firma musi dysponować sporą liczbą projektów AI, procesów i systemów gromadzenia informacji wraz ze strukturami nadzoru służącymi podejmowaniu decyzji dotyczących konkretnych zastosowań. Wiele przedsiębiorstw nie spełnia jeszcze tych wstępnych warunków, ale w miarę osiągania przez te firmy większej dojrzałości w sferze AI i kładzenia na nią większego nacisku spełnienie tych warunków okaże się konieczne.

Wczesne procedury w Unileverze

Brytyjski producent paczkowanych dóbr konsumpcyjnych, firma Unilever, która ma w portfelu takie marki jak Dove, Seventh Generation i Ben & Jerry’s, od dawna stawia na społeczną odpowiedzialność i zrównoważony wpływ na środowisko naturalne. Niedawno firma wdrożyła narzędzie AI, które pozwala na radykalne usprawnienie operacji i procesów decyzyjnych w całej globalnej strukturze organizacyjnej. Jej komitet nadzoru, o nazwie Enterprise Data Executive, uznał, że firma może, bazując na swoich prężnych mechanizmach kontroli w zakresie prywatności, bezpieczeństwa i nadzoru, wbudować odpowiedzialne i etyczne sposoby użycia AI w swoje strategie w zakresie danych. Celem firmy było wykorzystanie napędzanych przez AI innowacji cyfrowych do maksymalizacji własnych zdolności, jak i wspierania społeczeństwa opartego na większej sprawiedliwości i równości. Unilever powołał zespół, którego zadaniem jest zbadanie, co ten cel oznaczał w praktyce, i opracowanie programu działań służących operacjonalizacji tego celu.

Algorytmy służące uczeniu maszynowemu są automatycznie analizowane, aby ustalić, czy nie dyskryminują jakiejkolwiek konkretnej grupy.

Firma zrealizowała już pięć opisanych powyżej etapów, ale patrząc wstecz, należy stwierdzić, że jej pierwszym krokiem było utworzenie zbioru różnych form polityki. Jedna z nich wskazywała na przykład, że jakakolwiek decyzja mająca znaczący wpływ na życie osoby fizycznej nie powinna być całkowicie zautomatyzowana i powinna być podjęta przez człowieka. Do innych przyjętych przez firmę zasad dotyczących AI należą zarządzenia: „Nigdy nie będziemy obwiniać systemu; za każdą decyzją musi stać pracownik naszej firmy” i „Zrobimy, co w naszej mocy, w celu systematycznego monitorowania modeli i wyników osiąganych przez AI, aby zapewnić, że utrzymuje ona swoją skuteczność”.

Członkowie komitetu szybko zdali sobie sprawę z tego, że opracowanie wyłącznie szerokiej polityki nie wystarczy do zapewnienia odpowiedzialnego rozwoju zastosowań AI. Realizacja procesu przyjęcia AI z pełnym przekonaniem i rzeczywiste uwolnienie jej pełnego potencjału wymagały prężnego ekosystemu narzędzi, usług i zasobów ludzkich, gwarantującego, że systemy AI będą funkcjonowały zgodnie z oczekiwaniami.

Członkowie komitetu wiedzieli również, że wiele systemów AI i systemów analitycznych funkcjonujących w firmie Unilever powstawało we współpracy z zewnętrznymi dostawcami oprogramowania i usług. Na przykład współpracujące z firmą agencje reklamowe często wykorzystywały oprogramowanie do zautomatyzowanego zakupu (programmatic buying) mediów, które decydowało o tym, jakie reklamy cyfrowe zamieścić w internecie i na nośnikach mobilnych. Zespół doszedł do wniosku, że w swoim podejściu do etyki w sferze AI musi uwzględniać zdolności pozyskiwane z zewnątrz.

Budowa sprawnego procesu zapewniania jakości AI

Na wczesnym etapie korzystania ze sztucznej inteligencji liderzy obszarów danych i AI w firmie Unilever zauważyli, że niektóre problemy związane z technologią w ogóle nie obejmują kwestii etycznych, ale dotyczą systemów, które nie były efektywne pod względem wykonywania zleconych im zadań. Giles Pavey, globalny dyrektor do spraw danych, który był główną osobą odpowiedzialną za etykę w sferze AI, wiedział, że był to istotny składnik każdego przypadku użycia. „Na przykład system prognozowania przepływów pieniężnych nie niesie ze sobą ryzyka dotyczącego sprawiedliwości lub stronniczości, ale może mu towarzyszyć ryzyko nieefektywności – powiedział. – Uznaliśmy, że ryzyko dotyczące skuteczności powinno być uwzględniane na równi z czynnikami ryzyka etycznego, jakie ewaluujemy”. Firma zaczęła używać szerokiego terminu „zapewnienie jakości AI” (AI assurance), obejmującego w ogólnym zarysie efektywność i etykę narzędzi AI. W procesie oceny zgodności z polityką zapewnienia jakości AI w firmie Unilever chodzi o to, aby zbadać każde nowe zastosowanie AI i określić jego nieodłączny poziom ryzyka, zarówno pod względem efektywności, jak i etyki. Firma korzystała już z dobrze zdefiniowanego podejścia do bezpieczeństwa informacyjnego i prywatności danych, więc jej celem było zastosowanie podobnego podejścia, zapewniającego, że żadne zastosowanie AI nie wejdzie do użytku, zanim nie zostanie ocenione i zatwierdzone. Ostateczną oznaką sukcesu byłoby zintegrowanie procesu zgodności z obszarami zgodności, które już zostały wdrożone, takimi jak ocena ryzyka związanego z prywatnością, bezpieczeństwem informacyjnym i procedurami w zakresie zaopatrzenia.

Debbie Cartledge, która podjęła się roli liderki strategii w dziedzinie danych i etyki AI, objaśniła nam proces, jaki przyjęła jej firma:

Kiedy planujemy wdrożenie nowego rozwiązania AI, pracownik Unilevera lub dostawcy rozwiązania proponuje w zarysie przypadek użycia i metodę, które poprzedzają opracowanie rozwiązania. Przypadek i metoda zostają ocenione wewnętrznie, przy czym bardziej złożone przypadki są oceniane manualnie przez zewnętrznych ekspertów. Osoba proponująca rozwiązanie jest później powiadamiana o potencjalnych czynnikach ryzyka etycznego i efektywnościowego, a także branych pod uwagę sposobach ich złagodzenia. Po opracowaniu rozwiązania AI Unilever lub firma zewnętrzna przeprowadza testy statystyczne, aby upewnić się, czy nie istnieją problemy dotyczące stronniczości lub sprawiedliwości i może zbadać system pod kątem jego skuteczności w osiąganiu celów. Spodziewamy się, że z biegiem czasu większość przypadków użycia będzie mogła być oceniana w całkowicie zautomatyzowany sposób na podstawie informacji dostarczanych przez osobę, która proponuje dane rozwiązanie.

W zależności od tego, w jakiej części firmy rozwiązanie AI będzie wykorzystane, mogą istnieć lokalne regulacje, których system musi przestrzegać. Na przykład sprawdzaniem życiorysów zawodowych kandydatów zajmują się obecnie wyłącznie ludzie. Gdyby to zadanie zostało w pełni zautomatyzowane, ocena rozwiązania mogłaby wykazać, że w pętli informacji zwrotnej musi pojawić się człowiek podejmujący ostateczne decyzje dotyczące tego, czy zaprosić kandydata na rozmowę kwalifikacyjną. Jeśli zastosowaniu AI towarzyszy poważne ryzyko, którego nie da się złagodzić, proces zapewnienia jakości AI odrzuca to rozwiązanie z tego powodu, że wartości, jakie wyznaje Unilever, wykluczają jego wdrożenie. Ostateczne decyzje dotyczące użycia AI są podejmowane przez radę złożoną z menedżerów wyższego szczebla z trzech działów: prawnego, zasobów ludzkich i danych i technologii.

Oto przykład: firma wynajmuje w domach handlowych powierzchnie, na których sprzedaje swoje marki kosmetyczne. Powstał projekt wykorzystania AI opartej na widzeniu komputerowym do automatycznego rejestrowania obecności ekspedientek na podstawie robionych przez nie każdego dnia zdjęć selfie. Dodatkowym ambitnym celem rozwiązania było sprawdzenie, czy ekspedientki dbają o właściwy wygląd. Za sprawą procesu zapewnienia jakości AI zespół projektowy wyszedł w swoim myśleniu poza kwestie regulacji, legalności i skuteczności, uwzględniając potencjalne implikacje w pełni zautomatyzowanego systemu. Członkowie zespołu zidentyfikowali potrzebę ludzkiego nadzoru nad sprawdzaniem zdjęć oznaczonych jako niespełniające wymogów i wzięciem odpowiedzialności za wszelkie wynikające stąd działania.

Współpraca z zewnętrznym partnerem, firmą Holistic AI Zewnętrznym partnerem Unilevera w procesie zapewnienia jakości AI jest firma z Londynu, Holistic AI. Jej założyciele, Emre Kazim i Adriano Koshiyama, współpracują z zespołami AI Unilevera od 2020 roku, a ich firma została oficjalnym partnerem Unilevera w 2021 roku.

Firma Holistic AI utworzyła platformę do zarządzania procesem oceny systemu zapewnienia jakości AI. W kontekście tego procesu „AI” jest szeroką kategorią, obejmującą wszelkie rodzaje prognozowania lub automatyzacji; ocenie podlega nawet arkusz kalkulacyjny Excela używany do klasyfikacji punktowej kandydatów do pracy w dziale HR. Zespół do spraw etyki danych w firmie Unilever używa tej platformy do przeglądu statusu projektów AI i może dzięki niej stwierdzić, które nowe przypadki użycia zostały przedłożone do oceny, czy informacje na ich temat są kompletne i jaki poziom ryzyka został im przypisany – poszczególne poziomy ryzyka symbolizują trzy kolory: czerwony, żółty (w Wielkiej Brytanii określany jako „bursztynowy”) i zielony.

Ostateczne decyzje dotyczące użycia AI są podejmowane przez radę złożoną z menedżerów wyższego szczebla z trzech działów: prawnego, zasobów ludzkich i danych i technologii.

Status rozwiązań objętych systemem odpowiadającym ulicznej sygnalizacji świetlnej jest oceniany na trzech etapach: selekcji metodą triażu, po dalszej analizie i po końcowym złagodzeniu ryzyka i zapewnieniu jakości AI. Na tym ostatnim etapie rating rozwiązań jest interpretowany w następujący sposób: kolor czerwony oznacza, że system AI nie jest zgodny ze standardami Unilevera i nie powinien być rozmieszczany; kolor żółty oznacza, że rozwiązanie AI jest obciążone pewnymi czynnikami ryzyka i że jego biznesowy „właściciel” musi być tych czynników świadomy i musi wziąć za nie odpowiedzialność; a kolor zielony wskazuje na to, że system AI nie obciąża procesu żadnym ryzykiem. Jak dotąd zaledwie garstka z kilkuset przypadków użycia AI w firmie Unilever została oznaczona kolorem czerwonym, w tym opisane wcześniej rozwiązanie w obszarze kosmetyków. Wszystkie osoby zgłaszające te nieliczne przypadki potrafiły rozwiązać zidentyfikowane problemy i przenieść swoje projekty na wyższy poziom, oznaczony kolorem żółtym.

Dla liderów projektów w sferze AI platforma jest tym miejscem, od którego zaczynają ocenę swoich rozwiązań. Przedkładają proponowany przypadek użycia, podając takie szczegóły, jak jego cel i uzasadnienie biznesowe, kto odpowiada za rozwiązanie w firmie Unilever, skład zespołu, użyte dane, rodzaj zastosowanej technologii AI, czy rozwiązanie jest opracowywane wewnętrznie czy przez zewnętrznego dostawcę, stopień autonomii i tak dalej. Platforma wykorzystuje te informacje do punktowej oceny rozwiązania pod względem towarzyszącego mu ryzyka. Do branych pod uwagę domen ryzyka należą: zdolność do objaśnienia projektu, solidność, skuteczność, stronniczość i prywatność. Algorytmy służące uczeniu maszynowemu są automatycznie analizowane, aby ustalić, czy nie dyskryminują jakiejkolwiek konkretnej grupy.

Coraz większy odsetek ewaluacji dokonywanych przy użyciu platformy firmy Holistic AI opiera się na proponowanym przez Unię Europejską akcie w sprawie sztucznej inteligencji, który również szereguje przypadki użycia AI zgodnie z trzema kategoriami ryzyka (nie do przyjęcia, wysokie i nie dość wysokie, by podlegało regulacji). Akt negocjują pomiędzy sobą kraje członkowskie UE, licząc na to, że osiągną porozumienie do końca 2023 roku. Kazim i Koshiyama stwierdzili, że chociaż ustawa będzie miała zastosowanie jedynie do firm europejskich, to Unilever i inne firmy prawdopodobnie zastosują ją w skali globalnej, tak jak zrobiły to z ogólnym rozporządzeniem UE w sprawie danych osobowych.

Kazim i Koshiyama liczą na to, że w przyszłości ich organizacja będzie w stanie agregować dane z różnych firm i stosować wobec nich metodę benchmarkingu. Ich oprogramowanie mogłoby oceniać: relację korzyści do kosztów, skuteczność zewnętrznych dostawców tego samego przypadku użycia i najbardziej efektywne podejścia do zakupów AI. Kazim i Koshiyama rozważają również krok polegający na upublicznieniu w niektórych przypadkach ratingów ryzyka i nawiązanie partnerskiej współpracy z firmą ubezpieczeniową w celu ubezpieczania przypadków użycia AI od pewnych rodzajów ryzyka.

Jesteśmy wciąż na wczesnym etapie zapewniania, że firmy będą stosowały etyczne podejścia do AI, ale to nie oznacza, że wystarczy wydawać oświadczenia i tworzyć procedury, które nie przekładają się na działania. Kwestia, czy rozwiązanie AI jest etyczne czy nie, będzie rozstrzygana przypadek po przypadku. Proces zapewnienia jakości AI w firmie Unilever i jej partnerstwo z firmą Holistic AI w celu ewaluacji każdego przypadku użycia pod względem poziomu ryzyka etycznego są obecnie jedynym sposobem zapewniającym, że systemy AI będą zestrojone z interesem i dobrostanem człowieka.

Randy Bean

Randy Bean (@randybeannvp) jest branżowym ekspertem, pisarzem i prezesem założonej w 2001 roku firmy konsultingowej NewVantage Partners, która specjalizuje się w doradztwie w zakresie strategii i zarządzania. Współpracuje z czasopismami „MIT Sloan Management Review”, „Forbes”, „Harvard Business Review” i „The Wall Street Journal”. Kontakt: rbean@newvantage.com.

THOMAS H. DAVENPORT

jest profesorem technologii informacyjnej i zarządzania w Babson College, pracownikiem naukowym w MIT Initiative on the Digital Economy i starszym doradcą firmy Deloitte. Jest współautorem książki All In on AI: How Smart Companies Win Big With Artificial Intelligence, Harvard Business Review Press, 2023.

Polecane artykuły


Najpopularniejsze tematy