Najpopularniejsze tematy:

Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Jesteś Subskrybentem? Zaloguj się

Premium

Subskrybenci wiedzą więcej!

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>
Nowy wspaniały świat pracy. Czy sztuczna inteligencja zreformuje organizacje?

Restart gospodarki to idealny moment na przedefiniowanie wartości w organizacji. Nowoczesna technologia może pomóc uczynić nowo otwartą przestrzeń bardziej przyjazną.

Część firm wróciła już do pracy stacjonarnej, dla innych powrót do nowej normalności to długotrwały proces. Jednak niemal każda organizacja w dobie pandemii została naznaczona cyfrową zmianą. Przymusowa reorganizacja pracy wymusiła mniej lub bardziej spontaniczną transformację cyfrową. W oczywisty sposób pandemia była testem digitalnej zmiany. Firmy, które jeszcze do niedawna opierały się wejściu w pełni cyfrowy świat, zostały zmuszone do tego przez brutalną rzeczywistość. Analityka danych, procedury pracy zdalnej, wykorzystanie sztucznej inteligencji w procesach – nowe technologie stały się jeszcze bardziej powszechne. Miejsce pracy po okresie lockdownu nie będzie już takie samo. Dużą zmianę może przynieść właśnie wspomniana sztuczna inteligencja (SI). Staje się bowiem ona naturalnym elementem postpandemicznej rzeczywistości. Zmieniając procesy, zmienia samą organizację. Czy na dobre?

Chyba już nikt nie ma wątpliwości co do tego, że sztuczna inteligencja może utrwalać stereotypy i cementować uprzedzenia. Dość pojawiło się już przykładów seksistowskich chatbotów, rasistowskich algorytmów wspierających podejmowanie decyzji czy jawnie homofobicznych programów. Wykorzystanie sztucznej inteligencji do opisywania świata rzeczywistego nie zawsze pomaga. Zwłaszcza jeśli obecny świat rzeczywisty ukształtowały stulecia uprzedzeń.

Algorytm jaki jest, każdy widzi

W 2014 roku Amazon pracował nad rozwiązaniem, którego zadaniem miała być selekcja kandydatów i kandydatek do pracy. Maszyna miała być wolna od uprzedzeń, którymi kierowali się menedżerowie przeglądający CV. Problem jednak tkwił w danych dotyczących rekrutacji, na których została wytrenowana: zaprzęgnięty do pracy model statystyczny w danych z poprzedniej dekady wykrył, że zatrudniano głównie mężczyzn. Skoro firma preferowała mężczyzn, model priorytetowo traktował te CV, które zawierały agresywny język (np. execute), którego częściej używają mężczyźni. Mniej punktów otrzymywały też aplikacje, w których pojawiały się nazwy żeńskich uczelni. Algorytm niejako dostosował się do kultury firmy i do rozwiązania zadania zastosował te same reguły, które (mniej lub bardziej świadomie) przez lata stosowali menedżerowie odpowiedzialni za rekrutację.

Warto zauważyć, że jeśli sztuczna inteligencja potrafi zidentyfikować subtelne decyzje, które ostatecznie kończą się wykluczeniem osób z zatrudnienia, może także dostrzec te, które prowadzą do bardziej zróżnicowanych i sprzyjających integracji miejsc pracy. Humu Inc., start‑up z Mountain View w Kalifornii, obstawia, że za pomocą inteligentnych maszyn można zachęcać ludzi do dokonywania wyborów, które sprawiają, że miejsca pracy są bardziej sprawiedliwe dla wszystkich i dzięki temu wszyscy pracownicy są szczęśliwsi.

Oczywistością jest, że nie jesteśmy skazani na uprzedzone algorytmy. Niska jakość danych, trenowanie systemu na danych nieadekwatnych do celu, nieprawidłowo lub nierealistycznie określony cel przewidywania to najczęściej wskazywane przyczyny uprzedzonych decyzji SI. Przy czym nie można zapominać, że te decyzje podejmują właściciele i twórcy systemów, a nie sama sztuczna inteligencja. Nie jest to więc wina programu komputerowego ani modelu statystycznego, ale człowieka, który go stworzył. To również człowiek decyduje o tym, by mimo ograniczeń AI użyć jej do rozwiązywania problemów, w których pojawia się ryzyko dyskryminacji lub wykluczenia.

Libertariański paternalizm

Richard Tahler, ekonomista behawioralny (laureat Nagrody Nobla), postuluje terapię „pozytywnych szturchnięć” SI. Sama koncepcja tzw. szturchania (z ang. nudging) wiąże się z pojęciem libertariańskiego paternalizmu. Oba te stwierdzenia odnoszą się do wpływania rządzących/kreatorów sytuacji decyzyjnych na jednostki w taki sposób, by te podejmowały decyzje optymalne dla samych siebie.

Motorem tej filozofii nie jest jednak wpływanie na same decyzje jednostek poprzez nakazy, zakazy czy manipulacje. Kreatorzy/rządzący mają tylko kształtować samą sytuację decyzyjną w taki sposób, by nakierować decydentów na warianty dla nich optymalne i ograniczyć działania nieracjonalne (wynikające np. z błędów poznawczych). Tak jak w modelu zarządczym zgodnym z libertariańskim paternalizmem Thaler postuluje podobne rozwiązanie w zakresie „szkolenia” sztucznej inteligencji. Wyznawcą takiego działania jest także Laszlo Bock, jeden z założycieli wspomnianego już start‑upu Humu. W praktyce Humu wykorzystuje sztuczną inteligencję do analizowania zadowolenia pracowników, kultury firmy, danych demograficznych, obrotów i innych czynników, podczas gdy jej charakterystyczny produkt, silnik szturchania, wysyła spersonalizowane wiadomości e‑mail do pracowników, sugerując niewielkie zmiany w zachowaniu (czyli właśnie szturchnięcia).

Silnik zmiany

Jednym z kluczowych elementów silnika szturchania są różnorodność i integracja. Pracownicy organizacji integracyjnych są bardziej zaangażowani. Zaangażowani pracownicy są szczęśliwsi, a przez to bardziej produktywni i mają większe szanse na pozostanie i rozwój w ramach organizacji.

W przypadku Humu, jeśli dane pokazują, że pracownicy nie są zadowoleni z działania organizacji, silnik szturchania może na przykład zachęcić kierownika, by poprosił o wkład lidera zespołu, jednocześnie nakłaniając pracownika niższego szczebla do wypowiedzenia się podczas spotkania. E‑maile są dostosowane do ich odbiorców, ale są koordynowane tak, aby cała organizacja była delikatnie prowadzona do tego samego celu. W przeciwieństwie do algorytmu zatrudniania Amazona silnik szturchania nie powinien zastępować podejmowania decyzji przez człowieka. On tylko sugeruje alternatywy, często tak subtelnie, że pracownicy nawet nie zdają sobie sprawy, że zmieniają swoje zachowanie. Wartością szturchnięcia jest natychmiastowa informacja zwrotna. Technologia opiera się tutaj na klasycznym mechanizmie wzmacniania bodźców.

Oczywiście sama idea kształtowania zachowań w pracy jest trudna, ponieważ zachowania w miejscu pracy można postrzegać inaczej w zależności od tego, kto je wykonuje. Weźmy na przykład sugestię, że należy zabrać głos na spotkaniu. Badania przeprowadzone przez prof. Victorię Brescoll w Yale School of Management wykazały, że ludzie oceniali menedżerów, którzy często zabierali głos na spotkaniach, za bardziej kompetentnych od ich rówieśników; odwrotna zasada obowiązywała w przypadku kobiet na stanowiskach wykonawczych. Jednocześnie badania przeprowadzone przez Roberta Livingstona z Kellogg School of Management w Northwestern wykazały, że w przypadku czarnych amerykańskich dyrektorów relacje zostały odwrócone: przywódczynie o czarnej karnacji nie były „karane” za asertywne zachowania w miejscu pracy, za to czarni mężczyźni już tak.

Czy algorytm może to zmienić? Czy można powstrzymać inteligentną maszynę przed wchłanianiem ludzkich uprzedzeń? Pierwsze doświadczenia Humu pokazują, że programowanie zmiany jest możliwe.

– Koncentrujemy się na istotnych danych. Ustalamy, jakie działania będą miały największe znaczenie, gdy kierujemy pięcioma czynnikami: efektywnością organizacyjną, utrzymaniem, indywidualnym szczęściem, integracją i innowacją. Obliczamy, jakie zachowania każda osoba musi zmienić, aby zmaksymalizować te czynniki dla siebie, zespołu i organizacji. Następnie wysyłamy szturchnięcia oparte na sztucznej inteligencji. Należą do nich małe przypomnienia i notatki. Mogą korzystać z poczty e‑mail, SMS‑ów, Slacka, Yammera lub w jakikolwiek inny sposób. Owe szturchnięcia pojawiają się w odpowiednim momencie, aby pomóc ludziom być trochę lepszym, spróbować czegoś nowego lub uczynić ich otoczenie bardziej integracyjnym. Powoduje to, że ludzie podejmują działania związane z tym, co powinni robić, o około 250% częściej niż wtedy, gdy nie otrzymują tych przypomnień. Nastąpiła ogromna poprawa wydajności, a ludzie są szczęśliwsi – mówił w rozmowie z „Forbesem” Laszlo Bock.

Czy można powstrzymać inteligentną maszynę przed wchłanianiem ludzkich uprzedzeń?

Szturchać zawsze warto

Także na polskim rynku obecne są podobne rozwiązania. Przykładem jest chociażby platforma Carrotspot przygotowana przez MC2 Innovations. Tutaj szturchanie ma cel motywacyjny. Filozofia Carrotspot opiera się na założeniu, że oparcie motywowania wyłącznie na aspektach materialnych w pewnym momencie przypomina licytowanie się, kto da więcej – i już nie działa motywująco. Pracodawcy ścigają się między sobą, a także licytują stawkę wobec samego pracownika, ale to tylko manipulacja – nie ma w tym uczciwości obejmującej całą relację pracodawca – pracownik, osobistego podejścia, podmiotowego traktowania, wsparcia i zrozumienia w trudniejszych chwilach, planowania relacji długoterminowo w postaci ścieżki rozwoju, uwzględniania wzajemnych oczekiwań i preferencji.

– Dobra motywacja powinna opierać się na relacji pracodawca i pracownik oraz wzajemnym zaangażowaniu. Jeśli łączymy zarówno benefity, jak i nagrody, a także działania z obszaru ścieżki kariery i rozwoju, to umożliwiamy dobranie środków motywacji zarówno do osoby, jej pozycji i zadań w firmie, jak i do preferencji pracownika, a w końcu do planów pracodawcy związanych z zarządzaniem talentami. Jeśli pracownik ma do wykonania rutynowe działanie typu wklepanie danych do systemu, możemy posłużyć się benefitem, który działa na przewidywalnych zasadach „jeśli…, to…”. Zakładamy tu przewidywalność świadczeń obu stron. To w zasadzie element wynagrodzenia, pozapłacowy i nieco je ubarwiający. Nagrody świetnie się sprawdzą w sytuacji „teraz, gdy…”, czyli nie są należną częścią wynagrodzenia i mają element zaskoczenia. Posługujemy się nimi, gdy ktoś się czymś wyróżnił, dał z siebie więcej niż wymagane, a nasza odpowiedź jest równie wyróżniająca, ponad standard. Nasza platforma Carrotspot umożliwia pójście jeszcze dalej i zrealizowanie spersonalizowanego planu motywacyjnego. Osoby, które są utalentowane i które chcemy zatrzymać w organizacji, chcą dostać coś więcej: jasne perspektywy rozwoju i kariery w firmie. To okazja do spersonalizowanej umowy między stronami, w ramach której podejmuje się wzajemne zobowiązania dotyczące rozwoju kompetencji, szkoleń, awansu i zaspokajania aspiracji pracownika w zamian za jego trwałą i zaangażowaną obecność w firmie. W tym przypadku relacja jest niezwykle spersonalizowana, obie strony tworzą taką umowę – mówiła w naszym wywiadzie CEO MC2 Innovations Anna Streżyńska.

Błędna heurystyka

Zasadniczo inna polityka organizacyjna jest możliwa. Technologia – m.in. poprzez wspomniany model grywalizacji – może modelować zachowania. To już się dzieje. Wydajność i zachowanie pracowników mogą być modelowane przez sztuczną inteligencję. Oczywiście, tak jak w przypadku SI utrwalającej stereotypy wbrew woli twórców czy użytkowników, tak zbytnie zaufanie technologii modelującej zachowanie może przynieść efekt odwrotny od założonego.

Wspominałem już, że nie można zapominać, że te decyzje ostatecznie podejmują właściciele i twórcy systemów, a nie sama sztuczna inteligencja.

Niezależnie, czy budując/otwierając na nowo miejsce pracy, korzystamy z Humu, Carrotspotu, czy innego oprogramowania, kluczowe pozostaje pytanie o efekty. Wybór technologii powinien zależeć od realnych potrzeb pracowników. Przyda się tutaj dokładna ankieta i analiza odpowiedzi/sugestii. Tutaj także można skorzystać z technologicznego wsparcia. Bez dokładnego stworzenia oferty wartości trudno o wybór konkretnego rozwiązania. Zatem, zanim powierzy się sztucznej inteligencji tworzenie firmowego entourage’u, warto poznać prawdziwie ludzkie potrzeby pracowników.


Najpopularniejsze tematy