Dołącz do grona liderów, którzy chcą więcej
Analiza danych, Big Data

Sztuczna inteligencja kontra pracownicy 

9 sierpnia 2022 32 min czytania
Zdjęcie Katherine C. Kellogg - Jest profesorem zarządzania i innowacji oraz administracji biznesowej w MIT Sloan School of Management.
Katherine C. Kellogg
Zdjęcie Mark Sendak - Lider w dziedzinie zdrowia populacji i nauki o danych w Duke Institute for Health Innovation.
Mark Sendak
Zdjęcie Suresh Balu - Prodziekan ds. Innowacji i partnerstwa w School of Medicine oraz dyrektor programowy w Duke Institute for Health Innovation (DIHI).
Suresh Balu
Sztuczna inteligencja kontra pracownicy 

Streszczenie: Rozwój sztucznej inteligencji może napotkać opór ze strony pracowników, którzy obawiają się utraty autonomii oraz zwiększenia obciążenia obowiązkami. W artykule omówiono przykład implementacji narzędzia AI w szpitalu, które miało pomóc w optymalizacji decyzji dotyczących hospitalizacji pacjentów. Mimo technicznych korzyści, zespół medyczny odrzucił technologię, uznając ją za zbędną i obciążającą ich pracę. To zjawisko, polegające na oporze przed technologiami, które zmieniają sposób pracy, występuje nie tylko w medycynie, ale także w innych branżach. Użytkownicy często odczuwają brak korzyści dla siebie i obawiają się zwiększenia liczby obowiązków. Aby zwiększyć akceptację dla AI, liderzy muszą dbać o zaangażowanie pracowników i wyjaśniać im korzyści płynące z nowych narzędzi.

Pokaż więcej

Postęp w dziedzinie sztucznej inteligencji może wyhamować, jeśli końcowi użytkownicy odmówią korzystania z nowych rozwiązań. Ich twórcy muszą zatem myśleć nie tylko o korzyściach biznesowych, ale też o tym, jak odnieść się do obaw ludzi.

Jest poniedziałek, 10 rano. Aman, jeden z twórców nowego narzędzia wykorzystującego sztuczną inteligencję (AI), jest podekscytowany. To właśnie dzisiaj zostanie ono oddane do użytku. Kierownictwo oddziału intensywnej terapii w Duke University Hospital poprosiło Amana i jego współpracowników o opracowanie rozwiązania AI zapobiegającego przepełnieniu oddziału. Dotychczasowe doświadczenia szpitala dowodzą, że pacjenci z pewną formą zawału serca są zatrzymywani w szpitalu, choć nie jest to w ich przypadku konieczne. Szefowie oddziału mieli więc nadzieję, że sztuczna inteligencja pomoże lekarzom pracującym na izbie przyjęć zidentyfikować takich właśnie pacjentów, by móc ich skierować na obserwację poza OIOM‑em. Pozwoliłoby to nie tylko poprawić jakość leczenia, ale też zredukować niepotrzebne koszty.

Aman i kierowany przez niego zespół kardiologów, analityków danych, informatyków oraz menedżerów projektu opracował algorytm AI, który ma pomagać lekarzom w łatwym wyłuskaniu takich pacjentów spośród wszystkich innych osób z objawami zawału. Algorytm miałby też służyć temu, by w karcie medycznej pacjenta znalazło się wyjaśnienie, dlaczego nie ma konieczności hospitalizacji na oddziale intensywnej terapii. Po roku od rozpoczęcia prac narzędzie jest gotowe do użycia.

A teraz przeskoczmy o trzy tygodnie dalej. Implementacja narzędzia była całkowitą klapą. Jeden z lekarzy ostrego dyżuru skomentował ją następująco: „nie potrzebujemy rozwiązania, które mówi nam, jak mamy wykonywać swoją pracę”. Okazuje się, że to typowa reakcja na wdrożenie AI usprawniającej proces decyzyjny. Wielu pracowników działających na pierwszej linii myśli podobnie. Nieustannie zajęci lekarze izby przyjęć, w której stale coś się dzieje, protestują, gdy okazuje się, że muszą, poza wykonywaniem dotychczasowych obowiązków, wpisywać dane do systemu. Nie podoba im się także to, że nowe osoby z zewnątrz, które nie mają pojęcia o funkcjonowaniu izby przyjęć, wkraczają w obszar ich kompetencji.

Podobne nieudane implementacje AI zdarzają się także w innych sektorach pomimo faktu, że nowe metody pracy mogłyby pomóc organizacjom poprawiać jakość produktów i usług, zredukować koszty i zwiększyć przychody. Użytkownicy końcowi najczęściej bronią się przed wykorzystywaniem narzędzi AI mających wspomagać proces decyzyjny, ponieważ korzyści dla nich samych nie są znaczące. Implementacja może ponadto oznaczać, że będą mieli więcej pracy a mniej autonomii.

Problemem są także sprzeczne interesy użytkowników końcowych oraz menedżerów najwyższego szczebla bądź interesariuszy w innych częściach organizacji, w których wdrażane są innowacyjne technologie. Zagadnienie to nie jest nowe, ale stało się znacznie bardziej palące od momentu pojawienia się narzędzi AI. To one bowiem, korzystając z metod na podstawie predykcji, zalecają podjęcie konkretnych działań mogących mieć poważne konsekwencje dla całych organizacji. Wymagają ponadto jasnych reguł i pracochłonnego procesu tworzenia oraz stałej współpracy deweloperów i użytkowników końcowych.

Co mogą zatem zrobić liderzy zajmujący się wdrażaniem rozwiązań AI, aby zwiększyć poziom akceptacji dla tych technologii wśród użytkowników końcowych? Nasze obserwacje procesów projektowania, tworzenia i integracji 15 narzędzi wspomagających proces decyzyjny w Duke University Hospital wskazują na szereg dobrych praktyk, pozwalających zrównoważyć potrzeby wszystkich interesariuszy. Zauważyliśmy, że aby zwiększyć akceptację ze strony użytkowników i chęć korzystania przez nich z narzędzi AI, liderzy, zarówno na poziomie projektu, jak i całej organizacji, powinni pomyśleć o zwiększeniu korzyści z użytkowania narzędzia, zmniejszeniu nakładu pracy podczas implementacji i zadbać o autonomię pracowników, troszcząc się, by mogli oni, bez przeszkód, wykonywać swoje główne zajęcia.

W trakcie naszych obserwacji zbieraliśmy dane na temat wyzwań, jakich wdrażanie rozwiązań AI przysporzyło menedżerom szpitala, użytkownikom końcowym oraz deweloperom narzędzi. W szczególności interesowały nas rozwiązania wspierające procesy decyzyjne, które zostały z sukcesem wprowadzone. Choć nasze badania koncentrują się na wdrażaniu narzędzi AI wspomagających podejmowanie decyzji w branży ochrony zdrowia, zauważyliśmy, że podobne problemy i podobna dynamika charakteryzuje również inne branże: technologiczną, wytwórczą, ubezpieczeniową, telekomunikacyjną czy handel detaliczny.

Przyczyny oporu ze strony użytkowników końcowych

Rozbieżności pomiędzy tym, co zespoły zajmujące się wdrożeniem rozwiązań AI planują zaimplementować, a tym, co końcowi użytkownicy są gotowi zaakceptować, mają swoje źródło w trzech podstawowych konfliktach interesów.

1. Predykcyjne narzędzia AI dostarczają korzyści głównie organizacjom, a nie ich końcowym użytkownikom

Predykcje dostarczane przez narzędzia AI pozwalają modyfikować organizacyjny łańcuch wartości, potencjalnie dając szansę wszystkim interesariuszom na poprawę jakości i redukcję kosztów. Jednocześnie trudno dostrzec bezpośrednie korzyści dla końcowych użytkowników. Widać to choćby na przytoczonym wcześniej przykładzie pracowników ostrego dyżuru, którzy byli proszeni o korzystanie z narzędzia dającego największe korzyści nie im a lekarzom z oddziału intensywnej terapii.

Podobna sytuacja zdarzyła się w firmie zajmującej się sprzedażą detaliczną online. Opracowano w niej rozwiązanie AI do selekcji kandydatów aplikujących do firmy z własnej inicjatywy. Rozwiązane to miało wskazywać takie osoby, których CV odpowiadało profilowi byłych lub obecnych pracowników, dobrze radzących sobie w firmie. Przedstawiciele działu HR, którzy w założeniu mieli być końcowymi użytkownikami tego narzędzia, często zapominali o tych ludziach, którzy sami zgłaszali się do firmy, koncentrując się raczej na aktywnym poszukiwaniu pracowników w serwisach takich jak LinkedIn. Przyjmowali taką strategię, ponieważ chcieli przyciągnąć większą liczbę kandydatów z rzadkimi kompetencjami technicznymi, a wśród kandydatów, którzy sami zgłaszali się do firmy, tylko nieliczni faktycznie takimi dysponowali. Ponieważ jednak osoby, które same zgłaszają się do firmy, są bardziej skłonne przyjąć pracę na zaproponowanych warunkach, niż te, których działy HR aktywnie szukają na zewnątrz, narzędzie zajmujące się tą grupą mogłoby przynieść korzyści całej organizacji, a szczególnie osobom prowadzącym rozmowy rekrutacyjne.

2. Narzędzia AI mogą wymagać dodatkowej pracy od użytkowników końcowych, choć nie oni odnoszą z ich implementacji najwięcej korzyści

Implementacja narzędzi AI wiąże się z pracochłonnymi działaniami wymagającymi nieustannej współpracy pomiędzy deweloperami i użytkownikami końcowymi. Twórcy rozwiązań technologicznych od dawna angażują się w projektowanie nastawione na potrzeby i wygodę użytkownika końcowego, korzystając z analizy zadań do wykonania, obserwacji i badań odbiorców. Jednak narzędzia AI wymagają głębszego poziomu zaangażowania ze strony użytkowników końcowych.

Ponieważ do stworzenia narzędzia potrzebna jest duża ilość wysokiej jakości danych, deweloperzy często proszą użytkowników końcowych o identyfikowanie i uzgadnianie rozbieżności w różnych zbiorach. Deweloperzy oczekują przy tym, że użytkownicy końcowi będą definiować, oszacowywać i uzupełniać wskazówki dostarczane przez narzędzie na każdym etapie procesu, a także weryfikować zasadność wskazówek mających wspomagać procesy decyzyjne.

W sytuacji gdy inni interesariusze oraz menedżerowie wyższego szczebla odnoszą najwięcej korzyści z wdrożenia rozwiązania AI, użytkownicy końcowi mogą nie być wystarczająco zmotywowani, by podejmować się tej pracochłonnej współpracy z deweloperami. Tak właśnie było w przypadku lekarzy z ostrego dyżuru. Nie byli oni zainteresowani poświęcaniem swojego czasu i wysiłku na rozwijanie narzędzia, którego zadaniem było identyfikowanie niezbyt ryzykownych przypadków zawału.

Badacze z Uniwersytetu Oxfordzkiego napotkali podobny problem w firmie telekomunikacyjnej, która stworzyła narzędzie AI pomagające sprzedawcom identyfikować klientów o dużej wartościIndeks górny 1. Choć menedżerowie wyższego szczebla byli zainteresowani dostarczeniem technicznej wiedzy sprzedawcom, oni sami bardziej cenili utrzymywanie osobistych, opartych na zaufaniu relacji z klientami. Woleli też polegać na intuicji w procesie identyfikowania szans sprzedażowych. Nie podchodzili więc entuzjastycznie do pomysłu angażowania się w pracochłonne zadania mające na celu projektowanie, rozwijanie i wdrażanie narzędzia, które ich zdaniem nie przynosiło im korzyści.

3. Preskryptywne narzędzia AI najczęściej ograniczają autonomię użytkownika końcowego

Narzędzia AI wspierające proces decyzyjny są ze swej natury preskryptywne. Oznacza to, że rekomendują pewne działania, jak na przykład przeniesienie pacjenta na oddział intensywnej terapii. Zalecenia dostarczane przez AI pozwalają stronom trzecim wewnątrz firmy (np. menedżerom organizacyjnym czy innym interesariuszom w różnych działach) zyskać nowy wgląd w proces decyzyjny końcowych użytkowników narzędzia, a nawet pewną nad nim kontrolę. Wewnętrzni interesariusze, jak menedżerowie wyższego szczebla, wcześniej mogli jedynie dostarczać protokoły pewnych działań, które następnie były interpretowane przez użytkowników końcowych i wprowadzane w życie zgodnie z ich własnym osądem, zależnym od konkretnego przypadku. Narzędzia AI mogą obecnie dostarczać informacji, które pokierują tym osądem, oferować odpowiednie rekomendacje i sprawdzać, czy użytkownicy końcowi się do nich zastosowali. Właśnie wtedy mogą potencjalnie naruszać ich autonomię.

Na przykład, kiedy narzędzie stworzone na potrzeby Duke University Hospital, pozwalające identyfikować przypadki niegroźnych zawałów, zostało już wdrożone i kiedy lekarz pracujący na ostrym dyżurze zdecydował się odesłać pacjenta na oddział intensywnej terapii, menedżerowie szpitala i lekarze pracujący na oddziale mogli zobaczyć, jakie były zalecenia sztucznej inteligencji i czy lekarz pracujący w izbie przyjęć się do nich zastosował. Pracownikom ostrego dyżuru nie spodobał się scenariusz, w którym inne osoby, niemające kontaktu z ich pacjentami, wkraczały w ich domenę i próbowały kontrolować ich decyzje.

Analizy wykorzystania narzędzi AI w handlu detalicznym wskazują na podobną dynamikęIndeks górny 2. Badacze z Uniwersytetu Stanforda przyjrzeli się wdrożeniu algorytmicznego systemu wsparcia procesu podejmowania decyzji dla osób odpowiedzialnych w pewnej firmie za hurtowe zakupy odzieży. Do tej pory osoby te polegały na swoim doświadczeniu i intuicji co do nadchodzących trendów w modzie, podejmując decyzje na temat tego, jakiego rodzaju stroje magazynować z wyprzedzeniem z myślą o nadchodzącym wzroście popytu. Na przykład specjaliści, których zadaniem było zamawianie męskich dżinsów, musieli podjąć decyzje dotyczące stylu (rurki, slim fit czy prosty krój) i koloru tkaniny (jasny, średniociemny, ciemny). Osoby takie posiadały dużą autonomię i nie były przyzwyczajone do tego, że konsekwencje ich wyborów modelowano i mierzono.

Zachęcaj pracowników pierwszej linii do przyjmowania nowych rozwiązań

Zaobserwowaliśmy, że aby skutecznie implementować narzędzia AI w obliczu takich przeszkód, liderzy projektów AI powinni odnieść się do zjawiska braku równowagi pomiędzy różnymi poziomami wartości, jakie nowe narzędzie przynosi organizacji i użytkownikom końcowym. W praktyce oznacza to zwiększenie korzyści użytkownika końcowego, związane z wykorzystaniem narzędzia, redukowanie obciążenia dodatkową pracą w procesie rozwijania narzędzia oraz ochronę autonomii użytkowników przez zadbanie o przestrzeń do realizacji ich podstawowych zadań.

1. Zwiększ korzyści dla użytkowników końcowych

Użytkownicy końcowi chętniej będą stosować narzędzie, jeśli wyraźnie dostrzegą korzyści, jakie im zapewnia. Liderzy projektów AI mogą wykorzystać następujące strategie, by zrealizować ten cel.

Ustal, co naprawdę uwiera ludzi, którzy mają stosować w pracy nowe narzędzie. Nawet jeśli deweloperzy rozwiązań AI muszą mieć na uwadze cele całej organizacji, to jednak powinni też skupić się na tym, jak dane narzędzie może pomóc końcowym użytkownikom rozwiązywać problemy, które ci napotykają w codziennej pracy, albo dostroić się do nowego poziomu obciążenia pracą, związanego z wykorzystywaniem narzędzia. Przykład? W Duke University Hospital kardiolodzy poprosili członków zespołu projektowego o zbudowanie narzędzia AI do diagnozowania pacjentów z zatorowością płucną o niskim ryzyku (ZP). Chodziło o to, by osoby te mogły zostać wypisane do leczenia ambulatoryjnego i nie były poddawane kosztownej hospitalizacji. Projektanci od razu zwrócili się do lekarzy z ostrego dyżuru, którzy mieli być rzeczywistymi użytkownikami końcowymi nowego narzędzia. Członkowie zespołu ZP szybko dowiedzieli się, że „solą w oku” lekarzy pracujących na ostrym dyżurze był problem z szybkim przygotowywaniem pacjentów z zatorowością płucną niskiego ryzyka do wypisania ze szpitala i zapewnieniem im właściwej opieki ambulatoryjnej.

Liderzy projektu AI próbujący wdrożyć narzędzie HR do wyłaniania kandydatów, wykorzystali tę samą strategię, zaczynając od ustalenia, jakie są punkty bólu pracowników działu HR zajmujących się poszukiwaniami przyszłych pracowników. Deweloperzy ustalili, że osoby te nie mogły umawiać rozmów rekrutacyjnych tak szybko, jakby chciały, ponieważ pracownicy zajmujący się ich przeprowadzaniem nie mieli wystarczającej „przepustowości” – byli w stanie porozmawiać z relatywnie niewielką liczbą kandydatów.

Zalecenie, by liderzy projektów AI skupiali się na pomaganiu końcowym użytkownikom w rozwiązywaniu ich codziennych problemów, może wydawać się oczywistym. Dlaczego jednak tak rzadko liderzy projektów AI faktycznie wcielają je w życie? Ponieważ ludzie, którzy inicjują rozmowy z tymi liderami i którzy dostarczają zasobów potrzebnych do tworzenia narzędzi, to menedżerowie wyższego szczebla lub inni interesariusze z firmy, którzy na wdrożeniu najbardziej skorzystają. Liderzy projektu często postrzegają ich jako głównych klientów, tracąc przy tym z oczu interes końcowych użytkowników.

Opracuj strategie, które pomogą rozwiązać problemy końcowych użytkowników. Wprowadzenie rozwiązania wykrywającego ZP w Duke University Hospital groziło wręcz pogorszeniem sytuacji lekarzy pracujących na ostrym dyżurze. Byłoby im trudniej niż dotąd szybko kierować pacjentów do leczenia ambulatoryjnego. Kiedy członkowie zespołu projektowego zrozumieli, w czym tkwi problem, skupili się na tym, by pracownikom ostrego dyżuru ułatwić to zadanie.

Podobnie było w przypadku deweloperów, którzy stworzyli narzędzie do analizy CV kandydatów. Gdy zauważyli, że rekruterzy mieli trudność z szybkim umawianiem rozmów kwalifikacyjnych z wyłonionymi przez narzędzie kandydatami, skoncentrowali się na zwiększeniu „przepustowości” procesu przeprowadzania rozmów. Doszli do wniosku, że najlepiej będzie zatrudnić zewnętrzny podmiot zajmujący się wstępną selekcją kandydatów przed właściwą rozmową rekrutacyjną. Wszystko po to, by zdjąć z pracowników działu HR część obowiązków.

Wzmocnij zachęty dla końcowych użytkowników, by mogli realizować zadania, do których narzędzie AI zostało stworzone. Użytkownicy końcowi, którzy mają korzystać z narzędzia AI do usprawnienia procesu decyzyjnego, często nie są nagradzani za rezultaty, jakie powinno się dzięki niemu osiągać. Tych właściwych nawet się nie mierzy. Na ostrym dyżurze w Duke University Hospital badano na przykład, jak dobrze lekarze rozpoznawali stany ostre i łagodne problemy. Nie sprawdzano natomiast, jak dobrze rozpoznawali i leczyli rzadsze dolegliwości o bardziej skomplikowanej etiologii, takie jak zatorowość płucna o niskim ryzyku. Członkowie zespołu projektowego wspólnie z menedżerami kierującymi szpitalem postanowili zatem zmodyfikować system zachęt, tak by w przypadku lekarzy pracujących na ostrym dyżurze mierzono także efektywność identyfikowania i kierowania do leczenia ambulatoryjnego pacjentów z zatorowością płucną o niskim ryzyku.

Menedżerowie najwyższego szczebla, mający nadzieję na implementację narzędzia wspomagającego dział HR w procesie selekcji kandydatów, w naszym wcześniejszym przykładzie, również zrozumieli, że będą musieli dostosować system zachęt dla użytkowników końcowych w taki sposób, by narzędzie rzeczywiście mogło spełniać swoje zadanie. Kiedy pracownicy działu HR zaczęli korzystać z nowego rozwiązania, byli postrzegani jako mniej produktywni, ponieważ stosowano tradycyjne mierniki wydajności, takie jak całkowita liczba znalezionych przez nich kandydatów z rzadkimi kompetencjami technicznymi. Menedżerowie zdali sobie sprawę z tego, że będą musieli zmienić swoje praktyki oceny i pomiaru wydajności, aby zachęcić pracowników działu HR nie tyle do znajdywania maksymalnie dużej liczby kandydatów z rzadkimi kompetencjami technicznymi, ile raczej do znajdywania maksymalnie dużej liczby takich kandydatów, którzy ostatecznie przyjmą ofertę pracy.

Rzecz jasna liderom projektów AI nie jest łatwo tak zmodyfikować system zachęt, by użytkownicy końcowi chcieli wykorzystywać narzędzie do osiągania tych celów, w realizacji których, w założeniu, miało ono pomóc. Trudność ta wynika z faktu, że interesariusze, którzy najbardziej zyskują na implementacji narzędzia, zazwyczaj nie zarządzają efektywnością i wynagrodzeniami użytkowników końcowych. Dlatego właśnie liderzy projektów AI, by zyskać możliwość wprowadzenia takich zachęt, muszą wystąpić o wsparcie menedżerów wyższego szczebla.

2. Zredukuj obciążenie pracą końcowych użytkowników w obszarze projektowania, rozwoju i implementacji narzędzia AI

Jest wiele sposobów na to, by zespoły zajmujące się tworzeniem narzędzia IT zredukowały liczbę sytuacji, w których muszą zwrócić się po pomoc do użytkowników końcowych.

W trakcie projektowania narzędzia zmniejsz zaangażowanie użytkowników końcowych w tworzenie potrzebnych zbiorów danych. Dane wykorzystywane do uczenia narzędzi AI muszą być reprezentatywne w odniesieniu do docelowej populacji. To oznacza, że zbiór danych potrzebny do uczenia musi być obszerny. Jednak stworzenie go i uzgodnienie rozbieżności pomiędzy różnymi podzbiorami danych, może okazać się bardzo czasochłonne. Liderzy projektów AI mogą zminimalizować zaangażowanie końcowych użytkowników na tym etapie, zatrudniając strony trzecie do ustrukturyzowania zbioru danych. Tak postąpiono właśnie w Duke University Hospital. Członkowie zespołu projektowego pracowali nad stworzeniem narzędzia AI, które zwiększałoby skuteczność wykrywania pacjentów z zaawansowaną, przewlekłą niewydolnością nerek o wysokim stopniu ryzyka. Dane niezbędne do stworzenia narzędzia trzeba było pozyskiwać zarówno z elektronicznych rejestrów, jak i bezpośrednio od pacjentów. Te dwa źródła danych często nie były spójne. Zamiast jednak prosić docelowych użytkowników końcowych narzędzia (lekarzy pierwszego kontaktu) o oczyszczenie danych, zespół doprowadził do ujednolicenia ich i stworzył normy dotyczące zapisu w różnych źródłach z pomocą nefrologów. Ostatecznie to oni w największym stopniu mieli skorzystać na wdrożeniu.

Liderzy projektu AI mogą też zacząć od wdrożenia narzędzia, które jest „wystarczająco dobre”, czyli takiego, które uczy się przy wykorzystaniu łatwo dostępnych, często mniejszych, zbiorów danych. Przykład? Lider projektu AI, którego celem było opracowanie narzędzia wspierającego sprzedawców pewnej firmy produkcyjnej, w identyfikowaniu potencjalnych, bardzo wartościowych klientów, chciał zminimalizować zaangażowanie ze strony użytkowników końcowych w prace mające na celu zbieranie danych. Zamiast prosić sprzedawców o to, by skrupulatniej zapisywali dane dotyczące poszczególnych kamieni milowych ich procesu sprzedażowego (takich jak leady, leady kwalifikowane, prezentacje dla potencjalnych klientów), zespół AI w pierwszej kolejności zbudował system z modelami, które były wystarczająco dobre, by móc z nich korzystać, ale wymagały znacznie mniejszych zbiorów danych do uczenia się, a przez to mniejszego zaangażowania sprzedawców w proces przygotowania danych.

W fazie tworzenia narzędzia AI minimalizuj zaangażowanie użytkowników końcowych w obszarze testowania i walidacji. Kiedy już narzędzie AI zostało zbudowane w najbardziej podstawowej wersji, zespoły zajmujące się jego tworzeniem muszą zaangażować się w czasochłonny proces współpracy z użytkownikami końcowymi, by pomóc testować i walidować predykcje dostarczane przez narzędzie, a także modyfikować narzędzie, by zwiększać jego rzeczywistą przydatność i skuteczność. Ta praca może zostać zminimalizowana przez zaangażowanie zewnętrznych podmiotów, które dokonywałyby przeglądów. I tak na przykład liderzy, zajmujący się tworzeniem narzędzia AI do identyfikowania najlepszych leadów sprzedażowych w firmie produkcyjnej, zaangażowali szefa usprawniania procesu, a nie sprzedawców, do pomocy przy pierwszej ewaluacji narzędzia. Szef usprawniania procesu pomógł im zidentyfikować najlepszą miarę sukcesu: wskaźnik konwersji – procent potencjalnych leadów, które stają się rzeczywistymi klientami. Pomógł również w przygotowaniu testów A/B, które umożliwiły porównanie wskaźnika konwersji uzyskanego dzięki narzędziu z tym, który generowano w zwykłym procesie sprzedażowym.

Także sami liderzy projektu AI mogą często zrobić więcej, aby pomóc użytkownikom końcowym dokonać ewaluacji modeli. Na przykład członkowie zespołu pracującego w Duke University Hospital, tworzącego narzędzie do wykrywania przewlekłej niewydolności nerek, zauważyli, że użytkownicy końcowi mieli trudności z ustaleniem progu ryzyka, po którego przekroczeniu było ono rzeczywiście wysokie dla pacjentów. Członkowie zespołu projektowego wykorzystali interaktywne wykresy, by dostrzec, jaki procent pacjentów, z jakim wynikiem, w późniejszym czasie rzeczywiście miał przewlekłą niewydolność nerek. To sprawiło, że użytkownicy końcowi, mogli łatwiej rozróżnić pacjentów o wysokim i średnim poziomie ryzyka.

W trakcie wdrażania narzędzia minimalizuj zaangażowanie użytkowników końcowych związane z wykorzystaniem narzędzia. Koncentracja na tym, by uprościć interfejs użytkownika i zautomatyzować procesy związane z obsługą narzędzia może pomóc zredukować wrażenie, że narzędzie to przytłacza dodatkowymi obowiązkami. Ma tu zastosowanie pewna niepisana reguła: nigdy nie proś użytkownika o wprowadzenie danych do systemu, których sam system nie mógłby pozyskać w sposób automatyczny. Jeszcze lepiej, gdy można przewidzieć, czego użytkownik będzie potrzebować i tak skonfigurować interfejs, żeby te informacje były łatwo dostępne.

Badacze z Centrum Cyfrowej Innowacji na Uniwersytecie Vrije w Amsterdamie przyjrzeli się pewnej firmie zajmującej się dobrami konsumpcyjnymi, w której opracowano narzędzie ułatwiające wyszukiwanie kandydatów. Zauważyli, że twórcy rozwiązania ułatwili zadanie rekruterom, przypisując kolory różnym stopniom dopasowania kandydata do pożądanych profili. Dane na temat kandydatów, których poziom dopasowania wynosił 72% albo więcej, oznaczano kolorem zielonym. Kandydatom z niższym wynikiem przypisywano kolor pomarańczowyIndeks górny 3. Ostatecznie deweloperzy zautomatyzowali proces jeszcze bardziej w taki sposób, by po naciśnięciu przycisku przez rekrutera automatycznie odfiltrowywani byli kandydaci, których sukces na danym stanowisku był mniej prawdopodobny.

Inna taktyka polega na tym, by, jeśli to możliwe, przerzucać pewną dodatkową pracę potrzebną do korzystania z narzędzia, na inne osoby. I tak dla przykładu, lekarze z Duke University Hospital, którzy byli użytkownikami narzędzia do wykrywania niewydolności nerek, zaczęli narzekać na zmęczenie powiadomieniami, bo poza alertami płynącymi z narzędzia otrzymywali je też z innych źródeł. Liderzy projektu zredukowali zatem liczbę alertów, które trafiały do lekarzy za sprawą narzędzia AI, poprzez stworzenie nowego stanowiska. Zajmująca je osoba dostała zadanie zdalnego monitorowania rekordów wszystkich pacjentów lekarzy pierwszego kontaktu – 50 tys. dorosłych osób. Kiedy narzędzie przypisywało jednej z nich wysokie ryzyko chronicznej niewydolności nerek, lekarz sprawujący nową rolę dokonywał wstępnej oceny. Jeśli uznał, że pacjent miał rzeczywiście wysokie ryzyko wystąpienia chronicznej niewydolności nerek, wysyłał wiadomość do lekarza pierwszego kontaktu. Gdy ten otrzymywał alert i zgadzał się z tym, że pacjent rzeczywiście jest w grupie wysokiego ryzyka, kierował go na wizytę u nefrologa.

3. Chroń autonomię użytkownika końcowego

Ludzie cenią autonomię i czerpią wysokie poczucie własnej wartości z faktu, że są w czymś dobrzy, że coś osiągnęli. Jest więc naturalne, że użytkownicy narzędzia AI mogą czuć się niezręcznie w sytuacji, gdy to rozwiązanie pozwala interesariuszom spoza ich domeny wpływać na ich proces podejmowania decyzji. Udane implementacje AI wymagają wrażliwości na to, jak po wdrożeniu użytkownicy narzędzia będą postrzegać swoją pracę. Deweloperzy powinni wziąć ten czynnik pod uwagę, z uwzględnieniem następujących wskazówek

Chroń zadania, które według użytkowników końcowych należą do ich podstawowych obowiązków. Kiedy członkowie zespołu projektowego z Duke University Hospital opracowali narzędzie do wykrywania sepsy (infekcja wywołująca stan zapalny całego organizmu prowadzący do zatrzymania funkcji poszczególnych narządów) i zarządzania pacjentami, u których ją wykryto, lekarze ostrego dyżuru zaczęli się sprzeciwiać. Chcieli zachować dla siebie kluczowe zadania, takie jak ostateczna decyzja co do diagnozy pacjenta oraz zamawianie potrzebnych badań krwi i leków. Zespół projektowy skonfigurował narzędzie AI w taki sposób, by jego przewidywania nie kolidowały z tymi zadaniami, by wspomagały lekarzy pracujących na ostrym dyżurze w ważnych zadaniach, ale takich, które lekarze wykonują mniej chętnie.

Jeśli chodzi o menedżerów odpowiadających za zakupy odzieży i akcesoriów, twórcy narzędzia AI zrozumieli, że osoby te chciały zatrzymać dla siebie coś, co postrzegały jako zadania kreatywne o znaczeniu strategicznym, takie jak decydowanie, ile procent z kupowanych jeansów miało mieć nogawki z wcięciem na wysokie buty, a ile miało być wykonanych z czerwonego materiału. Zespół projektowy skonfigurował narzędzie tak, aby osoba odpowiedzialna za zakupy mając przeczucie, że należy kupować spodnie z czerwonego materiału, mogła zmodyfikować rekomendacje AI i sprawić, że zamówienie na czerwone jeansy było realizowane priorytetowo.

Dbałość o to, by narzędzia AI nie wchodziły w drogę końcowym użytkownikom i nie przejmowały ich podstawowych zajęć, może wydawać się oczywistością, ale liderzy projektów AI czasem o tym zapominają, ponieważ usprawnianie procesu realizacji zadań o kluczowym znaczeniu daje szansę na większe zyski. W pewnej organizacji zajmującej się handlem detalicznym, deweloperzy początkowo zbudowali narzędzie, które miało ułatwiać osobom odpowiedzialnym za zakupy modowe podejmowanie właściwych decyzji. Niedoskonały proces decyzyjny skutkował konsekwencjami dwojakiego rodzaju: zmniejszeniem szans na przychody wynikającym z tego, że magazyny nie zostały na czas wypełnione właściwym towarem odpowiadającym na aktualne potrzeby rynkowe, oraz utratą marży przez zakupienie towaru, który nie wychodził na przeciw potrzebom klientów i musiał być przeceniony. Gdy osoby odpowiedzialne za zakupy modowe odrzuciły narzędzie, deweloperzy zmienili strategię i skoncentrowali się na drugim końcu procesu. Stworzyli rozwiązanie AI, które pomogło menedżerom sklepów decydować, kiedy i jak bardzo przeceniać ubrania, które się nie sprzedawały. To narzędzie w znacznie mniejszym stopniu przyczyniało się do przechwytywania wartości (value capture), bo skupiało się tylko na ostatniej fazie procesu sprzedaży produktów modowych. Inteligentni liderzy AI zrozumieli przy tym, że realizacja ograniczonej liczby zadań z wykorzystaniem narzędzia, które rzeczywiście zostaje zaimplementowane, jest dużo bardziej użyteczna, niż wykorzystywanie go do modyfikowania podstawowych działań użytkowników. Wówczas bowiem narzędzie to dostarcza wartość tylko w teorii, w praktyce nie jest wykorzystywane.

Pozwól użytkownikom końcowym ocenić użyteczność narzędzia. Wprowadzenie nowego rozwiązania, które ma usprawniać proces decyzyjny, wymaga wymiany starego narzędzia – często lubianego przez użytkowników – na nowe, które może ograniczyć ich autonomię. Narzędzie AI ułatwiające wykrywanie przypadków sepsy ograniczyło autonomię lekarzy pracujących na ostrym dyżurze, ale narzędzie stworzone z poszanowaniem panujących tam zasad, już nie. Członkowie zespołu projektowego zaprosili kluczowych interesariuszy, którzy współtworzyli narzędzie używane dotąd, i poprosili ich o zaprojektowanie eksperymentu, który sprawdziłby efektywność nowego narzędzia. Dzięki temu udało się ochronić autonomię pracowników.

Badacze z Harvard Business School zaobserwowali podobną dynamikę, interpretując wyniki badań organizacji zajmującej się sprzedażą detaliczną. Powstało w niej narzędzie AI mające pomóc dyspozytorom ustalić, ile par butów danego rodzaju i w jakich rozmiarach powinni wysłać do konkretnych sklepówIndeks górny 4. Wgląd, jaki dało to narzędzie osobom z zewnątrz, ograniczył autonomię dyspozytorów w znacznie większym stopniu niż dotychczas stosowane rozwiązanie. By chronić autonomię, członkowie zespołu projektowego zaprosili dyspozytorów produktów modowych do zaprojektowania testu A/B, pozwalającego porównać efektywność starego i nowego narzędzia.

Udzielenie głosu użytkownikom w kwestii oceny procesu ma wielki sens. Dlaczego zatem wszyscy liderzy projektów AI tego nie praktykują?

Ponieważ za każdym razem, gdy poprosi się użytkowników o wybór obszarów ich pracy, w których można przeprowadzić testy, wybiorą te najtrudniejsze. Jednak ponieważ to oni mają korzystać z rekomendacji nowego rozwiązania, nie można pominąć tego kroku.

Zaangażuj użytkowników końcowych od samego początku. Liderzy projektów AI często nie nagłaśniają prac prowadzonych na starcie projektu, by zapobiec oporowi użytkowników. Jednak liderzy, którzy na tych wczesnych etapach nie zaangażują użytkowników końcowych, mają znacznie mniejsze szanse na sukces. Użytkownicy będą mieć pretensję o to, że dowiedzieli się późno, będą żywić urazę. Nawet jeśli narzędzie AI w pełni zautomatyzuje proces, użytkownicy końcowi muszą je zaakceptować, aby w ogóle mogło spełniać swoją funkcję. Liderzy, którzy skutecznie wdrażali projekty AI, wiedzą, że zaangażowanie użytkowników końcowych na samym początku prac w ramach projektu zwiększa prawdopodobieństwo jego akceptacji.

Obietnica, jaką niesie AI, skrywa pewną prawdę: najlepsze na świecie narzędzia AI nic nie zdziałają, jeśli nie zostaną zaakceptowane. By przekonać użytkowników z pierwszej linii, liderzy muszą najpierw zrozumieć trzy podstawowe konflikty interesów związane z implementacją sztucznej inteligencji: docelowi użytkownicy końcowi narzędzi AI mogą nie widzieć korzyści dla siebie, mogą zostać obarczeni dodatkową pracą i stracić autonomię, którą sobie cenią. Liderzy mogą stworzyć fundamenty przyszłego sukcesu, tylko redukując zaburzoną wprowadzeniem narzędzia równowagę wartości po stronie użytkownika i organizacji. Sukces nie bierze się z dużych zbiorów danych (big data), atrakcyjnych technologii czy odważnych obietnic. Przeciwnie, zależy od decyzji podejmowanych każdego dnia przez pracowników pierwszej linii. Jeśli spełnić się mają nadzieje pokładane w AI, liderzy muszą wziąć pod uwagę potrzeby tych pracowników. Tylko wtedy sztuczna inteligencja będzie efektywnie pracować w realnym świecie.

Indeks górny PRZYPISY
1. S. Pachidi, H. Berends, S. Faraj i in., Make Way for the Algorithms: Symbolic Actions and Change in a Regime of Knowing, Organization Science 32, no. 1 (styczeń‑luty 2021): 18–41. Indeks górny koniec

Indeks górny 2. M. Valentine i R. Hinds, ‘Rolling Up the Leaf Node’ to New Levels of Analysis: How Algorithmic Decision–Making Changes Roles, Hierarchies, and Org Charts, Stanford University, Stanford, California, May 2021. Indeks górny koniec

Indeks górny 3. E. van den Broek, A. Sergeeva i M. Huysman, When the Machine Meets the Expert: An Ethnography of Developing AI for Hiring, MIS Quarterly 45, no. 3 (wrzesień 2021): 1557–1580. Indeks górny koniec

Indeks górny 4. T. DeStefano, M. Menietti i L. Vendraminelli,  A Field Experiment on AI Adoption and Allocation Efficiency,  praca w trakcie. Indeks górny koniec

O autorach
Tematy

Może Cię zainteresować

Oscary w cieniu (lub blasku) AI: jak Hollywood testuje sztuczną inteligencję

5 marca 2026 roku Netflix  ogłosił przejęcie InterPositive, startupu założonego przez Bena Afflecka,  zajmującego się sztuczną inteligencją. Ta transakcja dowodzi, że w Hollywood umiejętność wykorzystania AI staje się równie ważna co scenariusz. Czy czeka nas „AI tsunami”, czy raczej bolesne zderzenie z oporem odbiorców? Branża rozrywkowa niesie ze sobą lekcje, które warto odrobić przed nadchodzącym rozdaniem Oscarów.

kompetencje przyszłości AI Czego AI nie zrobi za człowieka? Poznaj 5 kompetencji, które stają się kluczowe

AI wyliczy prawdopodobieństwo sukcesu, ale to człowiek podejmuje ryzyko, by go osiągnąć. Czy w świecie zdominowanym przez algorytmy Twoje umiejętności stają się przeżytkiem, czy kluczowym atutem? Poznaj model EPOCH i dowiedz się, dlaczego w erze AI to „ludzki pierwiastek” stanie się najtwardszą z posiadanych przez liderów kompetencji.

Czy model biznesowy Dubaju przetrwa konfrontację z irańskimi dronami?

Odwet Iranu na ataki amerykańskie i izraelskie brutalnie narusza fundamenty, na których Zjednoczone Emiraty Arabskie zbudowały swoją potęgę gospodarczą. Dla przedsiębiorców, inwestorów i turystów staje się jasne, że wstrząsy geopolityczne przestały omijać terytoria dotychczas uważane za strefy wolne od ryzyka. Konflikt zbrojny kruszy filary dubajskiego cudu gospodarczego i wymusza rewizję strategii inwestycyjnych w regionie.

Multimedia
Wyzwania HR 2026: AI vs juniorzy, powrót do biur i kryzys zaangażowania
Pracujemy wydajniej niż kiedykolwiek, jednak polskie firmy mierzą się z niebezpiecznym paradoksem: nasze zaangażowanie spada. Czy w obliczu rewolucji AI, która zaczyna „pożerać” juniorów, oraz planowanego przez prezesów powrotu do biur, liderzy zdołają odzyskać zaufanie swoich zespołów? Zapraszamy na rozmowę Pawła Kubisiaka z Dominiką Krysińską o tym, jak HR przechodzi transformację z działu „dopieszczania pracowników” w twardego partnera strategicznego zarządu.
Ronnie Chatterji z OpenAI: dlaczego na zyski z AI musimy jeszcze poczekać?

Ronnie Chatterji, główny ekonomista OpenAI i były doradca Białego Domu, rzuca nowe światło na mechanizmy, które  zmieniają globalną produktywność. W rozmowie z Samem Ransbothamem wyjaśnia, dlaczego obecne inwestycje w czipy to zaledwie wstęp do rewolucji, po której AI stanie się silnikiem napędzającym naukę i codzienny biznes. Poznaj perspektywę człowieka, który łączy świat wielkiej polityki z technologiczną awangardą Doliny Krzemowej.

Agenci, Roboty i My: Jak AI zmienia oblicze pracy

Sztuczna inteligencja to już nie tylko technologiczna nowinka, ale najważniejszy temat w agendzie każdego nowoczesnego zarządu. Dowiedz się, dlaczego ponad połowa naszych codziennych zadań może wkrótce zostać zautomatyzowana, a mimo to ludzkie kompetencje, intuicja i empatia staną się bardziej pożądane niż kiedykolwiek wcześniej<span data-path-to-node=”2,11″>. Poznaj kluczowe wnioski z najnowszego raportu McKinsey Global Institute i sprawdź, jak skutecznie poprowadzić swoją organizację przez tę bezprecedensową transformację, budując innowacyjne partnerstwo między człowiekiem a algorytmemde=”2,15″>.

orkiestrator Orkiestrator – nowa rola menedżera w erze agentowej

W 2026 roku rola menedżera przestaje ograniczać się do zarządzania ludźmi. Lider staje się orkiestratorem pracy ludzi i autonomicznych systemów AI, projektując zdolność organizacji do skutecznej realizacji strategii. Przyszłość przywództwa to balans między technologiczną wydajnością a ludzkim sensem pracy.

Banda dupków: jak marki mogą skorzystać na wykorzystaniu obelg

W świecie marketingu, gdzie bezpieczne i wygładzone przekazy stają się tłem, niektóre marki decydują się na krok skrajnie ryzykowny: przejęcie pejoratywnych określeń i przekucie ich w fundament swojej tożsamości. Najnowsze badania dowodzą, że proces odzyskiwania obelg może być potężnym katalizatorem lojalności, o ile liderzy biznesu zrozumieją psychologiczne mechanizmy stojące za tym zjawiskiem.

Nowy MITSMR: Planowanie scenariuszowe. Jak zbudować firmę odporną na jutro

Niepewność nie jest dziś „czynnikiem ryzyka” — jest środowiskiem pracy. Dlatego w nowym MIT SMR odwracamy logikę klasycznego planowania: zamiast szlifować jeden perfekcyjny scenariusz, uczymy budować gotowość na wiele wersji jutra. Pokazujemy, jak planowanie scenariuszowe wzmacnia strategiczną odporność, co zrobić, by strategia nie utknęła w silosach oraz jak udoskonalić prognozowanie dzięki wykorzystaniu AI.

Różne pokolenia, różne potrzeby. Jak wiek zmienia oczekiwania płacowe?

Czy „atrakcyjne wynagrodzenie” znaczy to samo dla absolwenta i doświadczonego eksperta? Dane z najnowszych raportów Randstad pokazują, że oczekiwania płacowe wyraźnie zmieniają się wraz z wiekiem, sytuacją życiową i doświadczeniem zawodowym. Firmy, które chcą skutecznie przyciągać i zatrzymywać talenty w 2026 roku, muszą odejść od jednolitej polityki wynagrodzeń i postawić na precyzyjne dopasowanie oferty do różnych pokoleń.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!