Postęp w dziedzinie sztucznej inteligencji może wyhamować, jeśli końcowi użytkownicy odmówią korzystania z nowych rozwiązań. Ich twórcy muszą zatem myśleć nie tylko o korzyściach biznesowych, ale też o tym, jak odnieść się do obaw ludzi.
Jest poniedziałek, 10 rano. Aman, jeden z twórców nowego narzędzia wykorzystującego sztuczną inteligencję (AI), jest podekscytowany. To właśnie dzisiaj zostanie ono oddane do użytku. Kierownictwo oddziału intensywnej terapii w Duke University Hospital poprosiło Amana i jego współpracowników o opracowanie rozwiązania AI zapobiegającego przepełnieniu oddziału. Dotychczasowe doświadczenia szpitala dowodzą, że pacjenci z pewną formą zawału serca są zatrzymywani w szpitalu, choć nie jest to w ich przypadku konieczne. Szefowie oddziału mieli więc nadzieję, że sztuczna inteligencja pomoże lekarzom pracującym na izbie przyjęć zidentyfikować takich właśnie pacjentów, by móc ich skierować na obserwację poza OIOM‑em. Pozwoliłoby to nie tylko poprawić jakość leczenia, ale też zredukować niepotrzebne koszty.
Aman i kierowany przez niego zespół kardiologów, analityków danych, informatyków oraz menedżerów projektu opracował algorytm AI, który ma pomagać lekarzom w łatwym wyłuskaniu takich pacjentów spośród wszystkich innych osób z objawami zawału. Algorytm miałby też służyć temu, by w karcie medycznej pacjenta znalazło się wyjaśnienie, dlaczego nie ma konieczności hospitalizacji na oddziale intensywnej terapii. Po roku od rozpoczęcia prac narzędzie jest gotowe do użycia.
A teraz przeskoczmy o trzy tygodnie dalej. Implementacja narzędzia była całkowitą klapą. Jeden z lekarzy ostrego dyżuru skomentował ją następująco: „nie potrzebujemy rozwiązania, które mówi nam, jak mamy wykonywać swoją pracę”. Okazuje się, że to typowa reakcja na wdrożenie AI usprawniającej proces decyzyjny. Wielu pracowników działających na pierwszej linii myśli podobnie. Nieustannie zajęci lekarze izby przyjęć, w której stale coś się dzieje, protestują, gdy okazuje się, że muszą, poza wykonywaniem dotychczasowych obowiązków, wpisywać dane do systemu. Nie podoba im się także to, że nowe osoby z zewnątrz, które nie mają pojęcia o funkcjonowaniu izby przyjęć, wkraczają w obszar ich kompetencji.
Podobne nieudane implementacje AI zdarzają się także w innych sektorach pomimo faktu, że nowe metody pracy mogłyby pomóc organizacjom poprawiać jakość produktów i usług, zredukować koszty i zwiększyć przychody. Użytkownicy końcowi najczęściej bronią się przed wykorzystywaniem narzędzi AI mających wspomagać proces decyzyjny, ponieważ korzyści dla nich samych nie są znaczące. Implementacja może ponadto oznaczać, że będą mieli więcej pracy a mniej autonomii.
Problemem są także sprzeczne interesy użytkowników końcowych oraz menedżerów najwyższego szczebla bądź interesariuszy w innych częściach organizacji, w których wdrażane są innowacyjne technologie. Zagadnienie to nie jest nowe, ale stało się znacznie bardziej palące od momentu pojawienia się narzędzi AI. To one bowiem, korzystając z metod na podstawie predykcji, zalecają podjęcie konkretnych działań mogących mieć poważne konsekwencje dla całych organizacji. Wymagają ponadto jasnych reguł i pracochłonnego procesu tworzenia oraz stałej współpracy deweloperów i użytkowników końcowych.
Co mogą zatem zrobić liderzy zajmujący się wdrażaniem rozwiązań AI, aby zwiększyć poziom akceptacji dla tych technologii wśród użytkowników końcowych? Nasze obserwacje procesów projektowania, tworzenia i integracji 15 narzędzi wspomagających proces decyzyjny w Duke University Hospital wskazują na szereg dobrych praktyk, pozwalających zrównoważyć potrzeby wszystkich interesariuszy. Zauważyliśmy, że aby zwiększyć akceptację ze strony użytkowników i chęć korzystania przez nich z narzędzi AI, liderzy, zarówno na poziomie projektu, jak i całej organizacji, powinni pomyśleć o zwiększeniu korzyści z użytkowania narzędzia, zmniejszeniu nakładu pracy podczas implementacji i zadbać o autonomię pracowników, troszcząc się, by mogli oni, bez przeszkód, wykonywać swoje główne zajęcia.
W trakcie naszych obserwacji zbieraliśmy dane na temat wyzwań, jakich wdrażanie rozwiązań AI przysporzyło menedżerom szpitala, użytkownikom końcowym oraz deweloperom narzędzi. W szczególności interesowały nas rozwiązania wspierające procesy decyzyjne, które zostały z sukcesem wprowadzone. Choć nasze badania koncentrują się na wdrażaniu narzędzi AI wspomagających podejmowanie decyzji w branży ochrony zdrowia, zauważyliśmy, że podobne problemy i podobna dynamika charakteryzuje również inne branże: technologiczną, wytwórczą, ubezpieczeniową, telekomunikacyjną czy handel detaliczny.
Przyczyny oporu ze strony użytkowników końcowych
Rozbieżności pomiędzy tym, co zespoły zajmujące się wdrożeniem rozwiązań AI planują zaimplementować, a tym, co końcowi użytkownicy są gotowi zaakceptować, mają swoje źródło w trzech podstawowych konfliktach interesów.
1. Predykcyjne narzędzia AI dostarczają korzyści głównie organizacjom, a nie ich końcowym użytkownikom
Predykcje dostarczane przez narzędzia AI pozwalają modyfikować organizacyjny łańcuch wartości, potencjalnie dając szansę wszystkim interesariuszom na poprawę jakości i redukcję kosztów. Jednocześnie trudno dostrzec bezpośrednie korzyści dla końcowych użytkowników. Widać to choćby na przytoczonym wcześniej przykładzie pracowników ostrego dyżuru, którzy byli proszeni o korzystanie z narzędzia dającego największe korzyści nie im a lekarzom z oddziału intensywnej terapii.
Podobna sytuacja zdarzyła się w firmie zajmującej się sprzedażą detaliczną online. Opracowano w niej rozwiązanie AI do selekcji kandydatów aplikujących do firmy z własnej inicjatywy. Rozwiązane to miało wskazywać takie osoby, których CV odpowiadało profilowi byłych lub obecnych pracowników, dobrze radzących sobie w firmie. Przedstawiciele działu HR, którzy w założeniu mieli być końcowymi użytkownikami tego narzędzia, często zapominali o tych ludziach, którzy sami zgłaszali się do firmy, koncentrując się raczej na aktywnym poszukiwaniu pracowników w serwisach takich jak LinkedIn. Przyjmowali taką strategię, ponieważ chcieli przyciągnąć większą liczbę kandydatów z rzadkimi kompetencjami technicznymi, a wśród kandydatów, którzy sami zgłaszali się do firmy, tylko nieliczni faktycznie takimi dysponowali. Ponieważ jednak osoby, które same zgłaszają się do firmy, są bardziej skłonne przyjąć pracę na zaproponowanych warunkach, niż te, których działy HR aktywnie szukają na zewnątrz, narzędzie zajmujące się tą grupą mogłoby przynieść korzyści całej organizacji, a szczególnie osobom prowadzącym rozmowy rekrutacyjne.
2. Narzędzia AI mogą wymagać dodatkowej pracy od użytkowników końcowych, choć nie oni odnoszą z ich implementacji najwięcej korzyści
Implementacja narzędzi AI wiąże się z pracochłonnymi działaniami wymagającymi nieustannej współpracy pomiędzy deweloperami i użytkownikami końcowymi. Twórcy rozwiązań technologicznych od dawna angażują się w projektowanie nastawione na potrzeby i wygodę użytkownika końcowego, korzystając z analizy zadań do wykonania, obserwacji i badań odbiorców. Jednak narzędzia AI wymagają głębszego poziomu zaangażowania ze strony użytkowników końcowych.
Ponieważ do stworzenia narzędzia potrzebna jest duża ilość wysokiej jakości danych, deweloperzy często proszą użytkowników końcowych o identyfikowanie i uzgadnianie rozbieżności w różnych zbiorach. Deweloperzy oczekują przy tym, że użytkownicy końcowi będą definiować, oszacowywać i uzupełniać wskazówki dostarczane przez narzędzie na każdym etapie procesu, a także weryfikować zasadność wskazówek mających wspomagać procesy decyzyjne.
W sytuacji gdy inni interesariusze oraz menedżerowie wyższego szczebla odnoszą najwięcej korzyści z wdrożenia rozwiązania AI, użytkownicy końcowi mogą nie być wystarczająco zmotywowani, by podejmować się tej pracochłonnej współpracy z deweloperami. Tak właśnie było w przypadku lekarzy z ostrego dyżuru. Nie byli oni zainteresowani poświęcaniem swojego czasu i wysiłku na rozwijanie narzędzia, którego zadaniem było identyfikowanie niezbyt ryzykownych przypadków zawału.
Badacze z Uniwersytetu Oxfordzkiego napotkali podobny problem w firmie telekomunikacyjnej, która stworzyła narzędzie AI pomagające sprzedawcom identyfikować klientów o dużej wartościIndeks górny 11. Choć menedżerowie wyższego szczebla byli zainteresowani dostarczeniem technicznej wiedzy sprzedawcom, oni sami bardziej cenili utrzymywanie osobistych, opartych na zaufaniu relacji z klientami. Woleli też polegać na intuicji w procesie identyfikowania szans sprzedażowych. Nie podchodzili więc entuzjastycznie do pomysłu angażowania się w pracochłonne zadania mające na celu projektowanie, rozwijanie i wdrażanie narzędzia, które ich zdaniem nie przynosiło im korzyści.
3. Preskryptywne narzędzia AI najczęściej ograniczają autonomię użytkownika końcowego
Narzędzia AI wspierające proces decyzyjny są ze swej natury preskryptywne. Oznacza to, że rekomendują pewne działania, jak na przykład przeniesienie pacjenta na oddział intensywnej terapii. Zalecenia dostarczane przez AI pozwalają stronom trzecim wewnątrz firmy (np. menedżerom organizacyjnym czy innym interesariuszom w różnych działach) zyskać nowy wgląd w proces decyzyjny końcowych użytkowników narzędzia, a nawet pewną nad nim kontrolę. Wewnętrzni interesariusze, jak menedżerowie wyższego szczebla, wcześniej mogli jedynie dostarczać protokoły pewnych działań, które następnie były interpretowane przez użytkowników końcowych i wprowadzane w życie zgodnie z ich własnym osądem, zależnym od konkretnego przypadku. Narzędzia AI mogą obecnie dostarczać informacji, które pokierują tym osądem, oferować odpowiednie rekomendacje i sprawdzać, czy użytkownicy końcowi się do nich zastosowali. Właśnie wtedy mogą potencjalnie naruszać ich autonomię.
Na przykład, kiedy narzędzie stworzone na potrzeby Duke University Hospital, pozwalające identyfikować przypadki niegroźnych zawałów, zostało już wdrożone i kiedy lekarz pracujący na ostrym dyżurze zdecydował się odesłać pacjenta na oddział intensywnej terapii, menedżerowie szpitala i lekarze pracujący na oddziale mogli zobaczyć, jakie były zalecenia sztucznej inteligencji i czy lekarz pracujący w izbie przyjęć się do nich zastosował. Pracownikom ostrego dyżuru nie spodobał się scenariusz, w którym inne osoby, niemające kontaktu z ich pacjentami, wkraczały w ich domenę i próbowały kontrolować ich decyzje.
Analizy wykorzystania narzędzi AI w handlu detalicznym wskazują na podobną dynamikęIndeks górny 22. Badacze z Uniwersytetu Stanforda przyjrzeli się wdrożeniu algorytmicznego systemu wsparcia procesu podejmowania decyzji dla osób odpowiedzialnych w pewnej firmie za hurtowe zakupy odzieży. Do tej pory osoby te polegały na swoim doświadczeniu i intuicji co do nadchodzących trendów w modzie, podejmując decyzje na temat tego, jakiego rodzaju stroje magazynować z wyprzedzeniem z myślą o nadchodzącym wzroście popytu. Na przykład specjaliści, których zadaniem było zamawianie męskich dżinsów, musieli podjąć decyzje dotyczące stylu (rurki, slim fit czy prosty krój) i koloru tkaniny (jasny, średniociemny, ciemny). Osoby takie posiadały dużą autonomię i nie były przyzwyczajone do tego, że konsekwencje ich wyborów modelowano i mierzono.
Zachęcaj pracowników pierwszej linii do przyjmowania nowych rozwiązań
Zaobserwowaliśmy, że aby skutecznie implementować narzędzia AI w obliczu takich przeszkód, liderzy projektów AI powinni odnieść się do zjawiska braku równowagi pomiędzy różnymi poziomami wartości, jakie nowe narzędzie przynosi organizacji i użytkownikom końcowym. W praktyce oznacza to zwiększenie korzyści użytkownika końcowego, związane z wykorzystaniem narzędzia, redukowanie obciążenia dodatkową pracą w procesie rozwijania narzędzia oraz ochronę autonomii użytkowników przez zadbanie o przestrzeń do realizacji ich podstawowych zadań.

1. Zwiększ korzyści dla użytkowników końcowych
Użytkownicy końcowi chętniej będą stosować narzędzie, jeśli wyraźnie dostrzegą korzyści, jakie im zapewnia. Liderzy projektów AI mogą wykorzystać następujące strategie, by zrealizować ten cel.
Ustal, co naprawdę uwiera ludzi, którzy mają stosować w pracy nowe narzędzie. Nawet jeśli deweloperzy rozwiązań AI muszą mieć na uwadze cele całej organizacji, to jednak powinni też skupić się na tym, jak dane narzędzie może pomóc końcowym użytkownikom rozwiązywać problemy, które ci napotykają w codziennej pracy, albo dostroić się do nowego poziomu obciążenia pracą, związanego z wykorzystywaniem narzędzia. Przykład? W Duke University Hospital kardiolodzy poprosili członków zespołu projektowego o zbudowanie narzędzia AI do diagnozowania pacjentów z zatorowością płucną o niskim ryzyku (ZP). Chodziło o to, by osoby te mogły zostać wypisane do leczenia ambulatoryjnego i nie były poddawane kosztownej hospitalizacji. Projektanci od razu zwrócili się do lekarzy z ostrego dyżuru, którzy mieli być rzeczywistymi użytkownikami końcowymi nowego narzędzia. Członkowie zespołu ZP szybko dowiedzieli się, że „solą w oku” lekarzy pracujących na ostrym dyżurze był problem z szybkim przygotowywaniem pacjentów z zatorowością płucną niskiego ryzyka do wypisania ze szpitala i zapewnieniem im właściwej opieki ambulatoryjnej.
Liderzy projektu AI próbujący wdrożyć narzędzie HR do wyłaniania kandydatów, wykorzystali tę samą strategię, zaczynając od ustalenia, jakie są punkty bólu pracowników działu HR zajmujących się poszukiwaniami przyszłych pracowników. Deweloperzy ustalili, że osoby te nie mogły umawiać rozmów rekrutacyjnych tak szybko, jakby chciały, ponieważ pracownicy zajmujący się ich przeprowadzaniem nie mieli wystarczającej „przepustowości” – byli w stanie porozmawiać z relatywnie niewielką liczbą kandydatów.
Zalecenie, by liderzy projektów AI skupiali się na pomaganiu końcowym użytkownikom w rozwiązywaniu ich codziennych problemów, może wydawać się oczywistym. Dlaczego jednak tak rzadko liderzy projektów AI faktycznie wcielają je w życie? Ponieważ ludzie, którzy inicjują rozmowy z tymi liderami i którzy dostarczają zasobów potrzebnych do tworzenia narzędzi, to menedżerowie wyższego szczebla lub inni interesariusze z firmy, którzy na wdrożeniu najbardziej skorzystają. Liderzy projektu często postrzegają ich jako głównych klientów, tracąc przy tym z oczu interes końcowych użytkowników.
Opracuj strategie, które pomogą rozwiązać problemy końcowych użytkowników. Wprowadzenie rozwiązania wykrywającego ZP w Duke University Hospital groziło wręcz pogorszeniem sytuacji lekarzy pracujących na ostrym dyżurze. Byłoby im trudniej niż dotąd szybko kierować pacjentów do leczenia ambulatoryjnego. Kiedy członkowie zespołu projektowego zrozumieli, w czym tkwi problem, skupili się na tym, by pracownikom ostrego dyżuru ułatwić to zadanie.
Podobnie było w przypadku deweloperów, którzy stworzyli narzędzie do analizy CV kandydatów. Gdy zauważyli, że rekruterzy mieli trudność z szybkim umawianiem rozmów kwalifikacyjnych z wyłonionymi przez narzędzie kandydatami, skoncentrowali się na zwiększeniu „przepustowości” procesu przeprowadzania rozmów. Doszli do wniosku, że najlepiej będzie zatrudnić zewnętrzny podmiot zajmujący się wstępną selekcją kandydatów przed właściwą rozmową rekrutacyjną. Wszystko po to, by zdjąć z pracowników działu HR część obowiązków.
Wzmocnij zachęty dla końcowych użytkowników, by mogli realizować zadania, do których narzędzie AI zostało stworzone. Użytkownicy końcowi, którzy mają korzystać z narzędzia AI do usprawnienia procesu decyzyjnego, często nie są nagradzani za rezultaty, jakie powinno się dzięki niemu osiągać. Tych właściwych nawet się nie mierzy. Na ostrym dyżurze w Duke University Hospital badano na przykład, jak dobrze lekarze rozpoznawali stany ostre i łagodne problemy. Nie sprawdzano natomiast, jak dobrze rozpoznawali i leczyli rzadsze dolegliwości o bardziej skomplikowanej etiologii, takie jak zatorowość płucna o niskim ryzyku. Członkowie zespołu projektowego wspólnie z menedżerami kierującymi szpitalem postanowili zatem zmodyfikować system zachęt, tak by w przypadku lekarzy pracujących na ostrym dyżurze mierzono także efektywność identyfikowania i kierowania do leczenia ambulatoryjnego pacjentów z zatorowością płucną o niskim ryzyku.
Menedżerowie najwyższego szczebla, mający nadzieję na implementację narzędzia wspomagającego dział HR w procesie selekcji kandydatów, w naszym wcześniejszym przykładzie, również zrozumieli, że będą musieli dostosować system zachęt dla użytkowników końcowych w taki sposób, by narzędzie rzeczywiście mogło spełniać swoje zadanie. Kiedy pracownicy działu HR zaczęli korzystać z nowego rozwiązania, byli postrzegani jako mniej produktywni, ponieważ stosowano tradycyjne mierniki wydajności, takie jak całkowita liczba znalezionych przez nich kandydatów z rzadkimi kompetencjami technicznymi. Menedżerowie zdali sobie sprawę z tego, że będą musieli zmienić swoje praktyki oceny i pomiaru wydajności, aby zachęcić pracowników działu HR nie tyle do znajdywania maksymalnie dużej liczby kandydatów z rzadkimi kompetencjami technicznymi, ile raczej do znajdywania maksymalnie dużej liczby takich kandydatów, którzy ostatecznie przyjmą ofertę pracy.
Rzecz jasna liderom projektów AI nie jest łatwo tak zmodyfikować system zachęt, by użytkownicy końcowi chcieli wykorzystywać narzędzie do osiągania tych celów, w realizacji których, w założeniu, miało ono pomóc. Trudność ta wynika z faktu, że interesariusze, którzy najbardziej zyskują na implementacji narzędzia, zazwyczaj nie zarządzają efektywnością i wynagrodzeniami użytkowników końcowych. Dlatego właśnie liderzy projektów AI, by zyskać możliwość wprowadzenia takich zachęt, muszą wystąpić o wsparcie menedżerów wyższego szczebla.
2. Zredukuj obciążenie pracą końcowych użytkowników w obszarze projektowania, rozwoju i implementacji narzędzia AI
Jest wiele sposobów na to, by zespoły zajmujące się tworzeniem narzędzia IT zredukowały liczbę sytuacji, w których muszą zwrócić się po pomoc do użytkowników końcowych.
W trakcie projektowania narzędzia zmniejsz zaangażowanie użytkowników końcowych w tworzenie potrzebnych zbiorów danych. Dane wykorzystywane do uczenia narzędzi AI muszą być reprezentatywne w odniesieniu do docelowej populacji. To oznacza, że zbiór danych potrzebny do uczenia musi być obszerny. Jednak stworzenie go i uzgodnienie rozbieżności pomiędzy różnymi podzbiorami danych, może okazać się bardzo czasochłonne. Liderzy projektów AI mogą zminimalizować zaangażowanie końcowych użytkowników na tym etapie, zatrudniając strony trzecie do ustrukturyzowania zbioru danych. Tak postąpiono właśnie w Duke University Hospital. Członkowie zespołu projektowego pracowali nad stworzeniem narzędzia AI, które zwiększałoby skuteczność wykrywania pacjentów z zaawansowaną, przewlekłą niewydolnością nerek o wysokim stopniu ryzyka. Dane niezbędne do stworzenia narzędzia trzeba było pozyskiwać zarówno z elektronicznych rejestrów, jak i bezpośrednio od pacjentów. Te dwa źródła danych często nie były spójne. Zamiast jednak prosić docelowych użytkowników końcowych narzędzia (lekarzy pierwszego kontaktu) o oczyszczenie danych, zespół doprowadził do ujednolicenia ich i stworzył normy dotyczące zapisu w różnych źródłach z pomocą nefrologów. Ostatecznie to oni w największym stopniu mieli skorzystać na wdrożeniu.
Liderzy projektu AI mogą też zacząć od wdrożenia narzędzia, które jest „wystarczająco dobre”, czyli takiego, które uczy się przy wykorzystaniu łatwo dostępnych, często mniejszych, zbiorów danych. Przykład? Lider projektu AI, którego celem było opracowanie narzędzia wspierającego sprzedawców pewnej firmy produkcyjnej, w identyfikowaniu potencjalnych, bardzo wartościowych klientów, chciał zminimalizować zaangażowanie ze strony użytkowników końcowych w prace mające na celu zbieranie danych. Zamiast prosić sprzedawców o to, by skrupulatniej zapisywali dane dotyczące poszczególnych kamieni milowych ich procesu sprzedażowego (takich jak leady, leady kwalifikowane, prezentacje dla potencjalnych klientów), zespół AI w pierwszej kolejności zbudował system z modelami, które były wystarczająco dobre, by móc z nich korzystać, ale wymagały znacznie mniejszych zbiorów danych do uczenia się, a przez to mniejszego zaangażowania sprzedawców w proces przygotowania danych.
W fazie tworzenia narzędzia AI minimalizuj zaangażowanie użytkowników końcowych w obszarze testowania i walidacji. Kiedy już narzędzie AI zostało zbudowane w najbardziej podstawowej wersji, zespoły zajmujące się jego tworzeniem muszą zaangażować się w czasochłonny proces współpracy z użytkownikami końcowymi, by pomóc testować i walidować predykcje dostarczane przez narzędzie, a także modyfikować narzędzie, by zwiększać jego rzeczywistą przydatność i skuteczność. Ta praca może zostać zminimalizowana przez zaangażowanie zewnętrznych podmiotów, które dokonywałyby przeglądów. I tak na przykład liderzy, zajmujący się tworzeniem narzędzia AI do identyfikowania najlepszych leadów sprzedażowych w firmie produkcyjnej, zaangażowali szefa usprawniania procesu, a nie sprzedawców, do pomocy przy pierwszej ewaluacji narzędzia. Szef usprawniania procesu pomógł im zidentyfikować najlepszą miarę sukcesu: wskaźnik konwersji – procent potencjalnych leadów, które stają się rzeczywistymi klientami. Pomógł również w przygotowaniu testów A/B, które umożliwiły porównanie wskaźnika konwersji uzyskanego dzięki narzędziu z tym, który generowano w zwykłym procesie sprzedażowym.
Także sami liderzy projektu AI mogą często zrobić więcej, aby pomóc użytkownikom końcowym dokonać ewaluacji modeli. Na przykład członkowie zespołu pracującego w Duke University Hospital, tworzącego narzędzie do wykrywania przewlekłej niewydolności nerek, zauważyli, że użytkownicy końcowi mieli trudności z ustaleniem progu ryzyka, po którego przekroczeniu było ono rzeczywiście wysokie dla pacjentów. Członkowie zespołu projektowego wykorzystali interaktywne wykresy, by dostrzec, jaki procent pacjentów, z jakim wynikiem, w późniejszym czasie rzeczywiście miał przewlekłą niewydolność nerek. To sprawiło, że użytkownicy końcowi, mogli łatwiej rozróżnić pacjentów o wysokim i średnim poziomie ryzyka.
W trakcie wdrażania narzędzia minimalizuj zaangażowanie użytkowników końcowych związane z wykorzystaniem narzędzia. Koncentracja na tym, by uprościć interfejs użytkownika i zautomatyzować procesy związane z obsługą narzędzia może pomóc zredukować wrażenie, że narzędzie to przytłacza dodatkowymi obowiązkami. Ma tu zastosowanie pewna niepisana reguła: nigdy nie proś użytkownika o wprowadzenie danych do systemu, których sam system nie mógłby pozyskać w sposób automatyczny. Jeszcze lepiej, gdy można przewidzieć, czego użytkownik będzie potrzebować i tak skonfigurować interfejs, żeby te informacje były łatwo dostępne.
Badacze z Centrum Cyfrowej Innowacji na Uniwersytecie Vrije w Amsterdamie przyjrzeli się pewnej firmie zajmującej się dobrami konsumpcyjnymi, w której opracowano narzędzie ułatwiające wyszukiwanie kandydatów. Zauważyli, że twórcy rozwiązania ułatwili zadanie rekruterom, przypisując kolory różnym stopniom dopasowania kandydata do pożądanych profili. Dane na temat kandydatów, których poziom dopasowania wynosił 72% albo więcej, oznaczano kolorem zielonym. Kandydatom z niższym wynikiem przypisywano kolor pomarańczowyIndeks górny 33. Ostatecznie deweloperzy zautomatyzowali proces jeszcze bardziej w taki sposób, by po naciśnięciu przycisku przez rekrutera automatycznie odfiltrowywani byli kandydaci, których sukces na danym stanowisku był mniej prawdopodobny.
Inna taktyka polega na tym, by, jeśli to możliwe, przerzucać pewną dodatkową pracę potrzebną do korzystania z narzędzia, na inne osoby. I tak dla przykładu, lekarze z Duke University Hospital, którzy byli użytkownikami narzędzia do wykrywania niewydolności nerek, zaczęli narzekać na zmęczenie powiadomieniami, bo poza alertami płynącymi z narzędzia otrzymywali je też z innych źródeł. Liderzy projektu zredukowali zatem liczbę alertów, które trafiały do lekarzy za sprawą narzędzia AI, poprzez stworzenie nowego stanowiska. Zajmująca je osoba dostała zadanie zdalnego monitorowania rekordów wszystkich pacjentów lekarzy pierwszego kontaktu – 50 tys. dorosłych osób. Kiedy narzędzie przypisywało jednej z nich wysokie ryzyko chronicznej niewydolności nerek, lekarz sprawujący nową rolę dokonywał wstępnej oceny. Jeśli uznał, że pacjent miał rzeczywiście wysokie ryzyko wystąpienia chronicznej niewydolności nerek, wysyłał wiadomość do lekarza pierwszego kontaktu. Gdy ten otrzymywał alert i zgadzał się z tym, że pacjent rzeczywiście jest w grupie wysokiego ryzyka, kierował go na wizytę u nefrologa.
3. Chroń autonomię użytkownika końcowego
Ludzie cenią autonomię i czerpią wysokie poczucie własnej wartości z faktu, że są w czymś dobrzy, że coś osiągnęli. Jest więc naturalne, że użytkownicy narzędzia AI mogą czuć się niezręcznie w sytuacji, gdy to rozwiązanie pozwala interesariuszom spoza ich domeny wpływać na ich proces podejmowania decyzji. Udane implementacje AI wymagają wrażliwości na to, jak po wdrożeniu użytkownicy narzędzia będą postrzegać swoją pracę. Deweloperzy powinni wziąć ten czynnik pod uwagę, z uwzględnieniem następujących wskazówek
Chroń zadania, które według użytkowników końcowych należą do ich podstawowych obowiązków. Kiedy członkowie zespołu projektowego z Duke University Hospital opracowali narzędzie do wykrywania sepsy (infekcja wywołująca stan zapalny całego organizmu prowadzący do zatrzymania funkcji poszczególnych narządów) i zarządzania pacjentami, u których ją wykryto, lekarze ostrego dyżuru zaczęli się sprzeciwiać. Chcieli zachować dla siebie kluczowe zadania, takie jak ostateczna decyzja co do diagnozy pacjenta oraz zamawianie potrzebnych badań krwi i leków. Zespół projektowy skonfigurował narzędzie AI w taki sposób, by jego przewidywania nie kolidowały z tymi zadaniami, by wspomagały lekarzy pracujących na ostrym dyżurze w ważnych zadaniach, ale takich, które lekarze wykonują mniej chętnie.
Jeśli chodzi o menedżerów odpowiadających za zakupy odzieży i akcesoriów, twórcy narzędzia AI zrozumieli, że osoby te chciały zatrzymać dla siebie coś, co postrzegały jako zadania kreatywne o znaczeniu strategicznym, takie jak decydowanie, ile procent z kupowanych jeansów miało mieć nogawki z wcięciem na wysokie buty, a ile miało być wykonanych z czerwonego materiału. Zespół projektowy skonfigurował narzędzie tak, aby osoba odpowiedzialna za zakupy mając przeczucie, że należy kupować spodnie z czerwonego materiału, mogła zmodyfikować rekomendacje AI i sprawić, że zamówienie na czerwone jeansy było realizowane priorytetowo.
Dbałość o to, by narzędzia AI nie wchodziły w drogę końcowym użytkownikom i nie przejmowały ich podstawowych zajęć, może wydawać się oczywistością, ale liderzy projektów AI czasem o tym zapominają, ponieważ usprawnianie procesu realizacji zadań o kluczowym znaczeniu daje szansę na większe zyski. W pewnej organizacji zajmującej się handlem detalicznym, deweloperzy początkowo zbudowali narzędzie, które miało ułatwiać osobom odpowiedzialnym za zakupy modowe podejmowanie właściwych decyzji. Niedoskonały proces decyzyjny skutkował konsekwencjami dwojakiego rodzaju: zmniejszeniem szans na przychody wynikającym z tego, że magazyny nie zostały na czas wypełnione właściwym towarem odpowiadającym na aktualne potrzeby rynkowe, oraz utratą marży przez zakupienie towaru, który nie wychodził na przeciw potrzebom klientów i musiał być przeceniony. Gdy osoby odpowiedzialne za zakupy modowe odrzuciły narzędzie, deweloperzy zmienili strategię i skoncentrowali się na drugim końcu procesu. Stworzyli rozwiązanie AI, które pomogło menedżerom sklepów decydować, kiedy i jak bardzo przeceniać ubrania, które się nie sprzedawały. To narzędzie w znacznie mniejszym stopniu przyczyniało się do przechwytywania wartości (value capture), bo skupiało się tylko na ostatniej fazie procesu sprzedaży produktów modowych. Inteligentni liderzy AI zrozumieli przy tym, że realizacja ograniczonej liczby zadań z wykorzystaniem narzędzia, które rzeczywiście zostaje zaimplementowane, jest dużo bardziej użyteczna, niż wykorzystywanie go do modyfikowania podstawowych działań użytkowników. Wówczas bowiem narzędzie to dostarcza wartość tylko w teorii, w praktyce nie jest wykorzystywane.
Pozwól użytkownikom końcowym ocenić użyteczność narzędzia. Wprowadzenie nowego rozwiązania, które ma usprawniać proces decyzyjny, wymaga wymiany starego narzędzia – często lubianego przez użytkowników – na nowe, które może ograniczyć ich autonomię. Narzędzie AI ułatwiające wykrywanie przypadków sepsy ograniczyło autonomię lekarzy pracujących na ostrym dyżurze, ale narzędzie stworzone z poszanowaniem panujących tam zasad, już nie. Członkowie zespołu projektowego zaprosili kluczowych interesariuszy, którzy współtworzyli narzędzie używane dotąd, i poprosili ich o zaprojektowanie eksperymentu, który sprawdziłby efektywność nowego narzędzia. Dzięki temu udało się ochronić autonomię pracowników.
Badacze z Harvard Business School zaobserwowali podobną dynamikę, interpretując wyniki badań organizacji zajmującej się sprzedażą detaliczną. Powstało w niej narzędzie AI mające pomóc dyspozytorom ustalić, ile par butów danego rodzaju i w jakich rozmiarach powinni wysłać do konkretnych sklepówIndeks górny 44. Wgląd, jaki dało to narzędzie osobom z zewnątrz, ograniczył autonomię dyspozytorów w znacznie większym stopniu niż dotychczas stosowane rozwiązanie. By chronić autonomię, członkowie zespołu projektowego zaprosili dyspozytorów produktów modowych do zaprojektowania testu A/B, pozwalającego porównać efektywność starego i nowego narzędzia.
Udzielenie głosu użytkownikom w kwestii oceny procesu ma wielki sens. Dlaczego zatem wszyscy liderzy projektów AI tego nie praktykują?
Ponieważ za każdym razem, gdy poprosi się użytkowników o wybór obszarów ich pracy, w których można przeprowadzić testy, wybiorą te najtrudniejsze. Jednak ponieważ to oni mają korzystać z rekomendacji nowego rozwiązania, nie można pominąć tego kroku.
Zaangażuj użytkowników końcowych od samego początku. Liderzy projektów AI często nie nagłaśniają prac prowadzonych na starcie projektu, by zapobiec oporowi użytkowników. Jednak liderzy, którzy na tych wczesnych etapach nie zaangażują użytkowników końcowych, mają znacznie mniejsze szanse na sukces. Użytkownicy będą mieć pretensję o to, że dowiedzieli się późno, będą żywić urazę. Nawet jeśli narzędzie AI w pełni zautomatyzuje proces, użytkownicy końcowi muszą je zaakceptować, aby w ogóle mogło spełniać swoją funkcję. Liderzy, którzy skutecznie wdrażali projekty AI, wiedzą, że zaangażowanie użytkowników końcowych na samym początku prac w ramach projektu zwiększa prawdopodobieństwo jego akceptacji.
Obietnica, jaką niesie AI, skrywa pewną prawdę: najlepsze na świecie narzędzia AI nic nie zdziałają, jeśli nie zostaną zaakceptowane. By przekonać użytkowników z pierwszej linii, liderzy muszą najpierw zrozumieć trzy podstawowe konflikty interesów związane z implementacją sztucznej inteligencji: docelowi użytkownicy końcowi narzędzi AI mogą nie widzieć korzyści dla siebie, mogą zostać obarczeni dodatkową pracą i stracić autonomię, którą sobie cenią. Liderzy mogą stworzyć fundamenty przyszłego sukcesu, tylko redukując zaburzoną wprowadzeniem narzędzia równowagę wartości po stronie użytkownika i organizacji. Sukces nie bierze się z dużych zbiorów danych (big data), atrakcyjnych technologii czy odważnych obietnic. Przeciwnie, zależy od decyzji podejmowanych każdego dnia przez pracowników pierwszej linii. Jeśli spełnić się mają nadzieje pokładane w AI, liderzy muszą wziąć pod uwagę potrzeby tych pracowników. Tylko wtedy sztuczna inteligencja będzie efektywnie pracować w realnym świecie.
Indeks górny PRZYPISY
1. S. Pachidi, H. Berends, S. Faraj i in., Make Way for the Algorithms: Symbolic Actions and Change in a Regime of Knowing, Organization Science 32, no. 1 (styczeń‑luty 2021): 18–41. Indeks górny koniecPRZYPISY
1. S. Pachidi, H. Berends, S. Faraj i in., Make Way for the Algorithms: Symbolic Actions and Change in a Regime of Knowing, Organization Science 32, no. 1 (styczeń‑luty 2021): 18–41.
Indeks górny 2. M. Valentine i R. Hinds, ‘Rolling Up the Leaf Node’ to New Levels of Analysis: How Algorithmic Decision–Making Changes Roles, Hierarchies, and Org Charts, Stanford University, Stanford, California, May 2021. Indeks górny koniec2. M. Valentine i R. Hinds, ‘Rolling Up the Leaf Node’ to New Levels of Analysis: How Algorithmic Decision–Making Changes Roles, Hierarchies, and Org Charts, Stanford University, Stanford, California, May 2021.
Indeks górny 3. E. van den Broek, A. Sergeeva i M. Huysman, When the Machine Meets the Expert: An Ethnography of Developing AI for Hiring, MIS Quarterly 45, no. 3 (wrzesień 2021): 1557–1580. Indeks górny koniec3. E. van den Broek, A. Sergeeva i M. Huysman, When the Machine Meets the Expert: An Ethnography of Developing AI for Hiring, MIS Quarterly 45, no. 3 (wrzesień 2021): 1557–1580.
Indeks górny 4. T. DeStefano, M. Menietti i L. Vendraminelli, A Field Experiment on AI Adoption and Allocation Efficiency, praca w trakcie. Indeks górny koniec4. T. DeStefano, M. Menietti i L. Vendraminelli, A Field Experiment on AI Adoption and Allocation Efficiency, praca w trakcie.