Nasze badania dowodzą, że w przypadku otrzymywania tych samych danych dostarczanych przez sztuczną inteligencję różni ludzie podejmują zupełnie różne decyzje, ponieważ każda z osób kieruje się własnym stylem i osądem.
Obecnie sztuczna inteligencja ma znaczący wpływ na wiele strategicznych procesów decyzyjnych w organizacjach. Pięć lat temu mniej niż 10% dużych firm stosowało uczenie maszynowe lub inne formy AI, a dziś 80% z nich korzysta z tej technologiiIndeks górny 11, np. Amazon integrujący algorytmy z procesami rekrutacyjnymi czy Walmart wykorzystujący sztuczną inteligencję do podejmowania decyzji o liniach produktowych. Te przykłady świadczą, że zastosowanie sztucznej inteligencji wykracza obecnie poza zwykłą automatyzację procesów, a technologia ta coraz częściej jest wykorzystywana do wspomagania procesów decyzyjnych na wszystkich szczeblach zarządzaniaIndeks górny 22.
Zarządy firm mogą wykorzystać moc sztucznej inteligencji do analizowania informacji, rozpoznawania złożonych wzorców, a nawet uzyskiwania porad w kwestiach strategicznych. Narzędzia predykcyjne mogą wesprzeć kadrę kierowniczą w radzeniu sobie z coraz bardziej złożonymi decyzjami strategicznymi, dając ludziom nową perspektywę i spostrzeżenia, które mogą pomóc organizacjom w uzyskaniu przewagi konkurencyjnejIndeks górny 33.
W procesach decyzyjnych wspomaganych przez sztuczną inteligencję, w których algorytmy dostarczają sugestii i informacji, kadra kierownicza nadal ma ostatnie zdanie. Na przykład firma Salesforce wykorzystuje swój własny program sztucznej inteligencji o nazwie Einstein, aby podczas spotkań na szczeblu kierowniczym pomóc liderom w podejmowaniu ważnych decyzji. Według wizjonerskiego założyciela i dyrektora generalnego firmy Salesforce, Marca Benioffa, od czasu wprowadzenia AI procesy decyzyjne w firmie całkowicie się zmieniły. Wskazówki Einsteina, czy to dotyczące wydajności różnych regionów lub produktów, czy też nowych możliwości biznesowych, pomogły znacznie ograniczyć stronniczość na spotkaniach i zmniejszyć liczbę dyskusji napędzanych polityką lub osobistymi interesami wśród członków kadry najwyższego szczeblaIndeks górny 44.
Z naszych badań wynika, że czynnik ludzki ma decydujący wpływ na decyzje, które podejmowane są na podstawie danych dostarczanych przez sztuczną inteligencję. Analiza tych decyzji prowadzi do zaskakującego odkrycia: poszczególne osoby dokonują zupełnie różnych wyborów, nawet jeśli AI dostarczyła im identycznych danych.
Co więcej, różnice w podejmowaniu decyzji na podstawie informacji otrzymywanych od sztucznej inteligencji mają bezpośredni wpływ finansowy na organizacje. W zależności od indywidualnego stylu podejmowania decyzji niektórzy członkowie kadry kierowniczej inwestują do 18% więcej w ważne inicjatywy strategiczne, bazując na identycznych rekomendacjach AI. Dzięki zrozumieniu i wykorzystaniu indywidualnych stylów podejmowania decyzji przez kadrę kierowniczą organizacje mogą lepiej zoptymalizować wykorzystanie sztucznej inteligencji w swoich inicjatywach strategicznych i przezwyciężyć wady ludzkiego osądu.
Jak kadra kierownicza korzysta z AI?
Już dziś firmy mogą zautomatyzować całe procesy decyzyjne i autonomicznie zastąpić udział człowieka w ostatecznym wyborze dzięki integracji AI. Na przykład szwedzka firma private equity EQT Partners wykorzystuje sztuczną inteligencję do skanowania propozycji inwestycyjnych; 10% jej udziałów zostało nawet w całości pozyskanych przez sztuczną inteligencję. Takie formy integracji sztucznej inteligencji są coraz powszechniejsze w szerokim zakresie zastosowań, w tym zatwierdzanie pożyczek w Ant Group i algorytmiczne ustalanie cen w Uberze.
Jednak większość strategicznych decyzji podejmowanych w organizacjach z wykorzystaniem sztucznej inteligencji to formy hybrydowe, które w dużym stopniu opierają się na ludzkim osądzie, wymagając interakcji kierownictwa z systemem AI. W rzeczywistości 87% liderów uważa, że takie hybrydowe podejście będzie w przyszłości dominującą formą współpracy człowieka z algorytmamiIndeks górny 55.
W jaki sposób czynnik ludzki wpływa na decyzje? Badania wykazały, że kadra kierownicza znacznie różni się w podejmowaniu decyzji, w zależności od swoich indywidualnych stylów, którymi zazwyczaj kieruje się w obliczu wyboru. Indywidualne różnice opierają się na przetwarzaniu informacji i samoregulacji, a także na postrzeganiu wagi decyzji i poznawczym podejściu do dokonywania wyborówIndeks górny 66. Style podejmowania decyzji mają tendencję do tworzenia spójnych wzorców reakcji jednostki w różnych zadaniach i sytuacjach decyzyjnych.
Można wyróżnić cztery główne style podejmowania decyzjiIndeks górny 77:
Racjonalni decydenci są zorganizowani i logiczni w swojej ocenie wyzwań strategicznych.
Ich przeciwieństwem są osoby podejmujące decyzje w sposób intuicyjny i spontaniczny, polegając na emocjach, z tendencją do podejmowania decyzji pod wpływem chwili.
Zależni liderzy – szukają pomocy i wsparcia u innych.
Liderzy odkładający podjęcie decyzji na później.
Nasze badania pokazują, że te tendencje kształtują decyzje najwyższej kadry kierowniczej w nieoczekiwany sposób, gdy wchodzi ona w interakcję z rekomendacjami mającymi źródło w sztucznej inteligencji. W badaniu w Stanach Zjednoczonych z udziałem 140 członków wyższej kadry kierowniczej zadaliśmy każdej z osób identyczne pytanie: czy zainwestować w nową technologię, która umożliwiłaby im wykorzystanie potencjalnych nowych możliwości biznesowych? Uczestnicy zostali poinformowani, że system oparty na sztucznej inteligencji, którego zadaniem jest ocena możliwości biznesowych, zalecił zainwestowanie w tę technologię. Na koniec zapytaliśmy członków kadry kierowniczej, na ile prawdopodobne jest, że zainwestują w tę technologię, a jeśli się na to zdecydują, ile pieniędzy byliby skłonni przeznaczyć na ten cel. Zapytaliśmy ich również o preferowany wkład sztucznej inteligencji w ten proces.
Odpowiedzi, które uzyskaliśmy, dowodzą, że liderzy wyższego szczebla różnią się znacząco pod względem tego, jak wiele informacji wymagają od systemów opartych na sztucznej inteligencji i jak bardzo są skłonni inwestować, wsłuchując się w rekomendacje systemu (patrz: Czynnik ludzki w decyzjach opartych na AI). Jednocześnie liderzy wyższego szczebla prezentują różny poziom przywiązania do samodzielnego dokonywania wyborów. Racjonalni liderzy wydają się niechętni utracie autonomii w tym procesie, podczas gdy liderzy unikający decyzji, którzy zazwyczaj odkładają je na później, chętnie delegują odpowiedzialność za decyzje na sztuczną inteligencję. Pozostali wprawdzie przyjmują zalecenia AI, ale też wykazują pewność siebie w podejmowaniu strategicznych wyborów bez brania pod uwagę „rad” algorytmów.
Wyniki sugerują, że kadra kierownicza wykorzystująca sztuczną inteligencję do podejmowania decyzji strategicznych dzieli się na trzy rodzaje, z uwzględnieniem indywidualnego stylu podejmowania decyzji.
Sceptycy – nie stosują się do zaleceń mających źródło w sztucznej inteligencji, wolą sami kontrolować proces. Nie chcą podejmować strategicznych decyzji na bazie analizy przeprowadzonej przez coś, co postrzegają jako czarną skrzynkę, nie do końca dla nich zrozumiałą. Sceptycy sami są bardzo analityczni i muszą zrozumieć szczegóły przed podjęciem decyzji. W kontakcie ze sztuczną inteligencją mogą paść ofiarą fałszywej iluzji kontroli, która prowadzi ich do nadmiernego zaufania do własnych osądów i niedoceniania mocy algorytmów.
Liderzy współdziałający z AI (Interactors) – balansują między własną percepcją a wskazówkami algorytmu. Są otwarci na korzystanie ze sztucznej inteligencji, ale nie polegają na niej całkowicie. Przy dokonywaniu ważnych wyborów traktują dane wejściowe AI jako jedno z wielu narzędzi, które mają do dyspozycji. Kiedy mają możliwość skorzystania z analiz powstałych na bazie informacji zgromadzonych przez AI, liderzy współdziałający są skłonni im zaufać i ostatecznie podjąć decyzję na bazie tych rekomendacji.
Liderzy delegujący – w dużej mierze przenoszą swoje uprawnienia decyzyjne na sztuczną inteligencję, aby zmniejszyć ryzyko samodzielnego podjęcia niewłaściwej decyzji. W przypadku tych liderów zastosowanie sztucznej inteligencji znacznie zwiększa szybkość strategicznego procesu decyzyjnego i może przełamać potencjalny impas. Liderzy delegujący mogą jednak nadużywać AI w celu uniknięcia osobistej odpowiedzialności i używać jej zaleceń jako osobistej polisy ubezpieczeniowej na wypadek, gdyby coś poszło nie tak. Takie przeniesienie ryzyka z decydenta na maszynę może z kolei spowodować, że firma podejmować będzie nieuzasadnione ryzyko.
Czynnik ludzki w decyzjach opartych na AI
Ludzie podejmujący decyzje bazujące na danych i rekomendacjach dostarczanych przez AI, dzielą się na trzy typy, związane z tym, w jaki sposób podejmują indywidualne decyzje.
Różne sposoby podejmowania decyzji pokazują, że jakość samej rekomendacji AI stanowi tylko połowę równania, jeśli chodzi o ocenę jakości procesu decyzyjnego opartego na sztucznej inteligencji. Równie ważne jest, jak liderzy rozumieją te zalecenia i czy działają zgodnie z nimi.
W takim razie, w jaki sposób firmy mogą zoptymalizować interakcję między sztuczną inteligencją a ludzkim osądem?
Skuteczna integracja AI w procesie podejmowania decyzji
Organizacje powinny stosować trzy strategie podczas integrowania sztucznej inteligencji z procesami decyzyjnymi.
Budowanie świadomości. Ponieważ poszczególne osoby dokonują całkiem różnych wyborów na podstawie identycznych danych pochodzących od sztucznej inteligencji, kadra kierownicza powinna być świadoma osobistych skłonności (lub uprzedzeń) podczas interakcji z AI. Firmy powinny zatem uznać za priorytet informowanie o wpływie ludzkiego osądu, który pozostaje decydującym czynnikiem przy uzupełnianiu zespołu kierowniczego najwyższego szczebla. Taka komunikacja musi obejmować wszystkich członków kadry kierowniczej, którzy wchodzą w interakcje z systemami opartymi na sztucznej inteligencji, czy to w procesach zatrudniania, czy w podejmowaniu decyzji dotyczących najwyższego kierownictwa. Większość kadry kierowniczej wie o znaczącym wpływie, jaki na indywidualny osąd mogą mieć uprzedzenia poznawcze. Powinni oni dowiedzieć się i zwracać uwagę na to, jakie konkretne uprzedzenia mają w stosunku do sztucznej inteligencji, w zależności od ich indywidualnego stylu podejmowania decyzji. Ta świadomość jest kluczowym fundamentem udanej integracji AI z procesami decyzyjnymi organizacji.
Unikanie przenoszenia ryzyka i iluzji kontroli. Zaskoczyło nas, w jakim stopniu niektórzy członkowie kadry kierowniczej przenieśli ryzyko podejmowania decyzji na sztuczną inteligencję, a inni wręcz przeciwnie, nie chcieli oddać technologii ani centymetra swojej kontroli. Obie tendencje muszą być kontrolowane przez samych decydentów lub ich przełożonych obserwujących proces. Ponieważ w momencie podejmowania decyzji zazwyczaj nie zdajemy sobie sprawy z własnych tendencyjnych osądów, konieczne są interakcje w kierunku pozbycia się stronniczości. Gdy przy podejmowaniu kluczowych decyzji wchodzimy w interakcję ze sztuczną inteligencją, nasi współpracownicy lub doświadczeni doradcy niezaangażowani bezpośrednio w proces mogą zwrócić nam uwagę na potencjalne problemy. Taka interwencja może przerwać podświadomy proces autopilota u decydenta i sprawić, że decyzja stanie się bardziej świadomym i bezstronnym wyborem.
Aby uniknąć przeniesienia ryzyka, organizacje muszą podkreślać, że ostateczne uprawnienia decyzyjne należą do kadry kierowniczej, nawet jeśli w grę wchodzi sztuczna inteligencja. Z drugiej strony, iluzję kontroli można złagodzić poprzez lepsze wyjaśnienie potencjalnych korzyści płynących ze sztucznej inteligencji oraz parametrów i danych, na jakich opiera się sugerowany kierunek działania. Takie nowe i sprzeczne z intuicją informacje mogą pomóc rozproszyć iluzję kontroli i przyczynić się do bardziej zrównoważonego i mniej ostrożnego postrzegania sztucznej inteligencjiIndeks górny 88.
Podejmowanie decyzji z uwzględnieniem zdania zespołu. Zrównoważenie trzech dominujących modeli decyzyjnych w zespołach może zapobiec podejmowania zbyt ryzykownych lub unikających ryzyka decyzji. Różne perspektywy i wiele opcji zawsze usprawniają procesy decyzyjne, niezależnie od tego, czy w proces zaangażowana jest sztuczna inteligencja, czy nie. Przyjęcie AI jako dodatkowego źródła danych i analiz, przypominającego raczej dodatkowego członka zespołu niż nadrzędny, niepodważalny autorytet, może pomóc w skutecznym włączeniu do dyskusji zaleceń opartych na sztucznej inteligencji.
Tylko 50% firm ma opracowaną strategię AI, a niewiele z nich wychodzi poza technologiczny rozwój i jej wdrażanieIndeks górny 99. Aby w pełni wykorzystać potencjał sztucznej inteligencji, firmy potrzebują podejścia skoncentrowanego na człowieku, które uwzględni kognitywny wymiar interakcji człowiek–maszyna, wykraczający poza automatyzację.
Gdy sztuczna inteligencja jest wykorzystywana do wspomagania rozwoju strategii i procesów decyzyjnych, nasze skłonności i nawyki psychologiczne decydują o tym, jak postępujemy zgodnie z jej zaleceniami. Ukierunkowane zastosowanie sztucznej inteligencji może wyeliminować stronniczość dyskusji i ograniczyć politykę na spotkaniach kierownictwa najwyższego szczebla, czego przykładem jest Salesforce. Jednak ze względu na rutynę podczas podejmowania decyzji, wykorzystanie algorytmów może również sprowadzić nas na manowce.
Dostrzegając potencjalną stronniczość ludzi w procesie decyzyjnym opartym na AI, liderzy mogą odpowiednio zaprojektować procesy, które będą promować sztuczną inteligencję w zarządzie. Przy właściwym wyważeniu analityki i doświadczenia procesy decyzyjne wspierane przez sztuczną inteligencję mogą podnieść jakość najbardziej krytycznych wyborów dokonywanych przez organizację, tym samym zwiększając ogromną wartość dla firm w coraz bardziej złożonym świecie.
PRZYPISY
1. G. Bhaskar, P.R. Daugherty, H.J. Wilson, et al., Taking a Systems Approach to Adopting AI, Harvard Business Review, maj 2019, https://hbr.org.
2. S. Raisch and S. Krakowski, Artificial Intelligence and Management: The Automation‑Augmentation Paradox, „Academy of Management Review” 46, nr 1 (styczeń 2021): 192–210.
3. B. Libert, M. Beck, M. Boncheck, AI in the Boardroom: The Next Realm of Corporate Governance, „MIT Sloan Management Review”, październik 2017, https://sloanreview.mit.edu.
4. J. Bort, How Salesforce CEO Marc Benioff Uses Artificial Intelligence to End Internal Politics at Meetings, „Business Insider”, maj 2017, www.businessinsider.com.
5. S. Ransbotham, S. Khodabandeh, D. Kiron, et al., Expanding AI’s Impact With Organizational Learning, „MIT Sloan Management Review”, październik 2020, https://sloanreview.mit.edu.
6. M. Geisler and C.M. Allwood, Relating Decision‑Making Styles to Social Orientation and Time Approach, „Journal of Behavioral Decision Making” 31, nr. 3 (lipiec 2018): 415–429.
7. D.P. Spicer and E. Sadler‑Smith, An Examination of the General Decision Making Style Questionnaire in Two U.K. Samples, „Journal of Managerial Psychology” 20, nr. 2 (marzec 2005): 137–149.
8. S. Schulz‑Hardt, M. Jochims, and D. Frey, Productive Conflict in Group Decision Making: Genuine and Contrived Dissent as Strategies to Counteract Biased Information Seeking, „Organizational Behavior and Human Decision Processes” 88, nr 2 (lipiec 2002): 563–586.
9. S. Ransbotham, D. Kiron, P. Gerbert, et al., Reshaping Business With Artificial Intelligence: Closing the Gap Between Ambition and Action, PDF file (Cambridge, Massachusetts: MIT Sloan Management Review, 2017), https://sloanreview.mit.edu.