Sztuczna inteligencja, której nie znienawidzą klienci

Sztuczna inteligencja napotyka na coraz poważniejszy opór ze strony konsumentów – zagraża ich autonomii. W tej sytuacji pomóc mogą trzy rozwiązania.

Skrzyżowanie analityki big data, uczenia maszynowego oraz sztucznej inteligencji są obecnie być może najjaśniejszym punktem globalnej gospodarki. Wedle szacunków McKinsey Global Research, wykorzystanie sztucznej inteligencji do 2030 r. przyniesie globalnemu PKB dodatkowo aż 13 bln dolarów. Niegospodarcze korzyści, jakie odniesie ludzkość, będą równie wyraźne, gdyż przyniosą nam one świat bezpieczniejszy (ograniczając skalę występowania szkodliwych błędów ludzkich) oraz poprawią jakość życia (ograniczając czas poświęcany na nudne zadania, jak prowadzenie samochodu i robienie zakupów). Nawet jeśli nadchodzący przełom na rynku pracy, napędzany przez automatyzację, jest tak poważny, jak wielu się tego obawia, jest wciąż prawdopodobne, że – w sumie – wyjdziemy na tym lepiej, niż obecnie.

Jakie obawy budzi sztuczna inteligencja?

Nie każdy jest jednak o tym przekonany. Negatywne prognozy koncentrują się na dwóch nadrzędnych problemach, które są ze sobą powiązane, ale jednak odrębne. Po pierwsze, istnieje obawa o prywatność danych. W końcu sztuczna inteligencja działa na podstawie danych, a ludzie, co zrozumiałe, nie czują się komfortowo z tym, czego dowiadują się o nich technologie automatyzacyjne oraz z tym, jak mogą zostać wykorzystane ich prywatne informacje. Prywatność w epoce cyfrowej jest poddawana szeroko zakrojonym badaniom i wiele się na ten temat pisze. Firmy muszą zatem poświęć coraz więcej uwagi uśmierzaniu obaw swoich klientów.

Istnieje jednak jeszcze jedna kwestia, nad którą wiele firm musi się jeszcze poważnie zastanowić: to problem autonomii. Choć technologia autonomiczna cechuje się szerokim i rosnącym spektrum potencjalnych zastosowań, gdy zostanie posunięta za daleko, może zagrozić poczuciu autonomii i wolnej woli użytkowników, poprzez osłabienie przekonania, że są w stanie decydować i swobodnie kierować swoim życiem. Niedawno przeprowadzone badanie wykazało, że gdy klienci uważali, że ich przyszłe wybory da się przewidzieć na podstawie ich przeszłych decyzji, wybierali opcje mniej przez siebie preferowane. Innymi słowy, konsumenci naruszyli własne preferencje, by na nowo ugruntować własne poczucie autonomii poprzez podjęcie nieprzewidywalnej decyzji.

Jak u Dostojewskiego…

Konfliktowa relacja pomiędzy technologią a wolną wolą nie jest niczym nowym – została ona opisana przez „człowieka z podziemia” Fiodora Dostojewskiego – wyalienowanego protagonistę powieści z 1864 roku pt. Notatki z podziemia. Nawet w społeczeństwie utopijnym – twierdził on – ludzie będą się buntować tylko po to, by dowieść, „że ludzie są jeszcze ludźmi, a nie klawiszami fortepianu”.

Niestety postrzegane i odczuwane przez ludzi zagrożenie prawdopodobnie pogłębi się wraz z przyspieszaniem innowacji technologicznych i wkroczeniem autonomicznych urządzeń w nowe obszary życia ludzi. Niedawno doszliśmy do tego wniosku po analizie wielu różnych punktów widzenia na tę kwestię w takich dziedzinach, jak filozofia, marketing, ekonomia i inne dziedziny. Dobra wiadomość jest taka, że w ramach naszej analizy zidentyfikowaliśmy także rekomendacje sugerujące, w jaki sposób rozwijać technologie sztucznej inteligencji, których klienci nie znienawidzą.

Rekomendacje te można podzielić na trzy różne kategorie.

1. Ochrona indywidualności klientów

Podstawowym aspektem autonomii jest indywidualność. Rozumiemy ją jako pewną ideę, że każdy z nas posiada unikatową, podstawową tożsamość, i że nie jesteśmy wymienni. Idea ta zajmuje szczególnie poczesne miejsce w – choć nie tylko – rozwiniętych społeczeństwach Zachodu. Problem w tym, że żyjemy obecnie w epoce algorytmów, które są w stanie sporządzić wysoce dokładne prognozy indywidualnych preferencji i zachowań na podstawie danych pozyskanych od mas. Co za tym idzie, mogą zakwestionować poczucie indywidualności u konsumentów.

Na przykład firmy w coraz większym stopniu wykorzystują oparte na technologii AI boty do obsługi klientów, którym udzielają odpowiedzi na podstawowe problemy i pytania. Dla wielu przedsiębiorstw boty są wygodniejsze – potrafią rozwiązać problemy znacznie większej liczby ludzi w znacznie krótszym czasie niż zrobiłby to przedstawiciel w call center. Jednak niektórzy klienci opierają się interakcjom z botami. Gdy ludzie potrzebują pomocy z jakimś problemem, wielu z nich pragnie osobistej uwagi. Prawdopodobnie zostali uwarunkowani przez negatywne doświadczenia z wcześniejszymi, mniej skutecznymi technologiami. Takimi jak call center z systemem „wybierz numer i naciśnij przycisk”, które przeprowadzają ich przez uproszczony zestaw opcji w menu i nigdy nie pozwalają na rozmowę z rzeczywistym człowiekiem. Mówiąc bardziej ogólnie, wielu ludziom nie podoba się to, że są traktowani tak, jakby ich problemy były na tyle generyczne, że uzasadniają zaoferowanie standardowych rozwiązań przez bota.

Sztuczna inteligencja? Nie, dziękuję

W jednym z niedawnych badań odkryto, że potencjalni pacjenci wolą, jeśli porozmawia z nimi żywy człowiek (lekarz lub pielęgniarka), niż robot, nawet jeśli zostali poinformowani, że robot postawi dokładniejszą diagnozę. Czuli, że maszyna nie będzie w stanie uwzględnić ich unikatowej sytuacji.

Niektórzy orędownicy technologii wierzą, że problem ten rozwiąże się sam, ponieważ algorytmy sztucznej inteligencji rozwiną się wkrótce w takim stopniu, że konsumenci nie będą w stanie dokonać rozróżnienia pomiędzy człowiekiem a robotem. Ale nawet ta strategia może potencjalnie spalić na panewce. Tak jak wtedy, gdy Google wprowadził na rynek Duplex, wirtualnego asystenta zdolnego do naśladowania mowy ludzkiej z niezwykłą dokładnością. Spotkało się to natychmiast z gwałtownym publicznym sprzeciwem.

AI z ludzką twarzą oraz „efekt Ikei”

Ale podejmowanie tego rodzaju prób przekonania klientów może nie być konieczne, jeśli podejmie się właściwe kroki w procesie projektowania. Boty sztucznej inteligencji na przykład można zbudować w taki sposób, by uśmierzyć związane z autonomią obawy poprzez podjęcie drobnych kroków na rzecz personalizacji każdego kontaktu. Nawet skromny element o charakterze osobistym może wywrzeć nieproporcjonalnie pozytywny efekt: badanie z 2016 roku pokazało, że konsumenci wykazywali wyższy stopień sympatii dla szeregu produktów, jak kawa czy pióra, gdy producent (np. barista lub przedstawiciel firmy) zwracał się do nich po imieniu. W innym trwającym wciąż badaniu klienci w zrandomizowanych badaniach kontrolowanych rzadziej dzwonili do centrum obsługi klienta, gdy algorytm podawał proste wyjaśnienie, dlaczego odrzucił transakcje klientów, w porównaniu z sytuacją, gdy tego wyjaśnienia nie podawał.

Na podobnej zasadzie firmy mogą chronić indywidualność klientów projektując interakcje – nawet z udziałem bota sztucznej inteligencji – w sposób, który daje użytkownikom jakieś poczucie sprawczości w procesie. Przypomina to dobrze znany efekt Ikei, w którym wysiłek polegający na samodzielnym złożeniu mebla sprawia, że nabywcy czują się bardziej związani z nowym nabytkiem. Gdy firmy starają się, by interakcje z konsumentem przebiegały ekstremalnie gładko i wygodnie, być może tracą okazję do tego, by pozwolić klientom na wyrażenie swojej indywidualności i autonomii – i tym samym pogłębienie ich związku z produktem lub usługą. Sztuczną inteligencję łatwiej znieść, gdy pozwala ona użytkownikom poczuć, że ich doświadczenie jest w jakiś sposób ich i nikogo innego.

Interakcja w postaci placebo

Niektóre firmy mogą odczuwać pokusę, by obejść to zjawisko oferując konsumentom pozór interakcji, zamiast faktycznej interakcji. W jednym z badań na pacjentów gabinetu dentystycznego kojąco działała sama obecność przycisku, który mogli nacisnąć, by zakomunikować, że odczuwają ból. Nawet jeśli przyciski te były rzadko stosowane, poczucie autonomii, jakie dawały, doprowadziły do konsekwentnego spadku poziomu bólu odczuwanego przez pacjentów.

Wniosek z tego jest taki, że całkowicie nieskuteczne „dźwignie” decyzyjne mogą zmitygować ludzkie pragnienie sprawowania kontroli nad ich otoczeniem. Większość klientów jednak z małym prawdopodobieństwem ucieszy się, jeśli poczuje, że została nabrana – w  mało prawdopodobnym przypadku, gdy oszustwo wyjdzie na jaw – i mechanizmy kontroli mające jakikolwiek niewielki wpływ są preferowane wobec całkowicie iluzorycznych. Koniec końców to, jak firmy zabiegają o zaangażowanie jednostki liczy się znacznie mniej od tego, czy w ogóle o nie zabiegają.

2. Zabezpieczenie wolności klientów do tego, by nie być przewidywalnym

Kluczowym aspektem wolności jest zdolność do zmiany zdania i porzucenia ugruntowanych już wzorców zachowań – coś, co filozofowie nazywają „wolnością do tego, by postąpić inaczej”. Dla projektantów technologii AI stanowi to immanentny dla tej technologii problem, ponieważ nawet najbardziej dopracowanym algorytmom uczenia się maszyn trudno będzie przewidzieć ludzkie kaprysy. Im silniej konsumenci będą czuli, że firma oczekuje od nich, że będą postępowali zgodnie ze swoimi wyborami z przeszłości (na przykład otrzymywali wysoce specyficzne rekomendacje produktowe na podstawie zakupów i historii przeglądania z przeszłości), tym bardziej niektórzy z nich będą chcieli zerwać z tymi wyborami.

Rozważne formułowanie komunikatów może tu pomóc. Z naszych badań wynika, że postrzeganie przez konsumentów zagrożenia dla ich autonomii zmniejszało się, gdy ich zachowanie było opisywane jako „spójne” (co ma konotację pozytywną), a nie jako „przewidywalne” (co ma wydźwięk negatywny). Zważywszy tę różnicę, istnieje mniejsze prawdopodobieństwo, że firmy wzbudzą u klientów opór wobec rekomendacji, jeśli będą one pozycjonowane jako zaproszenie do ukończenia bieżącego zadania lub uzyskania bardziej pogłębionej wiedzy eksperckiej. (Na przykład Amazon mógłby nakłaniać klientów, którzy kupili tylko jeden tom z serii Władca pierścieni, do tego, by „dalej odkrywali świat Tolkiena” lub „dowiedzieli się wszystkiego o tej trylogii”). Takie podejście nagradzałoby klientów za dalsze podążanie wybraną ścieżką, zamiast zmuszać ich do zejścia z niej w celu utwierdzenia własnej autonomii.

Sztuczna inteligencja inspirująca do zmian

Czasami jednak odejście od przeszłych nawyków jest w najlepszym interesie konsumentów. Rozważmy dla przykładu przypadek konsumenta, który niedawno stał się bardziej świadomy kwestii zdrowotnych i ograniczył konsumpcję zawierających cukier napojów gazowanych w wyniku obaw o swoje zdrowie. Jeśli osoba ta wróci do domu i odkryje, że algorytmy Amazonu automatycznie złożyły zamówienie na butelki jej dawnego ulubionego napoju – w oparciu o wcześniej dokonywane zakupy – może ona czuć, że technologia podkopuje jej siłę woli. Na podobnej zasadzie palacz może poczuć się zirytowany, i prawdopodobnie będzie mu trudniej rzucić palenie, jeśli będzie otrzymywać ciągłe promocje na zakup e-papierosów drogą powiadomień w aplikacji lub maili.

Jednak zamiast stanowić część problemu, sztuczna inteligencja mogłaby pomóc klientom w zerwaniu z niepożądanymi nawykami – i podnieść ich poczucie autonomii i lojalności konsumenckiej. I faktycznie, nasze badania sugerują, że algorytmy da się przeszkolić tak, by identyfikowały osoby gotowe do tego, by wprowadzić pozytywne zmiany w swoim stylu życia, ale potrzebują przy tym nieco pomocy.

Konsumenci w tej kategorii przejawiają wiele mówiące zachowania zakupowe, które badacze określili mianem „pre-zobowiązania”. W ramach jednego z takich zachowań osoby, które obawiają się, że może im brakować wystarczającej siły woli wobec jakiejś pokusy, mogą ustalić narzucone sobie ograniczenia, które sprawią, że ulegnięcie tej pokusie będzie trudne lub kosztowne. Na przykład klient w fazie „pre-zobowiązania” kupi niezdrowe przekąski w mniejszych i tym samym droższych ilościach, zamiast w efektywniejszych kosztowo ilościach „hurtowych”, by ograniczyć spożycie tychże przekąsek. Przekonującym przykładem może być stickk.com – strona internetowa oferująca osobom próbującym osiągnąć trudne cele sposób na podniesienie stawek.

Firmy, które chcą wykorzystać sygnały sugerujące występowanie zachowań wskazujących na „pre-zobowiązanie” mogą zaprogramować algorytmy tak, by identyfikowały klientów, którym następnie można zaoferować bardziej formalne i rygorystyczne opcje zaprojektowane tak, by im pomóc we wprowadzeniu trwałych zmian w stylu życia. Ponadto firmy mogłyby popychać nowych klientów do tego, by deklarowali swoje długofalowe cele i wyższe aspiracje życiowe. Rzecz jasna same rekomendacje muszą być wrażliwe i przemyślane. Ponadto język w nich stosowany powinien jasno przekazywać, że jest to funkcja opcjonalna, i można ją w każdej chwili wyłączyć lub usunąć. Gdy ludzie następnie stosują dany produkt lub platformę, sztuczna inteligencja może pomóc w zidentyfikowaniu kluczowych momentów, w których konsumenci mogą być otwarci na wypróbowanie opcji zgodnych z ich zadeklarowanymi wcześniej długofalowymi celami.

Przewidywanie głębszych preferencji

Badania sugerują, że gdy ludzie przyglądają się swoim zachowaniom, zaczynają postępować w większym stopniu w zgodzie ze swoimi głębszymi preferencjami. W jednym z badań w grupie amerykańskich głosujących odkryto, że choć wierzą oni, że powinni brać pod uwagę zawartość treściową danej polityki niż to, która partia ją popiera, wciąż przejawiali skłonność do głosowania wedle podziałów partyjnych. A jednak po tym, jak ich poproszono o to, by zastanowili się nad tą rozbieżnością, uczestnicy z większym prawdopodobieństwem głosowali w oparciu o daną politykę, co było bardziej zgodne z ich faktycznymi fundamentalnymi preferencjami. Już sama refleksja nad własnym postępowaniem sprawiała, że głosujący byli bardziej świadomi tego, w jaki sposób dokonują wyborów. Typowy algorytm przeszkolony w oparciu o przeszłe przyzwyczajenia wyborcze konsumenta nie byłby w stanie wykryć tej możliwości. Jeśli się konsumentom da więcej okazji do zadeklarowania swoich aspiracji – czy też tak zwanych metapreferencji – może to sprawić tym samym, że sztuczna inteligencja poprawi dobrostan ludzi, zamiast tylko służyć jako narzędzie określania i upraszczania wyborów, dzięki umożliwieniu klientom uświadomienia sobie i wyrażenia ich wolności do tego, by postąpić inaczej.

3. Zabezpieczenie prywatności klientów

Prywatność i autonomia to odrębne, ale powiązane i zazębiające się ze sobą koncepcje. Brak poufności ogranicza możliwości zrobienia przez ludzi czegoś, o czym mogliby nie chcieć, by dowiedzieli się inni. By poczuć się bezpiecznie w swojej autonomii, ludzie muszą posiadać pewien stopień prywatności. Ustawienia prywatności oferowane przez Facebooka, Google i inne usługi internetowe dają odrobinę ochrony, przy założeniu, że dana osoba wie, jak się po nich poruszać.

Uogólniając, internet zaciera granicę pomiędzy życiem publicznym a prywatnym. Gdy załatwiamy nasze sprawy na urządzeniach cyfrowych, w sposób automatyczny przekazujemy wiele mówiące informacje o nas samych. Wyszukiwania w Google, dopasowania na Tinderze, filmy obejrzane na YouTubie, zapytania skierowane o Siri, polecenia wydane Alexie i prawie wszystko inne, co robimy online, może zostać przechwycone i wykorzystane na naszą niekorzyść. To, że mimo tego dalej tak beztrosko ufamy naszym urządzeniom stanowi świadectwo uwodzicielskich zdolności współczesnych inżynierów i projektantów. A także świadczy o ludzkiej tendencji do ignorowania coraz bardziej rażących problemów – aż do momentu przekroczenia punktu krytycznego.

Granica została przekroczona

Obecnie przekroczyliśmy ów punkt krytyczny wraz ze wzrostem świadomości, że źródłem zagrożeń dla indywidualnej prywatności w sieci nie są tylko cyberprzestępcy. W ubiegłym roku „The New York Times” doniósł, że przynajmniej 75 firm zbiera bardzo dokładne dane geolokacyjne dla ok. 200 mln urządzeń przenośnych w Stanach Zjednoczonych. Przy czym indywidualni użytkownicy są śledzeni do 14 tysięcy razy dziennie. Badacze z Northwestern University odkryli, że ponad 9 tysiącom aplikacjom na Androida zezwolono na dostęp do mikrofonu i kamery w urządzeniach, w których zostały zainstalowane; ponadto zaobserwowano, jak kilka aplikacji swobodnie zbiera osobiste dane o aktywności użytkowników i przekazuje je stronom trzecim. YouTube niedawno został ukarany przez amerykańską Federalną Komisję ds. Handlu (Federal Trade Commission) grzywną w wysokości 170 mln dolarów za zbieranie danych na temat dzieci poniżej 13 roku życia, które były wykorzystywane do precyzowania dostarczanych reklam internetowych.

Gdy algorytmy dochodzą do błędnych wniosków, rezultat może być jedynie głupawy albo irytujący. Ale może także być bardzo bolesny emocjonalnie. W 2018 roku montażystka filmów wideo z „The Washington Post” zilustrowała tego typu przypadek własną historią – po tym, jak jej dziecko urodziło się martwe, ona sama wciąż otrzymywała internetowe reklamy produktów ciążowych. Dzięki mediom społecznościowym ludzie dysponują coraz większą władzą, by upubliczniać tego rodzaju rażące naruszenia prywatności, powodując tym samym znaczące negatywne reperkusje dla firm, których rozwiązania AI zadają konsumentom ból emocjonalny.

Prawna ochrona użytkowników

W momencie, gdy obawy o prywatność osiągają punkt przełomowy, równowaga władzy przechyla się od spółek technologicznych na rzecz użytkowników. (Zob. na przykład unijne Rozporządzenie o ochronie danych osobowych, tzw. RODO). Zamiast opierać się tym zmianom, sugerujemy, by firmy je zaakceptowały i zaczęły aktywnie poszukiwać sposobów na przekazanie użytkownikom większej kontroli nad tym, jak wykorzystywane są ich dane. Dyrektor generalny Apple’a, Tim Cook, już podjął próbę wzmocnienia pozycji marki poprzez podkreślanie sposobu, w jaki traktuje ona prywatność swoich klientów. Jeśli zmiany zostaną zrealizowane w sposób prawidłowy, bardziej sprawiedliwe i przejrzyste polityki prywatności przyniosą korzyść wszystkim zaangażowanym stronom.

Zabezpieczenie zarówno prywatności, jak i autonomii wymaga ponownego zastanowienia się nad nie tylko tym, jak pozyskiwane są wrażliwe informacje, ale także nad tym, jak są ostatecznie wykorzystywane. Pomimo kilku osławionych incydentów, algorytmy ogólnie rzecz biorąc są coraz lepsze w przewidywaniu, czego mogą chcieć i potrzebować użytkownicy w oparciu o takie informacje, jak wyszukiwania internetowe i „polubienia” w mediach społecznościowych. Ale firmy powinny wystrzegać się podejmowania zbyt agresywnych działań na podstawie tych danych i powinny dalej podtrzymywać poczucie autonomii u użytkowników do poufnego formułowania swoich preferencji.

Nasz rozwijany projekt badawczy sugeruje, że zagrożenia dla autonomii są silniejsze, gdy konsumenci mają poczucie, że są obserwowani w trakcie procesu podejmowania decyzji, w porównaniu z przypadkami, w których ich preferencje, co do których już podjęli decyzję, zostają ujawnione innym. Jeśli chodzi na przykład o systemy rekomendacyjne, wiadomości typu „w oparciu o twoje wcześniejsze zakupy” w mniejszym stopniu zagraża poczuciu autonomii konsumentów, niż wiadomości typu „na podstawie wcześniejszej historii wyszukiwania”. Wnioski z naszych badań sugerują, że śledzenie zrealizowanych zakupów (które reprezentują otwarcie zadeklarowane pragnienie posiadania produktów lub usług) może być przez konsumentów uznane za uczciwe postawienie sprawy, w przeciwieństwie do potencjalnie wieloznacznego śledzenia ich działań online.

Ugłaskać „człowieka z podziemia”

Postawmy sprawę jasno: nie sugerujemy, by zaprzestać innowacji opartych na algorytmach lub je spowolnić. Sądzimy, że technologia ta zmierza w kierunku poprawy jakości życia i stanu gospodarki w daleko idące i jeszcze niemożliwe do wyobrażenia sposoby.

Firmy jednak nie mogą sobie już więcej pozwolić na ignorowanie obaw i podejrzliwości, z jaką opinia publiczna w coraz większym stopniu postrzega tę technologię. Dopóki branża technologiczna nie zajmie się zagrożeniami, jakie technologia ta stanowi dla ludzkiej potrzeby autonomii, z dużym prawdopodobieństwem zmobilizuje ona dalsze wybuchy oburzenia ze strony konsumentów, za czym prawdopodobnie pójdą działania regulacyjne. Na przykład rosnąca liczba urzędników publicznych żąda obecnie wbudowania do algorytmów znacznie większej przejrzystości, co stanowiłoby znacznie silniejszy hamulec dla innowacyjności niż realizacja umiarkowanych zaleceń związanych z dbałością o autonomię przedstawionych przez nas w niniejszym artykule.

Radykalna transformacja nie jest konieczna, ale oddanie w ręce klientów zaledwie jednej lub dwóch pomniejszych „dźwigni” decyzyjnych również nie wystarcza. Stosując terminologię Dostojewskiego, rzeczywiste ugłaskanie „człowieka z podziemia” oznacza unikanie działań, które mogą zagrozić ludzkiemu poczuciu autonomii, przy jednoczesnym włączeniu funkcji i funkcjonalności zaprojektowanych tak, by stale odnawiać u użytkowników poczucie, że są ludźmi, a nie klawiszami fortepianu.

O Autorach
Ziv Carmon (@zivcarmon) jest dziekanem ds. badań naukowych oraz profesorem marketingu w INSEAD.
Rom Schrift jest profesorem nadzwyczajnym w Kelley School of Business na Indiana University.
Klaus Wertenbroch jest profesorem marketingu oraz profesorem zarządzania i środowiska w INSEAD.
Haiyang Yang jest adiunktem w Johns Hopkins Carey Business School.