Czy uda się przełamać nieufność do sztucznej inteligencji

Sztuczna inteligencja jest traktowana przez użytkowników technologii informacyjnej z rezerwą. Aby przełamać ich nieufność, twórcy aplikacji AI powinni powstrzymać się od przesadnego zachwalania ich zalet, zadbać o przejrzystość i jawność informacji o ich funkcjach, a także certyfikować aplikacje w niezależnych specjalistycznych firmach.

Przykro to mówić, ale wielu użytkowników systemów IT nie ufa decyzjom, odpowiedziom ani zaleceniom sztucznej inteligencji. W jednym z badań ankietowych amerykańskich konsumentów 41,5% respondentów odpowiedziało, że nie ma zaufania do żadnej spośród wymienionych w kwestionariuszu popularnych usług AI (między innymi takich jak: domowy asystent, planowanie finansów, diagnoza medyczna czy pomoc w zatrudnianiu pracownika). Zaledwie 9% ufało AI w kwestii swoich finansów, a tylko 4% miało zaufanie do aplikacji wspomagającej proces zatrudniania pracownika.

W innym badaniu, przeprowadzonym na próbie 2 tysięcy amerykańskich konsumentów, poproszono o odpowiedź na pytanie: Jakie odczucia najlepiej odzwierciedlają twoje emocje, kiedy myślisz o sztucznej inteligencji? Najwięcej respondentów (45%) zaznaczyło „zainteresowanie, ciekawość”, ale niewiele mniej podkreśliło „ostrożność, niepokój” (40,5%), „sceptycyzm” (40,1%), „niepewność” (39,1%) oraz „podejrzliwość” (29,8%)[.

Najwyraźniej mamy problem, ale jaki? I czy zdołamy się z nim uporać? Moim zdaniem, jedno jest pewne: jeśli chcemy, żeby sztuczna inteligencja zdobyła zaufanie biznesu i społeczeństwa, powinniśmy poświęcić uwagę kilku kwestiom.

Getty Images

Nie wyolbrzymiaj zalet aplikacji AI

Według analityczno-badawczej firmy Gartner, technologie, takie jak: systemy kognitywne (połączenie rozwiązań sztucznej inteligencji z przetwarzaniem sygnałów dźwiękowych czy graficznych), uczenie maszynowe, głębokie uczenie się oraz wirtualny ekspert-doradca, osiągnęły już szczyt w tzw. Hype Cycle Gartnera, czyli cyklu pompowania ekscytacji konsumentów nowościami IT i obecnie nieuchronnie zmierzają ku „dolinie rozczarowań” (trough of disillusionment).

W tym przypadku największą winę ponoszą producenci. IBM na przykład przeznaczył ogromną kwotę na budżet reklamowy superkomputera Watson, zapewniając z dużą dozą fantazji o rewelacyjnych jakoby zdolnościach maszyny. Oren Etzioni, wybitny badacz sztucznej inteligencji, nazwał Watsona „Donaldem Trumpem sektora AI, roszczącym sobie pretensje do osiągnięć niepopartych wiarygodnymi danymi”.

Popatrz na Teslę

Materiału podsycającego ekscytację i entuzjazm użytkowników regularnie dostarcza również Elon Musk, zwłaszcza w kwestii w pełni autonomicznego samochodu marki Tesla. Dla podkreślenia możliwości swojego produktu firma posługuje się terminem autopilot, sugerując tym samym pełną autonomię pojazdu, co wzbudziło liczne kontrowersje]. Samochód Tesli ma wprawdzie imponujące półautonomiczne zdolności jezdne i pod wieloma względami jest wspaniałą maszyną, ale z pewnością nie jest jeszcze pojazdem w pełni autonomicznym.

Na szczęście nie wszystkie firmy wyolbrzymiają zalety i możliwości, jakie ma sztuczna inteligencja stosowana w codziennych operacjach. Do tej grupy należy szwedzki bank SEB, właściciel Aidy, inteligentnego asystenta, zaprojektowanego na podobieństwo Amelii stworzonej przez IPsoft. Wypowiadając się o Aidzie, SEB konsekwentnie zachowuje powściągliwość w opisie jej możliwości.

Osoba czy maszyna?

Początkowo wprowadził ją tylko do użytku wewnętrznego, jako jednostkę wsparcia technicznego IT (i nadal ją wykorzystuje w tej roli, ku zadowoleniu pracowników), dopiero w następnym etapie udostępnił ją swoim klientom na zasadzie eksperymentu. Powściągliwy ton, przynajmniej w porównaniu z tym, jak opisywana jest sztuczna inteligencja przez inne firmy, widać w komunikacie SEB dla mediów:

GettyImages

Aida ma obecnie dwa podstawowe obowiązki: została zatrudniona jako wirtualna pracownica wewnętrznego wsparcia technicznego IT naszego banku, gdzie porozumiewa się w swoim oryginalnym języku angielskim, a ponadto przechodzi szkolenie w jednostce Bank na Telefon, gdzie uczy się rozmawiać z klientami po szwedzku na naszej stronie internetowej seb.se.

„Próbujemy myśleć o Aidzie jak o osobie – mówi Erica Lundin, szefowa Centrum Doskonałości Aida. – Żeby pokazać wszystkim, co osiągnęła i co potrafi, tworzymy dla niej CV, a w przyszłości zamierzamy popracować nad rozwojem osobistym Aidy i w ten sposób poszerzyć obszar jej kompetencji”

Niezależnie od wewnętrznego czy zewnętrznego użytkowania technologii kognitywnych, w kwestii ich funkcji najlepiej jest obiecać mniej i dostarczyć więcej niż na odwrót. Nowe zdolności systemów rozsądniej jest wprowadzać najpierw w wersji testowej (beta), zachęcając tym samym użytkowników do zdobywania wiedzy o sposobach wykorzystania systemu. Nie należy ponadto wykluczać z góry alternatywnych metod rozwiązywania problemów pracowników i klientów (zwykle z udziałem ludzi). Z czasem, gdy wdrożona technologia dojrzeje, a sztuczna inteligencja udoskonali swoje umiejętności, większe zaufanie zaczną wzbudzać zarówno urządzenia, jak i komunikaty opisujące ich funkcje.

Getty Images

Zadbaj o pełną jawność

Innym sposobem zwiększenia zaufania do AI jest ujawnienie wszystkiego, co tylko możliwe, o danym systemie i jego zastosowaniach. Jawność może obejmować na przykład informację, że w określonym momencie klient ma do czynienia z inteligentnym asystentem, będącym w istocie systemem komputerowym, a nie z człowiekiem. W przypadku systemu hybrydowego lub rozszerzonego, w którym uczestniczy i człowiek, i wirtualny doradca, jawność polega na poinformowaniu klienta, w jakich sprawach ma do czynienia z jednym, a w jakich – z drugim.

Opracowania tego rodzaju zasad jawności nie należy raczej powierzać prawnikom posługującym się zwykle hermetyczną terminologią, tylko marketingowcom. Chodzi bowiem o to, żeby do klientów dotarł jasny przekaz: mamy oto możliwość wypróbować nowe rozwiązanie, które zapewni klientom pomoc przez całą dobę, we wszystkie dni tygodnia, i które skutecznie zajmie się ich problemami. Trzeba jednak bardzo ostrożnie podchodzić do wykorzystywania AI w marketingu.

Roboty to nie ludzie

W badaniu ankietowym na próbie 2 tysięcy amerykańskich konsumentów 88% respondentów wyraziło poparcie dla regulacji, która zabroniłaby systemom sztucznej inteligencji, takim jak boty, czatboty i wirtualni asystenci, podawać się za ludzi.

Ujmując rzecz szerzej, 88% stwierdziło, że funkcje sztucznej inteligencji w marketingu powinien określać kodeks etyczny. Optymistycznym akcentem jest to, że aż ⅔ ankietowanych Amerykanów zadeklarowało korzystanie z oferty firm i marek, które wprowadzają SI do komunikowania się i obsługi klientów. Niemniej jednak, jak stwierdziła agencja reklamowa przeprowadzająca owo badanie, „warunkiem koniecznym [aby rzeczywiście skorzystali] jest przejrzystość i jawność”.

Certyfikuj modele i algorytmy

W miarę zwiększania się roli sztucznej inteligencji i maszynowego uczenia się w amerykańskim społeczeństwie oraz w gospodarce z pewnością kiedyś pojawi się potrzeba jakiejś formy zewnętrznej certyfikacji, bez niej bowiem trudno mówić o pełnym zaufaniu do modeli i algorytmów. Skoro Agencja Żywności i Leków certyfikuje leki, skoro audytorzy certyfikują procesy finansowe, a Underwriters Laboratory certyfikuje bezpieczeństwo produktów, dlaczego nie powierzyć zaufanym organizacjom – państwowym lub prywatnym – obowiązku potwierdzania niezawodności, powtarzalności i dokładności algorytmów sztucznej inteligencji?

O możliwości certyfikowania AI po raz pierwszy dowiedziałem się od Adama Schneidera, doradcy z sektora usług finansowych. Podał mi nawet kilka przykładów sytuacji, w których certyfikacja powinna być wręcz wymagana[:

  • Samochody prowadzone przez AI – czy potrzebujemy jakiejś komisji oceniającej zautomatyzowane pojazdy, żeby znać powody awarii, móc porównać różne systemy SI stosowane przez producentów i monitorować rozwój technologii?
  • Diagnozy stawiane przez sztuczną inteligencję – czy zanim AI zdobędzie powszechne zaufanie, nie należałoby opracować procedury weryfikowania diagnozy sztucznej inteligencji przez lekarza człowieka, który wykona to osobiście z zastosowaniem statystycznie poprawnej techniki?
  • Robodoradcy inwestycyjni AI – pewna firma reklamuje się sloganem: „Mamy sztuczną inteligencję, którą dokładnie przetestowaliśmy”. Czy tego rodzaju jawność kogoś zadowala? Co to znaczy: „Mamy sztuczną inteligencję”? Czy standardy nie powinny być ściśle określone, zanim firma zacznie reklamować AI niedoświadczonym inwestorom.
Getty Images

Certyfikacje

Na tego rodzaju certyfikację jeszcze za wcześnie, ale słyszałem o jednym przypadku zgodnym z kierunkiem myślenia Schneidera. Kwestia certyfikacji pojawiła się bowiem podczas mojego wywiadu z Christopherem Stevensonem, doradcą w firmie Deloitte. Rozmawialiśmy na temat jego pracy z „robodoradcami” w obszarze inwestycji i zarządzania majątkiem

Jak się okazało, jego firma już dostarcza certyfikaty i oferuje doradztwo instytucjom finansowym korzystającym z robodoradców. Oferta obejmuje między innymi: ustalenie procedur kontrolnych i częstotliwości testowania efektywności usług doradczych, ocenę komunikacji z klientem oraz zasad jawności i przejrzystości, ocena algorytmów oraz ocena zgodności z regułami zawierania transakcji.

Trudno powiedzieć, czy tego typu usługi znajdą odbiorców w sektorze finansowym, czy w innych sektorach. Zważywszy jednak na znaczenie takich testów dla efektywnego korzystania ze sztucznej inteligencji, przypuszczam, że certyfikacja ostatecznie ruszy pełną parą. A być może do tego, by stała się nakazem z mocy prawa, będzie potrzebna spektakularna awaria odpowiednio nagłośniona przez media.

Thomas H. Davenport (@tdav) jest profesorem w dziedzinie technologii informacyjnych i zarządzania w Babson College w Wellesley w stanie Massachusetts. Niniejszy artykuł jest skrótem tez zawartych w książce jego autorstwa pt. The AI Advantage (MIT Press, 2018).