Światowy rynek technologii związanych z rozpoznawaniem emocji rośnie – i to zdecydowanie. Średni szacowany wskaźnik wzrostu w latach 2017–2023 to 17%, dzięki czemu w 2023 roku całkowita wartość tego rynku wyniesie 25 miliardów dolarów.

A jednak coraz wyraźniej słychać także głosy, że wykorzystywanie technologii rozpoznawania emocji, a nawet w ogóle rozpoznawania twarzy, powinno zostać w wielu sytuacjach zakazane. A przecież mówimy tu także o jednej z najpopularniejszych obecnie technologii biometrycznej służącej do weryfikacji tożsamości.
Rozpoznawanie emocji? To już działa
Technologie rozpoznawania emocji w biznesie nie są pieśnią przyszłości z pogranicza nauki i fikcji literackiej. Już działają i są stosowane.
Dobrym przykładem są tu rozwiązania takie jak HireVue, reklamowane jako pomoc sztucznej inteligencji w procesie profilowania kandydatów do pracy. Specjalne algorytmy analizują na żywo lub na nagraniu wideo pełne spektrum zachowania potencjalnych pracowników: od używanego przez nich słownictwa, poprzez ruchy ciała, aż po mimikę. Następnie oceniają każdego z kandydatów, przyznając mu określoną liczbę „punktów dopasowania”. Jak ocenia „Washington Post”, z tego typu rozwiązań skorzystało już więcej niż 100 firm, stosując je w ocenie ponad miliona kandydatów do pracy.
Na rynku są też dostępne urządzenia służące do pogłębionego badania emocji i reakcji użytkowników, takie jak LooxidVR. Pod względem wyglądu jest ono zbliżone do zwykłych gogli VR, ale zawiera kamerki służące do śledzenia ruchów gałek ocznych użytkownika oraz czujniki badające przebieg fal mózgowych (EEG). Zastosowanie? Między innymi w edukacji, trenowaniu nowych umiejętności czy nawet leczeniu schorzeń psychicznych. Nas jednak interesuje znów przede wszystkim kontekst biznesowy – badanie reakcji potencjalnych klientów na poziomie spontanicznych, emocjonalnych reakcji na przedstawione produkty i oferty zapowiada się naprawdę obiecująco.
Działa, ale czy działa dobrze?
Jeśli nawet ograniczymy się tylko do tych dwóch przykładów i do tego, co obiecują twórcy tych rozwiązań, to i tak technologia rozpoznawania emocji ma ogromny potencjał biznesowy. Potencjał, w który już dziś wierzy wiele firm i wielu inwestorów – stąd zresztą wynika takie, a nie inne tempo wzrostu tego rynku. Jeśli zatem ta technologia ma potencjał i już jest wykorzystywana w niektórych obszarach, to pozostaje zadać jeszcze jedno pytanie. Czy rzeczywiście działa ona tak, jak powinna?
Są pewne wyraźne sygnały tego, że tak nie jest. W ciągu ostatnich lat głośno wybrzmiewały skandale związane z „rasistowskimi” błędami systemów rozpoznawania twarzy:
osoby o azjatyckich rysach twarzy rozpoznawane były jako mrugające;
osoby o ciemnej karnacji identyfikowane były jako goryle;
płeć osób o ciemnej karnacji identyfikowana była błędnie;
obecność w kadrze twarzy osób, które nie miały jasnej karnacji, nie była rozpoznawana .
Obecnie podobne problemy z podobnego zakresu dotyczą właśnie technologii rozpoznawania emocji. Jak wykazują badania, systemy takie jak Face generalnie interpretują osoby o ciemniejszej karnacji jako mniej szczęśliwe i bardziej agresywne. To oczywiście tylko przykład błędu – co więcej, błędu prostego, który możemy łatwo wykryć. Problem polega jednak na tym, że spora część potencjalnych błędów wynikających z zastosowania sztucznej inteligencji nie podlega tak jednoznacznej i szybkiej interpretacji.
Wracając do jednego z wymienionych wyżej przykładów – nie znamy i nadal nie rozumiemy wszystkich czynników, które sprawiają, że dana osoba lepiej sprawdzi się, zajmując konkretne stanowisko pracy i działając w ramach określonego zespołu. Oczywiście bazowanie na dużych zbiorach danych uzasadnia nadzieję, że wykorzystujące je algorytmy wykryją nawet niezrozumiałe dla nas, mało intuicyjne cechy kandydata do pracy. I że wybiorą optymalnie.
Cóż, jak wskazują przykłady innych, łatwych do wykrycia, błędów – mogą się również mylić. Zresztą błędy w procesach rekrutacyjnych wspomaganych przez AI również zostały już udowodnione, na przykład system stosowany przez firmę Amazon wyraźnie dyskryminował kobiety.
Czary mary i wróżenie z fusów?
Na początku artykułu przywołałem najbardziej pozytywne przykłady wykorzystywania technologii rozpoznawania emocji – przyszła więc pora na oddanie głosu jej przeciwnikom. Tu warto przede wszystkim przywołać raport instytutu badawczego AI Now, opowiadającego się jednoznacznie za ograniczeniem stosowania tego typu rozwiązań. Podstawowym przesłaniem raportu jest stwierdzenie, że technologia rozpoznawania emocji nie bazuje jeszcze na wystarczających podstawach naukowych. Więcej w niej irracjonalnej fascynacji nowymi technologiami, ocierającej się o „magiczność”, niż prawdziwej (choć sztucznej) inteligencji.
Wśród postulatów przedstawionych przez instytut AI Now warto wymienić:
Zakaz stosowania technologii rozpoznawania emocji przy podejmowaniu ważnych decyzji, wpływających na życie ludzi i ograniczających ich możliwości.
Zakaz rozwijania technologii rozpoznawania emocji przez firmy zajmujące się sztuczną inteligencją.
Zaprzestanie wykorzystywania technologii rozpoznawania twarzy w delikatnych kontekstach społecznych i politycznych, zarówno przez organy państwowe, jak i biznes.
Zatrzymać rozwój techniki… To jakiś dowcip
Zbyt wiele przykładów z historii ludzkości udowadnia, że rozwoju techniki nie da się powstrzymać – a już zwłaszcza w przypadku technologii, które mogą mieć zastosowanie militarne lub/i polityczne. Dotyczy to również algorytmów interpretujących ludzkie emocje, wykorzystywanych nie tylko w biznesie, ale także m.in. przez policję (predykcja zachowań przestępczych, która zresztą też doprowadziła już do kilku skandali…). Nikt, łącznie zapewne z autorami raportu AI Now, nie łudzi się chyba, że technologia rozpoznawania emocji (a nawet twarzy) zostanie zakazana, a jej rozwój – wstrzymany.
Nie zmienia to jednak faktu, że tego typu protesty są jak najbardziej potrzebne. Po pierwsze, wskazują na istniejące braki w wiedzy czy prawie, których uzupełnienie pozwoliłoby na lepsze zrozumienie działania określonych technologii, a przede wszystkim na wykorzystywanie ich w sposób uczciwy i jawny. Po drugie, wyraźnie wskazują na niebezpieczeństwa i problemy, jakie wiążą się z wykorzystaniem technologii rozpoznawania twarzy. Dzięki temu firmy, które zdecydują się na wykorzystywanie tych rozwiązań, nie uczynią tego zapewne w sposób bezkrytyczny i łatwowierny.
Bo nie ulega wątpliwości, że technologia rozpoznawania emocji – nawet jeśli jej teraźniejszość budzi jeszcze spore zastrzeżenia i obawy – ma przyszłość. Warto się nią interesować, warto śledzić jej rozwój i warto będzie – w sposób uczciwy, jawny i zgodny z prawem – wykorzystać ją w swoim biznesie.