Technologia rozpoznawania emocji ÔÇô zastosowanie w biznesie

Jak dzia┼éa technologia rozpoznawania emocji? Czy warto j─ů wykorzystywa─ç? A mo┼╝e jej stosowanie powinno zosta─ç zabronione?

┼Üwiatowy rynek technologii zwi─ůzanych z rozpoznawaniem emocji ro┼Ťnie ÔÇô i to zdecydowanie. ┼Üredni szacowany wska┼║nik wzrostu w latach 2017ÔÇô2023 to 17%, dzi─Öki czemu w 2023 roku ca┼ékowita warto┼Ť─ç tego rynku wyniesie 25 miliard├│w dolar├│w.

Globalny rynek rozwi─ůza┼ä wykorzystuj─ůcych technologi─Ö rozpoznawania emocji osi─ůgnie w ci─ůgu kilku najbli┼╝szych lat warto┼Ť─ç 25 miliard├│w dolar├│w. ┼╣r├│d┼éo: Reuters.com

A jednak coraz wyra┼║niej s┼éycha─ç tak┼╝e g┼éosy, ┼╝e wykorzystywanie technologii rozpoznawania emocji, a nawet w og├│le rozpoznawania twarzy, powinno zosta─ç w wielu sytuacjach zakazane. A przecie┼╝ m├│wimy tu tak┼╝e o jednej z najpopularniejszych obecnie technologii biometrycznej s┼éu┼╝─ůcej do weryfikacji to┼╝samo┼Ťci.

Rozpoznawanie emocji? To już działa

Technologie rozpoznawania emocji w biznesie nie s─ů pie┼Ťni─ů przysz┼éo┼Ťci z pogranicza nauki i fikcji literackiej. Ju┼╝ dzia┼éaj─ů i s─ů stosowane.

Dobrym przyk┼éadem s─ů tu rozwi─ůzania takie jak HireVue, reklamowane jako pomoc sztucznej inteligencji w procesie profilowania kandydat├│w do pracy. Specjalne algorytmy analizuj─ů na ┼╝ywo lub na nagraniu wideo pe┼éne spektrum zachowania potencjalnych pracownik├│w: od u┼╝ywanego przez nich s┼éownictwa, poprzez ruchy cia┼éa, a┼╝ po mimik─Ö. Nast─Öpnie oceniaj─ů ka┼╝dego z kandydat├│w, przyznaj─ůc mu okre┼Ťlon─ů liczb─Ö ÔÇ×punkt├│w dopasowaniaÔÇŁ. Jak ocenia ÔÇ×Washington PostÔÇŁ, z tego typu rozwi─ůza┼ä skorzysta┼éo ju┼╝ wi─Öcej ni┼╝ 100 firm, stosuj─ůc je w ocenie ponad miliona kandydat├│w do pracy.

Na rynku s─ů te┼╝ dost─Öpne urz─ůdzenia s┼éu┼╝─ůce do pog┼é─Öbionego badania emocji i reakcji u┼╝ytkownik├│w, takie jak LooxidVR. Pod wzgl─Ödem wygl─ůdu jest ono zbli┼╝one do zwyk┼éych gogli VR, ale zawiera kamerki s┼éu┼╝─ůce do ┼Ťledzenia ruch├│w ga┼éek ocznych u┼╝ytkownika oraz czujniki badaj─ůce przebieg fal m├│zgowych (EEG). Zastosowanie? Mi─Ödzy innymi w edukacji, trenowaniu nowych umiej─Ötno┼Ťci czy nawet leczeniu schorze┼ä psychicznych. Nas jednak interesuje zn├│w przede wszystkim kontekst biznesowy ÔÇô badanie reakcji potencjalnych klient├│w na poziomie spontanicznych, emocjonalnych reakcji na przedstawione produkty i oferty zapowiada si─Ö naprawd─Ö obiecuj─ůco.

Działa, ale czy działa dobrze?

Je┼Ťli nawet ograniczymy si─Ö tylko do tych dw├│ch przyk┼éad├│w i do tego, co obiecuj─ů tw├│rcy tych rozwi─ůza┼ä, to i tak technologia rozpoznawania emocji ma ogromny potencja┼é biznesowy. Potencja┼é, w kt├│ry ju┼╝ dzi┼Ť wierzy wiele firm i wielu inwestor├│w ÔÇô st─ůd zreszt─ů wynika takie, a nie inne tempo wzrostu tego rynku. Je┼Ťli zatem ta technologia ma potencja┼é i ju┼╝ jest wykorzystywana w niekt├│rych obszarach, to pozostaje zada─ç jeszcze jedno pytanie. Czy rzeczywi┼Ťcie dzia┼éa ona tak, jak powinna?

S─ů pewne wyra┼║ne sygna┼éy tego, ┼╝e tak nie jest. W ci─ůgu ostatnich lat g┼éo┼Ťno wybrzmiewa┼éy skandale zwi─ůzane z ÔÇ×rasistowskimiÔÇŁ b┼é─Ödami system├│w rozpoznawania twarzy:

  • osoby o azjatyckich rysach twarzy rozpoznawane by┼éy jako mrugaj─ůce;
  • osoby o ciemnej karnacji identyfikowane by┼éy jako goryle;
  • p┼ée─ç os├│b o ciemnej karnacji identyfikowana by┼éa b┼é─Ödnie;
  • obecno┼Ť─ç w kadrze twarzy os├│b, kt├│re nie mia┼éy jasnej karnacji, nie by┼éa rozpoznawana .

Obecnie podobne problemy z podobnego zakresu dotycz─ů w┼éa┼Ťnie technologii rozpoznawania emocji. Jak wykazuj─ů badania, systemy takie jak Face++ generalnie interpretuj─ů osoby o ciemniejszej karnacji jako mniej szcz─Ö┼Ťliwe i bardziej agresywne. To oczywi┼Ťcie tylko przyk┼éad b┼é─Ödu ÔÇô co wi─Öcej, b┼é─Ödu prostego, kt├│ry mo┼╝emy ┼éatwo wykry─ç. Problem polega jednak na tym, ┼╝e spora cz─Ö┼Ť─ç potencjalnych b┼é─Öd├│w wynikaj─ůcych z zastosowania sztucznej inteligencji nie podlega tak jednoznacznej i szybkiej interpretacji.

Wracaj─ůc do jednego z wymienionych wy┼╝ej przyk┼éad├│w ÔÇô nie znamy i nadal nie rozumiemy wszystkich czynnik├│w, kt├│re sprawiaj─ů, ┼╝e dana osoba lepiej sprawdzi si─Ö, zajmuj─ůc konkretne stanowisko pracy i dzia┼éaj─ůc w ramach okre┼Ťlonego zespo┼éu. Oczywi┼Ťcie bazowanie na du┼╝ych zbiorach danych uzasadnia nadziej─Ö, ┼╝e wykorzystuj─ůce je algorytmy wykryj─ů nawet niezrozumia┼ée dla nas, ma┼éo intuicyjne cechy kandydata do pracy. I ┼╝e wybior─ů optymalnie.

C├│┼╝, jak wskazuj─ů przyk┼éady innych, ┼éatwych do wykrycia, b┼é─Öd├│w ÔÇô mog─ů si─Ö r├│wnie┼╝ myli─ç. Zreszt─ů b┼é─Ödy w procesach rekrutacyjnych wspomaganych przez AI r├│wnie┼╝ zosta┼éy ju┼╝ udowodnione, na przyk┼éad system stosowany przez firm─Ö Amazon wyra┼║nie dyskryminowa┼é kobiety.

Czary mary i wr├│┼╝enie z fus├│w?

Na pocz─ůtku artyku┼éu przywo┼éa┼éem najbardziej pozytywne przyk┼éady wykorzystywania technologii rozpoznawania emocji ÔÇô przysz┼éa wi─Öc pora na oddanie g┼éosu jej przeciwnikom. Tu warto przede wszystkim przywo┼éa─ç raport instytutu badawczego AI Now, opowiadaj─ůcego si─Ö jednoznacznie za ograniczeniem stosowania tego typu rozwi─ůza┼ä. Podstawowym przes┼éaniem raportu jest stwierdzenie, ┼╝e technologia rozpoznawania emocji nie bazuje jeszcze na wystarczaj─ůcych podstawach naukowych. Wi─Öcej w niej irracjonalnej fascynacji nowymi technologiami, ocieraj─ůcej si─Ö o ÔÇ×magiczno┼Ť─çÔÇŁ, ni┼╝ prawdziwej (cho─ç sztucznej) inteligencji.

W┼Ťr├│d postulat├│w przedstawionych przez instytut AI Now warto wymieni─ç:

  • Zakaz stosowania technologii rozpoznawania emocji przy podejmowaniu wa┼╝nych decyzji, wp┼éywaj─ůcych na ┼╝ycie ludzi i ograniczaj─ůcych ich mo┼╝liwo┼Ťci.
  • Zakaz rozwijania technologii rozpoznawania emocji przez firmy zajmuj─ůce si─Ö sztuczn─ů inteligencj─ů.
  • Zaprzestanie wykorzystywania technologii rozpoznawania twarzy w delikatnych kontekstach spo┼éecznych i politycznych, zar├│wno przez organy pa┼ästwowe, jak i biznes.

Zatrzyma─ç rozw├│j techniki… To jaki┼Ť dowcip

Zbyt wiele przyk┼éad├│w z historii ludzko┼Ťci udowadnia, ┼╝e rozwoju techniki nie da si─Ö powstrzyma─ç ÔÇô a ju┼╝ zw┼éaszcza w przypadku technologii, kt├│re mog─ů mie─ç zastosowanie militarne lub/i polityczne. Dotyczy to r├│wnie┼╝ algorytm├│w interpretuj─ůcych ludzkie emocje, wykorzystywanych nie tylko w biznesie, ale tak┼╝e m.in. przez policj─Ö (predykcja zachowa┼ä przest─Öpczych, kt├│ra zreszt─ů te┼╝ doprowadzi┼éa ju┼╝ do kilku skandaliÔÇŽ). Nikt, ┼é─ůcznie zapewne z autorami raportu AI Now, nie ┼éudzi si─Ö chyba, ┼╝e technologia rozpoznawania emocji (a nawet twarzy) zostanie zakazana, a jej rozw├│j ÔÇô wstrzymany.

Nie zmienia to jednak faktu, ┼╝e tego typu protesty s─ů jak najbardziej potrzebne. Po pierwsze, wskazuj─ů na istniej─ůce braki w wiedzy czy prawie, kt├│rych uzupe┼énienie pozwoli┼éoby na lepsze zrozumienie dzia┼éania okre┼Ťlonych technologii, a przede wszystkim na wykorzystywanie ich w spos├│b uczciwy i jawny. Po drugie, wyra┼║nie wskazuj─ů na niebezpiecze┼ästwa i problemy, jakie wi─ů┼╝─ů si─Ö z wykorzystaniem technologii rozpoznawania twarzy. Dzi─Öki temu firmy, kt├│re zdecyduj─ů si─Ö na wykorzystywanie tych rozwi─ůza┼ä, nie uczyni─ů tego zapewne w spos├│b bezkrytyczny i ┼éatwowierny.

Bo nie ulega w─ůtpliwo┼Ťci, ┼╝e technologia rozpoznawania emocji ÔÇô nawet je┼Ťli jej tera┼║niejszo┼Ť─ç budzi jeszcze spore zastrze┼╝enia i obawy ÔÇô ma przysz┼éo┼Ť─ç. Warto si─Ö ni─ů interesowa─ç, warto ┼Ťledzi─ç jej rozw├│j i warto b─Ödzie ÔÇô w spos├│b uczciwy, jawny i zgodny z prawem ÔÇô wykorzysta─ç j─ů w swoim biznesie.