Najpopularniejsze tematy:

Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Jesteś Subskrybentem? Zaloguj się

Premium

Subskrybenci wiedzą więcej!

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>
Czy AI doprowadzi do dyskryminacji talentów?

Czy sztuczna inteligencja ma szansę osiągnąć mistrzowski poziom zwany superinteligencją, która przewyższając poziom inteligencji człowieka, znajdzie idealnie pasujący talent na dane stanowisko? A może jej niedoskonała natura w dalszym ciągu będzie źródłem nowych etycznych problemów i przyczyną dyskryminacji oraz stronniczości w procesie rekrutacji?

Organizacje w procesie rekrutacji coraz chętniej zaczynają korzystać z nowinek technologicznych, oddelegowując część procesów rekrutacyjnych narzędziom sztucznej inteligencji. Algorytmy za pomocą słów kluczowych pomagają wybrać najlepsze talenty, czyli kandydatów o określonych umiejętnościach i kompetencjach potrzebnych na dane stanowisko. Proces selekcji kandydata wspomagany narzędziami AI rodzi jednak obawy dotyczące dyskryminacji tych, którzy nie posiadają pożądanego talentu, ale mają za to predyspozycje, by go w sobie rozwinąć. Czy wraz z przejęciem procesów rekrutacji przez sztuczną inteligencję będziemy narażeni na dyskryminację talentów?

Różnorodność definicji

Słowem „talent”, niczym na cyrkowej arenie, żonglują zarówno psychologowie, rekruterzy, jak i liderzy. Nadużywanie tego słowa w każdym możliwym kontekście rodzi pewne wątpliwości, ponieważ inaczej talent postrzegają psychologowie, jeszcze inaczej HR‑owcy. Należy wyjść zatem od słownikowej definicji, która określa talent jako wybitne uzdolnienie, cenny dar czy przymiot.

Według Instytutu Gallupa talent to naturalnie powtarzający się wzorzec myślenia, odczuwania i reagowania, który może być produktywnie wykorzystany. Określany jest również jako naturalne cechy, które predysponują do określonego odbioru i przetwarzania rzeczywistości, a tym samym osiągnięć na pewnych polach. Najsilniejsze, najbardziej dominujące talenty danej osoby cechują się największą dynamiką i mają największy wpływ na jej zachowanie oraz osiągnięcia.

Z kolei psychologowie talentem nazywają spotęgowane uzdolnienia, które mogą być wyspecjalizowane w danym obszarze, np. muzycznym, matematycznym, czy też humanistycznym. Talentami mogą być również wrodzone cechy, które wyrażają się w unikalnym wzorcu myślenia, odczuwania bądź zachowania. Wzorzec ten zapisany jest w mózgu w postaci połączeń synaptycznych. Posiadanie talentu nie jest uzależnione jednak od ilości posiadanych połączeń, ale od umiejętności ich wykorzystywania.

Natomiast pracownicy działów HR talentem określają osobę charakteryzującą się „potencjałem, zdolnościami, motywacją i wiedzą, której działania mają istotny wpływ na funkcjonowanie organizacji”. Taka osoba osiąga ponadprzeciętne wyniki, realizuje powierzone cele, jednocześnie troszcząc się o rozwój własny. Zatem talentem można nazwać coś, co ma pracownik, a czego potrzebuje organizacja. Takie rozumienie talentów jasno wskazuje, że mówimy o gotowym już arsenale umiejętności, a nie o samych predyspozycjach do wzmocnienia określonej cechy.

W niniejszym artykule za talent przyjmować będziemy zarówno kompetencje, jak i predyspozycje, które kształtują się na bazie cech osobowości powodujących, że ktoś szczególnie nadaje się do konkretnego zadania lub stanowiska.

Sztuczna inteligencja chwyta za ster rekrutacji

Wraz z rozwojem nowych technologii pracodawcy zaczęli szukać sposobów, które nie tylko zautomatyzują proces selekcji kandydatów, ale również pozwolą dokładniej ocenić doświadczenie i osobowość kandydata. Narzędzia sztucznej inteligencji pozwalają rekruterom stworzyć wzorzec idealnego kandydata na dane stanowisko, a następnie za pomocą algorytmów porównywać i selekcjonować poszczególne zgłoszenia. Są również w stanie na podstawie dotychczasowej ścieżki zawodowej przygotować predykcję dotyczącą losów  kandydata i to, czy sprawdzi się na danym stanowisku. AI może dokonywać selekcji kandydatów również na podstawie analizy mowy. Oceniając sposób wypowiedzi i intonację, określa osobowość danego kandydata, jego zaangażowanie, szczerość i zdolności komunikacyjne. Narzędzia AI potrafią również dokonać oceny osobowości kandydata i emocji na podstawie analizy mimiki twarzy podczas wideo rozmowy rekrutacyjnej.

Użycie algorytmów podczas selekcji CV i wybierania kandydata na podstawie uzyskanych rekordów budzi jednak wiele kontrowersji. Głównym zarzutem jest stronniczość oraz fakt, że AI nie rozumie kontekstu – nie rozpozna np. tych samych obowiązków zapisanych w odmienny sposób, co stwarza ryzyko, że dobry kandydat może zostać pominięty tylko dlatego, że nie umieścił w CV odpowiedniej frazy. Dodatkowo wstępna selekcja oparta na AI może skutkować wyborem kandydatów o zbliżonych cechach i jednakowym doświadczeniu.

Winę za to ponosi błąd algorytmiczny pojawiający się wtedy, gdy algorytm generuje wyniki, na które może wpływać jedna lub wiele zmiennych. Do wytrenowania sieci neuronowej potrzebna jest odpowiednio duża liczba przykładów, o dużej różnorodności, które pozwolą wykryć najdrobniejsze zależności. Zbyt mały, niewystarczająco różnorodny i nieaktualizowany zbiór danych sprawia, że system popełnia błędy, tworząc skrzywienie, a to może prowadzi do dyskryminacji i uprzedzeń.

Ten problem został odkryty w 2015 roku w badaniach prowadzonych nad systemem reklam Google. Wyniki pokazały, że system częściej wyświetlał ogłoszenia o wysoko płatnych stanowiskach pracy mężczyznom niż kobietom, a wyniki wyszukiwania grafik do zapytania „CEO” pokazywały prawie trzykrotnie mniej zdjęć kobiet, niż wynikałoby to z faktycznej proporcji tej płci wśród CEO w USA. Takie rezultatu zdaniem badaczy mogą utwierdzać użytkowników internetu w przekonaniu, że kobiety nie nadają się do sprawowania kierowniczych ról i przez to utrwalać takie uprzedzenie. Równouprawnienie trudno jest zaprogramować, ale można stworzyć narzędzia oceny algorytmów pod kątem przestrzegania zasad równości oraz opracować standardy ich etycznego działania.

Kolejnym przykładem, który został opisany w Raporcie Hidden Workesrs: Utapped Talents z 2021 roku przygotowanym przez Harvard Business School jest zjawisko ukrytych pracowników. Zautomatyzowane oprogramowanie do skanowania CV i selekcji odrzuca miliony realnych kandydatów, co powoduje „zepsucie” systemu rekrutacji w USA. Autorzy badania wskazują szereg czynników mających negatywny wpływ na pogorszenie się amerykańskiego rynku pracy, zaliczając do jednego z nich używanie programów, które automatyzują proces selekcji nadesłanych aplikacji, z których korzysta 75% pracodawców w USA (99% firm z listy Fortune 500). Powodem nieprawidłowo odrzucanych kandydatów przez zautomatyzowane programy jest zastosowanie zbyt uproszczonych kryteriów do podziału „dobrych” i „złych” kandydatów. Na przykład niektóre systemy automatycznie odrzucają kandydatów z przerwami w pracy dłuższymi niż sześć miesięcy, nigdy nie pytając o przyczynę tej przerwy. Może to być spowodowane ciążą, opieką nad chorym członkiem rodziny lub po prostu trudnościami w znalezieniu pracy w czasie recesji. Jeden z autorów badania podaje przykład szpitala, który wybierał tylko kandydatów z doświadczeniem w „programowaniu komputerów”, podczas gdy potrzebowali jedynie pracowników do wprowadzania danych pacjentów do komputera.

Sami Amerykanie są zaniepokojeni zastosowaniem sztucznej inteligencji w miejscach pracy, co wskazują najnowsze badania opinii publicznej przeprowadzone przez Pew Research Center wśród 11 004 dorosłych Amerykanów, w dniach 12‑18 grudnia 2022 r. Amerykanie sprzeciwiają się wykorzystywaniu sztucznej inteligencji przy podejmowaniu ostatecznych decyzji o zatrudnieniu 71%, a większość sprzeciwia się również wykorzystywaniu analizy sztucznej inteligencji do podejmowania decyzji o zwolnieniu. Wiele osób sprzeciwia się także wykorzystywaniu sztucznej inteligencji do przeglądania podań o pracę i określania, czy pracownik powinien zostać awansowany. Około dwie trzecie Amerykanów twierdzi, że nie chciałoby ubiegać się o pracę, gdyby sztuczna inteligencja była wykorzystywana do podejmowania decyzji o zatrudnieniu, ale w 41% są przychylni do jej wykorzystania podczas selekcji kandydatów. Głównym powodem niechęci wykorzystania AI do podjęcia decyzji o zatrudnieniu danego kandydata do pracy jest obawa, że program do rekrutacji nie będzie w stanie wychwycić osobowości kandydatów do pracy ani stwierdzić, czy osoby poszukujące zatrudnienia będą pasować do współpracowników. Inną obawą jest to, że systemy sztucznej inteligencji mogą wprowadzać uprzedzenia lub inne problemy do procesów rekrutacji.

Jednym z głośniejszych ostatnio przypadków naruszeń i podejrzenia dyskryminacji było wykorzystanie technologii skanowania twarzy do oceny kandydatów do pracy przez firmę HireVue. Ocena kandydatów dokonywana przez narzędzie sztucznej inteligencji firmy HireVue, z których skorzystało ponad 100 pracodawców na ponad milionie kandydatów do pracy, wykorzystała wywiady wideo do analizy setek kandydatur na podstawie głosu, doboru słów i ruchów twarzy, a następnie system wygenerował komputerowo ocenę umiejętności i zachowań kandydatów. Narzędzie ma również dodatkową funkcję porównania danej kandydatury z historiami ludzi sukcesu, co ma pomóc w znalezieniu nieszablonowych kandydatów, którzy dobrze rokują. Urzędnicy Electronic Privacy Information Center (EPIC) w skardze złożonej do Federalnej Komisji Handlu w Waszyngtonie przeciwko firmie HireVue podważali wiarygodność danych, twierdząc, że oceny oparte na sztucznej inteligencji generowane przez HireVue są stronnicze. Argumentowali, że system może niesprawiedliwie oceniać kogoś na podstawie uprzedzeń związanych z płcią, rasą czy orientacją seksualną, a także dyskryminować osoby niepełnosprawne.

Nadmierne poleganie na oprogramowaniu w branży HR stworzyło błędne koło. Technologia cyfrowa miała ułatwić firmom znalezienie odpowiednich kandydatów do pracy, ale zamiast tego przyczyniła się do generowania podejrzeń o dyskryminację i stronniczość, a także dokonywania ślepych wyborów, które są wynikiem nieprzejrzystego działania algorytmów.

Rozwiązanie problemu

W czasach, kiedy budowanie różnorodnych zespołów jest częścią misji wielu organizacji, proces selekcji kandydatów z użyciem stronniczej AI może stanowić zaprzeczenie podejmowanych przez nich działań. Nie chodzi przecież o wybór cyborga o określonych cechach, ale człowieka, który to dzięki swojej osobowości, naturalnym predyspozycjom i kompetencjom ma szansę wnieść wartość do organizacji. Wykorzystując narzędzia AI w procesie selekcji kandydatów, ważne jest, żeby mieć świadomość zniekształceń algorytmicznych i podejmować odpowiednie kroki w celu ich wyeliminowania. Uzupełnieniem niedoskonałości działania sztucznej inteligencji musi być w dalszym ciągu czynnik ludzki, czyli zaangażowanie pracowników działów HR w proces rekrutacji. To oni podejmują ostateczną decyzję co do oceny kompetencji danego kandydata i tego, czy jest talentem, czy też nie. Sztuczna inteligencja pozostaje modelem „identyfikacji” albo diagnozy, a rekruter ostatnim ogniwem weryfikacji działań, który ocenia profil kandydata pod kątem posiadania pożądanych zachowań lub predyspozycji do ich rozwinięcia. Całkowite przejęcie procesu rekrutacji przez program i wyłączenie czynnika ludzkiego z funkcji interwencyjnej na tę chwilę może rodzić wiele problemów.

Dobry pracownik działu HR w połączeniu z dobrym algorytmem osiągają o wiele lepsze wyniki niż najlepszy specjalista lub najlepszy algorytm pracujący w pojedynkę. Nie trzeba zmuszać ludzi do rywalizacji z algorytmami, tylko zachęcić ich, by z nimi współpracowali. Maszyny nigdy nie będą zachowywały się jak ludzie, a ludzie nigdy nie będą działać jak maszyny. Trzeba zdać sobie sprawę z faktu, że wszyscy bywamy omylni – każdy czasami popełnia błędy, nawet algorytm. Ważne, żeby wyciągać z tych błędów wnioski.

Zachowajmy ludzki aspekt w procesie rekrutacji
Komentarz eksperta Jacka Krajewskiego, HR Tech Advisor&Product Expert w Elevato:

– Chociaż AI może przyspieszyć proces rekrutacji i pomóc zautomatyzować wiele rutynowych zadań, nie można lekceważyć ewentualnych skutków ubocznych tego podejścia. Algorytmy nie są w stanie w pełni docenić subtelnego kontekstu ludzkiego doświadczenia i zdolności, co jest kluczowe w przypadku strategii rekrutacji opartych na potencjale i chęci do uczenia się nowych umiejętności.

Ponadto, gdy mówimy o wykorzystaniu AI w rekrutacji, musimy pamiętać o konieczności większej transparentności i audytowania tych narzędzi. Bez tego istnieje ryzyko utrzymania lub nawet wzmacniania istniejących uprzedzeń i dyskryminacji w procesie rekrutacji, co jest szczególnie niepokojące w kontekście strategii diversity & inclusion.

Wreszcie, nie wolno nam zapominać o ludzkim aspekcie w procesie rekrutacji. Pomimo wszystkich zalet technologii to przecież ludzie tworzą kulturę organizacji, a ich unikalne cechy i zdolności nie zawsze są łatwe do kwantyfikowania czy oceny przez systemy oparte na AI.

Dlatego też, choć korzyści wynikające z wykorzystania AI w procesie rekrutacji są oczywiste, musimy być świadomi i przygotowani na potencjalne wyzwania i zagrożenia. Powinniśmy dążyć do wykorzystania technologii w sposób, który jest etyczny, odpowiedzialny i zgodny z naszymi wartościami jako organizacji.

Paulina Chmiel-Antoniuk

redaktorka "MIT Sloan Management Review Polska"

Polecane artykuły


Najpopularniejsze tematy