Reklama
OFERTA SPECJALNA na NAJWYŻSZY pakiet subskrypcji! Wersję Platinum - OFERTA LIMITOWANA
AI SZTUCZNA INTELIGENCJA
Polska flaga

Czy AI doprowadzi do dyskryminacji talentów?

30 maja 2023 11 min czytania
Zdjęcie Paulina Chmiel-Antoniuk - redaktorka "MIT Sloan Management Review Polska"
Paulina Chmiel-Antoniuk
Czy AI doprowadzi do dyskryminacji talentów?

Streszczenie: Organizacje coraz częściej wykorzystują sztuczną inteligencję (AI) w procesach rekrutacyjnych, powierzając algorytmom selekcję kandydatów na podstawie słów kluczowych. Choć takie podejście może zwiększać efektywność, pojawiają się obawy dotyczące dyskryminacji osób, które nie posiadają określonych umiejętności, ale mają potencjał do ich rozwinięcia.
Definicja „talentu” różni się w zależności od perspektywy. Według Instytutu Gallupa to naturalnie powtarzający się wzorzec myślenia, odczuwania i reagowania, który można produktywnie wykorzystać. Psychologowie postrzegają talent jako wybitne uzdolnienia w konkretnych dziedzinach, takich jak muzyka czy matematyka. Z kolei specjaliści HR definiują talent jako kombinację potencjału, zdolności, motywacji i wiedzy, które przekładają się na istotny wpływ na funkcjonowanie organizacji.
Wykorzystanie AI w rekrutacji budzi pytania o możliwość dyskryminacji kandydatów z nietypowymi ścieżkami kariery lub tych, którzy nie wpisują się w standardowe profile poszukiwane przez algorytmy. Istnieje ryzyko, że AI może nie dostrzec ukrytego potencjału u takich osób, skupiając się jedynie na określonych kryteriach. Aby temu zapobiec, konieczne jest odpowiednie programowanie i nadzorowanie systemów AI, uwzględniające różnorodność talentów oraz potencjał do rozwoju, a także zapewnienie, że procesy rekrutacyjne pozostaną sprawiedliwe i inkluzywne.

Pokaż więcej

Czy sztuczna inteligencja ma szansę osiągnąć mistrzowski poziom zwany superinteligencją, która przewyższając poziom inteligencji człowieka, znajdzie idealnie pasujący talent na dane stanowisko? A może jej niedoskonała natura w dalszym ciągu będzie źródłem nowych etycznych problemów i przyczyną dyskryminacji oraz stronniczości w procesie rekrutacji?

Organizacje w procesie rekrutacji coraz chętniej zaczynają korzystać z nowinek technologicznych, oddelegowując część procesów rekrutacyjnych narzędziom sztucznej inteligencji. Algorytmy za pomocą słów kluczowych pomagają wybrać najlepsze talenty, czyli kandydatów o określonych umiejętnościach i kompetencjach potrzebnych na dane stanowisko. Proces selekcji kandydata wspomagany narzędziami AI rodzi jednak obawy dotyczące dyskryminacji tych, którzy nie posiadają pożądanego talentu, ale mają za to predyspozycje, by go w sobie rozwinąć. Czy wraz z przejęciem procesów rekrutacji przez sztuczną inteligencję będziemy narażeni na dyskryminację talentów?

Różnorodność definicji

Słowem „talent”, niczym na cyrkowej arenie, żonglują zarówno psychologowie, rekruterzy, jak i liderzy. Nadużywanie tego słowa w każdym możliwym kontekście rodzi pewne wątpliwości, ponieważ inaczej talent postrzegają psychologowie, jeszcze inaczej HR‑owcy. Należy wyjść zatem od słownikowej definicji, która określa talent jako wybitne uzdolnienie, cenny dar czy przymiot.

Według Instytutu Gallupa talent to naturalnie powtarzający się wzorzec myślenia, odczuwania i reagowania, który może być produktywnie wykorzystany. Określany jest również jako naturalne cechy, które predysponują do określonego odbioru i przetwarzania rzeczywistości, a tym samym osiągnięć na pewnych polach. Najsilniejsze, najbardziej dominujące talenty danej osoby cechują się największą dynamiką i mają największy wpływ na jej zachowanie oraz osiągnięcia.

Z kolei psychologowie talentem nazywają spotęgowane uzdolnienia, które mogą być wyspecjalizowane w danym obszarze, np. muzycznym, matematycznym, czy też humanistycznym. Talentami mogą być również wrodzone cechy, które wyrażają się w unikalnym wzorcu myślenia, odczuwania bądź zachowania. Wzorzec ten zapisany jest w mózgu w postaci połączeń synaptycznych. Posiadanie talentu nie jest uzależnione jednak od ilości posiadanych połączeń, ale od umiejętności ich wykorzystywania.

Natomiast pracownicy działów HR talentem określają osobę charakteryzującą się „potencjałem, zdolnościami, motywacją i wiedzą, której działania mają istotny wpływ na funkcjonowanie organizacji”. Taka osoba osiąga ponadprzeciętne wyniki, realizuje powierzone cele, jednocześnie troszcząc się o rozwój własny. Zatem talentem można nazwać coś, co ma pracownik, a czego potrzebuje organizacja. Takie rozumienie talentów jasno wskazuje, że mówimy o gotowym już arsenale umiejętności, a nie o samych predyspozycjach do wzmocnienia określonej cechy.

W niniejszym artykule za talent przyjmować będziemy zarówno kompetencje, jak i predyspozycje, które kształtują się na bazie cech osobowości powodujących, że ktoś szczególnie nadaje się do konkretnego zadania lub stanowiska.

Sztuczna inteligencja chwyta za ster rekrutacji

Wraz z rozwojem nowych technologii pracodawcy zaczęli szukać sposobów, które nie tylko zautomatyzują proces selekcji kandydatów, ale również pozwolą dokładniej ocenić doświadczenie i osobowość kandydata. Narzędzia sztucznej inteligencji pozwalają rekruterom stworzyć wzorzec idealnego kandydata na dane stanowisko, a następnie za pomocą algorytmów porównywać i selekcjonować poszczególne zgłoszenia. Są również w stanie na podstawie dotychczasowej ścieżki zawodowej przygotować predykcję dotyczącą losów  kandydata i to, czy sprawdzi się na danym stanowisku. AI może dokonywać selekcji kandydatów również na podstawie analizy mowy. Oceniając sposób wypowiedzi i intonację, określa osobowość danego kandydata, jego zaangażowanie, szczerość i zdolności komunikacyjne. Narzędzia AI potrafią również dokonać oceny osobowości kandydata i emocji na podstawie analizy mimiki twarzy podczas wideo rozmowy rekrutacyjnej.

Użycie algorytmów podczas selekcji CV i wybierania kandydata na podstawie uzyskanych rekordów budzi jednak wiele kontrowersji. Głównym zarzutem jest stronniczość oraz fakt, że AI nie rozumie kontekstu – nie rozpozna np. tych samych obowiązków zapisanych w odmienny sposób, co stwarza ryzyko, że dobry kandydat może zostać pominięty tylko dlatego, że nie umieścił w CV odpowiedniej frazy. Dodatkowo wstępna selekcja oparta na AI może skutkować wyborem kandydatów o zbliżonych cechach i jednakowym doświadczeniu.

Winę za to ponosi błąd algorytmiczny pojawiający się wtedy, gdy algorytm generuje wyniki, na które może wpływać jedna lub wiele zmiennych. Do wytrenowania sieci neuronowej potrzebna jest odpowiednio duża liczba przykładów, o dużej różnorodności, które pozwolą wykryć najdrobniejsze zależności. Zbyt mały, niewystarczająco różnorodny i nieaktualizowany zbiór danych sprawia, że system popełnia błędy, tworząc skrzywienie, a to może prowadzi do dyskryminacji i uprzedzeń.

Ten problem został odkryty w 2015 roku w badaniach prowadzonych nad systemem reklam Google. Wyniki pokazały, że system częściej wyświetlał ogłoszenia o wysoko płatnych stanowiskach pracy mężczyznom niż kobietom, a wyniki wyszukiwania grafik do zapytania „CEO” pokazywały prawie trzykrotnie mniej zdjęć kobiet, niż wynikałoby to z faktycznej proporcji tej płci wśród CEO w USA. Takie rezultatu zdaniem badaczy mogą utwierdzać użytkowników internetu w przekonaniu, że kobiety nie nadają się do sprawowania kierowniczych ról i przez to utrwalać takie uprzedzenie. Równouprawnienie trudno jest zaprogramować, ale można stworzyć narzędzia oceny algorytmów pod kątem przestrzegania zasad równości oraz opracować standardy ich etycznego działania.

Kolejnym przykładem, który został opisany w Raporcie Hidden Workesrs: Utapped Talents z 2021 roku przygotowanym przez Harvard Business School jest zjawisko ukrytych pracowników. Zautomatyzowane oprogramowanie do skanowania CV i selekcji odrzuca miliony realnych kandydatów, co powoduje „zepsucie” systemu rekrutacji w USA. Autorzy badania wskazują szereg czynników mających negatywny wpływ na pogorszenie się amerykańskiego rynku pracy, zaliczając do jednego z nich używanie programów, które automatyzują proces selekcji nadesłanych aplikacji, z których korzysta 75% pracodawców w USA (99% firm z listy Fortune 500). Powodem nieprawidłowo odrzucanych kandydatów przez zautomatyzowane programy jest zastosowanie zbyt uproszczonych kryteriów do podziału „dobrych” i „złych” kandydatów. Na przykład niektóre systemy automatycznie odrzucają kandydatów z przerwami w pracy dłuższymi niż sześć miesięcy, nigdy nie pytając o przyczynę tej przerwy. Może to być spowodowane ciążą, opieką nad chorym członkiem rodziny lub po prostu trudnościami w znalezieniu pracy w czasie recesji. Jeden z autorów badania podaje przykład szpitala, który wybierał tylko kandydatów z doświadczeniem w „programowaniu komputerów”, podczas gdy potrzebowali jedynie pracowników do wprowadzania danych pacjentów do komputera.

Sami Amerykanie są zaniepokojeni zastosowaniem sztucznej inteligencji w miejscach pracy, co wskazują najnowsze badania opinii publicznej przeprowadzone przez Pew Research Center wśród 11 004 dorosłych Amerykanów, w dniach 12‑18 grudnia 2022 r. Amerykanie sprzeciwiają się wykorzystywaniu sztucznej inteligencji przy podejmowaniu ostatecznych decyzji o zatrudnieniu 71%, a większość sprzeciwia się również wykorzystywaniu analizy sztucznej inteligencji do podejmowania decyzji o zwolnieniu. Wiele osób sprzeciwia się także wykorzystywaniu sztucznej inteligencji do przeglądania podań o pracę i określania, czy pracownik powinien zostać awansowany. Około dwie trzecie Amerykanów twierdzi, że nie chciałoby ubiegać się o pracę, gdyby sztuczna inteligencja była wykorzystywana do podejmowania decyzji o zatrudnieniu, ale w 41% są przychylni do jej wykorzystania podczas selekcji kandydatów. Głównym powodem niechęci wykorzystania AI do podjęcia decyzji o zatrudnieniu danego kandydata do pracy jest obawa, że program do rekrutacji nie będzie w stanie wychwycić osobowości kandydatów do pracy ani stwierdzić, czy osoby poszukujące zatrudnienia będą pasować do współpracowników. Inną obawą jest to, że systemy sztucznej inteligencji mogą wprowadzać uprzedzenia lub inne problemy do procesów rekrutacji.

Jednym z głośniejszych ostatnio przypadków naruszeń i podejrzenia dyskryminacji było wykorzystanie technologii skanowania twarzy do oceny kandydatów do pracy przez firmę HireVue. Ocena kandydatów dokonywana przez narzędzie sztucznej inteligencji firmy HireVue, z których skorzystało ponad 100 pracodawców na ponad milionie kandydatów do pracy, wykorzystała wywiady wideo do analizy setek kandydatur na podstawie głosu, doboru słów i ruchów twarzy, a następnie system wygenerował komputerowo ocenę umiejętności i zachowań kandydatów. Narzędzie ma również dodatkową funkcję porównania danej kandydatury z historiami ludzi sukcesu, co ma pomóc w znalezieniu nieszablonowych kandydatów, którzy dobrze rokują. Urzędnicy Electronic Privacy Information Center (EPIC) w skardze złożonej do Federalnej Komisji Handlu w Waszyngtonie przeciwko firmie HireVue podważali wiarygodność danych, twierdząc, że oceny oparte na sztucznej inteligencji generowane przez HireVue są stronnicze. Argumentowali, że system może niesprawiedliwie oceniać kogoś na podstawie uprzedzeń związanych z płcią, rasą czy orientacją seksualną, a także dyskryminować osoby niepełnosprawne.

Nadmierne poleganie na oprogramowaniu w branży HR stworzyło błędne koło. Technologia cyfrowa miała ułatwić firmom znalezienie odpowiednich kandydatów do pracy, ale zamiast tego przyczyniła się do generowania podejrzeń o dyskryminację i stronniczość, a także dokonywania ślepych wyborów, które są wynikiem nieprzejrzystego działania algorytmów.

Rozwiązanie problemu

W czasach, kiedy budowanie różnorodnych zespołów jest częścią misji wielu organizacji, proces selekcji kandydatów z użyciem stronniczej AI może stanowić zaprzeczenie podejmowanych przez nich działań. Nie chodzi przecież o wybór cyborga o określonych cechach, ale człowieka, który to dzięki swojej osobowości, naturalnym predyspozycjom i kompetencjom ma szansę wnieść wartość do organizacji. Wykorzystując narzędzia AI w procesie selekcji kandydatów, ważne jest, żeby mieć świadomość zniekształceń algorytmicznych i podejmować odpowiednie kroki w celu ich wyeliminowania. Uzupełnieniem niedoskonałości działania sztucznej inteligencji musi być w dalszym ciągu czynnik ludzki, czyli zaangażowanie pracowników działów HR w proces rekrutacji. To oni podejmują ostateczną decyzję co do oceny kompetencji danego kandydata i tego, czy jest talentem, czy też nie. Sztuczna inteligencja pozostaje modelem „identyfikacji” albo diagnozy, a rekruter ostatnim ogniwem weryfikacji działań, który ocenia profil kandydata pod kątem posiadania pożądanych zachowań lub predyspozycji do ich rozwinięcia. Całkowite przejęcie procesu rekrutacji przez program i wyłączenie czynnika ludzkiego z funkcji interwencyjnej na tę chwilę może rodzić wiele problemów.

Dobry pracownik działu HR w połączeniu z dobrym algorytmem osiągają o wiele lepsze wyniki niż najlepszy specjalista lub najlepszy algorytm pracujący w pojedynkę. Nie trzeba zmuszać ludzi do rywalizacji z algorytmami, tylko zachęcić ich, by z nimi współpracowali. Maszyny nigdy nie będą zachowywały się jak ludzie, a ludzie nigdy nie będą działać jak maszyny. Trzeba zdać sobie sprawę z faktu, że wszyscy bywamy omylni – każdy czasami popełnia błędy, nawet algorytm. Ważne, żeby wyciągać z tych błędów wnioski.

Zachowajmy ludzki aspekt w procesie rekrutacji
Komentarz eksperta Jacka Krajewskiego, HR Tech Advisor&Product Expert w Elevato:

– Chociaż AI może przyspieszyć proces rekrutacji i pomóc zautomatyzować wiele rutynowych zadań, nie można lekceważyć ewentualnych skutków ubocznych tego podejścia. Algorytmy nie są w stanie w pełni docenić subtelnego kontekstu ludzkiego doświadczenia i zdolności, co jest kluczowe w przypadku strategii rekrutacji opartych na potencjale i chęci do uczenia się nowych umiejętności.

Ponadto, gdy mówimy o wykorzystaniu AI w rekrutacji, musimy pamiętać o konieczności większej transparentności i audytowania tych narzędzi. Bez tego istnieje ryzyko utrzymania lub nawet wzmacniania istniejących uprzedzeń i dyskryminacji w procesie rekrutacji, co jest szczególnie niepokojące w kontekście strategii diversity & inclusion.

Wreszcie, nie wolno nam zapominać o ludzkim aspekcie w procesie rekrutacji. Pomimo wszystkich zalet technologii to przecież ludzie tworzą kulturę organizacji, a ich unikalne cechy i zdolności nie zawsze są łatwe do kwantyfikowania czy oceny przez systemy oparte na AI.

Dlatego też, choć korzyści wynikające z wykorzystania AI w procesie rekrutacji są oczywiste, musimy być świadomi i przygotowani na potencjalne wyzwania i zagrożenia. Powinniśmy dążyć do wykorzystania technologii w sposób, który jest etyczny, odpowiedzialny i zgodny z naszymi wartościami jako organizacji.

O autorach
Tematy

Może Cię zainteresować

Magazyn
Premium
Dlaczego uważni liderzy lepiej zarządzają zmianą
Samoświadomi i opanowani menedżerowie skuteczniej przeprowadzają swoje zespoły przez okresy niepewności związanej ze zmianami kierunku działania organizacji. Wdrażanie strategicznych zmian ma ogromny wpływ na wyniki przedsiębiorstw. Niezależnie od tego, czy chodzi o zwinne wykorzystanie nowej szansy rynkowej, czy o budowanie długoterminowej odporności. Wielu liderom jest jednak trudno skutecznie przeprowadzić zespół przez ten proces. Takie inicjatywy […]
Premium
W erze cyfrowej zaangażowanie nabiera nowego znaczenia

Automatyzacja bez ludzi nie działa. W erze AI to zaangażowanie, odpowiedzialność i zaufanie stają się nową walutą innowacyjnych organizacji.

chiński e-commerce i social commerce
Premium
Superaplikacje, social commerce i AI, czyli chiński przepis na sukces w e-handlu

Superaplikacje, handel społecznościowy i sztuczna inteligencja tworzą w Chinach nowy model handlu. Ashley Dudarenok tłumaczy, dlaczego przyszłość e-commerce należy do zintegrowanych ekosystemów i inteligentnych agentów AI.

Premium
Zaangażowania można się nauczyć

Zaangażowanie to nie magia, lecz kompetencja. Można je trenować – tak jak empatię, odpowiedzialność czy współpracę – pod warunkiem, że liderzy stworzą ku temu właściwe warunki.

strategie ochrony innowacji
Premium
Jak chronić innowacje przed kopiowaniem

Jak skutecznie bronić innowacji przed kopiowaniem? Czasem wystarczy mądrze zaprojektować produkt – tak, by jego kluczowych elementów nie dało się łatwo odtworzyć ani wykorzystać.

Premium
Efekt domina w zarządzaniu dobrostanem

Kultura dobrostanu staje się nowym filarem przywództwa. Firmy, które inwestują w wellbeing liderów i zespołów, uruchamiają efekt domina – rozwijają kompetencje, wzmacniają kulturę organizacyjną i budują przewagę na rynku.

Wybieram MIT

Cyfrowa transformacja to dziś nie wybór, lecz konieczność. Jak pokazuje doświadczenie Grupy Symfonia, przemyślane inwestycje w technologie potrafią odmienić kierunek rozwoju firmy i stać się impulsem do trwałej przewagi konkurencyjnej.

Premium
Jak zautomatyzować operacje bez nadwyrężania budżetu

Automatyzacja nie musi oznaczać milionowych nakładów. Dzięki tanim i elastycznym technologiom nawet małe firmy mogą usprawnić procesy i zwiększyć produktywność.

środowiska wirtualne w procesie design thinking
Premium
Jak praca zdalna zmienia design thinking

Design thinking wkracza w nowy wymiar. Dzięki środowiskom wirtualnym zespoły mogą współtworzyć, testować i analizować pomysły w czasie rzeczywistym – niezależnie od miejsca i strefy czasowej. To nie tylko narzędzie pracy zdalnej, lecz także przestrzeń do pogłębionej empatii, eksperymentowania i szybszego wdrażania innowacji.

Premium
Strategia zakorzeniona w przyszłości firmy

Technologia bez wizji to tylko narzędzie. Aby automatyzacja miała sens, musi wynikać z celów, wartości i przywództwa – a nie z mody na cyfrowość.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!