![](https://kwkr.pl/wp-content/uploads/2025/02/Grafika-na-bloga-AI-w-rekrutacji-1160x591.png)
Sztuczna inteligencja coraz mocniej wpływa na rynek pracy – od automatyzacji procesów produkcyjnych, przez inteligentne systemy rekrutacyjne, po zastosowania w monitorowaniu wydajności pracowników. Nowoczesne narzędzia oparte na AI mogą usprawniać procesy i zwiększać ich precyzję, ale równocześnie wiążą się z ryzykami, które mogą naruszać prawa pracownicze.
Wykorzystanie sztucznej inteligencji w zakładzie pracy wiąże się z wyzwaniami dotyczącymi prywatności, bezpieczeństwa, a także sprawiedliwości i równości. Źle zaprojektowane lub niewłaściwie używane systemy sztucznej inteligencji mogą prowadzić do dyskryminacji czy naruszenia przejrzystości w procesie zatrudnienia. Szczególnie problematyczne jest wykorzystanie algorytmów w rekrutacji, które mogą nieświadomie faworyzować niektóre grupy społeczne, narażając pracodawcę na odpowiedzialność prawną.
Mimo to, dzięki automatyzacji selekcji potencjalnych kandydatów i redukcji kosztów rekrutacji pracodawcy coraz chętniej zaczynają sięgać po narzędzia AI. Warto jednak pamiętać, że ich stosowanie podlega określonym regulacjom prawnym, których należy przestrzegać.
AI Act a sztuczna inteligencja w rekrutacji
Parlament Europejski 13 czerwca 2024 r. przyjął Rozporządzenie 2024/1689 znane jako „AI Act”, którego celem jest kompleksowa regulacja systemów sztucznej inteligencji w Unii Europejskiej. Choć rozporządzenie weszło w życie 1 sierpnia 2024 r., obowiązywać będzie dopiero od 2 sierpnia 2026 r. Niektóre regulacje zaczną obowiązywać wcześniej, jednak w większości nie dotyczą one bezpośrednio procesów rekrutacyjnych. Mimo to pracodawcy już wcześniej powinni przygotować się na zmiany.
Czym są systemy wysokiego ryzyka?
AI Act wprowadza podział systemów sztucznej inteligencji na kategorie ryzyka wskazując, które z nich mogą stanowić potencjalne zagrożenia dla praw i wolności obywateli UE. W szczególności wyróżniono tzw. systemy wysokiego ryzyka, które podlegają ścisłym regulacjom. W kontekście zatrudnienia istotne znaczenie ma Załącznik III ustęp 4, który obejmuje systemy AI wykorzystywane w rekrutacji, zarządzaniu pracownikami oraz dostępie do samozatrudnienia. Algorytmy mogą wpływać na selekcję kandydatów, oceniać ich kompetencje, a nawet podejmować decyzje o zatrudnieniu. Jeśli systemy te nie zostaną odpowiednio zaprojektowane, mogą prowadzić do dyskryminacji, naruszenia prywatności czy braku przejrzystości w procesie oceny kandydatów.
Obowiązki pracodawców podczas rekrutacji ze sztuczną inteligencją
AI Act nakłada na firmy korzystające z systemów sztucznej inteligencji w rekrutacji szereg obowiązków, w szczególności w przypadku tzw. systemów wysokiego ryzyka. Główne regulacje dotyczą zarządzania ryzykiem i zapewnienia zgodności z unijnymi standardami bezpieczeństwa. Chociaż większość wymagań skierowana jest do twórców takich technologii, pracodawcy również muszą dostosować się do określonych zasad, które szczegółowo określa art. 26 Rozporządzenia. Przede wszystkim przedsiębiorstwa stosujące AI w rekrutacji muszą wdrożyć odpowiednie środki techniczne i organizacyjne, zgodnie z instrukcją danego systemu. Dodatkowo, działania sztucznej inteligencji muszą być nadzorowane przez kompetentne osoby, które mają w tej dziedzinie odpowiednią widzę i są przeszkolone.
Jednym z najważniejszych wymogów jest dbałość o jakość danych wejściowych do systemu wykorzystywanych przez AI. Jeżeli pracodawca ma wpływ na selekcję tych danych, ponosi za nie odpowiedzialność. Jest to bardzo ważna regulacja, ponieważ to właśnie niepoprawne dobranie danych wejściowych, które będzie brała pod uwagę sztuczna inteligencja jest głównym źródłem zagrożeń i dyskryminacji.
Kandydaci muszą wiedzieć o obecności sztucznej inteligencji w rekrutacji
Istotnym obowiązkiem pracodawców jest również wymóg poinformowanie kandydatów, że w procesie rekrutacji zastosowana będzie sztuczna inteligencja. To istotna zasada, zwiększająca przejrzystość i dająca osobom ubiegającym się o pracę możliwość świadomego udziału w procesie rekrutacji.
Za nieprzestrzeganie tych przepisów grożą dotkliwe kary finansowe, aż do 15 000 000 euro lub do 3% rocznego obrotu liczonego za poprzedni rok obrotowy, w zależności od tego, która wartość jest wyższa. Warto więc już teraz zadbać o zgodność z nowymi przepisami, by uniknąć kosztownych konsekwencji i zapewnić sprawiedliwy proces rekrutacyjny oparty na rzetelnych i przejrzystych zasadach.
Zagrożenia i konsekwencje związane z niewłaściwym wykorzystaniem AI w rekrutacji
Sztuczna inteligencja w procesach rekrutacyjnych może znacząco usprawnić selekcję kandydatów, jednak jej niewłaściwe stosowanie stwarza ryzyko naruszenia zakazu dyskryminacji w prawie pracy, wyrażonego w art. 183a Kodeksu Pracy. Przepis ten gwarantuje równe traktowanie w zatrudnieniu i obejmuje m.in. proces rekrutacji.
Dyskryminacja może mieć charakter bezpośredni – gdy kandydat zostanie wykluczony ze względu na określoną cechę taką jak wiek, płeć czy narodowość. Przykładem jest niezatrudnianie osób o danym kolorze skóry. Dyskryminacja może też być pośrednia, trudniejsza do wykrycia, wynikająca z pozornie neutralnych kryteriów, które w praktyce wykluczają dane grupy czy osoby. Przykładem jest sytuacja, w której pracodawca deklaruje, że na stanowiska kierownicze zatrudnia tylko pracowników powyżej 50 roku życia posiadających dyplom z zarządzania i dyplom MBA, jeżeli dominującą grupą spełniające te kryteria są mężczyźni.
Jak AI może nieświadomie dyskryminować?
Wykorzystanie sztucznej inteligencji w rekrutacji może prowadzić zarówno do dyskryminacji pośredniej jak i bezpośredniej. Dyskryminacja bezpośrednia wystąpi, gdy algorytm zostanie zaprogramowany tak, aby pomijać zgłoszenie kandydatów spełniających określone kryteria np. zgłoszenia osób pochodzących z Azji. Z kolei, gdy sztuczna inteligencja jest szkolona na konkretnych danych, na przykład CV poprzednich kandydatów, wybranych na dane stanowisko, to algorytm będzie wybierał osoby, posiadające cechy osób wybranych wcześniej. Jeśli u osób tych dominowała jakaś cecha, np. płeć, to algorytm wyszkolony na konkretnych danych będzie preferował kandydatów danej płci, przez co będzie dyskryminował kandydatów drugiej płci. W takiej sytuacji wybór danych wejściowych (CV poprzednich zatrudnionych kandydatów) będzie działaniem na pozór neutralnym, a faktycznie dyskryminującym (pośrednio).
Przykładem takiego problemu jest przypadek Amazon, który w od 2014 testował narzędzie sztucznej inteligencji pomagające przy rozpatrywaniu aplikacji na stanowiska informatyczne. W 2015 roku wykryto, że system dyskryminował kobiety, ponieważ został wytrenowany na podstawie wcześniejszych zgłoszeń kierowanych do Amazona, wśród których dominowały zgłoszenia męskie. W 2018 roku Amazon zakończył testy programu, wcześniej zmieniając jego założenia, by uniknąć dyskryminacji.
Podobne problemy pojawiły się w sprawie EEOC v. iTutor Group. Firma wykorzystująca systemu AI do zatrudniania nauczycieli języka angielskiego została pozwana przez EEOC (Equal Employment Opportunity Commission), gdy okazało się, że algorytm automatycznie odrzucał kandydatury osób powyżej 55. roku życia. Spółka musiała zapłacić 365 000 dolarów odszkodowania dla 200 poszkodowanych kandydatów.
Powyższe sprawy pokazują, że problem dyskryminacji w zatrudnieniu przy zastosowaniu systemów sztucznej inteligencji jest problemem faktycznie występującym, a z uwagi na dynamiczny rozwój tej AI może przybierać na sile. Przyjęcie AI Act ma doprowadzić do uniknięcia podobnych problemów w przyszłości.
Szanse związane z wykorzystaniem AI w rekrutacji
Rosnące zainteresowanie sztuczną inteligencją nie jest przypadkowe –przedsiębiorcy dostrzegają liczne korzyści płynące z jej zastosowania. AI nie tylko usprawnia procesy rekrutacyjne, ale także oszczędza czas zarówno rekruterów, jak i kandydatów.
Efektywność i oszczędność czasu
Jednym z głównych atutów AI w rekrutacji jest automatyzacja wstępnej selekcji kandydatów. Algorytmy mogą błyskawicznie analizować setki CV, odrzucając te, które nie spełniają określonych kryteriów, takich jak wymagane doświadczenie czy wykształcenie. Dzięki temu rekruterzy mogą skupić się na najlepiej dopasowanych kandydatach, a osoby, które nie spełniają warunków, nie tracą czasu na rozmowy kwalifikacyjne, których wynik jest z góry przesądzony. AI może również wykrywać nieprawdziwe informacje w CV, np. niezgodności w doświadczeniu zawodowym, co zwiększa rzetelność procesu rekrutacyjnego. Tradycyjnie to zadanie wymagało ręcznej analizy przez rekruterów, ale teraz może być realizowane automatycznie – szybciej i dokładniej.
Optymalizacja kosztów
Choć wdrożenie systemów AI wiąże się z początkowymi kosztami, w dłuższej perspektywie może przynieść oszczędności. Automatyzacja rekrutacji zmniejsza potrzebę angażowania dużych zespołów HR do wstępnej selekcji kandydatów, co pozwala na bardziej efektywne zarządzanie zasobami ludzkimi w firmie. Dzięki AI rekrutacja staje się nie tylko szybsza, ale i bardziej efektywna. Przedsiębiorstwa mogą lepiej zarządzać procesami zatrudnienia, minimalizować błędy i zapewniać lepsze dopasowanie kandydatów do stanowisk, co w dłuższym okresie przekłada się na mniejszą rotację pracowników i większą stabilność zespołów.
Jak powinien działać pracodawca, żeby nie naruszać przepisów?
Największe ryzyko związane z AI w rekrutacji dotyczy wyboru danych wejściowych do systemu AI oraz ustalania preferencji, którymi system ma się kierować. Pracodawca powinien zadbać o wybór systemu, który został przeszkolony na niedyskryminujących danych albo samodzielnie wybierać dane lub kryteria niedyskryminujące.
Istotny jest również nadzór nad wynikami działań sztucznej inteligencji – nawet jeżeli system działa automatycznie, to pracodawca ponosi odpowiedzialność za jego decyzje. Poziom ryzyka związanego z używaniem AI w rekrutacji będzie zależał od ilości przeprowadzanych w firmie rekrutacji i liczby zgłoszeń kandydatów, ryzyko będzie więc większe w większych firmach. Ilość naruszeń z kolei wpłynie na wysokość kary oraz na ilość potencjalnych pozwów z tytułu naruszenia zakazu dyskryminacji.
AI jako szansa, nie zagrożenie
Choć regulacje nakładają nowe obowiązki, sztuczna inteligencja nadal może przynieść przedsiębiorcom znaczące korzyści – przede wszystkim w zakresie oszczędności czasu i kosztów rekrutacji. Kluczem do bezpiecznego korzystania z AI jest świadome zarządzanie systemami i dbałość o to, aby ich działanie było zgodne z przepisami.
Pamiętajmy, że AI samo w sobie nie jest dyskryminujące – to człowiek definiuje jego kryteria działania. Dlatego odpowiedzialność za uczciwość i zgodność procesu rekrutacji z prawem nadal spoczywa na pracodawcach.
Autorzy: Bartosz Bogusławski, junior associate i Katarzyna Kanik, associate w KWKR