Algorytm odrzucił kandydata/-tkę. Kto ponosi odpowiedzialność: HR, firma czy dostawca AI?

Algorytm odrzucił kandydata/-tkę. Kto ponosi odpowiedzialność: HR, firma czy dostawca AI?

Coraz więcej działów HR wykorzystuje AI w rekrutacji do selekcji aplikacji kandydatów. Znacznie rzadziej analizuje się jednak, kto ponosi odpowiedzialność za sytuację, w której decyzja algorytmu zostaje zakwestionowana. A to – wbrew pozorom – scenariusz, z którym firmy będą mierzyć się coraz częściej.

Wobec kandydata zawsze odpowiada pracodawca

Wyobraźmy sobie sytuację: spółka X, średniej wielkości firma usługowa, wdrożyła narzędzie AI do wstępnej selekcji CV. Po kilku tygodniach odrzucony kandydat (np. 55-latek) zarzuca firmie dyskryminację ze względu na wiek. Pierwsza myśl zarządu: „To AI podjęło decyzję, nie my”. To błędne założenie, bo algorytm nie jest stroną postępowania, a jest nią firma, która prowadzi proces rekrutacyjny.

W tym miejscu należy wspomnieć o AI Act, czyli unijnym rozporządzeniu, które określa ramy regulacyjne dla rozwoju, wdrażania i użytkowania sztucznej inteligencji na terenie Unii Europejskiej. Wbrew powszechnemu przekonaniu, nie dotyczy tylko twórców systemów AI, ale też nakłada obowiązki także na „zwykłe” firmy, które taki system u siebie wdrażają.

Systemy AI używane w rekrutacji zostały sklasyfikowane jako systemy wysokiego ryzyka, a to oznacza zestaw konkretnych wymagań, których spełnienie jest warunkiem zgodnego z prawem korzystania z takiego narzędzia. Jest to m.in. konieczność zapewnienia nadzoru człowieka nad decyzją czy informowanie kandydatów o wykorzystaniu AI w procesie rekrutacji.

Wobec kandydata zawsze odpowiada pracodawca

Zgodnie z AI Act, kandydat będzie miał prawo uzyskania jasnego i merytorycznego wyjaśnienia roli tego systemu AI w procedurze podejmowania decyzji oraz głównych elementów podjętej decyzji.

To jest obowiązek prawny, który zacznie mieć zastosowanie od 2 sierpnia 2026 r. w ramach przepisów wdrażanych etapowo.

I tu zaczyna się prawdziwy problem dla firmy, bo jeśli wśród czynników, które wpłynęły na decyzję, znajduje się wiek, czy płeć w sposób nieuzasadniony, może to stanowić dyskryminację, a to na gruncie Kodeksu pracy jest zakazane. I jeśli sztuczna inteligencja go dyskryminowała w procesie selekcji aplikacji – to tak naprawdę zrobiła to firma.

Rola HR – nadzór ludzki to nie tylko kliknięcie „akceptuję”

Rola pracowników działu HR, korzystających z narzędzi AI, jest znacznie poważniejsza, niż się może wydawać. To oni powinni dokumentować swój udział w procesie decyzyjnym, znać kryteria działania algorytmu i być w stanie odpowiedzieć kandydatowi, dlaczego jego aplikacja została odrzucona.

Dodatkowo art. 4 AI Act nakłada na pracodawców prawny obowiązek zapewnienia pracownikom, w tym rekruterom, odpowiedniego poziomu kompetencji w zakresie AI. To nie tylko dobra praktyka, ale też wymóg prawny.

Dostawca technologii: kiedy realnie ponosi odpowiedzialność?

Czy zatem dostawca AI jest poza odpowiedzialnością? Niekoniecznie, ale jego rola pojawia się dopiero w drugim kroku – w relacji firma-dostawca, a nie firma-kandydat. Jeżeli błąd wynika z wady konstrukcyjnej narzędzia, np. stronniczego algorytmu, pracodawca może próbować dochodzić roszczeń od dostawcy narzędzia AI.

Jednak jeśli błąd wynikał z niewłaściwego wdrożenia, braku nadzoru lub używania narzędzia niezgodnie z jego przeznaczeniem, ciężar odpowiedzialności pozostaje po stronie pracodawcy.

Firmy powinny przygotować się już teraz

Istotne są trzy kwestie: wybór odpowiedniego dostawcy i narzędzia, ustanowienie wewnętrznych procedur nadzoru nad rekomendacjami algorytmu i realne szkolenia rekruterów.

Bo jeśli algorytm niesłusznie odrzuci kandydata, to nie sztuczna inteligencja stanie przed sądem, a firma.

Te kroki należy podjąć już teraz, bo jeśli odrzucony kandydat zacznie zadawać pytania, odpowiedź firmy nie może brzmieć: „przecież to AI zdecydowało”.

________________________________

autorka komentarza: Marietta Poźniak: radca prawny, ekspertka ds. AI w organizacjach. Absolwentka studiów podyplomowych z prawa sztucznej inteligencji na Akademii Leona Koźmińskiego (z wyróżnieniem). Certyfikowany audytor wewnętrzny ISO/IEC 42001. Twórczyni marki rozwijAI https://rozwijai.com/– szkoli firmy z bezpiecznego i zgodnego z prawem korzystania z AI w pracy. LinkedIn: www.linkedin.com/in/mariettapozniak

PRZECZYTAJ RÓWNIEŻ

NEWSLETTER

HUMAN RESOURCES
HOT NEWS

OSTATNIO DODANE
SOCIAL HR CORNER