202
0

AI w rekrutacji – szansa czy ryzyko? Analiza regulacyjna w świetle RODO i AI Act

202
0

Wstęp 

Rozwój popularności narzędzi AI w procesach HR. 

Krótki zarys ryzyk i wyzwań. 

1. Wykorzystanie AI w rekrutacji a dane osobowe 

1.1. Obowiązki administratora danych w świetle RODO 

1.2. Ograniczenia wynikające z RODO – informacja i zakaz wyłącznego podejmowania decyzji automatycznych 

1.3. Zasady bezpieczeństwa przetwarzania danych osobowych 

2. AI w rekrutacji jako system wysokiego ryzyka w rozumieniu AI Act 

2.1. Klasyfikacja systemów używanych w rekrutacji jako wysokiego ryzyka 

2.2. Obowiązki dostawców i użytkowników systemów AI wysokiego ryzyka 

2.3. Procedury zgodności i oceny ryzyka 3. Konsekwencje korzystania z zewnętrznych narzędzi AI 

3.1. Umowa powierzenia przetwarzania danych i postanowienia o poufności 

3.2. Transfer danych osobowych do państw trzecich 

3.3. Wyzwania związane z AI ogólnego przeznaczenia 

4. Kodeks pracy a rekrutacja z użyciem AI 

4.1. Zakaz dyskryminacji w zatrudnieniu 

4.2. Ryzyko nieświadomego wzmacniania stereotypów przez algorytmy 

4.3. Odpowiedzialność pracodawcy za decyzje podejmowane przy udziale AI 5. Sankcje i odpowiedzialność 

5.1. Kary finansowe w ramach RODO – do 20 mln euro lub 4% globalnego obrotu 

5.2. Sankcje z AI Act – do 35 mln euro lub 7% globalnego obrotu 

5.3. Inne konsekwencje – reputacyjne i pracownicze 6. Perspektywy i dobre praktyki 

6.1. Transparentność procesów rekrutacyjnych z udziałem AI 

6.2. Audyty algorytmów i ocena ich wpływu na prawa kandydatów 

6.3. Rekomendacje dla pracodawców i dostawców systemów 

Zakończenie 

Czy AI w rekrutacji to przyszłość rynku pracy?

Wstęp

Sztuczna inteligencja (AI) coraz mocniej przenika do obszaru zarządzania zasobami ludzkimi. Szczególnie w rekrutacji staje się ona narzędziem, które ma przyspieszać procesy, ograniczać koszty i zwiększać trafność decyzji kadrowych. W praktyce oznacza to analizę setek czy tysięcy CV w ułamku czasu, który byłby potrzebny zespołowi rekruterów, a także możliwość wstępnego profilowania kandydatów i automatycznego dopasowywania ich do stanowisk.

Z drugiej strony, zastosowanie AI w rekrutacji rodzi poważne wyzwania prawne i etyczne. Chodzi przede wszystkim o zgodność z przepisami dotyczącymi ochrony danych osobowych (RODO), ale także o nowe regulacje unijne – przede wszystkim AI Act, który kwalifikuje systemy sztucznej inteligencji używane w procesach rekrutacyjnych jako systemy wysokiego ryzyka. Ryzyko obejmuje nie tylko potencjalne naruszenia prywatności kandydatów, lecz również dyskryminację, brak transparentności i utratę kontroli nad procesem decyzyjnym.

Celem tego artykułu jest szczegółowa analiza ram prawnych związanych ze stosowaniem AI w rekrutacji, ze wskazaniem obowiązków pracodawców i dostawców systemów oraz konsekwencji prawnych w przypadku ich naruszenia.

Wykorzystanie AI w rekrutacji a dane osobowe

Obowiązki administratora danych w świetle RODO

Zgodnie zRODO, podstawowe zasady przetwarzania danych osobowych obejmują m.in. zgodność z prawem, rzetelność, przejrzystość, minimalizację danych oraz zapewnienie ich bezpieczeństwa. W kontekście rekrutacji oznacza to, że administrator danych – najczęściej pracodawca, a niekiedy firma rekruterska – musi wykazać, że przetwarzanie danych kandydatów przy użyciu AI opiera się na jednej z przesłanek legalizujących z RODO, np. obowiązku prawnego, wykonaniu umowy, prawnie uzasadnionym interesie pracodawcy lub zgodzie kandydata.

Administrator powinien także prowadzić rejestr czynności przetwarzania , przeprowadzać ocenę skutków dla ochrony danych (DPA) oraz wdrożyć środki techniczne i organizacyjne zapewniające zgodność z zasadą rozliczalności . To podstawowe kwestie, ale od nich wszystko dopiero się zaczyna.

Porozmawiaj z ekspertem 🎯

Borykasz się z zagadnieniem, które tutaj poruszyłem? Skontaktuj się ze mną i ustalimy termin 15-minutowej konsultacji. Wspólnie znajdziemy najlepsze rozwiązanie dla Twojego biznesu!

Ograniczenia wynikające z RODO – informacja i zakaz wyłącznego podejmowania decyzji automatycznych

RODO nakłada na administratora obowiązek informacyjny wobec kandydata – w tym o stosowaniu zautomatyzowanego podejmowania decyzji, w tym profilowania, a także o zasadach jego działania i przewidywanych konsekwencjach. W praktyce oznacza to konieczność wyjaśnienia kandydatowi, że proces selekcji odbywa się przy udziale AI, oraz przedstawienia przynajmniej ogólnego opisu mechanizmu podejmowania decyzji.

RODO stanowi, że osoba, której dane dotyczą, ma prawo do tego, by nie podlegać decyzji opierającej się wyłącznie na zautomatyzowanym przetwarzaniu, jeżeli wywołuje ona wobec niej skutki prawne lub w podobny sposób istotnie na nią wpływa. Zastosowanie AI w rekrutacji – gdy to algorytm decyduje o zakwalifikowaniu kandydata do dalszego etapu lub jego odrzuceniu – bez kontroli człowieka, może naruszać ten przepis. Dlatego też rola człowieka w procesie rekrutacyjnym nie może zostać całkowicie wyeliminowana. Warto podkreślić, że o zastosowaniu tego przepisu mówimy już nawet wtedy, gdy zautomatyzowany proces podejmowania decyzji wyświetla nam określone reklamy w Internecie ponieważ już nawet to może mieć wpływ na nasze prawa. Tym bardziej więc kwestia przejścia (lub nie) do dalszego etapu rekrutacji będzie miała znaczenie.

Zasady bezpieczeństwa przetwarzania danych osobowych

RODO wymaga, aby administrator i podmiot przetwarzający wdrożyli odpowiednie środki techniczne i organizacyjne zapewniające bezpieczeństwo danych, takie jak szyfrowanie, pseudonimizacja czy kontrola dostępu. W kontekście AI używanego w rekrutacji oznacza to konieczność nie tylko zapewnienia ochrony samych danych kandydatów, lecz także monitorowania systemu pod kątem jego podatności na naruszenia.

Dodatkowo RODO nakłada obowiązek uwzględniania ochrony danych w fazie projektowania („privacy by design”) oraz domyślnej ochrony danych („privacy by default”). Systemy AI muszą więc być konstruowane i wdrażane w taki sposób, aby od początku minimalizować ryzyka naruszeń prywatności kandydatów. Tu więc ważna uwaga, rzecz jasna w ten czy inny sposób w prowadzeniu rekrutacji może pomóc większość AI ogólnego przeznaczenia takie jak ChatGPT, Claude, Gemini i tym podobna. Nie były one jednak w żadnej mierze projektowane w tych celach. Zdecydowanie więc bezpieczniej będzie wykorzystywać w rekrutacji dedykowane tym właśnie procesom rozwiązania.

AI w rekrutacji jako system wysokiego ryzyka w rozumieniu AI Act

 Klasyfikacja systemów używanych w rekrutacji jako wysokiego ryzyka

AI Act, przyjęty w 2024 r., wprowadza klasyfikację systemów sztucznej inteligencji pod kątem ryzyka. W Załączniku III wskazano, że systemy AI stosowane w obszarze zatrudnienia, rekrutacji, awansów czy rozwiązania stosunku pracy są systemami wysokiego ryzyka.

Oznacza to, że każdy system AI, który służy do:

  • analizy i filtrowania CV,
  • oceny przydatności kandydatów,
  • rekomendowania zatrudnienia, awansu lub rozwiązania umowy,
  • monitorowania wydajności i zachowań pracowników,

musi spełniać rygorystyczne wymogi prawne i techniczne. Uznanie za system wysokiego ryzyka oznacza bowiem, że rekrutacja z użyciem AI nie jest neutralnym procesem – wpływa ona bezpośrednio na prawa i wolności jednostek, a zwłaszcza na dostęp do pracy, która stanowi jedno z podstawowych praw socjalnych w porządku prawnym Unii.

Obowiązki dostawców i użytkowników systemów AI wysokiego ryzyka

AI Act różnicuje obowiązki w zależności od roli podmiotu – dostawcy systemu AI lub jego użytkownika (pracodawcy/rekrutera).

  • Dostawcy systemów AI muszą m.in.:
    • przeprowadzać ocenę zgodności przed wprowadzeniem systemu na rynek,
    • wdrożyć system zarządzania ryzykiem,
    • dokumentować proces uczenia systemu oraz wykorzystywane dane treningowe,
    • zapewnić przejrzystość działania algorytmu oraz jego audytowalność,
    • prowadzić rejestr zdarzeń (logi) związanych z funkcjonowaniem systemu,
    • ustanowić mechanizmy nadzoru człowieka nad procesami decyzyjnymi.
  • Użytkownicy systemów AI (np. pracodawcy):
    • muszą korzystać z systemów zgodnych z wymogami prawnymi,
    • wdrażać procedury monitorowania i kontroli wyników generowanych przez AI,
    • prowadzić dokumentację dotyczącą wykorzystania systemu,
    • informować kandydatów o tym, że podlegają ocenie przy udziale AI,
    • szkolić pracowników odpowiedzialnych za obsługę systemu w zakresie jego ograniczeń i ryzyk.

Procedury zgodności i oceny ryzyka

Systemy AI wysokiego ryzyka podlegają obowiązkowi przeprowadzenia procedury oceny zgodności, której celem jest wykazanie, że spełniają one wymogi określone w AI Act.

W szczególności wymogi te obejmują:

  • zarządzanie ryzykiem – identyfikacja, analiza i ograniczanie potencjalnych zagrożeń związanych z funkcjonowaniem systemu;
  • jakość danych – dane wykorzystywane do uczenia algorytmów muszą być odpowiednie, reprezentatywne i wolne od nieuzasadnionych uprzedzeń;
  • przejrzystość i informowanie użytkowników – system musi być zaprojektowany w sposób umożliwiający zrozumienie zasad jego działania;
  • nadzór człowieka – zapewnienie, że człowiek ma możliwość ingerencji w proces podejmowania decyzji;
  • bezpieczeństwo – minimalizacja ryzyka dla zdrowia, bezpieczeństwa i praw podstawowych.

Warto podkreślić, że brak przeprowadzenia procedury oceny zgodności skutkuje nie tylko zakazem wprowadzenia systemu do obrotu w UE, ale także ryzykiem dotkliwych sankcji finansowych (szczegóły ich omówione będzie już niebawem wię stay tuned).

Konsekwencje korzystania z zewnętrznych narzędzi AI

Umowa powierzenia przetwarzania danych i postanowienia o poufności

Wykorzystywanie zewnętrznych narzędzi AI w rekrutacji – takich jak popularne modele językowe (ChatGPT, Gemini, Claude) – wiąże się z tym, że dane kandydatów przetwarzane są przez podmioty trzecie. Z perspektywy prawa ochrony danych osobowych oznacza to, że pracodawca (administrator danych) ma obowiązek zawarcia z takim podmiotem umowy powierzenia przetwarzania danych.

Umowa taka powinna określać m.in.:

  • przedmiot i czas trwania przetwarzania,
  • charakter i cel przetwarzania,
  • rodzaj danych osobowych oraz kategorie osób, których dane dotyczą,
  • obowiązki i prawa administratora,
  • wymogi poufności po stronie podmiotu przetwarzającego.

Brak takiej umowy oznacza, że przetwarzanie danych przez narzędzie AI może zostać uznane za nielegalne. Co istotne, wielu dostawców globalnych usług AI nie oferuje standardowych umów powierzenia zgodnych z RODO, co w praktyce wyklucza możliwość legalnego wykorzystywania tych systemów w procesach rekrutacyjnych. Z całą pewnością nie oferują ich dostawcy w ramach darmowych planów, a też warto się upewnić, czy ten, który zamierzamy wybrać zawiera umowę powierzenia przetwarzania danych osobowych. Inaczej będzie w przypadku, gdy AI pracuje na naszych własnych serwerach, ale ten model wykorzystywania sztucznej inteligencji jest raczej rzadkością. 

Transfer danych osobowych do państw trzecich

Wiele popularnych narzędzi AI hostowanych jest na serwerach poza Europejskim Obszarem Gospodarczym (np. w Stanach Zjednoczonych). Zgodnie z RODO, przekazywanie danych osobowych do państw trzecich jest dopuszczalne tylko wtedy, gdy:

  • Komisja Europejska wydała decyzję stwierdzającą odpowiedni stopień ochrony (np. EU–US Data Privacy Framework),
  • zastosowano odpowiednie zabezpieczenia prawne (np. standardowe klauzule umowne – SCC),
  • lub zachodzą szczególne wyjątki.

W praktyce oznacza to konieczność poinformowania kandydata o tym, że jego dane mogą być przekazywane poza UE, a także wdrożenia mechanizmów minimalizujących ryzyko naruszeń prywatności. Zaniedbanie tych obowiązków stanowi naruszenie RODO i może skutkować nałożeniem administracyjnej kary pieniężnej. Warto też podkreślić, że dzięki EU–US Data Privacy Framework legalizacja przekazywania danych osobowych do USA nie stanowi większego problemu. Gdyby jednak chcieć je przekazywać dla przykładu do Chin, które z pewnością mają wiele systemów AI z przeznaczeniem na ich, a nie Europejski, rynek to poziom skomplikowania tak prawnego, jak i technicznych zabezpieczeń znacząco wzrośnie.

Wyzwania związane z AI ogólnego przeznaczenia

AI Act zwraca szczególną uwagę na systemy AI ogólnego przeznaczenia (General Purpose AI – GPAI). Zgodnie z regulacją, stosowanie ich w procesach wysokiego ryzyka – takich jak rekrutacja – jest problematyczne, jeżeli dostawca nie wdrożył odpowiednich zabezpieczeń i mechanizmów zgodności.

Systemy te, trenowane na ogromnych zbiorach danych, mogą być nieprzejrzyste, trudne do audytowania i narażone na błędy lub stronniczość. AI Act nakłada na dostawców GPAI dodatkowe obowiązki, takie jak:

  • prowadzenie dokumentacji dotyczącej uczenia modelu,
  • zapewnienie transparentności dla użytkowników końcowych,
  • przekazywanie informacji niezbędnych do oceny ryzyka w sytuacjach wysokiego ryzyka.

Dla pracodawcy oznacza to, że użycie np. ChatGPT w rekrutacji nie będzie zgodne z prawem, jeśli system nie został dostosowany do wymogów unijnych w kontekście systemów wysokiego ryzyka, a dane, na których został wytrenowany nie są danymi transparentnymi, które pozwalają wyeliminowanie ryzyka dyskryminacji. Sam fakt, że narzędzie jest powszechnie dostępne, nie zwalnia administratora danych ani użytkownika z odpowiedzialności za legalność jego stosowania.

Kodeks pracy a rekrutacja z użyciem AI

 Zakaz dyskryminacji w zatrudnieniu

Zgodnie przepisami Kodeksu pracy, w zatrudnieniu niedopuszczalna jest jakakolwiek dyskryminacja – zarówno bezpośrednia, jak i pośrednia. Ochrona ta obejmuje w szczególności takie kryteria jak płeć, wiek, niepełnosprawność, rasa, religia, narodowość, orientacja seksualna, wyznanie, pochodzenie etniczne, a także rodzaj umowy czy wymiar czasu pracy.

W praktyce oznacza to, że systemy AI stosowane w rekrutacji muszą być projektowane i używane w taki sposób, aby nie prowadziły do nieuzasadnionego różnicowania kandydatów. Jeżeli algorytm będzie faworyzował określoną grupę (np. mężczyzn, bo w danych historycznych dominowali oni na danym stanowisku), pracodawca naruszy zakaz dyskryminacji.

Ryzyko nieświadomego wzmacniania stereotypów przez algorytmy

Algorytmy uczone na danych historycznych mogą powielać i wzmacniać istniejące uprzedzenia. Przykładowo:

  • jeśli dotychczas na stanowiska menedżerskie częściej zatrudniano mężczyzn, system może „uznać”, że mężczyźni są lepszymi kandydatami,
  • jeżeli w danych dominują osoby młodsze, AI może automatycznie preferować osoby poniżej określonego wieku, marginalizując starszych kandydatów.

Choć tego rodzaju decyzje są efektem działania algorytmu, to pełną odpowiedzialność ponosi pracodawca. Co więcej, w świetle Kodeksu pracy, pracodawca ma obowiązek udowodnić, że stosowane kryteria nie mają charakteru dyskryminacyjnego, jeśli kandydat wykaże, że w związku z użyciem AI mógł zostać potraktowany mniej korzystnie.

Odpowiedzialność pracodawcy za decyzje podejmowane przy udziale AI

Wdrożenie AI w proces rekrutacji nie zwalnia pracodawcy z odpowiedzialności prawnej. Wręcz przeciwnie – to pracodawca odpowiada za to, że proces przebiega zgodnie z prawem i nie narusza praw kandydatów.

Odpowiedzialność ta obejmuje m.in.:

  • odpowiedzialność cywilną – np. odszkodowanie dla kandydata poszkodowanego w wyniku dyskryminacji,
  • odpowiedzialność administracyjną – kary nakładane przez Prezesa UODO za naruszenia RODO oraz kary nakładane w oparciu o AI Act,
  • odpowiedzialność reputacyjną – ryzyko utraty wizerunku jako pracodawcy stosującego nieuczciwe praktyki.

W praktyce oznacza to, że pracodawcy powinni traktować AI wyłącznie jako narzędzie wspierające proces rekrutacyjny, a nie zastępujące decyzję człowieka. Człowiek musi mieć realny wpływ na ocenę kandydatów i podejmowanie decyzji, aby nie dochodziło do sytuacji, w której algorytm staje się „ostatecznym decydentem”.

Sankcje i odpowiedzialność

Kary finansowe w ramach RODO – do 20 mln euro lub 4% globalnego obrotu

RODO przewiduje surowy system sankcji administracyjnych. Zgodnie RODO, naruszenie podstawowych zasad przetwarzania danych – w tym praw osób, których dane dotyczą – może skutkować nałożeniem administracyjnej kary pieniężnej w wysokości do 20 mln euro lub 4% całkowitego rocznego światowego obrotu przedsiębiorstwa z poprzedniego roku obrotowego, w zależności od tego, która kwota jest wyższa

W praktyce oznacza to, że nieprawidłowe wykorzystanie AI w rekrutacji – np. brak poinformowania kandydata o profilowaniu czy stosowanie wyłącznie automatycznego podejmowania decyzji – może prowadzić do najwyższego wymiaru kary. Dodatkowo Prezes UODO może nakazać zaprzestanie przetwarzania, co oznacza faktyczny zakaz dalszego używania AI w danym procesie rekrutacyjnym.

Sankcje z AI Act – do 35 mln euro lub 7% globalnego obrotu

AI Act przewiduje jeszcze wyższe sankcje niż RODO. Zgodnie z AI Act, w przypadku najpoważniejszych naruszeń – takich jak stosowanie zakazanych praktyk AI (np. manipulacyjnych technik podprogowych) – kara może wynieść do 35 mln euro lub 7% całkowitego rocznego obrotu przedsiębiorstwa.

W odniesieniu do systemów wysokiego ryzyka, takich jak te wykorzystywane w rekrutacji, naruszenie wymogów związanych z oceną zgodności, dokumentacją czy przejrzystością może prowadzić do sankcji sięgających 15 mln euro lub 3% obrotu. Nawet mniej poważne uchybienia, np. brak współpracy z organem nadzoru, mogą być karane kwotami rzędu 7,5 mln euro lub 1% obrotu.

Warto zauważyć, że AI Act przewiduje również system sankcji nakładanych na użytkowników systemów AI, a nie tylko ich dostawców. Oznacza to, że zarówno twórca systemu, jak i pracodawca stosujący go w procesie rekrutacyjnym mogą ponosić odpowiedzialność.

 Inne konsekwencje – reputacyjne i pracownicze

Oprócz sankcji finansowych, naruszenia związane z wykorzystaniem AI w rekrutacji mogą prowadzić do poważnych konsekwencji niematerialnych:

  • utrata reputacji – kandydaci mogą postrzegać pracodawcę jako nieuczciwego lub nieprzestrzegającego prawa, a w przypadku wykorzystywania AI w rekrutacji na najwyższe stanowiska wręcz za niepowaznego,
  • roszczenia cywilne – kandydaci, którzy uznają, że zostali dyskryminowani lub że ich prawa zostały naruszone, mogą wystąpić z roszczeniami o odszkodowanie lub zadośćuczynienie,
  • wewnętrzne spory pracownicze – w przypadku stosowania AI także w decyzjach dotyczących awansów lub rozwiązywania umów, pracodawca naraża się na zarzuty o brak obiektywizmu i naruszenie zasad równego traktowania.

W efekcie ryzyka te mogą być dla wielu organizacji równie dotkliwe jak sankcje finansowe – a w niektórych branżach nawet bardziej, biorąc pod uwagę znaczenie reputacji na rynku pracy.

Perspektywy i dobre praktyki

 Transparentność procesów rekrutacyjnych z udziałem AI

Jednym z kluczowych wyzwań związanych z wykorzystaniem AI w rekrutacji jest zapewnienie transparentności. Kandydat ma prawo wiedzieć, że jego dane są analizowane przy pomocy systemu sztucznej inteligencji, a także – w ogólnym zarysie – jak działa ten system. Wynika to zarówno z obowiązku informacyjnego określonego w RODO, jak i z wymogów AI Act, które kładą nacisk na przejrzystość działania systemów wysokiego ryzyka.

Transparentność oznacza w praktyce:

  • jasne komunikaty dla kandydatów, że ich aplikacja jest analizowana przy udziale AI,
  • udostępnianie podstawowych informacji o zasadach działania systemu,
  • możliwość uzyskania wyjaśnienia, dlaczego dana decyzja została podjęta.

Brak przejrzystości nie tylko zwiększa ryzyko naruszeń prawnych, ale także może zniechęcać kandydatów, którzy oczekują uczciwego i zrozumiałego procesu rekrutacyjnego.

 Audyty algorytmów i ocena ich wpływu na prawa kandydatów

Skoro systemy AI stosowane w rekrutacji zostały zakwalifikowane jako systemy wysokiego ryzyka, ich użytkownicy powinni regularnie przeprowadzać audyty. Audyty te powinny obejmować m.in.:

  • analizę jakości danych używanych do uczenia systemu,
  • ocenę ryzyka występowania dyskryminacji lub uprzedzeń,
  • testy weryfikujące, czy wyniki algorytmu są spójne i niedyskryminujące,
  • przegląd mechanizmów nadzoru człowieka nad systemem.

Ocena wpływu na prawa kandydatów (impact assessment) powinna stać się standardem, a nie tylko wymogiem formalnym. Dzięki temu pracodawca będzie w stanie wykazać, że podjął realne działania w celu minimalizacji ryzyka naruszenia praw i wolności jednostek.

 Rekomendacje dla pracodawców i dostawców systemów

Na podstawie regulacji oraz dotychczasowej praktyki można wskazać kilka podstawowych zaleceń:

  • dla pracodawców:
    • traktuj AI jako narzędzie wspierające, a nie decydujące,
    • zawsze zapewniaj „czynnik ludzki” w procesie rekrutacyjnym,
    • wprowadzaj procedury weryfikacji wyników systemu,
    • informuj kandydatów w sposób prosty i zrozumiały o roli AI w procesie
    • wprowadź w firmie regulamin korzystania z AI, który będzie bieżącą informacją dla osóby wykorzystujących AI w rekruracji i nie tylko tam.
  • dla dostawców systemów AI:
    • projektuj systemy z uwzględnieniem zasady privacy by design i by default ,
    • zapewnij użytkownikom końcowym dostęp do dokumentacji i informacji o ograniczeniach systemu,
    • uwzględniaj różnorodność danych treningowych, aby minimalizować ryzyko dyskryminacji,
    • opracuj mechanizmy ułatwiające audyt i kontrolę działania systemu

Zakończenie

Sztuczna inteligencja w rekrutacji to niewątpliwie przyszłość rynku pracy – jej potencjał w zakresie automatyzacji procesów i poprawy efektywności jest ogromny. Jednak przyszłość ta wiąże się również z istotnymi wyzwaniami prawnymi. Zarówno RODO, jak i AI Act nakładają na pracodawców oraz dostawców systemów AI liczne obowiązki, które mają chronić prawa kandydatów.

Czy AI stanie się standardem w procesach rekrutacyjnych? Z pewnością tak – ale tylko wtedy, gdy firmy nauczą się stosować je w sposób odpowiedzialny, zgodny z prawem i z poszanowaniem zasady równego traktowania. Inaczej zamiast innowacyjnego narzędzia rekrutacyjnego, AI może okazać się źródłem ryzyka finansowego, prawnego i reputacyjnego. Warto też pamiętać, że AI nie jest idealnym rozwiązaniem przy rekrutacji na każde stanowisko, co wydaje się niekiedy ginąć z pola widzenia części rekruterów.

Doceniasz tworzone przeze mnie treści?

Piotr Kantorowski
RADCA PRAWNY

Przedsiębiorcom służę pomocą w kwestiach związanych z prawem własności intelektualnej szczególnie w obszarze digital marketingu i IT. Tworzę też umowy tak, aby oddawały Twoje plany biznesowe i zabezpieczały firmę w najwyższym stopniu. Jeśli trzeba pomagam też poprowadzić spory korporacyjne lub z kontrahentami.

Skontaktuj się ze mną, chętnie odpowiem na Twoje pytania dotyczące naszej oferty i przedstawię rozwiązania dostosowane do Twojego biznesu.