Kandydat vs AI w rekrutacji

AI w rekrutacji nie stworzyło problemu. Ono go tylko ujawniło.

To nie jest historia o sprytnym kandydacie.

To jest historia o tym, jak dziś w wielu organizacjach wygląda wykorzystanie AI w HR — bez decyzji, bez odpowiedzialności i bez kontroli nad tym, co faktycznie dzieje się z danymi osobowymi.

Kandydat umieścił w CV ukryty komunikat dla modelu AI. Model go wykonał. Rekruter również — nieświadomie. W efekcie organizacja sama wygenerowała dowód na to, że dane osobowe zostały przekazane do narzędzia AI bez analizy ryzyka, bez aktualnego obowiązku informacyjnego i bez działającego punktu kontaktowego.

Ten token niczego nie złamał. On tylko pokazał, jak działa system.

Bo problem nie zaczyna się w AI. Problem zaczyna się w momencie, w którym organizacja wdraża narzędzia, ale nie bierze za nie odpowiedzialności. CV trafia do AI „bo szybciej”, klauzula informacyjna „przecież jest” — tylko sprzed kilku lat, a punkt kontaktowy do IOD istnieje formalnie, ale nie działa w praktyce.

Najbardziej wymowny moment w tej historii? Próba kontaktu z IOD, która kończy się brakiem odpowiedzi.

To już nie jest incydent. To jest systemowy brak zgodności.

Najprostszy test, jaki każda organizacja może dziś zrobić, jest banalny: spróbować jako kandydat napisać do IOD i zobaczyć, czy ktoś odpowie. Jeśli nie — problem nie dotyczy AI. Problem dotyczy całego sposobu zarządzania odpowiedzialnością za dane.

AI w HR nie jest dziś przewagą. Bez uporządkowania fundamentów staje się ryzykiem — regulacyjnym, wizerunkowym i operacyjnym. I coraz częściej kończy się dokładnie w tym samym miejscu: pytaniem ze strony organu nadzorczego, na które organizacja nie ma spójnej odpowiedzi.

Z perspektywy praktycznej najczęściej nie działają podstawy:

  • brak świadomej decyzji, jak i po co używane jest AI
  • brak analizy ryzyka (RODO + AI)
  • nieaktualny lub pozorny obowiązek informacyjny
  • niedziałający punkt kontaktowy (IOD / ADO)
  • brak spójności między HR, legal i IT

To nie są błędy technologii. To są błędy organizacyjne.

Dlatego uporządkowanie AI w HR nie zaczyna się od wyboru narzędzia, tylko od decyzji biznesowej i przypisania odpowiedzialności. Dopiero potem ma sens analiza ryzyka, aktualizacja obowiązków wobec kandydatów i zbudowanie realnego punktu kontaktowego, który faktycznie działa, a nie tylko istnieje w dokumentacji.

To jest dokładnie ten obszar, w którym pracujemy w HTeam — na styku strategicznego HR, RODO i data governance. Nie „poprawiamy dokumentów”, tylko porządkujemy sposób działania organizacji, tak żeby była w stanie odpowiedzieć na najprostsze pytanie: co dzieje się z danymi kandydata — i kto za to odpowiada.

Bo dziś to nie technologia jest największym ryzykiem.

Tylko brak kontroli nad tym, jak jest używana.

Zainteresował Cię tekst?

Masz pytania dotyczące bezpieczeństwa informacji?

Twoja organizacja potrzebuje wsparcia w tego typu zagadnieniach lub projektach?

Skontaktuj się ze mną

LW 2 zdjęcie