-
AI może usprawnić rekrutację, ale polscy pracodawcy są ostrożni – co może ich spowolnić technologicznie.
-
Halucynacje i brak kontroli nad AI to realne ryzyko, zwłaszcza w małych firmach bez działów IT.
-
Bias w danych treningowych sprawia, że AI powiela stereotypy – nie jest od nich wolna z definicji.
-
Miękkich kompetencji i osobowości nie da się dobrze ocenić algorytmem – tu człowiek nadal musi mieć decydujący głos.
-
Działy HR nie znikną, ale zmienią się – AI przejmie proste zadania, pozostawiając ludziom to, co naprawdę ludzkie.
- A
- A
- A
Czy to AI zatrudni nas w firmie? Prof. Spurek: "Spokojnie, na samym końcu i tak pojawi się stary, dobry człowiek"
Algorytmy przeglądają CV, proponują kandydatów, prowadzą wstępne selekcje. Ale czy potrafią wyczuć osobowość? Profesor Przemysław Spurek (Katedra Uczenia Maszynowego, UJ) nie ma wątpliwości: człowiek jeszcze długo będzie ostatnią instancją w rekrutacji.Obawy polskich firm przed AI i ich konsekwencje
Choć AI coraz częściej wspiera rekrutację w krajach zachodnich, polskie firmy wciąż podchodzą do niej z dystansem. Profesor Przemysław Spurek uważa, że ta niechęć jest zrozumiała, ale niepokojąca – opóźnia rozwój i adaptację.
Nie dziwi mnie ona, ale martwi. Dlatego, że im wcześniej wdraża się technologie, tym są lepiej przetestowane i dojrzałe. Mogą pomóc przeglądać CV, wybierać kandydatów, zaoszczędzić pieniądze. Jakoś ten system zautomatyzują, ale trzeba go jednak dostosować do konkretnych problemów w firmie. To nie jest tak, że weźmie się algorytm z półki i on działa. Podejrzewam, że właśnie nasi pracodawcy tego się obawiają
- tłumaczy profesor.
Halucynacje sztucznej inteligencji – gdzie leży ryzyko?
Prof. Spurek tłumaczy zjawisko halucynacji AI, czyli sytuacji, w których model tworzy logicznie brzmiące, ale nieprawdziwe informacje. To jeden z głównych powodów, dla których firmy – zwłaszcza mniejsze – obawiają się pełnego zaufania do algorytmów.
Sztuczna inteligencja, z którą rozmawiamy, to model generatywny. Tworzy rzeczy, które w jakimś stopniu są podobne do rzeczywistości. Ale czasami wygeneruje coś, co tą rzeczywistością nie jest. Na przykład może dorobić bohatera albo wątek w książce, którego nigdy nie było, bo tekst jest spójny i logiczny. Może się okazać, że AI zaproponuje produkt, którego firma nie ma w ofercie. I wtedy mamy problem. Ta halucynacja, czyli tworzenie nieprawdziwych informacji, i kontrola nad tym to obecnie największe wyzwania związane z AI
- uważa gość Radia Kraków.
Bias i stereotypy – czyli jak AI dziedziczy nasze uprzedzenia
Profesor Spurek opowiedział też o bias. Co to takiego? Bias w algorytmach to uprzedzenie utrwalone w danych, zniekształcenie obrazu rzeczywistości w zbiorze danych. Podaje przykład: projekt AI w Amazonie miał wspierać proces rekrutacji, ale algorytm faworyzował mężczyzn. Spurek mówi, że to nie wina technologii, ale tego, czym ją „karmimy”.
Sztuczna inteligencja jest całkowicie wolna od stereotypów – ale tylko w teorii. To my ją uczymy, tak jak człowieka, który rodząc się nie ma poglądów, ale wychowanie kształtuje jego światopogląd. Jeżeli algorytm uczymy na danych, które są zbiasowane – na przykład dominują mężczyźni w technicznych zawodach – to model nauczy się faworyzować mężczyzn. Jeżeli nauczymy AI, że pewne klasy społeczne są gorsze, a kobiety są mniej techniczne, będzie to powtarzać. Obecna technologia nie jest w stanie sama filtrować danych, tylko przyjmuje wszystko od nas
- wyjaśnia profesor Spurek.
AI może być więc niebezpiecznym lustrem społecznych stereotypów, jeśli nie jest trenowana na zrównoważonych danych.
Miękkie kompetencje i granice algorytmu
Według Spurka AI może analizować twarde dane (CV, doświadczenie, stanowiska) ale w ocenie osobowości, komunikatywności czy „dopasowania kulturowego” do firmy, człowiek pozostaje niezastąpiony:
Według mnie na tym etapie nie jesteśmy w stanie zastąpić rekrutera. AI może przyspieszyć proces, ale na samym końcu pojawia się stary, dobry człowiek.
Choć AI mogłaby być sprawna w negocjacjach płacowych czy analizie języka, nie rozpoznaje niuansów emocjonalnych czy intencji oszustwa podczas rozmowy. Profesor uważa, że działy HR nie znikną, będą raczej przekształcane. AI zastąpi rutynowe czynności, takie jak przegląd dokumentów, umawianie spotkań, pomijanie kandydatur, które nie odpowiadają kluczowym kryteriom stanowiska.
Osoby, które oceniają człowieka, rozmawiają z nim, sprawdzają, czy pasuje do kultury firmy, nadal będą niezastąpione. AI można używać dalej, jednak nie będzie to już tak efektywne. W pewnym momencie potrzebny jest człowiek, bo tylko on zrozumie, że ktoś pasuje nie tylko umiejętnościami, ale tym, kim jest
- mówi Spurek.
Komentarze (0)
Najnowsze
-
11:00
Jedna osoba poszkodowana w zderzeniu trzech aut między Wieliczką a Bochnią
-
10:38
Policja zatrzymała 45-latka. Od trzech lat znęcał się nad partnerką
-
10:07
Zator. Tu karpie jeżdżą na rowerach
-
10:03
Oszust podszywał się pod policjanta. Został zatrzymany na gorącym uczynku
-
09:36
Weekendowe utrudnienia i ograniczenie prędkości na autostradzie A4
-
08:15
Miłosz Motyka: Niskie ceny energii to nie jest zasadzka i pułapka
-
07:53
Zabytkowe tramwaje i autobusy. W ten weekend kolejna szansa, żeby pojechać nimi w Krakowie
-
07:32
W południowo-wschodnim Krakowie śmierdzi coraz bardziej?
-
07:16
Weekend ma być piękny, więc linie rekreacyjne rozwiozą chętnych do ZOO, Ojcowa i na kąpieliska
-
06:53
Jak zastąpić najlepszego piłkarza? Cracovia będzie musiała sobie radzić bez Ajdina Hasica
-
06:29
W piątek zrobi się upalnie. To w końcu będzie wakacyjna pogoda
-
06:12
Aktualności komunikacyjne Radia Kraków 08.08
-
06:00
Tour de Pologne wjeżdża do Małopolski. Kolarze pojadą do Zakopanego. Będą utrudnienia. SPRAWDŹ