Czy kiedykolwiek marzyłeś o tym, by wrzucić rok danych z otwartych pytań ankietowych o powodach odejścia pracowników do AI i otrzymać gotowy raport? To kuszące! Niestety, najnowsze badania pokazują, że poleganie na dużych modelach językowych (LLM) w analizie danych jakościowych może prowadzić do poważnych błędów. Poznajmy, dlaczego to nie jest tak proste, jak się wydaje i jak możemy to zrobić lepiej.
Kiedy AI zmyśla: Ryzyka analizy danych jakościowych z ChatGPT
Wyobraź sobie scenariusz: Zbierasz cenne dane z pytań otwartych w ankietach exit interview – „Co powoduje, że chcesz odejść z naszej firmy?”. Po roku masz setki, a nawet tysiące odpowiedzi i chcesz zrozumieć prawdziwe, złożone powody rezygnacji, żeby podjąć strategiczne decyzje. W dzisiejszych czasach, wrzucenie tego do ChatGPT i poproszenie o podsumowanie wydaje się być rozwiązaniem idealnym. Niestety, to właśnie tutaj leży pułapka, która może prowadzić do fatalnych decyzji.
Badanie opublikowane przez Nguyen i Welcha (2025) rzuca światło na ten problem, analizując użycie dużych modeli językowych (LLM) do analizy danych jakościowych, takich jak wywiady czy ankiety otwarte. Okazuje się, że to podejście ma kilka poważnych mankamentów:
- AI generuje cytaty, których… nie było! W badaniu zaobserwowano, że LLM potrafiło „wymyślać” cytaty, które nie istniały w analizowanym tekście. Wyobraź sobie, że Twój raport o powodach odejść opiera się na nieprawdziwych wypowiedziach pracowników – to prosta droga do błędnych wniosków i katastrofalnych decyzji strategicznych.
- Brak powtarzalności wyników. Dwukrotne zadanie tego samego polecenia AI może przynieść dwa zupełnie różne rezultaty. To tak, jakby z wyników badań krwi jeden lekarz mówił, że wszystko jest w porządku, a drugi zalecał pilne leczenie. Brak możliwości odtworzenia analizy podważa jej wiarygodność i czyni ją bezużyteczną w procesie decyzyjnym.
- Powierzchowna interpretacja. Generowane wnioski są często zbyt ogólne lub po prostu parafrazują tekst źródłowy, bez głębszej, krytycznej interpretacji. AI doskonale naśladuje formę raportu, ale brakuje mu analitycznej treści. Może stworzyć zgrabny raport z motywem „Brak możliwości rozwoju”, ale ten wniosek może opierać się na zmyślonych cytatach, a prawdziwe, złożone przyczyny odejścia zostaną pominięte.
Krótko mówiąc: AI nie jest narzędziem analitycznym, tylko syntezatorem tekstu. Doskonale pisze, ale fatalnie analizuje znaczenie i kontekst.
Poza ankietami: Jak algorytmy rekrutacyjne mogą pogłębiać nierówności
Problem z AI nie ogranicza się tylko do analizy danych jakościowych. Inne badania, takie jak przegląd koncepcyjny Boyda, Huntera, Intindoli i Serry (2025), podkreślają szersze ryzyka związane z implementacją AI w obszarze HR, zwłaszcza w systemach selekcji personelu. Chociaż to nie jest badanie empiryczne z danymi statystycznymi, autorzy syntetyzują szeroki zakres literatury, raportów branżowych i przepisów, aby zbudować mocny argument na rzecz ostrożnego podejścia.
Ich wnioski są alarmujące:
- „Ślepa plamka” HR. Literatura HR wciąż niewystarczająco głęboko analizuje specyficzne ryzyka związane z AI w selekcji, koncentrując się raczej na ogólnych dyskusjach.
- Utrwalanie uprzedzeń. Narzędzia AI nie są neutralne. Mogą utrwalać, a nawet wzmacniać istniejące uprzedzenia. Przykład? Systemy skanujące CV, ucząc się z danych historycznych (np. zdominowanych przez męskich kandydatów w branży technologicznej), mogą faworyzować męskie formy językowe lub doświadczenia, odrzucając równie wykwalifikowane kandydatki.
- Historia uczy uprzedzeń. Dane historyczne używane do trenowania modeli AI mogą zawierać przeszłe dyskryminacyjne praktyki. Głośny przypadek Amazonu, gdzie narzędzie rekrutacyjne nauczyło się karać CV zawierające frazę „kapitan kobiecego klubu szachowego”, ponieważ było trenowane na danych od przeważnie męskich aplikantów, jest tego brutalnym dowodem. 😱
To pokazuje, że AI w HR to złożony system socjotechniczny, a nie proste rozwiązanie zwiększające efektywność.
Człowiek w centrum: Jak odpowiedzialnie wykorzystać potencjał AI
Czy to oznacza, że powinniśmy całkowicie zrezygnować z AI w analizie jakościowej lub w HR? Niekoniecznie. Rozwiązaniem jest świadome podejście „human-in-the-loop”, gdzie człowiek pozostaje w centrum procesu.
AI może być niezwykle użyteczne na wczesnych etapach:
- Do wstępnego tagowania lub kategoryzacji dużych zbiorów danych, co znacząco przyspiesza pracę.
- Do identyfikacji powtarzających się wzorców, które mogą umknąć ludzkiemu oku w ogromnych ilościach tekstu.
Jednak ostateczna interpretacja, identyfikacja niuansów, kontekstualizacja i wyciąganie strategicznych wniosków to zadania, które wciąż wymagają ludzkiego osądu, krytycznego myślenia i empatii. To my, ludzie, potrafimy dostrzec subtelne różnice między „brakiem możliwości rozwoju” a „frustracją spowodowaną brakiem wsparcia menedżera”.
Praktyczne wskazówki dla menedżerów i organizacji:
- Żądaj transparentności od dostawców AI. Zanim zainwestujesz w narzędzie AI, zapytaj o dane treningowe, metody testowania i łagodzenia uprzedzeń, a także o możliwość audytu wyników.
- Rozwijaj „AI literacy” w zespołach HR. Specjaliści HR nie muszą być programistami, ale powinni rozumieć podstawy uczenia maszynowego, źródła uprzedzeń algorytmicznych i potrafić krytycznie interpretować wyniki systemów AI.
- Wdrażaj AI jako narzędzie wspierające decyzje, nie jako decydenta. AI może pomóc wyselekcjonować szeroką pulę potencjalnych kandydatów, ale to przeszkoleni specjaliści HR i menedżerowie ds. rekrutacji muszą dokonać ostatecznego wyboru, zapewniając sprawiedliwość i holistyczną ocenę.
Dlaczego to ważne dla Ciebie i Twojej organizacji?
Podejmowanie decyzji HR, czy to w kwestii zatrzymania talentów, czy rekrutacji, ma bezpośredni wpływ na wyniki biznesowe. Jeśli Twoje strategie opierają się na analizach danych jakościowych, które są błędne lub zniekształcone przez niewłaściwe użycie AI, ryzykujesz ogromne straty finansowe i wizerunkowe.
Inwestycja w rzetelną analizę opartą na psychologii naukowej – zamiast na intuicji czy pozornej „łatwości” AI – przekłada się na:
- Lepsze zrozumienie prawdziwych potrzeb pracowników.
- Skuteczniejsze strategie retencji talentów.
- Sprawiedliwsze i bardziej efektywne procesy rekrutacyjne.
- Zwiększoną różnorodność i innowacyjność w zespołach.
Właśnie dlatego tak ważne jest, by decyzje opierać na twardych danych i eksperckiej wiedzy. Pamiętaj, że wartość informacji zależy od jakości jej analizy. Zamiast pytać „Czy AI może to za mnie przeanalizować?”, może warto zapytać „Jak mogę użyć AI, by lepiej i szybciej zrozumieć te dane samodzielnie?”. I takie pytanie warto zadać ChatGPT, zanim wrzucimy mu plik z naszymi danymi 😉
Chcesz odpowiedzialnie wdrażać AI w HR i opierać decyzje na nauce?
Jeśli szukasz wsparcia w budowaniu strategii HR opartych na psychologii naukowej, odpowiedzialnym wdrażaniu AI lub potrzebujesz szkoleń dla swoich zespołów – zapraszam do kontaktu. Razem możemy sprawić, że Twoja organizacja będzie podejmować decyzje na podstawie rzetelnej wiedzy, a nie domysłów.
Pamiętaj, by zawsze stawiać człowieka w centrum analizy, a AI traktować jako potężne narzędzie wsparcia, nigdy jako nieomylnego eksperta.
Fantastycznego dnia!
Kamil Godawski
Bibliografia
Boyd, N., Hunter, J., Intindola, M., & Serra, T. (2025). Interdisciplinary narratives on artificial intelligence & personnel selection systems. The International Journal of Human Resource Management. DOI: 10.1080/09585192.2025.2568782.
Nguyen, D. C., and Welch, C. (2025). Generative Artificial Intelligence in Qualitative Data Analysis: Analyzing-Or Just Chatting?. Organizational Research Methods.








