Uważaj na informacje od Chatu GPT! Halucynacje AI
Chat GPT, jak i zresztą inne generatywne modele sztucznej inteligencji, są coraz częściej wykorzystywane przez wielu ludzi. Niestety nie zawsze podają one prawdziwe i sprawdzone informacje. Ten artykuł jest właśnie o tym – skali takiej dezinformacji, a także skąd się bierze i jak jej przeciwdziałać.
Definicja zjawiska halucynacji AI
Tego rodzaju fałsz tworzony przez chatboty, wielu badaczy nazywało na początku halucynacjami. Chodzi tu nie tylko o nieprawdziwe informacje, ale nieprawdziwe informacje wyglądające na zupełnie wiarygodne. AI może nie tylko wygenerować po prostu niezgodną z prawdą odpowiedź na dany temat, ale nawet wymyślić istnienie czegoś – np. książek lub artykułów naukowych.
Szybka klaryfikacja: coraz częściej rezygnuje się jednak z tego terminu. Zwyczajnie może on tworzyć mylne wyobrażenia – na temat ludzi cierpiących z powodu halucynacji, jak i nowych technologii. Halucynacje to w psychiatrii objawy, polegające na spostrzeganiu (najczęściej słyszeniu i widzeniu) nieistniejących w rzeczywistości przedmiotów i zjawisk, z silną wiarą w ich realne istnienie.

Zaczęto natomiast używać słowa misinformation, które oznacza po prostu mylną informację. Nie ma eleganckiego polskiego tlumaczenia tego wyrazu, więc będę w dalszej części artykułu pisał dezinformacja. Warto jednak mieć na uwadze, że desinformation w angielskim znaczy celowe wprowadzanie w błąd, a tutaj niekoniecznie mówimy o celowości.
Dlaczego to zjawisko może być dla nas groźne?
Wady takiego działania sztucznej inteligencji są oczywiste. Naukowcy obawiają się zalania nas falą błędów i pół-prawd. Tyczy się to zarówno tekstów na portalach dziennikarskich i w gazetach, instytucji naukowych i służby zdrowia, jak i informacji rządowych. Rozważmy dwa przykłady.
Weźmy na warsztat właśnie leczenie chorób. Jeśli osoba prywatna (lub niestety nawet lekarz) miałby wykorzystywać treści tworzone lub współtworzone przez AI, może popełnić poważne błędy. A mowa tutaj zarówno o stawianiu diagnoz, jak i stosowaniu odpowiednich leków czy zaleceń. Mogłoby to nie przynosić pożądanych skutków leczniczych lub nawet stanowić dla kogoś zagrożenie.

Jest inna sprawa, przez którą niektórzy mówią o tym wszystkim, jako „zagrożeniu dla demokracji”. Dziennikarz poprosiłby AI o wygenerowanie tekstu o pewnym bieżącym wydarzeniu politycznym i posłałby je w świat. Gdyby jednak nie dokonał odpowiedniego fact-checkingu, mógłby zawrzeć tam potencjalnie fake-newsy. A te mogłyby być kolejną iskrą do rozniecania społecznych emocje i konfliktów między ludźmi.
Jak często chatboty zmyślają?
Ocena skali dezinformacji jest trudna. Stosuje się różne metody, by ocenić jak często dana sztuczna inteligencja podaje błędne informacje. Przeprowadzono choćby ankiety, w których pytano ludzi jak często natrafili na fałsz w odpowiedziach np. Chatu GPT. Takie badania jednak mają swoje poważne ograniczenia – ludzie nie zawsze wyłapią nieprawdę, ludzie nie zgadzają się między sobą co do tego, co jest nieprawdą, ludzie mogą nie pamiętać dobrze „rozmów” z AI.
Bardziej obiecującymi są zestawienia tworzone przez Vectarę, oparte o ich własny algorytm. Porównują oni różne, dostępne publicznie modele sztucznej inteligencji pod względem właśnie generowania dezinformacji. Można się zapoznać ze stworzonym przez nich rankingiem wchodząc na github.com/vectara/hallucination-leaderboard. Według nich (dane na 17 kwietnia 2025):
- najmniejszy współczynnik „halucynacji” ma Google Gemini-2.0-Flash-001, bo tylko 0,7%
- najwyższy współczynnik „halucynacji” ma TII falcon-7B-instruct, bo aż 29.9%!
- płatny Chat GPT-4 Turbo 1,7%, a darmowy Chat GPT-3.5 1,9%
- chiński DeepSeek 2-Lite 2,4%

To, czy AI poda nam fałszywą informację czy nie, zależy też od dziedziny, o którą pytamy czy sformułowania polecenia.
Skąd się to bierze w tych chatach?
Chaty popełniają takie błędy z co najmniej dwóch powodów. Jeden z nich, to zwyczajnie jeszcze niewystarczająco dopracowana „wewnętrzna architektura” tych modeli. Poradzenie sobie z tym i wprowadzenie technicznych rozwiązań, żeby sztuczna inteligencja nie wypisywała nam „zmyślonych faktów” będzie wymagać czasu, ale już są wkładane w to wysiłki ze strony firm.
Drugi z nich, co może trochę ironiczne, wynika z tego na czym uczy się tego rodzaju technologie. Jeśli trenuje się je na danych z Internetu, gdzie już teraz pełno jest dezinformacji wyprodukowanej przez samych ludzi, to nie powinno to nas dziwić. Innymi słowy: Chat GPT kłamie, bo ludzie kłamią. Bot Microsoftu, Tay, w 2016r. zaczął na X wypisywać antysemickie hasła i popierać Hitlera, bo uczył się w interakcjach z trollami internetowymi.
AI odzwierciedla również stereotypy czy skróty myślowe, którymi posługuje się człowiek. Przez to, że w Internecie jest więcej zdjęć mężczyzn jako szefów, to „maszyny” również będą generować obrazy szefów płci męskiej, pomijając przy tym zupełnie kobiety.
Co możemy zrobić – środki zaradcze i ocena sytuacji
Niektóre ze statystyk mogą przerażać, ale jeśli ludzie używają najczęściej Chatu GPT i Gemini, to nie jesteśmy w tak okropnej sytuacji. Ich współczynniki dezinformacji nie przekraczają 2%, a to może być „prawdomówność” porównywalna z treściami tworzonymi przez ludzi, jeśli nie lepsza.

Niemniej, tak czy tak, powinno nam zależeć na tym, aby sprawnie radzić sobie nawet z tymi dwoma procentami. Na pewno warto jest, abyśmy korzystali mądrze i ostrożnie z takich asystentów AI. Możemy zalecać im, aby podawały źródła do swoich wypowiedzi. Oprócz tego, jeśli sprawdzamy coś ważnego, zwykle jednak przyda się ręczne sprawdzenie, tego co sztuczna inteligencja wyprodukuje.
Ponadto już teraz politycy i prawnicy pracują nad ustawami, które mają regulować prawnie użycie takich technologii. Ich twórcy natomiast powinni przeprowadzać więcej testów i zyskać większą świadomość tego, że ich własna stronniczość może się przekładać na to, co potem pisze bot.
Wniosek jest taki sam jak zawsze: używajmy AI z głową i korygujmy jego błędy, i będzie okej.
Źródła: