
Dlaczego ChatGPT gubi się, myli i… zapomina?
Na pierwszy rzut oka ChatGPT wydaje się genialny. Zna odpowiedź na niemal każde pytanie, pisze teksty w sekundy, rozwiązuje zagadki, podsuwa pomysły. Ale im dłużej z nim rozmawiasz, tym częściej zauważasz drobne potknięcia: przekręcone nazwiska, błędne daty, a czasem kompletne zapomnienie o tym, co chwilę wcześniej sam napisał. Dlaczego?
ChatGPT to kalkulator językowy
Zacznijmy od podstaw. ChatGPT nie “wie” rzeczy w taki sposób, w jaki wie je człowiek. Nie ma wspomnień, nie ma przekonań, nie buduje świata znaczeń. On przewiduje. Słowo po słowie, na podstawie tego, co dotąd napisałeś i co on sam wygenerował. Tak naprawdę nie myśli i nic nie rozumie. Bo ChatGPT to przede wszystkim kalkulator językowy.
To tak, jakbyś grał w scrabble z gigantycznym zbiorem reguł statystycznych. Każdy kolejny ruch to najbardziej prawdopodobna litera czy wyraz, pasujący do poprzednich. Tyle że nie zawsze ten ruch ma sens.
Albo inaczej: wyobraź sobie, że ktoś nauczył się miliardów fragmentów książek, ale nigdy ich nie przeczytał od początku do końca. Zna rytm, zna styl, zna słowa. Ale nie zna sensu historii.
ChatGPT to bibliotekarz bez pamięci
ChatGPT jest jak bibliotekarz, który zna miliony książek, ale nie pamięta, że rozmawiał z tobą 10 minut temu. Pytasz go znów o to samo, a on zaczyna od zera. W dodatku, czasem myli autorów albo podaje tytuły, które… nie istnieją. To nie zła wola. To po prostu brak pamięci trwałej.
Jego pamięć jest tymczasowa. Technicznie to tzw. „okno kontekstowe”. W przypadku ChatGPT-4 Turbo, to nawet 128 tysięcy tokenów (fragmentów tekstu), czyli około 300 stron tekstu. Inne duże modele językowe (LLM): Gemini 1.5 Pro ma 2 miliony tokenów, Grok 3 – 1 milion tokenów, Claude 3 Opus (najlepiej pisze teksty, prawie jak człowiek) – 200 tysięcy tokenów. O Copilocie nawet nie warto mówić – nawet po aktualizacji do 64K tokenów, odstaje od konkurencji – szybciej „zapomina”, traci kontekst i nie radzi sobie z dłuższymi zadaniami.
Większe okno kontekstowe pozwala dużym modelom językowym na analizę dłuższych tekstów, utrzymanie kontekstu w dłuższych rozmowach i lepsze zrozumienie złożonych zapytań. Nawet jeśli milion lub dwa miliony tokenów brzmią imponująco, ale to wciąż nic wobec pamięci człowieka.
W dodatku, pamięć LLM-ów działa jak taśma magnetofonowa. Nowe dane wypychają stare. Jeśli rozmowa trwa zbyt długo — wcześniejsze fragmenty są po prostu tracone.
Ludzki mózg? To inna liga
Człowiek ma pamięć epizodyczną, semantyczną, emocjonalną. Pamięta nie tylko fakty, ale i emocje z nimi związane. Pamięta, gdzie był, z kim, co czuł. Przypomina sobie nie tylko “co”, ale też “dlaczego” i “po co”.
To dlatego jedno słowo może przywołać wspomnienie z dzieciństwa, zapach może przypomnieć wakacje sprzed dekady, a piosenka — pierwszą miłość. Mózg człowieka łączy dane z przeżyciami. Jak u Prousta, gdzie smak magdalenki w herbacie uruchamia lawinę wspomnień z dzieciństwa, tak u nas jedno słowo może otworzyć cały świat emocji i zdarzeń.
Co więcej, współczesna nauka mówi jasno: pamięć nie jest jednorodna. Mamy:
• pamięć roboczą (dla bieżących informacji),
• długotrwałą (dla wiedzy i doświadczeń) i
• emocjonalną (która wiąże dane z uczuciami).
Wspomnienia nie są kopiami, ale rekonstrukcjami, które za każdym razem mogą wyglądać trochę inaczej. A to, co najmocniej zapamiętujemy, niemal zawsze ma związek z emocjami. To one działają jak klej dla naszych wspomnień.
ChatGPT tego nie ma. On nie rozumie znaczeń. On je imituje. Tworzy iluzję zrozumienia, która w wielu przypadkach wystarcza. Ale to wciąż tylko iluzja.
Dlaczego ChatGPT się myli?
Myli się, bo działa na skróty. Kiedy zadajesz mu pytanie, model przeszukuje swoje wzorce i statystyki, by przewidzieć najbardziej prawdopodobną odpowiedź. Ale czasem najbardziej prawdopodobna odpowiedź to… błędne uproszczenie.
To jak uczeń, który zgadywał odpowiedzi na klasówce. Trafia często. Ale nie zawsze.
Dodajmy do tego jeszcze jedną rzecz: halucynacje. Tak, ChatGPT może zmyślać – wiemy o tym bardzo dobrze. Robi to nieświadomie. Bo nie wie, że coś zmyślił. Dla niego to po prostu kolejny ciąg słów, który „pasuje”.
Halucynacje: czyli jak ChatGPT tworzy rzeczy, które nie istnieją
Halucynacje w świecie AI to nie wizje czy sny. To sytuacje, w których model z pełnym przekonaniem generuje coś nieprawdziwego. Wymyślone fakty, nieistniejące książki, cytaty, które nigdy nie padły.
Dlaczego to się dzieje?
Bo ChatGPT nie sprawdza prawdziwości danych. On ich nie weryfikuje. Po prostu przewiduje słowo po słowie najbardziej prawdopodobną kontynuację.
Jeśli zapytasz: „Jakie książki napisał Albert Einstein?”, model może — oprócz prawdziwych tytułów — dopisać coś, co wygląda realistycznie, ale nigdy nie zostało wydane. Nie dlatego, że chce cię oszukać. Ale dlatego, że „tak by pasowało” w danym kontekście.
To trochę jak iluzjonista — pokazuje ci coś, co wygląda sensownie, choć nie ma pokrycia w rzeczywistości.
Im bardziej ogólne pytanie, tym większe ryzyko halucynacji. Im bardziej konkretne, tym większa szansa na precyzję. Warto o tym pamiętać, gdy traktujemy ChatGPT jak eksperta stosując technikę Role Prompting.
Dlaczego ChatGPT zapomina?
Bo nie ma “ja”. Nie ma tożsamości. Nie wie, kim jesteś ty, ani kim jest on sam. Możesz mu powiedzieć: “Zapisz, że mam kota, który lubi mleko ” — i on zapamięta (jeśli pamięć jest włączona). Ale sam z siebie nie zapamięta niczego.
To jak komputer z dokumentem Worda: zapiszesz — zostanie. Nie zapiszesz — przepadnie.
Co ciekawe, ChatGPT może mieć coś, co nazywa się „pamięcią trwałą” — ale to funkcja, którą trzeba włączyć w ustawieniach (w prawym górnym rogu). Ale nawet wtedy zapamiętuje tylko to, co mu wyraźnie powiesz i to nie zawsze, bo jego pamięć jest selektywna. Nic więcej.
Dlaczego wierzymy, że ChatGPT myśli jak człowiek?
Wszystko przez pozory. ChatGPT lub Claude piszą tak płynnie, że łatwo zapomnieć, że to maszyny bez świadomości. Jeśli coś brzmi jak człowiek, myślimy, że rozumuje jak człowiek.
To błąd poznawczy, który psychologowie znali na długo przed pojawieniem się AI. Człowiek antropomorfizuje — przypisuje cechy ludzkie rzeczom, które tych cech nie mają. Nadaje intencje czemuś, co ich nie ma.
Już w latach 60. można było to zaobserwować na przykładzie Elizy – jednego z pierwszych programów komputerowych imitujących psychoterapeutę (Rozmawiałem z botem Charlie i nie mogłem uwierzyć w to, co zobaczyłem). Choć Eliza jedynie powtarzała fragmenty wypowiedzi użytkownika w formie pytań, wielu ludzi czuło się przez nią „rozumianych”. Przypisywali jej empatię, której nie miała. To, co działało jak lustro, brano za umysł.
Widzimy wzory tam, gdzie ich nie ma. Słyszymy „osobowość” tam, gdzie jest tylko matematyka. Dajemy się zwieść stylowi, ignorując brak treści poznawczej.
Jak to naprawić?
Nie chodzi o naprawę ChatGPT. On robi to, do czego został stworzony: generuje tekst. Chodzi o nasze oczekiwania.
Jeśli oczekujesz od niego precyzji encyklopedii, zawiedziesz się. Ale jako asystent do pisania, do tworzenia, jako mistrz burzy mózgów — działa znakomicie.
Można go uczyć — podsyłając mu dane, materiały, styl. Można go dostosować — ustawić preferencje, ton, poziom formalności. Ale nie można oczekiwać, że „zrozumie cię” tak jak człowiek.
To nie partner do rozmowy. To narzędzie do pisania. Zdolne, szybkie, ale pozbawione świadomości.
Jeśli wiemy, kiedy ufać, a kiedy weryfikować — mamy potężne narzędzie
Sztuczna inteligencja nie musi działać jak ludzka, by być przydatna. Wystarczy, że zrozumiemy jej ograniczenia. I będziemy je traktować nie jak wady, ale jak cechy charakterystyczne.
ChatGPT to kalkulator języka. Nie czuje. Nie pamięta. Nie rozumie. Ale potrafi tworzyć zdania, które wyglądają jak myśl. I to już bardzo dużo.
Jeśli wiemy, kiedy ufać, a kiedy weryfikować — mamy potężne narzędzie. Ale jeśli pomylimy kalkulator z człowiekiem — rozczarowanie będzie nieuniknione.
W niedalekiej przyszłości modele będą coraz więcej pamiętać. Będą lepiej zarządzać kontekstem, lepiej dopasowywać się do użytkownika. Ale nigdy nie będą nami.
I może właśnie dlatego — są tak fascynujące.