
Jak rozmawiać z AI? Jak z człowiekiem. Wtedy najlepiej „rozumie”
Niektóre modele AI przetwarzają język w sposób zbliżony do tego, jak działa ludzki mózg. Takie wnioski płyną z badania Uniwersytetu Pekińskiego, które może zmienić nasze podejście do rozmów z AI.
Nowe odkrycia pokazują, że wybrane warstwy sztucznych modeli językowych funkcjonują zadziwiająco podobnie do obszarów językowych w ludzkim mózgu.
To oczywiście nie jest dowód na inteligencję ani istnienie świadomości. Badanie pokazuje jedynie funkcjonalną zbieżność w określonych kontekstach językowych. Ale to wystarczy, by zmienić sposób, w jaki piszemy prompty, czyli instrukcje dla dużych modeli językowych, jak ChatGPT, Gemini czy Claude.
W eksperymencie przeprowadzonym w 2024 roku przez zespół Uniwersytetu Pekińskiego uczestnicy słuchali “Małego Księcia” w trakcie skanowania mózgu metodą fMRI (functional Magnetic Resonance Imaging – funkcjonalny rezonans magnetyczny). Jednocześnie 14 modeli językowych (wielkości 6,7–9 mld parametrów*) analizowało ten sam tekst.
Co pokazał rezonans magnetyczny i dlaczego warstwy pośrednie są kluczowe
Naukowcy porównali aktywność neuronalną ludzi z wewnętrznymi reprezentacjami AI. Najsilniejsze korelacje pojawiły się nie w tzw. warstwach wejściowych ani wyjściowych, lecz w warstwach pośrednich.
Warstwy pośrednie modelu AI są odpowiedzialne za analizę głębszych struktur językowych, takich jak:
- Relacje semantyczne – np. związek między słowami „król” i „tron”
- Struktura składniowa – czyli jak słowa łączą się w sensowne zdania
- Kontekst czasowy – czyli zależności między zdarzeniami lub pojęciami rozciągnięte w czasie
Jak twierdzą naukowcy, to właśnie warstwy pośrednie – nie wejście ani wyjście – są tym, co zbliża przetwarzanie języka przez AI do działania ludzkiego mózgu.
To nie wielkość modelu, ale typ treningu okazał się kluczowy
Jeszcze ważniejsze niż liczba parametrów okazało się to, jak modele zostały wytrenowane.
Modele „klasyczne” przypominają uczniów, którzy przeczytali milion książek, ale nikt nie nauczył ich odpowiadać na pytania. Ich bazy są pełne danych, ale nie przeszły one treningu w formie dialogu.
Z kolei modele „instruction-tuned” są jak uczniowie, którzy nie tylko czytają, ale regularnie ćwiczą odpowiadanie, rozumienie pytań i formułowanie sensownych odpowiedzi.
To trening interakcyjny, jak w naszej ludzkiej edukacji.
Nie wystarczy mieć wiedzę – trzeba umieć z niej korzystać
Innymi słowy: nie wystarczy znać język, trzeba nauczyć się go stosować w kontekście. I dokładnie to pokazuje to badanie.
Modele trenowane na podstawie ludzkich poleceń (instruction-tuned) miały wyraźnie wyższą korelację z pracą ośrodków językowych w mózgu niż modele klasyczne.
Te ostatnie to tzw. base models, czyli trenowane wyłącznie na dużych zbiorach tekstów, bez specjalnego dostrajania do ludzkich instrukcji.
Uczą się przewidywać kolejne słowa, ale nie rozumieją poleceń ani intencji użytkownika.
AI najlepiej reaguje, gdy rozmawiamy z nią jak z człowiekiem
Jeśli chcemy skutecznie współpracować z AI, musimy zrozumieć, co aktywuje jej najgłębsze warstwy przetwarzania. A okazuje się, że AI najlepiej reaguje, gdy mówimy do niej jasno, kontekstowo i celowo, tak jak do człowieka.
Możliwe konsekwencje:
- Prompty pisane naturalnym językiem (z kontekstem i strukturą) aktywują warstwy pośrednie modelu – te najbardziej „ludzkopodobne”.
- Instruction-tuning, czyli proces dostrajania i dodatkowego treningu modelu językowego, w którym uczy się on reagować na konkretne polecenia formułowane przez ludzi, zbliża sposób przetwarzania języka do tego, jak robi to mózg.
- Prompt Engineering staje się nową formą neurolingwistyki – chodzi nie tylko o pytanie, ale o aktywację struktur poznawczych AI.
To nie znaczy, że AI myśli jak człowiek – ale przetwarza język w sposób wystarczająco podobny, by można było to wykorzystać praktycznie. A największą rewolucją może być nie sama technologia, lecz sposób, w jaki zaczniemy z niej korzystać.
Trzy przykłady promptów: zły, dobry i lepszy
Badanie zainspirowało mnie do napisania trzech przykładów promptów:
- Zły prompt (mechaniczny, powierzchowny)
Streść Małego Księcia.
- Dobry prompt (aktywizuje kontekst i relacje)
Przeczytaj fragment „Małego Księcia”, a następnie streść go, pokazując, co naprawdę chciał przekazać narrator. Zwróć uwagę na symbolikę, emocje i relacje między postaciami.
- Lepszy prompt (symuluje zadanie intelektualne, aktywizuje głębokie warstwy)
Jesteś literaturoznawcą, który analizuje psychologiczne i filozoficzne przesłanie „Małego Księcia” na potrzeby zajęć akademickich. Przeanalizuj ten fragment: [tu wklej cytat], wskazując, co mówią zawarte w nim obrazy o kondycji człowieka, samotności i potrzebie zrozumienia.
Podsumowanie
Badanie Uniwersytetu Pekińskiego pokazuje, że niektóre modele językowe przetwarzają język w sposób zaskakująco zbliżony do tego, jak robi to ludzki mózg – zwłaszcza w warstwach pośrednich, które odpowiadają za składnię, semantykę i kontekst.
Kluczowy wniosek: nie rozmiar modelu, lecz sposób jego trenowania – zwłaszcza metodą instruction-tuning – decyduje o tym, jak bardzo jego wewnętrzne reprezentacje przypominają aktywność mózgu człowieka podczas rozumienia języka.
To odkrycie ma praktyczne znaczenie. Pokazuje, że najlepsze efekty w pracy z AI osiągniemy nie wtedy, gdy po prostu wpisujemy polecenie, ale gdy formułujemy je tak, jakbyśmy mówili do drugiego człowieka – z kontekstem, intencją i logiką.
Wtedy model sięga do swoich „głębszych warstw”, które przetwarzają język w sposób najbardziej zbliżony do naszego mózgu.
* Wielkość 6,7–9 miliardów parametrów to dziś średnia klasa modeli językowych – większe niż modele konsumenckie typu nieistniejący już GPT-3.5 (~6,7 mld), ale mniejsze niż flagowe modele typu GPT-4 (~175 mld) czy Claude 3 Opus (~200 mld). W kontekście badania to rozsądny kompromis: modele są wystarczająco złożone, by uchwycić strukturę języka, ale na tyle małe, by ich wewnętrzne reprezentacje dało się analizować bez ogromnych zasobów obliczeniowych.
Źródło badania:
Yu Lei, Yizhen Liu, Yiming Shen, et al., “Do Large Language Models Think Like the Brain? Sentence-Level Evidence from fMRI and Hierarchical Embeddings”, arXiv preprint, 28 maja 2025.
Pełen tekst: arXiv:2505.22563v1
Tag:ai, sztuczna inteligencja