
Dlaczego sztuczna inteligencja wciąż nie potrafi myśleć jak człowiek
Demis Hassabis, dyrektor generalny Google DeepMind, nie ma złudzeń: największym problemem współczesnej sztucznej inteligencji jest niespójność. W podcaście Google for Developers wyjaśnił, że nawet najbardziej zaawansowane modele potrafią wygrać międzynarodowy konkurs matematyczny, a chwilę później popełnić szkolny błąd w prostym zadaniu.
To właśnie ta nieprzewidywalność – nazwana przez niego „postrzępioną inteligencją” – oddziela dzisiejsze AI od prawdziwego AGI, czyli ogólnej inteligencji zdolnej do rozumienia, uczenia się i planowania jak człowiek.
Hassabis podkreśla, że problemu nie rozwiąże ani więcej danych, ani mocniejsze procesory. Brakuje zdolności, które są fundamentem ludzkiego myślenia: rozumowania, planowania i pamięci długotrwałej.
Dzisiejsze systemy błyskotliwie analizują wzorce, ale wciąż nie potrafią wnioskować logicznie ani wyciągać trwałych lekcji z doświadczenia.
Dlatego, jego zdaniem, potrzebne są nowe, bardziej wymagające testy, które ujawnią, gdzie AI naprawdę sobie nie radzi. To odejście od prostych benchmarków i krok w stronę badań nad „stabilnością inteligencji”.
Z podobnymi wnioskami zgadza się Sam Altman z OpenAI. GPT-5, mimo ogromnego postępu, nadal nie potrafi uczyć się w sposób ciągły, a bez tego nie ma mowy o prawdziwym AGI.
Konkluzja Hassabisa jest prosta: zanim sztuczna inteligencja nauczy się myśleć jak człowiek, musi najpierw przestać popełniać ludzkie błędy.
Tag:ai



