
„To nie jest myślenie. To iluzja myślenia” – badacze Apple demaskują sztuczną inteligencję
Masz wrażenie, że ChatGPT rozumie, co piszesz? Że „myśli”, analizuje, podejmuje decyzje? To złudzenie. I właśnie tę iluzję potwierdzili inżynierowie Apple w opublikowanym niedawno raporcie The Illusion of Thinking.
„Nawet jeśli podamy modelowi gotowy algorytm, on i tak zawiedzie”, piszą autorzy. W jednym zdaniu podważają to, w co wielu użytkowników (i firm) chciałoby wierzyć, a mianowicie, że sztuczna inteligencja rozumie świat tak jak my.
Tymczasem ona tylko kalkuluje prawdopodobieństwo kolejnych słów. Nie wie, zgaduje co by tu można dalej wstawić. Najczęściej robi to dobrze – stąd iluzja, że AI myśli.
Kiedy AI naprawdę się sypie
Zespół Apple nie korzystał z typowych testów matematycznych – wiedział, że wiele modeli mogło się ich po prostu nauczyć na pamięć. Zamiast tego sięgnęli po specjalne łamigłówki logiczne, w których mogli dokładnie kontrolować poziom trudności. Efekt? Gdy tylko poziom złożoności przekroczył pewien próg – modele się załamywały.
„Modele całkowicie zawodzą przy trudnych problemach” – piszą badacze. Nie chodzi o to, że robią się mniej precyzyjne. One przestają działać. Z 80% skuteczności nagle spadają do zera.
To jakby komputer nagle zapomniał, jak działa kalkulator – tylko dlatego, że dodałeś jeszcze jeden nawias.
Nawet z instrukcją sobie nie radzą
W jednym z testów badacze dali modelowi gotowy, poprawny algorytm do rozwiązania znanej łamigłówki: Wieże Hanoi. Model miał go tylko odtworzyć, krok po kroku. I co zrobił mając gotowca? Pomylił się. Mimo że miał całą instrukcję na tacy, nie wykonał jej poprawnie.
„Mimo otrzymania poprawnego algorytmu, modele nie były w stanie przejść przez wszystkie kroki bezbłędnie” – czytamy w raporcie.
To jakby ktoś dostał przepis na herbatę i… wlał wrzątek do pustej filiżanki.
AI nie wie, że się myli
Sztuczna inteligencja nie jest świadoma tego, że popełnia błąd. W tym właśnie tkwi problem. Kiedy człowiek się gubi – potrafi się zatrzymać, powiedzieć: „to nie ma sensu”, zacząć od nowa. Model językowy tego nie potrafi.
Nie wie, że się zgubił. Nie wie, że jego odpowiedź jest błędna. Nie wie nawet, że odpowiada. Brnie dalej – bo tak został nauczony. Optymalizuje wzorce, a nie rozumie sytuacji. Badacze piszą wprost:
„To, co wygląda na myślenie, jest tylko mechanizmem optymalizacji kontekstu – nie oznacza to, że modele rozumieją cokolwiek w ludzkim sensie.”
Myślą mniej, gdy robi się trudniej
Zaskakujące jest to, że kiedy zadanie staje się bardziej złożone, modele… skracają swoje „myślenie”. Nie zwiększają wysiłku, tylko go redukują. Choć mają do dyspozycji ogromne zasoby, nie wiedzą, kiedy trzeba „się przyłożyć”.
Brakuje im mechanizmu uwagi, priorytetyzacji, refleksji. Tak jakby student, zamiast dłużej zastanowić się nad trudnym pytaniem, odpowiedział szybciej – ale byle jak, byle tylko skończyć.
Przykład? Proszę bardzo
W łamigłówce Hanoi z trzema dyskami model znajduje rozwiązanie od razu – ale potem zaczyna wymyślać nowe, błędne. Marnuje czas i energię na coś, co już było rozwiązane. Po co? Badacze nazwali to zjawisko „overthinking” – czyli nadprodukcją „myślenia”, które nie prowadzi do niczego.
AI działa dobrze tylko wtedy gdy już zna problem
Modele nie uczą się zasad, które można przenieść. Nie tworzą strategii. Działają dobrze tylko wtedy, gdy problem przypomina coś, co już znają. Jeśli pojawia się coś nowego – zgadują. I często błędnie.
To tak, jakby ktoś nauczył się grać jedną partię szachów na pamięć i próbował według niej rozegrać każdy inny mecz. A tak się nie da…
Dlaczego to wszystko jest dla nas ważne?
AI trafia dziś do krytycznych systemów – bankowych, medycznych, urzędowych i sądowych. A wielu ludzi (w tym decydentów) wciąż myśli: „skoro pisze dobrze, to znaczy, że rozumie”.
To błąd. AI to potężne narzędzie, ale nie ktoś, komu można powierzyć odpowiedzialność za myślenie, ocenę czy decyzję. Brak zaufania do jego „rozumowania” to nie paranoja, tylko trzeźwa ocena rzeczywistości.
Zanim zaczniemy naprawdę dobrze wykorzystywać AI w pracy i życiu, musimy porzucić złudzenie, że to „myślące” istoty.
To nie są mózgi – to maszyny statystyczne. Jeśli uwierzymy, że AI rozumie świat jak człowiek, zaczniemy jej przypisywać kompetencje, których nie ma. A to prosta droga do błędów i złych decyzji.