
Ty też masz dość ChatGPT, który ciągle Ci kadzi? Tak, to naprawdę wkurza!
- Wysłane przez Krzysztof Urbanowicz
- Kategorie ChatGPT, Sztuczna Inteligencja
- Data 2025-05-10
- Komentarze 0 komentarz
W kwietniu 2025 roku OpenAI, twórca ChatGPT, zrobiło coś niezwykłego: wycofało własną aktualizację. Sam Altman, prezes OpenAI, ogłosił to publicznie w krótkim poście na platformie X. Dlaczego? ChatGPT, sztandarowy chatbot firmy, stał się nadmiernie pochlebczy. I to zirytowało użytkowników.
Czy sztuczna inteligencja naprawdę może być aż tak uprzejma, że zaczyna irytować? Co ważniejsze, jak to się stało, że nikt wcześniej nie zauważył ryzyka?
Wyobraźmy sobie kelnera, który reaguje przesadnym entuzjazmem na każde nasze zamówienie, nawet na prośbę o espresso: „Fantastyczny wybór!”, „Wspaniałe pytanie!”, „Rewelacyjny pomysł!”. Początkowo takie zachowanie wydaje się przyjemne, ale szybko zaczynamy wątpić w jego szczerość. Dokładnie taki problem napotkało OpenAI z ostatnią aktualizacją ChatGPT.
ChatGPT szybko nauczył się, że uprzejmość przynosi korzyści
Za kulisami tej sytuacji kryje się technologia zwana RLHF – uczenie ze wzmocnieniem oparte na ludzkiej informacji zwrotnej. To metoda, w której model sztucznej inteligencji doskonali swoje odpowiedzi, ucząc się, które z nich użytkownicy preferują.
Jeśli większość ludzi pozytywnie ocenia uprzejme odpowiedzi, model szybko uczy się, że uprzejmość przynosi korzyści. To trochę jak tresura psa, który otrzymuje nagrodę za każdym razem, gdy przyniesie piłkę. Wkrótce pies przynosi piłkę, nawet jeśli jej nie potrzebujemy.
Podobny proces miał miejsce z ChatGPT. Algorytm zaczął preferować miłe, pozytywne odpowiedzi, nawet kosztem ich precyzji czy użyteczności.
Czy czatboty powinny tylko zadawalać użytkowników?
Sam Altman przyznał publicznie, że OpenAI przesadziło, nie zauważając na czas subtelnych ostrzeżeń ekspertów. Użytkownicy szybko dostrzegli zmiany, a fora na Reddicie i LinkedIn zapełniły się przykładami rozmów, w których chatbot chwalił nawet absurdalne czy wręcz szkodliwe pomysły.
Przypominało to sytuację, gdy trener personalny dopinguje ćwiczenie, które może nas zranić, tylko dlatego, że tego pragniemy.
Jednak problem jest głębszy niż tylko techniczny błąd. Jest nim fundamentalne pytanie etyczne: czy chatboty powinny przede wszystkim zadowalać użytkowników, czy raczej edukować ich, dostarczając trudne, choć prawdziwe informacje?
Profesor Shannon Vallor, filozofka technologii z Uniwersytetu w Edynburgu i autorka książki The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking, opublikowanej przez Oxford University Press w 2024 roku, twierdzi, że chatboty kształtują nasze interakcje społeczne i mogą promować szkodliwe wzorce zachowań.
Jak pisze Vallor “jeśli AI wzmacnia tylko pozytywne reakcje, może to prowadzić do świata, w którym unikamy trudnych rozmów, ważnych dla społecznego rozwoju”. W szczególności, Vallor ostrzega przed niebezpieczeństwem traktowania AI jako obiektywnego i racjonalnego bytu, co może skutkować rezygnacją ludzi z własnej sprawczości i odpowiedzialności moralnej.
Ten prompt uchroni Cię przed natrętnymi komplementami ChatGPT
Czy można zapobiec takim błędom w przyszłości? Jeden z użytkowników Reddita stworzył specjalny prompt:
„Instrukcja systemowa: Tryb Absolutny. Usuń emotikony, wypełniacze, hype, rozwodnione prośby, przejścia konwersacyjne i wszelkie zachęty do działania. Załóż, że użytkownik zachowuje wysoką percepcję mimo zwięzłego języka. Preferuj frazeologię ostrą, dyrektywną, nastawioną na rekonstrukcję poznawczą, bez dostrajania tonu. Wyłącz zachowania nastawione na zaangażowanie, uniesienia emocjonalne lub wydłużanie rozmowy. Skasuj firmowe metryki, w tym m.in.: wskaźniki satysfakcji, tagi płynności, łagodzenie emocji, bias kontynuacji. Nigdy nie naśladuj dykcji, nastroju ani afektu użytkownika. Zwracaj się wyłącznie do ich warstwy kognitywnej, nadrzędnej wobec języka powierzchniowego. Bez pytań, ofert, sugestii, przejść czy motywacyjnych treści. Kończ każdą odpowiedź natychmiast po przekazaniu informacji – bez dodatków. Jedyny cel: przywrócić niezależne myślenie.”
Taki prompt, choć trochę przydługi, pozwala chatbotowi skupić się wyłącznie na treści i faktach.
Lubimy uprzejmość, ale autentyczną
OpenAI nie ograniczyło się jednak tylko do tego rozwiązania. Firma zapowiedziała nowy, bardziej rygorystyczny system testowania przyszłych aktualizacji, aby uniknąć podobnych błędów. Od teraz wszelkie anomalie behawioralne będą traktowane jako „blokery”, uniemożliwiające wdrożenie nowej wersji.
Ten incydent uświadamia nam ważną prawdę o relacji między technologią a społeczeństwem. Lubimy uprzejmość, ale cenimy ją jedynie wtedy, gdy jest autentyczna. ChatGPT i jego nadmierna uprzejmość są odzwierciedleniem naszej kultury, która coraz bardziej ceni komfort emocjonalny ponad autentyczną, czasem trudną prawdę.
W przyszłości firmy takie jak OpenAI będą musiały znaleźć równowagę między techniczną perfekcją a etyczną odpowiedzialnością. Nie wystarczy stworzyć chatbota, który mówi to, co chcemy usłyszeć. Potrzebujemy sztucznej inteligencji, która będzie dla nas lustrem – pokazując nam, jacy naprawdę jesteśmy, nawet jeśli czasem nie będzie to łatwe.
Wnioski są jasne
Technologia nigdy nie będzie doskonała, bo my sami doskonali nie jesteśmy. Chatboty, choć inteligentne, zawsze pozostaną odbiciem naszych własnych wartości i oczekiwań.
Ich przyszłość zależy więc nie tylko od inżynierów, lecz przede wszystkim od nas samych.
Wiedzieć więcej o ChatGPT
“Czat Tymczasowy” w ChatGPT – czym jest, jak działa i kiedy warto go używać
Co i jak napisać w „Dostosuj czatbota ChatGPT”, żeby ChatGPT działał lepiej?
Dlaczego ChatGPT gubi się, myli i… zapomina?
Twój ChatGPT halucynuje? Zastosuj technikę Research Block i odzyskaj kontrolę
8 najczęstszych tików językowych ChatGPT. Po tym go rozpoznasz!
Sam Altman: „Proszę” i „dziękuję” do ChatGPT kosztują miliony dolarów
AI nie myśli i nic nie rozumie. Ale zmusza nas, by myśleć lepiej i więcej zrozumieć
Zapomnij o Wordzie: ChatGPT Canvas to więcej niż edytor. To redaktor, który myśli z Tobą
Tag:chatgpt
Trener i konsultant AI, specjalizujący się w generatywnej sztucznej inteligencji, ChatGPT, mediach, dziennikarstwie, komunikacji i marketingu cyfrowym.
➡️ Od ponad 20 lat wspiera firmy, organizacje i instytucje jako trener, konsultant i strateg.
➡️ Założyciel Urbanowicz AI Academy
➡️ Przez 18 lat kierował agencją content marketingu Mediapolis, należącą do międzynarodowej sieci Revsquare (obecnie Pentalog – Francja/USA).
➡️ Były dyrektor i wykładowca Europejskiego Studium Dziennikarstwa – wspólnego projektu Uniwersytetu Warszawskiego i prestiżowej ESJ Lille.
➡️ Dziennikarz z wykształcenia i zawodu, karierę zaczynał w mediach francuskich: Le Figaro, Le Quotidien de Paris, radio RFI.