
Sztuczna inteligencja zmienia zasady gry w świecie nauki. Na lepsze czy na gorsze?
Generatywna sztuczna inteligencja (GenAI) zmienia zasady gry w świecie nauki. Z jednej strony przyspiesza pracę badaczy, pomaga pisać, tłumaczyć i redagować, obiecuje przyspieszenie badań i ułatwienie życia naukowcom.
Z drugiej – może popełniać błędy, halucynować, obniżać jakość publikacji, a nawet podważać zaufanie do nauki.
Czy AI to przełomowy asystent, czy może narzędzie, które wymaga nie tylko sprawności, ale i świadomości w akademickim warsztacie?
Czy nauka przestaje być domeną ludzi, a staje się efektem dialogu z algorytmem?
Na te pytania stara się odpowiedzieć dr hab. Piotr Siuda w artykule opublikowanym na łamach Forum Akademickiego – najważniejszego polskiego periodyku poświęconego nauce.
W swoim tekście „Generatywna AI w akademickim pisarstwie” autor nie moralizuje i nie narzeka, ale ostrzega. I robi to celnie.
„Generatywna AI w krótkim czasie stała się czymś więcej niż tylko narzędziem pomocniczym” – zauważa Siuda. Według niego, systemy pokroju ChatGPT, Gemini czy Claude „są już nie tylko pomocnikami naukowca, ale zaczynają odgrywać rolę współautorów, a czasem… ghostwriterów”.
Jak bardzo realny jest ten scenariusz? Bardzo. Autor powołuje się na dane z 2023 roku: już wtedy aż 60 000 artykułów naukowych mogło powstać przy współudziale AI.
17% abstraktów nosiło ślady edycji przez AI
To nie spekulacja – to analiza na podstawie ogromnych baz tekstów, takich jak arXiv. Siuda pisze: „W przypadku abstraktów i wstępów tekstów informatycznych ponad 17% nosiło ślady edycji przez modele językowe”.
Nie chodzi tylko o liczby. Chodzi o jakość, której spadek widać gołym okiem.
„W jednej z publikacji pojawił się rysunek przedstawiający przekrój prącia szczura zamiast komórek” – relacjonuje autor. To nie żart.
W innym przypadku, tekst naukowy zawierał frazy będące… fragmentami promptu, czyli komendy wpisanej przez użytkownika dla ChatGPT, np. „Oczywiście, przedstawiam możliwe wprowadzenie do tematu…”.
„To nie tylko błędy, to spiralna degradacja standardów”
Według Siudy problem nie leży wyłącznie po stronie AI – ona „robi dokładnie to, do czego została stworzona”. To człowiek ją źle wykorzystuje. I to może mieć poważne konsekwencje.
Szczególnie niebezpieczne wydaje się zjawisko „model collapse” – gdy AI zaczyna uczyć się na danych wygenerowanych przez inne AI, co prowadzi do obniżania jakości generowanej wiedzy. Jak zauważa autor, „to nie tylko błędy, to spiralna degradacja standardów”.
Jeszcze poważniejsze obawy budzą tzw. „paper mills”, czyli fabryki artykułów naukowych, które na zlecenie piszą – a raczej generują – teksty mające wyglądać na naukowe. „To biznes – i to bardzo dochodowy” – ostrzega Siuda. A z takim procederem, tradycyjne recenzowanie naukowe może nie wygrać.
Większość polskich czasopism naukowych nie posiada wytycznych
Co na to świat nauki? Reaguje – choć powoli. Wydawnictwa takie jak Elsevier, Springer Nature czy SAGE już wprowadziły wytyczne: AI można używać, ale trzeba to ujawnić. Jednak, jak pisze autor, „większość polskich czasopism naukowych takich wytycznych nie posiada”. Nawet periodyki pretendujące do międzynarodowych standardów milczą.
Czy AI da się wykryć? Są detektory, ale „ich skuteczność pozostawia wiele do życzenia”. Czasem wskazują teksty pisane przez ludzi jako wygenerowane, a czasem nie zauważają oczywistych przykładów ingerencji algorytmów. Krótko mówiąc: na razie to zabawa w chowanego.
A przecież generatywna AI nie musi być tylko zagrożeniem. Siuda sam podkreśla: „To narzędzie, które może wspierać naukowców – zwłaszcza tych, którzy nie są biegli w pisaniu w językach obcych albo dopiero zaczynają przygodę z badaniami”. Warunek? Świadomość. Edukacja. I transparentność.
Jak współpracować z AI?
„Potrzebujemy AI-literacy – kompetencji pozwalających nie tylko używać AI, ale rozumieć jej ograniczenia” – pisze autor. I trudno się z nim nie zgodzić.
AI nie znika. Nie da się jej „zakazać”. Ale da się nauczyć korzystać z niej mądrze.
Czytając tekst dr. Siudy, trudno nie odnieść wrażenia, że jesteśmy świadkami nie tylko technologicznej zmiany, ale głębokiego przesilenia etycznego. Bo jeśli nauka ma nadal opierać się na zaufaniu, prawdzie i odpowiedzialności – musimy nauczyć się współpracować z AI, nie zrzucając na nią odpowiedzialności za nasze błędy.
Siuda nie pozostawia wątpliwości – generatywna AI już wpływa na jakość i wiarygodność naukowej wiedzy.
Zamiast ulegać euforii lub panice, proponuje postawę świadomą: edukować się, ujawniać użycie AI, oceniać jej skutki. Bo przyszłość nauki nie zależy od algorytmu – zależy od tego, kto go używa i w jaki sposób.
Tag:ai w nauce, chatgpt