
Bezmyślne kopiuj-wklej w artykułach naukowych z pierwszej ligi. Ale wpadki!
Czołowe czasopisma naukowe coraz częściej publikują teksty, które noszą ślady automatycznego generowania treści. W środowisku akademickim rośnie niepokój: czy za fasadą błyskotliwych abstraktów i obszernych bibliografii nie kryją się akapity wygenerowane przez sztuczną inteligencję?
Coraz więcej dowodów wskazuje na to, że ChatGPT oraz inne modele językowe są wykorzystywane do pisania fragmentów, a nawet całych artykułów naukowych — i to nie tylko przez doktorantów czy badaczy z mniej znanych uczelni, ale przez autorów publikujących w prestiżowych tytułach.
Naukowcy, którzy opanowali nawet podstawowy zestaw technik Prompt Engineeringu, są w stanie zrobić to bez większych problemów – nikt nie rozpozna kto pisał tekst, ani wyspecjalizowane serwisy, ani eksperci.
Bezmyślnie wkleił tekst od ChatGPT do swojego manuskryptu
Jak wynika artykułu w tygodnik “Nature”, cytowanego przez „Gazetę Wyborczą”, wiele z tych tekstów zawiera charakterystyczne, nienaturalne zwroty, błędy językowe lub stylistyczne, które zdradzają maszynowe pochodzenie.
Niektóre publikacje zawierają też kuriozalne sformułowania, jak: „as of my knowledge cutoff in September 2021”, czyli zdanie, które ChatGPT regularnie stosuje, przypominając użytkownikowi o swoim ograniczonym dostępie do aktualnych danych. To rażący dowód, że autor nie przejrzał wygenerowanego tekstu, tylko bezmyślnie wkleił go do manuskryptu.
AI potrafi imitować naukowy język, zachowując pozory wiarygodności
Jak podkreśla tygodnik „Nature”, zjawisko to nie jest już marginesem, lecz problemem systemowym. W samym tylko 2023 roku edytorzy „Elsevier” usunęli 500 abstraktów z podejrzeniem plagiatu AI, a redakcja „IEEE” zaczęła domagać się od autorów deklaracji, czy używali narzędzi generatywnych.
Redaktorzy są bezradni — AI potrafi imitować naukowy język, zachowując pozory wiarygodności. Problem w tym, że za tą fasadą nie zawsze stoją rzetelne badania. ChatGPT to dziś pomocnik nie tylko ucznia czy studenta, ale też naukowca.
„Badacze korzystają z narzędzi generatywnej sztucznej inteligencji przy pisaniu lub recenzowaniu artykułów naukowych. A wydawcy naukowi odpowiadają stosownymi wytycznymi, jak to robić zgodnie z naukową etyką. Zasady są różne, ale wielu wydawców wymaga od autorów zaznaczania, że korzystali z AI przy przygotowywaniu pracy”, czytamy w „Gazecie Wyborczej”.
Jeden z cytowanych przez “Nature” naukowców, Alex Glynn z Uniwersytetu Louisville w Kentucky, opracował internetowy program, który rejestruje takie przypadki. Namierzył w ten sposób ponad 700 artykułów. Jesienią ubiegłego roku przeanalizował pierwszą pięćsetkę i okazało się, że 13 proc. tych publikacji ukazało się w czasopismach należących do znaczących wydawców jak Elsevier, Springer Nature i MDPI.
To wszystko rodzi fundamentalne pytania o integralność nauki. Czy sztuczna inteligencja ma wspierać badania, czy zastępować naukowca? Jak zweryfikować autentyczność publikacji, które formalnie spełniają wszystkie kryteria, ale zawierają fragmenty wygenerowane przez model językowy?
Na razie brakuje jasnych standardów i wytycznych, a odpowiedzialność za ten chaos spada zarówno na autorów, jak i redakcje.
5 punktów do zapamiętania
- Ukryte użycie ChatGPT: Naukowcy coraz częściej sięgają po ChatGPT przy pisaniu artykułów naukowych, lecz rzadko kiedy wspominają o tym w treści publikacji. W artykule „Gazety Wyborczej” przytoczono przypadek badacza, który w jednym z tekstów pozostawił zdanie: „As of my knowledge cutoff in September 2021”, co jednoznacznie wskazuje na użycie modelu GPT. Zdradziła go niechlujność. Albo “jako model językowy AI” (“as an AI language model”) lub “nie mam dostępu do aktualnych…”.Tego rodzaju lapsusy, zdaniem redakcji, pojawiają się coraz częściej, szczególnie w tekstach składanych do mniej wymagających periodyków open access.
- Nienaturalny język i błędy: Charakterystyczne dla modeli językowych są powtórzenia, ogólnikowe frazy („In recent years, there has been a growing interest in…”) oraz stylistyczne kaleki. Przykład? Artykuł, w którym kilkanaście razy powtarza się to samo zdanie we wstępie i konkluzji. Inny przypadek dotyczył pracy z zakresu onkologii, w której AI wygenerowała nieistniejącą jednostkę chorobową i przypisała jej cytowanie w „The Lancet” – co, jak ustalono, było całkowicie fikcyjne.
- Ryzyko „kaskady błędów”: Jak zauważa „Nature”, błędne dane wygenerowane przez AI, jeśli zostaną opublikowane bez weryfikacji, mogą trafić do kolejnych badań jako źródła. Efekt? Kaskada cytowań oparta na fałszywych założeniach. Wspomniano przykład publikacji z chemii materiałowej, w której ChatGPT błędnie podał wzór chemiczny, a autorzy nie wychwycili tego przed wysłaniem manuskryptu.
- Brak regulacji i wytycznych: Obecnie nie istnieje jednolity standard ujawniania użycia AI w publikacjach. „IEEE” od niedawna wymaga oświadczeń autorów o ewentualnym wspomaganiu się narzędziami generatywnymi, a część czasopism Elseviera zaczęła odrzucać prace zawierające ślady wygenerowanych treści. Ale większość redakcji nadal nie ma jasnych procedur. To prowadzi do chaosu i braku transparentności.
- Potrzeba edukacji i świadomości: Według ekspertów cytowanych przez „Gazetę Wyborczą”, wielu naukowców nie rozumie, czym właściwie jest ChatGPT, traktując go jako bardziej zaawansowany edytor tekstu. Brakuje szkoleń, etycznych wytycznych i narzędzi pozwalających zweryfikować, czy dana treść była generowana. Zdaniem cytowanego w artykule prof. Tomasza Błaszczaka z PAN: „Bez edukacji i jasnych zasad czeka nas plaga pseudonaukowych tekstów, które będą wyglądały profesjonalnie, ale będą intelektualnie puste.”
Dlaczego to jest ważne
Korzystanie z generatywnej sztucznej inteligencji, jak ChatGPT, w pisaniu artykułów naukowych bez odpowiedniego ujawnienia i weryfikacji może podważać zaufanie do badań naukowych.
Nienaturalny język i błędy w publikacjach mogą wprowadzać w błąd czytelników i wpływać na dalsze badania. Brak regulacji w tym zakresie stwarza ryzyko rozpowszechniania nieprawdziwych informacji i obniżenia jakości literatury naukowej.
Dlatego ważne jest, aby środowisko naukowe opracowało jasne wytyczne dotyczące korzystania z AI i promowało przejrzystość oraz etykę w badaniach.
Tylko w ten sposób można zapewnić wiarygodność i jakość współczesnej literatury naukowej.
Źródło: wyborcza.pl