Coraz wyraźniej zarysowuje się skala problemów związanych z nieujawnionym wykorzystywaniem narzędzi sztucznej inteligencji, takich jak ChatGPT, w tworzeniu publikacji naukowych – wskazuje prof. Artur Strzelecki z Uniwersytetu Ekonomicznego w Katowicach. Temat ponownie zyskał rozgłos po publikacji w prestiżowym czasopiśmie „Nature”, które ujawnia kolejne przypadki nadużyć i „cichych korekt” tekstów.
Charakterystyczne ślady ChatGPT w setkach publikacji
Dziennikarka „Nature”, Diana Kwon, opisała wykrycie typowych fraz generowanych przez chatboty w wielu artykułach naukowych. Publikacje te nie zawierały informacji o wykorzystaniu AI, co – zdaniem ekspertów – podważa wiarygodność procesu recenzyjnego i redakcyjnego. Analizy wykazały obecność sformułowań takich jak „as an AI language model” czy „as of my last knowledge update” w setkach tekstów.
W artykułach niejednokrotnie kopiowano również elementy interfejsu ChatGPT, jak np. przycisk „regenerate response”, co sugeruje nieświadome lub bezrefleksyjne wklejanie odpowiedzi AI bez ich redakcji i przemyślenia. Takie fragmenty były pomijane przez autorów, recenzentów, a nawet redaktorów czasopism.
Alex Glynn z Uniwersytetu Louisville stworzył internetowy rejestr Academ-AI, w którym zgromadził już ponad 700 takich przypadków. Z analizy pierwszych 500 publikacji wynika, że 13% z nich pochodzi z czasopism renomowanych wydawnictw, takich jak Elsevier, Springer Nature czy MDPI. Również Artur Strzelecki z Uniwersytetu Ekonomicznego w Katowicach udokumentował liczne przykłady nieujawnionego wykorzystania AI w prestiżowych czasopismach z bazy Scopus.
Wydawcy, do których dotarli dziennikarze Nature, prowadzą obecnie dochodzenia w tych sprawach. Niektóre z nich, jak Springer Nature, nie wymagają ujawniania użycia AI przy poprawkach stylistycznych czy językowych. IOP Publishing natomiast zmieniło swoje zasady – obecnie zachęca do informowania o AI, ale nie jest to już obowiązkowe, o ile narzędzie nie służyło do tworzenia lub modyfikacji danych badawczych.
Wyniki badań prof. Strzeleckiego: AI obecna nawet w prestiżowych czasopismach
Na problem wskazał już wcześniej prof. Artur Strzelecki w artykule opublikowanym w grudniu 2024 r. na łamach „Learned Publishing”. Na podstawie analizy Google Scholar wykazał on obecność niezadeklarowanych fragmentów wygenerowanych przez AI nawet w czasopismach z najwyższym wskaźnikiem cytowań. W bazie Scopus znalazł 89 artykułów, które zawierały charakterystyczne dla ChatGPT zwroty, mimo braku informacji o jego wykorzystaniu.
Wskazuje to na systemowy charakter problemu oraz rosnącą potrzebę edukacji w zakresie odpowiedniego stosowania narzędzi AI w badaniach naukowych.
Zjawisko „cichej korekty” – usuwanie AI bez śladu
W opublikowanym w „Nature” materiale podkreślono również zjawisko „cichych korekt” – usuwania przez redakcje czasopism fragmentów generowanych przez AI już po publikacji artykułu, bez wydawania oficjalnych errat czy informacji o zmianach. Prof. Strzelecki przyznaje, że sam zidentyfikował i zarchiwizował oryginalne wersje tekstów, co pozwoliło na porównanie ich z późniejszymi, poprawionymi wersjami.
Tego rodzaju działania rodzą pytania o przejrzystość procesu publikacyjnego oraz o standardy etyczne w redakcjach naukowych.
Cytowanie niezweryfikowanych treści – ryzyko kaskady błędów
Jednym z poważniejszych skutków bezrefleksyjnego użycia AI w tworzeniu treści naukowych jest ryzyko powielania błędnych lub wygenerowanych informacji. Jak podkreśla prof. Strzelecki, nieujawnione wtręty AI są już cytowane w kolejnych publikacjach, co prowadzi do utrwalania danych, których wiarygodność nie została zweryfikowana.
Problem ten potęguje fakt, że sztuczna inteligencja – mimo postępów – bywa podatna na tzw. halucynacje, czyli generowanie fałszywych informacji w przekonującej formie.
Świadomość rośnie, ale regulacje pozostają rozbieżne
W środowisku naukowym rośnie świadomość zagrożeń związanych z użyciem AI. Coraz częściej prowadzone są szkolenia i warsztaty, które mają pokazać, jak odpowiedzialnie korzystać z narzędzi opartych na sztucznej inteligencji. Zdaniem prof. Strzeleckiego AI może być przydatna – np. jako wsparcie językowe dla autorów niebędących native speakerami – o ile jej użycie jest świadome i jasno zaznaczone.
Jednak polityki wydawnictw naukowych są nadal niespójne. Część z nich nie wymaga ujawniania użycia AI przy korekcie językowej czy redakcyjnej. Inne oczekują szczegółowego wskazania zakresu, w jakim wykorzystano narzędzie sztucznej inteligencji.
AI w publikacjach naukowych: nie „czy?”, ale „jak?”
Prof. Strzelecki zwraca uwagę, że pytanie o przyszłość nie dotyczy już tego, czy sztuczna inteligencja będzie stosowana w nauce, ale w jaki sposób. Szybki rozwój technologii sprawia, że AI staje się narzędziem powszechnym – również w codziennym wyszukiwaniu informacji. Zamiast tradycyjnych wyników wyszukiwania, coraz częściej użytkownik otrzymuje podsumowania wygenerowane przez AI.
W tym kontekście kluczowa staje się kwestia transparentności, świadomości oraz edukacji – zarówno wśród autorów, jak i recenzentów oraz redaktorów naukowych. Bez jasnych zasad i odpowiedzialnego podejścia zaufanie do nauki może zostać poważnie naruszone.
Opracowano na podstawie artykułu: Nauka w Polsce „Prof. Strzelecki: coraz lepiej widać skalę problemu z wykorzystaniem AI w pisaniu publikacji” (dostęp: 30.04.2025)