sobota, 24 maja 2025

Nadużycia przy wykorzystaniu AI w nauce: problem systemowy rośnie

Coraz wyraźniej zarysowuje się skala problemów związanych z nieujawnionym wykorzystywaniem narzędzi sztucznej inteligencji, takich jak ChatGPT, w tworzeniu publikacji naukowych – wskazuje prof. Artur Strzelecki z Uniwersytetu Ekonomicznego w Katowicach. Temat ponownie zyskał rozgłos po publikacji w prestiżowym czasopiśmie „Nature”, które ujawnia kolejne przypadki nadużyć i „cichych korekt” tekstów.

Charakterystyczne ślady ChatGPT w setkach publikacji

Dziennikarka „Nature”, Diana Kwon, opisała wykrycie typowych fraz generowanych przez chatboty w wielu artykułach naukowych. Publikacje te nie zawierały informacji o wykorzystaniu AI, co – zdaniem ekspertów – podważa wiarygodność procesu recenzyjnego i redakcyjnego. Analizy wykazały obecność sformułowań takich jak „as an AI language model” czy „as of my last knowledge update” w setkach tekstów.

W artykułach niejednokrotnie kopiowano również elementy interfejsu ChatGPT, jak np. przycisk „regenerate response”, co sugeruje nieświadome lub bezrefleksyjne wklejanie odpowiedzi AI bez ich redakcji i przemyślenia. Takie fragmenty były pomijane przez autorów, recenzentów, a nawet redaktorów czasopism.

Alex Glynn z Uniwersytetu Louisville stworzył internetowy rejestr Academ-AI, w którym zgromadził już ponad 700 takich przypadków. Z analizy pierwszych 500 publikacji wynika, że 13% z nich pochodzi z czasopism renomowanych wydawnictw, takich jak Elsevier, Springer Nature czy MDPI. Również Artur Strzelecki z Uniwersytetu Ekonomicznego w Katowicach udokumentował liczne przykłady nieujawnionego wykorzystania AI w prestiżowych czasopismach z bazy Scopus.

Wydawcy, do których dotarli dziennikarze Nature, prowadzą obecnie dochodzenia w tych sprawach. Niektóre z nich, jak Springer Nature, nie wymagają ujawniania użycia AI przy poprawkach stylistycznych czy językowych. IOP Publishing natomiast zmieniło swoje zasady – obecnie zachęca do informowania o AI, ale nie jest to już obowiązkowe, o ile narzędzie nie służyło do tworzenia lub modyfikacji danych badawczych.

Wyniki badań prof. Strzeleckiego: AI obecna nawet w prestiżowych czasopismach

Na problem wskazał już wcześniej prof. Artur Strzelecki w artykule opublikowanym w grudniu 2024 r. na łamach „Learned Publishing”. Na podstawie analizy Google Scholar wykazał on obecność niezadeklarowanych fragmentów wygenerowanych przez AI nawet w czasopismach z najwyższym wskaźnikiem cytowań. W bazie Scopus znalazł 89 artykułów, które zawierały charakterystyczne dla ChatGPT zwroty, mimo braku informacji o jego wykorzystaniu.

Wskazuje to na systemowy charakter problemu oraz rosnącą potrzebę edukacji w zakresie odpowiedniego stosowania narzędzi AI w badaniach naukowych.

Zjawisko „cichej korekty” – usuwanie AI bez śladu

W opublikowanym w „Nature” materiale podkreślono również zjawisko „cichych korekt” – usuwania przez redakcje czasopism fragmentów generowanych przez AI już po publikacji artykułu, bez wydawania oficjalnych errat czy informacji o zmianach. Prof. Strzelecki przyznaje, że sam zidentyfikował i zarchiwizował oryginalne wersje tekstów, co pozwoliło na porównanie ich z późniejszymi, poprawionymi wersjami.

Tego rodzaju działania rodzą pytania o przejrzystość procesu publikacyjnego oraz o standardy etyczne w redakcjach naukowych.

Cytowanie niezweryfikowanych treści – ryzyko kaskady błędów

Jednym z poważniejszych skutków bezrefleksyjnego użycia AI w tworzeniu treści naukowych jest ryzyko powielania błędnych lub wygenerowanych informacji. Jak podkreśla prof. Strzelecki, nieujawnione wtręty AI są już cytowane w kolejnych publikacjach, co prowadzi do utrwalania danych, których wiarygodność nie została zweryfikowana.

Problem ten potęguje fakt, że sztuczna inteligencja – mimo postępów – bywa podatna na tzw. halucynacje, czyli generowanie fałszywych informacji w przekonującej formie.

Świadomość rośnie, ale regulacje pozostają rozbieżne

W środowisku naukowym rośnie świadomość zagrożeń związanych z użyciem AI. Coraz częściej prowadzone są szkolenia i warsztaty, które mają pokazać, jak odpowiedzialnie korzystać z narzędzi opartych na sztucznej inteligencji. Zdaniem prof. Strzeleckiego AI może być przydatna – np. jako wsparcie językowe dla autorów niebędących native speakerami – o ile jej użycie jest świadome i jasno zaznaczone.

Jednak polityki wydawnictw naukowych są nadal niespójne. Część z nich nie wymaga ujawniania użycia AI przy korekcie językowej czy redakcyjnej. Inne oczekują szczegółowego wskazania zakresu, w jakim wykorzystano narzędzie sztucznej inteligencji.

AI w publikacjach naukowych: nie „czy?”, ale „jak?”

Prof. Strzelecki zwraca uwagę, że pytanie o przyszłość nie dotyczy już tego, czy sztuczna inteligencja będzie stosowana w nauce, ale w jaki sposób. Szybki rozwój technologii sprawia, że AI staje się narzędziem powszechnym – również w codziennym wyszukiwaniu informacji. Zamiast tradycyjnych wyników wyszukiwania, coraz częściej użytkownik otrzymuje podsumowania wygenerowane przez AI.

W tym kontekście kluczowa staje się kwestia transparentności, świadomości oraz edukacji – zarówno wśród autorów, jak i recenzentów oraz redaktorów naukowych. Bez jasnych zasad i odpowiedzialnego podejścia zaufanie do nauki może zostać poważnie naruszone.

Opracowano na podstawie artykułu: Nauka w Polsce „Prof. Strzelecki: coraz lepiej widać skalę problemu z wykorzystaniem AI w pisaniu publikacji” (dostęp: 30.04.2025)

Czytaj także

Tężnia solankowa w Orzyszu – nowa atrakcja rekreacyjna na Mazurach [ZDJĘCIA]

Tężnia solankowa w Orzyszu – otwarcie nowego obiektu już...

Samorząd przyjazny biznesowi – Suwałki docenione w ogólnopolskim raporcie SGH

Suwałki wyróżnione w raporcie „Gmina na 5! 2024/2025”Miasto Suwałki...

Małe obiekty noclegowe w Polsce przyciągają turystów – dane za 2024 rok

Wzrost zainteresowania małymi obiektami noclegowymi w 2024 rokuW 2024...

Suwalski Kalendarz Wydarzeń 2025. Co? Gdzie? Kiedy?

Wydarzenia Suwałki 2025: bogactwo imprez kulturalnych i sportowychSuwałki przygotowują...

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj