Zdjęcie: Adobe Stock
Skala obaw dotyczących stosowania AI w produkcji publikacji naukowych staje się coraz bardziej widoczna, jak zauważył Artur Strzelecki, profesor Uniwersytetu Ekonomicznego w Katowicach, w wywiadzie dla PAP. Natura dostarcza kolejnych przypadków nadużyć w tej dziedzinie, w tym kwestii związanych z „cichą korektą” tekstów.
Pojawiły się nowe doniesienia o ukrytym użyciu ChatGPT w redagowaniu prac naukowych, jak podkreśla „Nature” (https://www.nature.com/articles/d41586-025-01180-2). W swoim artykule Diana Kwon omawia identyfikację odrębnych fraz związanych z chatbotami w licznych publikacjach, które zostały zintegrowane bez odpowiedniego ujawnienia (bez żadnego wskazania użycia ChatGPT) – co naruszyło integralność procesu przeglądu.
„Nature” odwołuje się do ustaleń dr. hab. Artura Strzeleckiego, profesora Uniwersytetu Ekonomicznego w Katowicach (UEK). W grudniu 2024 r. jego analiza zasobów Google Scholar – jednego z największych repozytoriów publikacji naukowych – została opublikowana w „Learned Publishing”. Ujawnił, że niepotwierdzone sekcje wygenerowane przez AI można znaleźć nawet w czasopismach o najwyższych rankingach cytowań, a niektóre z nich otrzymały już dodatkowe odniesienia, co podkreśla systemowy charakter problemu.
Coraz bardziej uznaje się konieczność szkoleń wewnętrznych i warsztatów; ważne jest, aby uświadamiać, że jest to jedynie narzędzie – prof. Strzelecki
Następnie badacz zbadał, czy „nienaturalne” wyrażenia typowe dla ChatGPT (np. „Mam nadzieję, że to pomoże!”, „Oczywiście! Oto/są…”, „Cieszę się, że mogę pomóc!” itd.) pojawiały się w artykułach naukowych w języku angielskim. Skupił się wyłącznie na tych artykułach, które nie wspominały o wykorzystaniu programu ChatGPT w swoich pracach.
Frazy, które zaczęły pojawiać się w publikacjach z powodu wpływu ChatGPT, obejmowały uwagi takie jak: „Od ostatniej aktualizacji mojej wiedzy”, „Jako model języka AI” lub „Nie mam dostępu do czasu rzeczywistego…”. Treść z interfejsu była często powielana w artykułach naukowych: każda odpowiedź ChatGPT wcześniej zawierała przycisk „regeneruj odpowiedź”, polecenie czatu, aby zrewidować swoje wyjście. Wielu nieuważnych badaczy nieumyślnie dołączyło odpowiedź AI wraz z jej „stopką” i nie przeczytało dokładnie zgłoszenia przed wysłaniem go do wydawcy.
Nieostrożne powielanie segmentu odpowiedzi ChatGPT w artykule naukowym często pozostawało niezauważone przez współautorów, recenzentów lub redaktorów czasopism. Badając tylko bardziej prestiżowe, recenzowane czasopisma naukowe wymienione w bazie danych Scopus (które mieszczą się w pierwszym i drugim kwartylu metryki CiteScore), prof. Strzelecki zidentyfikował frazy ChatGPT w 89 artykułach.
Obecnie kwestia nieostrożnego wykorzystania AI powróciła dzięki „Nature”. Zespół redakcyjny zwrócił uwagę na przykład na zjawisko „cichej korekty” – wydawcy dyskretnie usuwają frazy chatbotów z już opublikowanych prac bez oficjalnej erraty.
„Niektóre czasopisma zaczęły niezależnie zdawać sobie sprawę, że pozwoliły na przedostanie się znaczących błędów, że nikt nie sprawdził tekstu właściwie: na etapie redakcji, recenzji i korekty. „Po cichu to poprawimy i nie będzie żadnych błędów”. Mimo to kilka osób – w tym ja – wykryło te błędy. Szybko zlokalizowałem i zarchiwizowałem oryginalne publikacje, które je zawierały. Następnie zauważyłem, że wydawca rzeczywiście zmienił tekst bez żadnego wskazania zmiany lub jej charakteru” – zauważył prof. Strzelecki, komentując zjawisko omówione w Nature.
Nature potwierdziło również, że liczne publikacje z różnych dyscyplin zawierają rozpoznawalne frazy, takie jak „jako model języka AI” lub wcześniej wspomniane „regeneruj odpowiedź”, wskazujące na zaangażowanie ChatGPT w komponowanie (czy raczej generowanie) tekstu. Nature wskazało ponadto na możliwość kaskady nieścisłości – nieujawnione inkluzje AI są już cytowane w literaturze, co może wzmacniać niezweryfikowane informacje .
„Jeśli powstają prace zawierające AI i zawierają fragmenty, które na to wskazują, są one później cytowane przez innych badaczy, którzy uważają treść za wiarygodną, chociaż niekoniecznie powinni tak robić. Sztuczna inteligencja może wytwarzać nieścisłości i może fabrykować informacje” – potwierdził prof. Strzelecki.
Cytowany w Nature, Alex Glynn, ekspert w dziedzinie umiejętności badawczych i komunikacji na University of Louisville w Kentucky, zauważył, że omawiane zmiany pojawiły się w „mniejszości czasopism”. Jednak biorąc pod uwagę prawdopodobieństwo, że istnieje wiele przypadków, w których autorzy stosowali AI bez pozostawiania wyraźnych śladów, Glynn wyraził zdziwienie „jak powszechne jest to zjawisko”.
Podobnie jak Strzelecki, Glynn zidentyfikował setki artykułów zawierających ślady AI. Jego internetowy program śledzenia AI skatalogował już ponad 700 artykułów. Redaktorzy Nature skontaktowali się z wydawcami kilku artykułów, w tym Springer Nature, Taylor & Francis, IEEE i innymi zidentyfikowanymi przez Glynna i Strzeleckiego. Redaktorzy poinformowali, że wszystkie oznaczone artykuły są w trakcie przeglądu. Przytoczyli również swoje zasady dotyczące AI — które nie wymagają ujawniania AI w pewnych sytuacjach (na przykład zmiany wprowadzone w celach redakcyjnych lub językowych nie wymagają oznaczenia).
Prof. Strzelecki podkreślił, że świadomość skali problemu nieodpowiedzialnego wykorzystania AI w pisaniu naukowym rośnie wśród interesariuszy. Trwają dyskusje na temat tego, kiedy i w jaki sposób autorzy i recenzenci powinni ujawniać wykorzystanie narzędzi AI. Zasady wydawców są różne, ale wszyscy zgadzają się co do jednej zasady: całkowita przejrzystość jest niezbędna do utrzymania zaufania do literatury naukowej.
Coraz bardziej oczywiste staje się również, że konieczne są wewnętrzne szkolenia i warsztaty; ważne jest zrozumienie, że jest to tylko narzędzie – stwierdził prof. Strzelecki. „Tak, należy z niego korzystać – ale trzeba wiedzieć, jak i w jakim celu. Na przykład pomoc językowa dla autorów, których pierwszym językiem nie jest angielski, jest uzasadniona. W takich przypadkach rozsądne wydaje się wykorzystanie narzędzi AI do korygowania gramatyki, pisowni, słownictwa itp. W takich przypadkach duże wydawnictwa naukowe zmierzają w kierunku, w którym nie jest obowiązkowe ujawnianie korzystania z tego typu wsparcia. Tutaj pytanie nie brzmi: czy użyję sztucznej inteligencji?, ale: jak?” – wyjaśnił.
Profesor UEK zauważył, że obecnie wydawcy naukowi zmierzają w kierunku wymagania od autorów ujawnienia wykorzystania AI do analizy tekstu lub przetwarzania danych, które zebrali. „Wydawcy oczekują, że publikacja wskazuje, że użyto narzędzia sztucznej inteligencji; lub jeszcze lepiej – określa dokładny zakres jego wykorzystania” – stwierdził.
Jednocześnie zauważył, że nie da się monitorować, w jaki sposób sztuczna inteligencja jest wykorzystywana w pisaniu artykułów naukowych. „Są praktycznie wszechobecne
Źródło