Prof. Strzelecki: skala problemu wykorzystania sztucznej inteligencji w pisaniu publikacji staje się coraz bardziej widoczna

Zdjęcie: Adobe Stock Zdjęcie: Adobe Stock

Skala sceptycyzmu wokół stosowania sztucznej inteligencji w produkcji publikacji naukowych staje się coraz bardziej widoczna – twierdzi Artur Strzelecki, profesor Uniwersytetu Ekonomicznego w Katowicach, o czym poinformował PAP. Na kolejne przypadki nieprawidłowości w tym zakresie zwrócił uwagę Nature, w tym kwestie związane z praktyką „cichej korekty” tekstów.

Nowe przypadki nieujawnionego użycia ChatGPT w pracach naukowych zgłasza „Nature” (https://www.nature.com/articles/d41586-025-01180-2). Autorka artykułu, Diana Kwon, omawia identyfikację odrębnych fraz chatbotów w setkach publikacji, dołączonych bez żadnego potwierdzenia (bez deklaracji użycia ChatGPT) — co podważa integralność procesu recenzji eksperckiej.

„Nature” odwołuje się do ustaleń dr. hab. Artura Strzeleckiego, profesora Uniwersytetu Ekonomicznego w Katowicach (UEK). W grudniu 2024 r. w „Learned Publishing” prof. Strzelecki przedstawił wyniki swojej analizy zasobów Google Scholar — jednej z największych baz publikacji naukowych. Wykazał, że niewymienione fragmenty AI pojawiają się nawet w czasopismach o najwyższych rankingach cytowań, a niektóre z nich otrzymały już dodatkowe cytowania, co podkreśla systemowy charakter problemu.

Coraz bardziej widoczna jest konieczność wewnętrznych szkoleń i warsztatów, które uczą, że jest to tylko narzędzie – prof. Strzelecki

Następnie badacz zbadał, czy „nienaturalne” frazy typowe dla ChatGPT (np. „Mam nadzieję, że to pomoże!”, „Oczywiście! Oto/są…”, „Cieszę się, że mogę pomóc!” itd.) występują w literaturze naukowej w języku angielskim. Skupił się tylko na artykułach, które nie deklarowały użycia programu ChatGPT podczas pisania artykułu.

Frazy, które zaczęły pojawiać się w publikacjach z powodu użycia ChatGPT, obejmowały takie wyrażenia, jak: „Od ostatniej aktualizacji wiedzy”, „Jako model języka AI” lub „Nie mam dostępu do czasu rzeczywistego…”. Treść interfejsu była również często powielana w pracach naukowych: pod każdą odpowiedzią ChatGPT znajdował się przycisk „regeneruj odpowiedź”, polecenie umożliwiające czatowi ponowne przetworzenie odpowiedzi. Liczni nieuważni badacze skopiowali odpowiedź AI wraz z jej „stopką” i nie przejrzeli dokładnie tekstu wysłanego do wydawcy.

Nieostrożne włączenie fragmentu oświadczenia ChatGPT do artykułu naukowego również pozostało niezauważone przez współautorów, recenzentów lub redaktorów czasopism. Skupiając się wyłącznie na bardziej prestiżowych, recenzowanych czasopismach naukowych z bazy Scopus (tych w pierwszym i drugim kwartylu metryki CiteScore), prof. Strzelecki odkrył frazy ChatGPT w 89 artykułach.

Obecnie problem nieostrożnego korzystania ze sztucznej inteligencji powrócił dzięki „Nature”. Zespół redakcyjny zwrócił uwagę na przykład na zjawisko „cichej korekty” — usuwania przez wydawców fraz chatbotów z już opublikowanych artykułów bez oficjalnych poprawek.

„Niektóre czasopisma zaczęły niezależnie zdawać sobie sprawę, że pozwoliły na przedostanie się istotnych błędów, że nikt nie sprawdził tekstu właściwie: na etapie redakcji, recenzji czy korekty. „Poprawimy to po cichu i nie będzie żadnych błędów”. Mimo to kilka osób — w tym ja — zauważyło te błędy. Szybko znalazłem oryginalne publikacje, które je zawierały, i je zarchiwizowałem. Wtedy mogłem zobaczyć, że wydawca rzeczywiście zmienił tekst bez żadnego powiadomienia o zmianie lub jej charakterze” — zauważa prof. Strzelecki, komentując zjawisko opisane w Nature.

Nature potwierdziło również, że liczne publikacje z różnych dziedzin zawierają charakterystyczne frazy, takie jak „jako model języka AI” lub wcześniej wspomniana „regeneruj odpowiedź”, wskazujące na zaangażowanie ChatGPT w komponowanie tekstu (czy raczej generowanie). Nature wskazało również na ryzyko kaskady błędów — nieujawnione inkluzje AI są już cytowane w literaturze, co może wzmacniać niezweryfikowane informacje .

„Jeśli prace stworzone przy użyciu AI zawierają fragmenty wskazujące na to, są one następnie cytowane przez innych badaczy, którzy uważają to, co zostało napisane, za wiarygodne informacje, chociaż niekoniecznie powinni tak robić. Sztuczna inteligencja może wywoływać halucynacje i może fabrykować szczegóły” – twierdzi prof. Strzelecki.

Cytowany w Nature, Alex Glynn, specjalista ds. umiejętności badawczych i komunikacji na University of Louisville w Kentucky, zauważył, że zidentyfikowane zmiany pojawiły się w „mniejszości czasopism”. Jednak biorąc pod uwagę prawdopodobieństwo wielu przypadków, w których autorzy używali AI bez pozostawiania wyraźnych śladów, Glynn wyraził zdziwienie „skalą problemu”.

Podobnie jak Strzelecki, Glynn zidentyfikował setki artykułów wykazujących ślady AI. Jego internetowy program śledzenia AI skatalogował już ponad 700 artykułów. Redaktorzy z Nature skontaktowali się z wydawcami niektórych z oflagowanych artykułów, w tym Springer Nature, Taylor & Francis, IEEE i innymi zidentyfikowanymi przez Glynna i Strzeleckiego. Redaktorzy stwierdzili, że wszystkie oflagowane artykuły są w trakcie przeglądu. Odnieśli się również do swoich zasad dotyczących AI — które nie nakazują ujawniania AI w niektórych przypadkach (np. zmiany wprowadzone ze względów redakcyjnych lub językowych nie wymagają powiadomienia).

Prof. Strzelecki podkreślił, że świadomość skali problemu nieprzemyślanego wykorzystania AI w pisaniu publikacji naukowych rośnie wśród zainteresowanych stron. Trwają również dyskusje na temat tego, kiedy i w jaki sposób autorzy i recenzenci powinni ujawniać wykorzystanie narzędzi AI. Polityka wydawców jest różna, ale wszyscy zgadzają się co do jednego: całkowita przejrzystość jest niezbędna do utrzymania zaufania do literatury naukowej.

Coraz bardziej oczywiste staje się również, że należy prowadzić wewnętrzne szkolenia i warsztaty, że to tylko narzędzie – stwierdził prof. Strzelecki. „Tak, należy z niego korzystać – ale trzeba wiedzieć, jak i w jakim celu. Na przykład pomoc językowa dla autorów, których językiem ojczystym nie jest angielski, jest uzasadniona. W ich przypadku rozsądne wydaje się korzystanie z narzędzi AI, które pomagają w korygowaniu gramatyki, pisowni, słownictwa itp. W takich przypadkach duże wydawnictwa naukowe zmierzają w kierunku, w którym nie jest konieczne ujawnianie korzystania z tego typu wsparcia. W tym kontekście nie zadajemy sobie pytania: czy skorzystam ze sztucznej inteligencji?, ale: jak?” – wyjaśnił.

Profesor UEK zauważył, że obecnie wydawcy naukowi zmierzają w kierunku wymagania od autorów ujawnienia wykorzystania AI w analizie tekstu lub przetwarzaniu danych, które sami zebrali. „Wydawcy oczekują, że publikacja wskaże, że wykorzystano narzędzie sztucznej inteligencji; lub jeszcze lepiej — określi dokładny zakres jego wykorzystania” — stwierdził.

Jednocześnie zauważył, że nie da się monitorować sposobu, w jaki sztuczna inteligencja jest wykorzystywana w pisaniu artykułów naukowych. „Mają praktycznie

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *