Zdjęcie: Adobe Stock
Badania opublikowane w czasopiśmie Frontiers in Psychology ujawniają, że grupy ekstremistyczne coraz częściej wykorzystują ekosystemy gier online do werbowania i indoktrynowania jednostek, obierając sobie za cel zwłaszcza młodszą, podatną grupę odbiorców.
Naukowcy z Anglia Ruskin University (Wielka Brytania) zauważyli, że chociaż większość gier to niegroźna rozrywka, to interaktywne przestrzenie związane z grami — w tym czaty, fora dyskusyjne i transmisje na żywo — są wykorzystywane przez radykalne ugrupowania do szerzenia ideologii i werbowania nowych członków.
Badanie obejmowało szczegółowe dyskusje z moderatorami platform gamingowych, specjalistami ds. cyberbezpieczeństwa i specjalistami zajmującymi się zwalczaniem radykalizacji. Naukowcy przeanalizowali również wytyczne platform i badania naukowe, aby wyciągnąć wnioski.
Wyniki wskazują, że platformy umożliwiające interakcję między graczami w czasie rzeczywistym, takie jak Discord, Twitch i Steam, stwarzają sprzyjające warunki do rozprzestrzeniania się treści ekstremistycznych. Przestrzenie te, w których dochodzi do bezpośredniej interakcji użytkowników, często wymykają się rygorystycznemu nadzorowi.
Gry o tematyce walki i hipermęskiej, zwłaszcza strzelanki pierwszoosobowe, przyciągają uwagę ekstremistów. Takie środowiska sprzyjają budowaniu więzi między obcymi sobie ludźmi poprzez wspólne zainteresowania, ułatwiając tym samym ideologiczne uwodzenie.
Zidentyfikowano taktykę zwaną „channelingiem”, polegającą na celowym kierowaniu użytkowników z głównych sieci społecznościowych o surowszej moderacji (np. Facebooka) do luźno regulowanych alternatyw. Początkowa ekspozycja często obejmuje pozornie nieszkodliwe lub satyryczne posty o ekstremistycznym wydźwięku. Wraz z przenoszeniem się interakcji na mniej monitorowane kanały, użytkownicy są stopniowo narażeni na bardziej skrajne poglądy. Młodzież jest szczególnie narażona w takich sytuacjach.
Badania udokumentowały powszechne treści ekstremistyczne, takie jak ultranacjonalistyczne poglądy promujące białą supremację, neonazizm, retoryka antysemicka, a także seksizm, dyskryminacja rasowa, nastroje anty-LGBTQ i narracje oparte na teoriach spiskowych.
Radykalne treści islamistyczne pojawiały się rzadziej. Dodatkowo zgłaszano materiały o charakterze przemocy, niemające charakteru ideologicznego – takie jak świętowanie strzelanin w szkołach. Choć większość platform blokuje tego typu treści, często nie są one wykrywane z powodu niewystarczającej moderacji.
Studia przypadków powiązały platformy gier z przemocą w świecie rzeczywistym. W 2022 roku osoba odpowiedzialna za masakrę w Buffalo wykorzystała serwer Discord do opracowania strategii ataku i udostępniania radykalnych materiałów. Podobne schematy pojawiły się podczas wieców w Charlottesville w 2017 roku (wydarzenie skrajnie prawicowe, w którym zginął jeden człowiek), ataku na synagogę w Halle w Niemczech w 2019 roku oraz włamania do Kapitolu Stanów Zjednoczonych w 2021 roku, gdzie DLive transmitowało powiązane transmisje.
Przepytani moderatorzy wyrazili trudności w egzekwowaniu zasad i niejasne protokoły dotyczące eskalacji problemów do władz. Wielu zgłaszało trudności związane z przytłaczającą ilością złożonych treści. Użytkownicy często używają zakodowanych symboli i żargonu, aby ominąć filtry. Chociaż algorytmy sztucznej inteligencji wspomagają moderację, mają trudności z dekodowaniem memów, sarkazmu i zawoalowanego języka.
Naukowcy apelują do organów ścigania o zrozumienie cyfrowych ekosystemów platform gier i ich subkultur. Podnoszenie świadomości opiekunów, nauczycieli i młodzieży na temat zagrożeń związanych z radykalizacją cyfrową jest kluczowe. Wiele osób nie ma wiedzy na temat zgłaszania szkodliwych treści, a nawet jeśli zgłaszają takie przypadki, obawy często są bagatelizowane.
Współautor, dr William Allchorn, zauważył, że chociaż główne sieci społecznościowe wprowadziły wzmocnione zabezpieczenia, mniejsze platformy związane z grami wciąż podlegają niedostatecznym regulacjom. Opowiada się za wzmocnieniem mechanizmów weryfikacji treści – zarówno algorytmicznych, jak i manualnych – oraz za rewizją polityki w celu wyeliminowania szkodliwych, ale prawnie dozwolonych treści.
„Środki proaktywne okazują się skuteczne, a platformy muszą zintensyfikować wysiłki w celu zwalczania rozprzestrzeniania się ekstremizmu” – podkreślił.
Katarzyna Czechowicz (PAP)
czapka/ zan/



