Zdjęcie: Adobe Stock
Analitycy zaobserwowali wzrost liczby grup ekstremistycznych wykorzystujących gry online do atakowania i indoktrynacji młodszej publiczności, jak wynika ze szczegółowego badania opublikowanego w czasopiśmie Frontiers in Psychology.
Naukowcy z Anglia Ruskin University (Wielka Brytania) zauważyli, że chociaż większość gier jest nieszkodliwa, narzędzia komunikacyjne służące do ich komunikacji — w tym czaty, fora dyskusyjne i usługi transmisji na żywo — stanowią centra radykalizacji i szerzenia propagandy przez te grupy.
Ich dochodzenie obejmowało obszerne rozmowy z moderatorami platform gamingowych, specjalistami ds. cyfrowych i profesjonalistami zajmującymi się zwalczaniem brutalnego ekstremizmu. Zespół zapoznał się również z wytycznymi platform i badaniami naukowymi.
Wyniki badań podkreśliły, że to platformy takie jak Discord, Twitch i Steam, a nie same gry, stwarzają okazje do rozprzestrzeniania materiałów ekstremistycznych, ponieważ oferują funkcje umożliwiające interakcję w czasie rzeczywistym, takie jak wiadomości i transmisje na żywo.
Badanie wykazało, że gry o tematyce militarnej i hipermęskiej grafice, zwłaszcza strzelanki pierwszoosobowe, przyciągają uwagę ekstremistów. Gry te sprzyjają budowaniu więzi między graczami o wspólnych zainteresowaniach, ułatwiając tworzenie sojuszy ideologicznych.
Badacze opisali strategię „lejka”, w której użytkownicy są celowo przenoszeni ze ściśle regulowanych sieci społecznościowych, takich jak Facebook czy Instagram, na platformy mniej monitorowane. Początkowe interakcje często obejmują nieszkodliwe lub humorystyczne treści subtelnie nawiązujące do poglądów ekstremistycznych. Wraz z przenoszeniem się interakcji do kanałów o słabej moderacji, wzrasta ekspozycja na radykalne idee, a szczególnie podatna jest na nie młodzież.
Zidentyfikowane materiały ekstremistyczne w dużej mierze promowały doktryny skrajnie prawicowe – supremację białej rasy, ideologie neonazistowskie i antysemityzm – a także mizoginię, nienawiść rasową, homofobię i teorie spiskowe. Treści związane z ekstremizmem islamistycznym były mniej powszechne.
Zgłaszano również treści o charakterze przemocy niezwiązane z ideologią, takie jak nagłaśnianie strzelanin w szkołach. Większość platform zabrania publikowania takich treści, ale systemy moderacji często ich nie wykrywają.
Konkretne przypadki pokazały, jak te platformy sprzyjały przemocy. Na przykład, napastnik z Buffalo w 2022 roku wykorzystał serwer Discord do opracowania strategii i udostępniania materiałów ekstremistycznych. Podobne wzorce pojawiły się podczas wiecu w Charlottesville w 2017 roku (śmiertelnego protestu skrajnej prawicy), ataku na synagogę w Halle w Niemczech w 2019 roku oraz włamania do Kapitolu Stanów Zjednoczonych w 2021 roku, gdzie DLive transmitował na żywo.
Moderatorzy, z którymi przeprowadzono wywiady, zgłaszali trudności w egzekwowaniu zasad i protokołów raportowania. Wielu z nich zmagało się z przytłaczającą skalą i złożonością treści, zauważając, że ekstremiści używają zakodowanego języka i symboli, aby uniknąć wykrycia. Choć sztuczna inteligencja wspomaga moderację, ma problemy z dekodowaniem sarkazmu, memów i niuansów aluzji.
Badanie zaapelowało do organów ścigania o pogłębienie wiedzy na temat ekosystemów gier i powiązanych z nimi subkultur. Podnoszenie świadomości nauczycieli, rodziców i młodzieży na temat ryzyka radykalizacji w internecie jest kluczowe. Mechanizmy zgłaszania są nadal niedostatecznie wykorzystywane, a wielu użytkowników wątpi w skuteczność składania skarg.
Dr William Allchorn, współautor badania, podkreślił, że niedawne ulepszenia w zakresie bezpieczeństwa w głównych sieciach społecznościowych pomijają mniejsze platformy związane z grami. Opowiadał się za udoskonaleniem narzędzi moderacyjnych – zarówno automatycznych, jak i sterowanych przez ludzi – oraz za rewizją polityki w celu wyeliminowania szkodliwych, ale prawnie dozwolonych treści.
„Środki proaktywne są skuteczne, a platformy mogą zintensyfikować działania mające na celu zwalczanie ekstremizmu” – stwierdził.
Katarzyna Czechowicz (PAP)
czapka/ zan/



