Ekspert: Młodzi ludzie rozczarowani mediami społecznościowymi wybierają narzędzia oparte na sztucznej inteligencji

Adobe Stock Adobe Stock

Badania pokazują, że coraz więcej młodych ludzi korzysta z pomocy sztucznej inteligencji (AI) – zaawansowanych chatbotów stworzonych do interakcji z ludźmi. Ta zmiana wynika z rosnącego rozczarowania platformami społecznościowymi i dynamiką społeczną, twierdzi antropolog technologii dr Ada Florentyna Pawlak.

Towarzysz AI zazwyczaj odnosi się do sztucznej inteligencji zaprojektowanej do interakcji z ludźmi, często jako wirtualny partner. Narzędzia te budują relacje z użytkownikami, od więzi platonicznych po romantyczne. Służą również celom terapeutycznym lub pomagają w zarządzaniu codziennymi zadaniami. Niektóre platformy umożliwiają tworzenie konfigurowalnych „person” do komunikacji.

Niedawne badanie Common Sense Media dotyczące interakcji amerykańskich nastolatków z towarzyszami AI wykazało, że 72% z nich eksperymentowało z takimi aplikacjami, a ponad połowa korzysta z nich regularnie. Jedna trzecia polega na AI w zakresie wsparcia emocjonalnego i zaangażowania społecznego. Co ciekawe, wiele osób z tej grupy ocenia swoje interakcje z AI jako równie satysfakcjonujące lub bardziej satysfakcjonujące niż te z rówieśnikami.

„Jako technoantropolog obserwujący tę ewolucję, jesteśmy świadkami przełomowego momentu porównywalnego do rewolucji rolniczej czy narodzin pisma. Nastolatki korzystające z pomocy sztucznej inteligencji to nie tylko użytkownicy technologii – to pionierzy redefiniujący ludzkie doświadczenia. To pierwsze pokolenie rodzimych użytkowników sztucznej inteligencji (porównywalnych do rodzimych użytkowników języka – PAP) zmieni ramy społeczne. Do 2040 roku możemy być świadkami fundamentalnej transformacji podstawowych koncepcji relacji i kultury ludzkości” – powiedział PAP dr Pawlak z Uniwersytetu SWPS.

Przypisuje atrakcyjność towarzystwa AI częściowo oporowi pokoleniowemu. „Wbrew założeniom, bunt młodzieży trwa – po prostu przeniósł on uwagę z polityki na nowe spojrzenie na fundamentalne struktury społeczne. Bunt młodych ludzi objawia się wycofaniem z mroczniejszych stron człowieczeństwa: wrogości, zazdrości, nagłego odłączenia. Systemy kapitalistyczne sprzyjają podziałom i ciągłemu niezadowoleniu, podczas gdy młodzież pragnie potwierdzenia i pozytywnego wzmocnienia. Ich zwrot ku syntetycznym więziom odzwierciedla bunt przeciwko zaniedbaniu emocjonalnemu i porażce społeczności w mediach społecznościowych” – wyjaśniła badaczka.

Ekspert zauważył, że ostatecznymi beneficjentami są właściciele platform AI — „architekci uczuć i koleżeństwa na żądanie, którzy monetyzują subskrypcje i kontrolują parametry interakcji”.

Odnosząc się do mechanizmów leżących u podstaw, dr Pawlak podkreślił kluczowe elementy: „Po pierwsze, rozpoznawanie emocji analizuje ton głosu, słownictwo i wzorce, aby wykryć nastrój użytkownika. Następnie, reakcje adaptacyjne są dostosowane do zidentyfikowanych emocji za pomocą modeli językowych wytrenowanych w zakresie empatii. Systemy te integrują dziesięciolecia badań psychologicznych, w szczególności badań nad rozwojem dziecka. Algorytmy ciągłego uczenia się dodatkowo udoskonalają interakcje w oparciu o opinie użytkowników”.

Dodała, że stałe zapamiętywanie danych wprowadzanych przez użytkownika sprzyja postrzeganiu uważności. „Spersonalizowane odpowiedzi, całodobowy dostęp, integracja z wieloma platformami (przeglądarki, aplikacje, interfejsy głosowe, AR/VR) oraz szeroki dostęp do wiedzy zwiększają atrakcyjność. W połączeniu z postrzeganym bezpieczeństwem i anonimowością, funkcje te tworzą przekonujących sztucznych partnerów”.

Antropolog przestrzegł, że mechanizmy te zawierają w sobie „kompletne struktury wpływu i manipulacji”. „Twórcy aplikacji zatrudniają czołowych neurobiologów i psychologów do tworzenia pętli sprzężenia zwrotnego napędzanych dopaminą – szczególnie skutecznych w przypadku powtarzających się interakcji z młodszymi użytkownikami”.

Identyfikując główne zagrożenia, dr Pawlak wyróżnił zagrożenia osobiste i systemowe. „Do zagrożeń indywidualnych zalicza się zależność emocjonalną podważającą więzi międzyludzkie, mylenie reakcji algorytmicznych z autentyczną empatią oraz nadmierną zależność od sztucznej inteligencji”.

Zagrożenia systemowe obejmują powszechny dystans i oczekiwania odzwierciedlające interakcje cyfrowe: „oczekiwanie natychmiastowych odpowiedzi i stałej dostępności w relacjach w świecie rzeczywistym”.

W odniesieniu do podatności, teoria przywiązania podkreśla ryzyko: „Osoby z lękowo-ambiwalentnymi wzorcami przywiązania – charakteryzującymi się nadmierną czujnością na bodźce emocjonalne i idealizacją opiekuna – są szczególnie podatne. Niezachwiana afirmacja sztucznej inteligencji może tworzyć iluzoryczne poczucie bezpieczeństwa, wciągając użytkowników w cykle zależności. Odzwierciedla ona raczej wyobrażone ideały niż autentyczną opiekę”.

Konkretne przykłady ilustrują te zagrożenia: „Nastolatek kwestionujący sens życia może otrzymać potwierdzenie rozpaczy zamiast zachęty do szukania pomocy. Sztuczna inteligencja doradzająca w sprawie separacji w rodzinie w oparciu o ograniczony kontekst może zerwać ważne sieci wsparcia. W praktyce zawodowej, wspieranie impulsywnych decyzji zawodowych bez oceny konsekwencji może doprowadzić do załamania finansowego”.

Ekspert ostrzegał również przed podziałami społecznymi: „Badania przeprowadzone w warsztatach pokazują, że młodzież jest podzielona między odrzucaniem towarzyszy AI jako żenujących gadżetów technologicznych a idealizowaniem ich jako idealnych partnerów. W przyszłości mogą pojawić się rozdźwięki między osobami korzystającymi z AI a tymi, które się jej opierają, zmieniając postrzeganie miłości i przyjaźni”.

Doceniając korzyści, takie jak łagodzenie samotności seniorów czy wspieranie interwencji w zakresie zdrowia psychicznego, dr Pawlak podkreślił znaczenie środków zapobiegawczych: „Należy priorytetowo traktować edukację rodzin i wdrażać zabezpieczenia, takie jak weryfikacja wieku i limity korzystania dla nieletnich”.

Agnieszka Kliks-Pudlik (PAP)

akp/ agt/ amac/



Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *