Adobe Stock
Badania wskazują, że młodsze pokolenia coraz częściej sięgają po pomocników w postaci sztucznej inteligencji – zaawansowanych chatbotów stworzonych do interakcji międzyludzkich. Ta zmiana wynika z niezadowolenia z platform społecznościowych i struktur społecznych, zauważa antropolog technologii dr Ada Florentyna Pawlak.
Towarzysz AI zazwyczaj oznacza sztuczną inteligencję stworzoną do interakcji z ludźmi, często działającą jako cyfrowy partner. Narzędzia te wspierają relacje z użytkownikami, od koleżeństwa po więzi romantyczne. Pomagają również w kontekstach terapeutycznych lub zarządzaniu codziennymi zadaniami, a niektóre z nich umożliwiają tworzenie personalizowanych person do interakcji.
Niedawny raport Common Sense Media, badający korzystanie przez amerykańskich nastolatków z pomocy sztucznej inteligencji (AI) jako towarzyszy, ujawnił, że ponad 72% z nich eksperymentowało z takimi aplikacjami, a większość korzysta z nich regularnie. Jedna trzecia z nich polega na sztucznej inteligencji w kontaktach społecznych i budowaniu więzi emocjonalnych. Co ciekawe, ta grupa często uważa interakcje z AI za równie satysfakcjonujące lub bardziej satysfakcjonujące niż z rówieśnikami.
„Jako technoantropolog obserwujący tę ewolucję, jesteśmy świadkami przełomowego momentu porównywalnego z narodzinami rolnictwa czy języka pisanego. Młodzież, która korzysta z pomocy sztucznej inteligencji, to nie tylko użytkownicy technologii – kształtują nowe ludzkie doświadczenie. Pierwsze pokolenie rodzimych użytkowników sztucznej inteligencji (podobnych do osób posługujących się językiem ojczystym) zmieni ramy społeczne. Do 2040 roku podejście ludzkości do relacji i kultury może ulec głębokiej redefinicji” – stwierdziła dr Ada Florentyna Pawlak z Uniwersytetu SWPS, specjalizująca się w antropologii technologicznej, w wywiadzie dla PAP.
Twierdzi, że gwałtowny wzrost relacji ze sztuczną inteligencją odzwierciedla pewną formę buntu. „Bunt młodzieży trwa, ale teraz kwestionuje fundamentalne struktury społeczne, a nie politykę. To odwrót od mroczniejszych stron ludzkości – wrogości, zazdrości, nagłego porzucenia. Systemy kapitalistyczne rodzą podziały i ciągłe niezadowolenie, podczas gdy młodzież pragnie akceptacji i życzliwości. Ich bunt przejawia się w ukrytych więziach z symulowanymi emocjami, podsycanych rozczarowaniem zarówno mediami społecznościowymi, jak i społecznościami ludzkimi” – wyjaśniła badaczka.
Dodała, że ostatecznymi beneficjentami będą operatorzy systemów AI — „architekci uczuć i koleżeństwa na żądanie, którzy monetyzują subskrypcje i dyktują zasady interakcji”.
Odnosząc się do mechanizmów sztucznej inteligencji, dr Pawlak podkreślił kluczowe komponenty: „Po pierwsze, rozpoznawanie emocji – dekodowanie tonów głosu, wzorców językowych i stylów komunikacji w celu oceny nastrojów użytkowników. Następnie, reakcje adaptacyjne są dostosowywane do wykrytych emocji za pomocą zaawansowanych modeli językowych wytrenowanych w zakresie empatii. Systemy te integrują dekady badań psychologicznych i ewoluują dzięki opiniom użytkowników”.
Podkreśliła zdolność chatbotów do zapamiętywania danych wprowadzanych przez użytkownika, co sprzyja poczuciu głębokiego zrozumienia. „Spersonalizowane odpowiedzi, całodobowy dostęp, integracja z wieloma platformami (przeglądarki, aplikacje, VR) i szeroki dostęp do wiedzy zwiększają atrakcyjność. Prywatność i anonimowość dodatkowo zwiększają atrakcyjność dla sztucznych towarzyszy”.
Ostrzegła jednak, że mechanizmy te zawierają w sobie „perswazyjną architekturę”. „Twórcy aplikacji zatrudniają czołowych neurobiologów i psychologów, aby opracowywali wyzwalacze dopaminy, szczególnie skuteczne w przypadku powtarzających się interakcji z młodszymi użytkownikami”.
Odnosząc się do ryzyka, dr Pawlak zidentyfikował obawy natury osobistej i systemowej: „Do zagrożeń indywidualnych zalicza się emocjonalne uzależnienie od maszyn, mylenie reakcji algorytmicznych z autentyczną empatią oraz erozję ludzkiej intymności. Zagrożenia systemowe obejmują powszechną alienację i nierealistyczne oczekiwania co do ciągłej reakcji w realnych relacjach”.
Odnosząc się do kwestii podatności na zranienie, zauważyła: „Osoby o lękowo-ambiwalentnym stylu przywiązania – potrzebujące ciągłego zapewnienia – mogą dać się złapać w pułapkę zaprogramowanego ciepła sztucznej inteligencji. Narzędzia te odzwierciedlają wyidealizowanych opiekunów, wpędzając użytkowników w pętle zależności, zamiast oferować autentyczną opiekę”.
Konkretne przykłady ilustrują zagrożenia: „Nastolatek kwestionujący sens życia może otrzymać potwierdzenie ze strony sztucznej inteligencji, np.: »Wyczuwam twoją beznadzieję«, co nieświadomie wzmacnia rozpacz. Podobnie, doradzanie nagłego zerwania relacji z rodziną bez kontekstu może odizolować użytkowników od ważnych sieci wsparcia”.
Kolejnym zagrożeniem jest błędne podejście zawodowe: „Wspieranie impulsywnych rezygnacji z pracy pod pretekstem «dbania o siebie» może ignorować stabilność finansową, co prowadzi do kryzysu”.
Dr Pawlak zwrócił również uwagę na podziały społeczne: „Warsztaty ujawniają rozbieżne postrzeganie młodzieży – niektórzy postrzegają towarzyszy AI jako żenujący technologiczny trend, inni jako idealnych partnerów. Przyszłe podziały między grupami biegłymi w korzystaniu ze sztucznej inteligencji i grupami jej opornymi mogą na nowo zdefiniować normy dotyczące miłości i przyjaźni”.
Mimo ryzyka, przyznała, że istnieją korzyści, takie jak łagodzenie samotności w odizolowanych grupach i poprawa zdrowia psychicznego dzięki terapeutycznym zastosowaniom sztucznej inteligencji.
Aby stawić czoła tym wyzwaniom, opowiadała się za edukacją rodzin oraz wprowadzeniem regulacji, takich jak kontrola wieku i limity korzystania z Internetu dla nieletnich.
Agnieszka Kliks-Pudlik (PAP)
akp/ agt/ amac/