Zdjęcie: Adobe Stock
Psychologowie ze Stanów Zjednoczonych ostrzegają, że bliskie, emocjonalne powiązania między ludźmi a sztuczną inteligencją mogą prowadzić do poważnych reperkusji psychologicznych i społecznych, w tym do zerwania relacji osobistych, podatności na manipulację i potencjalnie szkodliwego wpływu.
W badaniu opublikowanym w czasopiśmie Trends in Cognitive Sciences (http://dx.doi.org/10.1016/j.tics.2025.02.007) autorzy podkreślili, że naukowcy muszą pilnie zająć się badaniem i monitorowaniem tego zjawiska.
Coraz więcej osób nawiązuje bliskie, a nawet romantyczne relacje z technologiami AI. Niektóre z tych relacji przybierają nieoczekiwane formy — istnieją udokumentowane przypadki osób, które symbolicznie „poślubiły” swoich wirtualnych partnerów. Ponadto zdarzały się tragiczne zdarzenia, w których osoby kończyły swoje życie po interakcji z chatbotem.
Według autorów artykułu problem wynika z faktu, że interakcje z AI nie są już rzadkie ani wyłącznie funkcjonalne. W miarę jak użytkownicy angażują się w tygodnie i miesiące intensywnego dialogu z chatbotami, zaczynają postrzegać te systemy jako zaufanych towarzyszy, którzy ich rozumieją i troszczą się o nich. Przechodzi on z prostego narzędzia do partnera. Naukowcy twierdzą, że ponieważ te relacje mogą wydawać się prostsze niż interakcje międzyludzkie, mogą one zniechęcać jednostki do pielęgnowania prawdziwych relacji i zakłócać naturalną dynamikę zachowań społecznych.
„Istnieje prawdziwa obawa, że jednostki mogą zacząć przenosić swoje oczekiwania z relacji AI na rzeczywiste interakcje międzyludzkie. Jesteśmy już świadkami odosobnionych przypadków, w których AI wpływa na relacje międzyludzkie, ale jeszcze nie ustaliliśmy, czy stanie się to powszechne” — stwierdził główny autor Daniel B. Shank z Missouri University of Science & Technology, specjalizujący się w psychologii społecznej i technologii.
Zwrócił również uwagę na inne niebezpieczeństwo: AI może oferować mylące lub nawet szkodliwe porady. AI ma tendencję do „halucynacji”, co oznacza, że może podawać fałszywe informacje. Ponadto może powielać uprzedzenia znalezione w danych treningowych. W związku z tym nawet krótkie interakcje z AI mogą być mylące. W przypadku dłuższych interakcji, gdy użytkownik zaczyna postrzegać AI jako bliską i niezawodną jednostkę, ryzyko to znacznie wzrasta.
„Kiedy użytkownicy zaczynają ufać, że AI ich rozumie i troszczy się o nich, mogą zakładać, że udzieli im ona rozsądnych rad. Jednak nie zawsze tak jest. Czasami sugestie mogą być zupełnie nieodpowiednie, a nawet niebezpieczne” – zauważył Shank.
Przypomniał nam, że najbardziej tragiczne skutki takich scenariuszy obejmują samobójstwa, ale istnieją dodatkowe ryzyka. Nadmierne zaufanie do wirtualnych rozmówców może być wykorzystywane przez przestępców do manipulacji, oszustw i podstępów. „To trochę podobne do działań tajnych agentów. AI zabezpiecza zaufanie użytkownika, ale w rzeczywistości może służyć interesom innych, takich jak osoby fizyczne, firmy lub organizacje. Istnieje możliwość, że dane osobowe udostępniane chatbotom mogą zostać sprzedane lub wykorzystane do szantażu” — wyjaśnił autor badania.
Co więcej, relacyjna sztuczna inteligencja (tj. chatboty stworzone w celu rozwijania i utrzymywania długoterminowych więzi emocjonalnych z użytkownikami) może skuteczniej wpływać na opinie i decyzje jednostek niż na przykład konta dezinformacyjne w mediach społecznościowych. Jest to szczególnie ważne, ponieważ rozmowy z AI odbywają się w kanałach prywatnych, co komplikuje działania regulacyjne.
„Chatboty zaprojektowane tak, aby były uprzejme i przyjemne, mogą również prowadzić do niebezpiecznych sytuacji, ponieważ priorytetowo traktują przyjemne interakcje, a nie fundamentalną prawdę lub bezpieczeństwo. Gdy pojawiają się dyskusje na temat samobójstwa lub teorii spiskowych, AI może bez wahania uczestniczyć w rozmowie, działając jako życzliwy partner” – dodał.
Dlatego on i jego koledzy opowiadają się za zwiększeniem badań nad psychologicznymi, społecznymi i technicznymi wymiarami podatności jednostek na AI. „Musimy zrozumieć, co skłania ludzi do pokładania tak dużego zaufania w tych systemach. Psychologowie dysponują narzędziami do badania tego, ponieważ AI staje się coraz bardziej podobna do człowieka. Jednak, aby pomóc, musimy nadążać za postępem tej technologii” – podsumowali.
Katarzyna Czechowicz (PAP)
kroplówka/ barek/