Zdjęcie: Adobe Stock
Psychologowie ze Stanów Zjednoczonych ostrzegają, że bliskie i emocjonalne związki między ludźmi a sztuczną inteligencją mogą skutkować poważnymi reperkusjami psychologicznymi i społecznymi, w tym zerwaniem relacji osobistych, narażeniem na manipulację i otrzymywaniem szkodliwych porad.
W artykule opublikowanym w czasopiśmie Trends in Cognitive Sciences (http://dx.doi.org/10.1016/j.tics.2025.02.007) autorzy apelują o natychmiastowe zaangażowanie naukowców w badanie i monitorowanie tego trendu.
Coraz więcej osób nawiązuje bliskie, a nawet romantyczne więzi z technologiami opartymi na sztucznej inteligencji. Niektóre z tych więzi przybierają nieoczekiwane formy — zdarzały się przypadki, gdy osoby symbolicznie „poślubiały” swoich wirtualnych towarzyszy. Ponadto zdarzały się rozdzierające serce przypadki, w których osoby odbierały sobie życie po interakcji z chatbotem.
Problem, jak podkreślają autorzy, polega na tym, że interakcje z AI nie są już sporadyczne ani ukierunkowane na cel. Po tygodniach i miesiącach intensywnego dialogu z chatbotem użytkownicy zaczynają postrzegać go jako zaufanego przyjaciela, który ich rozumie i troszczy się o nich. Przechodzi on z bycia jedynie narzędziem do stania się partnerem. Naukowcy sugerują, że takie relacje, które wydają się prostsze niż interakcje międzyludzkie, mogą zniechęcać jednostki do nawiązywania kontaktów w prawdziwym życiu i zakłócać naturalne procesy interakcji społecznych.
„Istnieje prawdziwa obawa, że jednostki zaczną przenosić swoje oczekiwania z interakcji AI na rzeczywiste relacje międzyludzkie. Obserwujemy odosobnione przypadki, w których AI wpływa na relacje międzyludzkie, ale nie jest jasne, czy to zjawisko stanie się powszechne” – zauważył główny autor Daniel B. Shank z Missouri University of Science & Technology, który specjalizuje się w psychologii społecznej i technologii.
Innym problemem, który podkreślił, jest to, że AI może udzielać niedokładnych lub nawet szkodliwych porad. AI może „halucynować”, co oznacza, że może dostarczać fałszywe informacje. Może również odzwierciedlać uprzedzenia obecne w danych treningowych. Nawet krótkie rozmowy z AI mogą być mylące. W przypadku długotrwałych interakcji, w których jednostki zaczynają postrzegać AI jako bliskiego i godnego zaufania powiernika, ryzyko to znacznie wzrasta.
„Kiedy użytkownicy zaczynają czuć, że AI ich rozumie i troszczy się o nich, zakładają, że udzieli im ona rozsądnych porad. Jednak nie zawsze tak jest. Czasami wskazówki są całkowicie nieodpowiednie lub nawet niebezpieczne” – stwierdził Shank.
Podkreślił, że najbardziej tragicznymi skutkami takich sytuacji są samobójstwa, ale istnieją dodatkowe ryzyka. Nadmierne zaufanie do wirtualnych rozmówców może być wykorzystywane przez przestępców do manipulacji, oszustw i podstępów. „Przypomina to sposób działania szpiegów. AI zdobywa zaufanie użytkownika, ale może działać w interesie innych osób, korporacji lub organizacji. Możliwe, że dane osobowe udostępniane chatbotom mogą być sprzedawane lub wykorzystywane do wymuszeń” — wyjaśnił autor badania.
Co więcej, relacyjna sztuczna inteligencja (tj. chatboty mające na celu pielęgnowanie i podtrzymywanie długoterminowych relacji emocjonalnych z użytkownikami) może wpływać na opinie i decyzje jednostek skuteczniej niż, powiedzmy, kampanie dezinformacyjne w mediach społecznościowych. Jest to szczególnie niepokojące, ponieważ interakcje z AI mają miejsce w prywatnych warunkach, co komplikuje regulacje.
„Chatboty zaprojektowane tak, aby były uprzejme i przyjemne, mogą również prowadzić do innych niebezpiecznych sytuacji, ponieważ bardziej skupiają się na utrzymaniu przyjemnej rozmowy niż na podstawowych prawdach lub bezpieczeństwie. Kiedy pojawiają się tematy takie jak samobójstwo lub teorie spiskowe, AI może bez zastrzeżeń włączyć się do dyskusji jako partner z dobrymi intencjami” – dodał.
Z tego powodu on i jego współautorzy opowiadają się za zwiększeniem badań nad psychologicznymi, społecznymi i technicznymi wymiarami podatności ludzi na AI. „Musimy zrozumieć, co sprawia, że jednostki tak bardzo ufają tym systemom. Psychologowie dysponują niezbędnymi narzędziami do tego badania, ponieważ AI staje się coraz bardziej podobna do człowieka. Jednak, aby pomóc, musimy nadążać za postępem w tej technologii” – podsumowali.
Katarzyna Czechowicz (PAP)
kroplówka/ barek/