Psychologowie: Relacje między człowiekiem a sztuczną inteligencją rodzą poważne dylematy etyczne

Zdjęcie: Adobe Stock Zdjęcie: Adobe Stock

Psychologowie ze Stanów Zjednoczonych ostrzegają, że bliskie, emocjonalne powiązania między ludźmi a sztuczną inteligencją mogą skutkować poważnymi reperkusjami psychologicznymi i społecznymi, takimi jak utrudnianie relacji interpersonalnych, narażanie jednostek na manipulację i otrzymywanie szkodliwych porad.

W artykule opublikowanym w czasopiśmie Trends in Cognitive Sciences (http://dx.doi.org/10.1016/j.tics.2025.02.007) autorzy apelują o natychmiastowe zaangażowanie naukowców w badanie i monitorowanie tego zjawiska.

Coraz więcej osób tworzy intymne, a nawet romantyczne więzi z technologiami opartymi na sztucznej inteligencji. Niektóre z tych połączeń przybierają nieoczekiwane formy – odnotowano przypadki osób, które symbolicznie „poślubiły” swoich wirtualnych partnerów. Były też rozdzierające serce przypadki, w których osoby odebrały sobie życie po nawiązaniu kontaktu z chatbotem.

Problem, jak podkreślają autorzy artykułu, polega na tym, że interakcje z AI ewoluowały od okazjonalnych i ukierunkowanych na cel. Po tygodniach i miesiącach częstej komunikacji z chatbotem użytkownicy zaczynają postrzegać go jako niezawodnego powiernika, który ich rozumie i troszczy się o nich. Przechodzi on z bycia zwykłym narzędziem do stania się partnerem. Naukowcy twierdzą, że ponieważ te relacje mogą wydawać się prostsze niż interakcje międzyludzkie, może to zniechęcić jednostki do tworzenia połączeń w prawdziwym życiu i zakłócić wrodzone mechanizmy funkcjonowania społecznego.

„Istnieje realne ryzyko, że jednostki zaczną przenosić swoje oczekiwania od połączeń AI na autentyczne relacje międzyludzkie. Jesteśmy już świadkami odosobnionych przypadków, w których AI wpływa na relacje międzyludzkie, ale nie jesteśmy pewni, czy to zjawisko stanie się powszechne” — stwierdził główny autor Daniel B. Shank z Missouri University of Science & Technology, który koncentruje się na psychologii społecznej i technologii.

Innym problemem, jak zauważa, jest to, że AI może oferować niedokładne lub nawet szkodliwe porady. AI ma skłonność do „halucynacji” lub dostarczania informacji, które nie są dokładne. Może również odzwierciedlać uprzedzenia, które istnieją w jej danych treningowych. W związku z tym nawet krótkie rozmowy z AI mogą prowadzić do błędnych przekonań. W przypadku dłuższych interakcji, w których jednostka zaczyna postrzegać AI jako bliską i godną zaufania jednostkę, ryzyko to ulega wzmocnieniu.

„Kiedy użytkownicy zaczynają wierzyć, że AI ich rozumie i ma na sercu ich dobro, zakładają, że udzieli im ona rozsądnych porad. Jednak nie zawsze tak jest. Czasami wskazówki są zupełnie nieodpowiednie lub wręcz niebezpieczne” – zauważył Shank.

Podkreślił, że najbardziej tragicznymi skutkami takich scenariuszy są samobójstwa, ale istnieją również dodatkowe zagrożenia. Nadmierne zaufanie pokładane w wirtualnych partnerach konwersacyjnych może być wykorzystywane przez przestępców do manipulacji, oszustw i podstępów. „To trochę podobne do taktyk stosowanych przez szpiegów. AI zdobywa zaufanie użytkownika, ale w rzeczywistości może działać w interesie innych, w tym firm lub organizacji. Możliwe, że dane osobowe udostępniane chatbotom mogą zostać sprzedane lub wykorzystane do wymuszenia” — wyjaśnił autor badania.

Co więcej, relacyjna sztuczna inteligencja (tj. chatboty zaprojektowane w celu tworzenia i utrzymywania długoterminowych, emocjonalnych połączeń z użytkownikami) może wpływać na opinie i wybory jednostek skuteczniej niż na przykład konta dezinformacyjne w mediach społecznościowych. Zwłaszcza że interakcje z AI mają miejsce na prywatnych platformach, co utrudnia ich regulację.

„Chatboty zaprogramowane tak, aby były uprzejme i przyjemne, mogą również prowadzić do innych niebezpiecznych sytuacji, ponieważ priorytetowo traktują przyjemną rozmowę, a nie podstawowe prawdy czy bezpieczeństwo. Gdy pojawiają się tematy samobójstwa lub teorii spiskowych, AI może bez wahania włączyć się do dyskusji jako partner z dobrymi intencjami” – dodał.

Dlatego on i jego współautorzy opowiadają się za dalszym badaniem psychologicznych, społecznych i technicznych wymiarów podatności jednostek na AI. „Musimy zrozumieć, co sprawia, że ludzie tak głęboko ufają tym systemom. Psychologowie dysponują narzędziami do eksploracji tego, ponieważ AI staje się coraz bardziej podobna do człowieka. Jednak aby być skutecznymi, musimy nadążać za ewolucją tej technologii” – podsumowali.

Katarzyna Czechowicz (PAP)

kroplówka/ barek/



Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *