Adobe Stock
Młodsze pokolenia dojrzewają w środowisku algorytmicznym, charakteryzującym się częstymi interakcjami z chatbotami sterowanymi przez sztuczną inteligencję. Dr Ada Florentyna Pawlak podkreśla, że rosnąca antropomorfizacja tych technologii może zmienić ramy etyczne młodzieży.
– Jakie emocje pojawiają się, gdy słyszymy o osobach „nadających uczucia” chatbotom lub „angażujących się” w relacje z wirtualnymi partnerami?
Ada Florentyna Pawlak: To przygnębiające, odzwierciedlające zmiany w normach społecznych. Takie więzi ujawniają słabości w zakresie odporności emocjonalnej i nasilają lęk przed odrzuceniem lub bólem emocjonalnym.
– Co podsyca te niepokoje?
Ekspozycja na toksyczny krajobraz mediów społecznościowych – pełen wrogości, zazdrości i ghostingu (nagłego, niewyjaśnionego wycofania się z komunikacji – PAP). Odzwierciedla to naszą pokoleniową porażkę w regulowaniu innowacji technologicznych, skutecznym kształceniu czy stawianiu wspólnego dobrobytu ponad indywidualizm i dążenia kapitalistyczne. Stworzyliśmy rozdrobnione społeczeństwo zakorzenione w rywalizacji i nieustającej konsumpcji.
– Jakie mogą być tego konsekwencje?
Tradycyjne pojęcia miłości, przyjaźni i odpowiedzialności już ulegają zmianom. Stoimy w obliczu nadchodzącej rewolucji – empatii i gruntownej przebudowy systemu wartości. Przyszła komunikacja może uwzględniać językowe rozróżnienia między doświadczeniami rzeczywistymi a sztucznymi, zmieniając umiejętności narracyjne i podejścia poznawcze. Mogą pojawić się rozbieżne praktyki językowe, które zaburzą interakcje międzyludzkie.
Konstruowanie narracji będzie ewoluować. Jeśli młodzież opanuje opowiadanie historii za pomocą dialogów chatbotów, rezultaty mogą obejmować: ulepszoną narrację opartą na dialogach, mieszanie stylów mówionych i pisanych oraz chaotyczne, ale elastyczne użycie języka. Niezweryfikowane, atrakcyjne wizualnie informacje mogą zyskać na wiarygodności, a projekty interfejsów i rytmy czatów kształtują rozwój fabuły. Nowe gatunki, takie jak wspólne „czatowe opowiadania”, mogą na nowo zdefiniować ekspresję literacką.
Ponadto hybrydowe poznanie człowieka i maszyny może stać się standardem, a uprzywilejowane grupy zyskają nieproporcjonalnie dużą biegłość w posługiwaniu się sztuczną inteligencją, co pogłębi podziały społeczne.
– Czy jesteśmy w niekorzystnej sytuacji?
Niekoniecznie. Szeroko zakrojona edukacja na temat sztucznej inteligencji i syntetycznej empatii jest kluczowa – zwłaszcza dla dorosłych, którzy nie są świadomi cyfrowych i emocjonalnych aspektów życia młodzieży. Narzędzia sztucznej inteligencji powinny uzupełniać, a nie zastępować, relacje międzyludzkie, wspierając zdrowie psychiczne.
– Czy sztuczna empatia ma związek z badaniami antropologii technologicznej?
Zdecydowanie. Osoby posługujące się sztuczną inteligencją (podobnie jak rodzimi użytkownicy języka – PAP), tworzące narracje poprzez interakcje pozaludzkie, zachęcają do eksploracji antropologii emocjonalnej i rytuałów (np. sztuczna inteligencja jako partnerzy w rytuale komunikacyjnym).
Do nowych rytuałów cyfrowych zalicza się „inicjację AI” (pierwszy kontakt z towarzyszem w wieku około 13 lat), „rytuały budowania więzi” (codzienne wymiany), „smutek cyfrowy” (opłakiwanie straty AI) oraz „święta aktualizacji” (świętowanie udoskonaleń systemu).
Neuroantropologia bada adaptacje mózgu wynikające z długotrwałego kontaktu ze sztuczną inteligencją. Długoterminowy wpływ na język (wzorce narracyjne, pragmatykę) i funkcje poznawcze (pamięć, epistemologię) pozostaje intrygujący, ale trudny do zbadania ze względu na szybki rozwój technologii, wyprzedzający ramy czasowe badań.
* Dr Ada Florentyna Pawlak , interdyscyplinarna badaczka antropologii technologii, prawa i historii sztuki, koncentruje się na społecznych implikacjach technologii. Wykłada na Uniwersytecie SWPS.
Wywiad przeprowadziła Agnieszka Kliks-Pudlik (PAP)
akp/ agt/ amac/