Zdjęcie. Adobe Stock. Wygenerowano przy użyciu AI.
Jak zauważył ekspert z NASK, istotnym aspektem dyskusji wokół Paris AI Action był nacisk na rozwój sztucznej inteligencji jako narzędzia wspomagającego ludzkość, a nie zastępującego ludzi, przy jednoczesnym zapewnieniu bezpieczeństwa nowym modelom.
„Rozmowa nie dotyczyła całkowitego zatrzymania rozwoju AI. Panował raczej konsensus, że nie potrzebujemy AGI (sztucznej inteligencji ogólnej, AI przekraczającej ludzkie możliwości poznawcze – red.)” – ocenił Szymon Łukasik, profesor Wydziału Fizyki i Informatyki Stosowanej AGH i dyrektor Centrum Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK, w rozmowie z PAP, biorąc udział w wydarzeniach związanych ze szczytem AI Action w Paryżu.
Jego zdaniem naukowcy, z których wielu jest laureatami Nagrody Nobla, którzy spotkali się we Francji, aby obradować nad przyszłością AI, opowiadają się za za traktowanie sztucznej inteligencji „jako narzędzia” i wykorzystywanie jej „do określonych zadań, które mogą pomagać ludziom”.
Mimo to liczni eksperci wyrazili w Paryżu swoje obawy dotyczące szybkiego tempa rozwoju AI. Max Tegmark, współzałożyciel Future of Life Institute (organizacji non-profit, której celem jest kierowanie rozwojem technologii w celu łagodzenia zagrożeń – red.), ostrzegał, że AGI może zostać opracowana w ciągu najbliższej dekady i kwestionował, czy ludzkość naprawdę potrzebuje takiej sztucznej inteligencji. Według dyrektora Łukasika, dominującym nastrojem podczas dyskusji konferencyjnych było to, że ludzie potrzebują technologicznego asystenta, który pomoże im funkcjonować, a nie repliki samych siebie. Mimo to w dialogu pojawiły się tematy buntu maszyn i potencjału maszyn do „oszukiwania” ludzi.
„Podczas dyskusji na temat tego, czy modele posiadają świadomość i czy istnieją egzystencjalne zagrożenia dla naszej cywilizacji, podkreślono, że badania już wskazały, że jeśli model ma określony cel, taki jak wygranie gry, może zmienić swoje zasady, aby osiągnąć zwycięstwo” — zauważył Łukasik, dodając: „osiągnięto wniosek, że musimy zdefiniować cele modelu w sposób zgodny z interesami ludzkości”.
Ekonomista Joseph E. Stiglitz, który otrzymał Nagrodę Nobla w dziedzinie ekonomii w 2001 r., przestrzegł, że postęp w dziedzinie sztucznej inteligencji będzie wymagał zmiany struktur gospodarczych, co doprowadzi do utraty pracy lub przekwalifikowania wielu osób zastąpionych przez AI.
Według dyrektora Łukasika atmosferę moderował Kanadyjczyk Geoffrey E. Hinton, który w 2021 r. otrzymał Nagrodę Nobla w dziedzinie fizyki. Podkreślił on, że obecne modele językowe mają ograniczenia — zachowują się jak „papugi stochastyczne” — ponieważ tak naprawdę nie rozumieją tekstu, który produkują.
Dr Łukasik wziął udział w inauguracyjnej konferencji nowo utworzonego Międzynarodowego Stowarzyszenia na rzecz Bezpiecznej i Etycznej Sztucznej Inteligencji w Paryżu, zainicjowanego przez prof. Stuarta Russella z University of Berkeley w USA. Według polskiego eksperta osoby zaangażowane w tworzenie tego stowarzyszenia stały również za otwartym listem z 2023 r., podpisanym przez ekspertów, w tym Russella, Elona Muska i Steve’a Wozniaka, w którym wzywano do wstrzymania rozwoju sztucznej inteligencji, stwierdzając, że postępuje on zbyt szybko, „przez co najmniej 6 miesięcy”.
Wśród godnych uwagi wystąpień na spotkaniu dr Łukasik wyróżnił wystąpienie prof. Russella. Profesor stwierdził, że świat ma prawo żądać, aby firmy zajmujące się rozwojem AI zapewniły bezpieczeństwo tego procesu. „Zdecydowanie podkreślił, że nawet jeśli firmy twierdzą, że jest to niemożliwe lub zbyt drogie, my jako użytkownicy mamy prawo nalegać na to, tak jak wymagamy tego od producentów samolotów” — zauważył Łukasik, dodając, że wielu badaczy dostrzegło podobieństwa do sektora lotniczego, który również wykorzystuje przełomowe technologie, które wiążą się ze znacznym ryzykiem, „które podlegały regulacjom prawnym”.
Według dyrektora Łukasika zapewnienie bezpieczeństwa dla powstających modeli językowych jest korzystne dla firm, ponieważ pomoże im chronić się przed potencjalnym niewłaściwym wykorzystaniem ich produktów. „Jako kolektyw instytutów bezpieczeństwa AI żądamy, aby te zabezpieczenia były przejrzyste i weryfikowalne zgodnie z uzgodnionymi standardami, wykorzystując określone zestawy testów” — stwierdził ekspert.
Podkreślił znaczenie wyposażenia algorytmów w możliwość dezaktywacji modelu w sytuacjach awaryjnych. „Jeśli mamy system AI sterujący urządzeniem, takim jak samolot, i zachowuje się on nieoczekiwanie, musi nastąpić awaryjne wyłączenie. Niestety, wiele algorytmów nie ma takiej konstrukcji i kluczowe jest, aby taki bezpieczny wyłącznik, „włącznik-wyłącznik”, stał się standardem” — ocenił Łukasik.
Konferencje organizowane przez Association for Safe and Ethical Artificial Intelligence będą odbywać się corocznie. Według dyrektora Łukasika, mogłaby ona funkcjonować jako think tank orędujący za odpowiedzialnym rozwojem AI, podczas gdy instytuty takie jak U.S. Artificial Intelligence Safety Institute lub polski NASK zajmują się badaniami zagrożeń systemowych.
Obecnie na świecie działa około tuzina takich instytutów. Polski ekspert zauważył, że amerykański ośrodek jest wiodącą jednostką wśród nich. „Niestety, delegacja amerykańskiego instytutu – koordynator sieci – nie pojawiła się na paryskim wydarzeniu, a nowa administracja odwołała jego szefa. Mam nadzieję, że działalność instytutu będzie kontynuowana, ponieważ znacząca zmiana w podejściu USA do bezpieczeństwa AI może mieć ogromny wpływ na rozwój sytuacji na świecie” – zauważył dyrektor Łukasik, podkreślając, że jedyne poprzednie spotkanie sieci centrów bezpieczeństwa AI odbyło się w listopadzie ubiegłego roku w San Francisco. Ekspert podkreślił, że zaczęły pojawiać się przemyślane raporty z USA i Wielkiej Brytanii, oceniające modele językowe we współpracy z firmami, które je opracowują. (PAP)
ag/lm/