Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the gd-rating-system domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/gibnews/htdocs/gibnews.pl/wp-includes/functions.php on line 6121
Na szczycie AI Action Summit w Paryżu naukowcy sprzeciwiają się tworzeniu „ludzkich kopii” - Gospodarka i Biznes News

Na szczycie AI Action Summit w Paryżu naukowcy sprzeciwiają się tworzeniu „ludzkich kopii”

Zdjęcie: Adobe Stock. Wygenerowano przy użyciu sztucznej inteligencji. Zdjęcie: Adobe Stock. Wygenerowano przy użyciu sztucznej inteligencji.

Według eksperta NASK, istotnym tematem dyskusji w ramach Paris AI Action na temat bezpieczeństwa rozwoju sztucznej inteligencji był nacisk na stworzenie narzędzia wspomagającego ludzkość, a nie zastępującego ludzi, przy jednoczesnym zapewnieniu bezpieczeństwa rozwijanych modeli.

„Nie było dyskusji o całkowitym wstrzymaniu badań nad sztuczną inteligencją. Był raczej konsensus, że AGI (sztuczna inteligencja ogólna, która przekracza ludzkie zdolności poznawcze – red.) nie jest czymś, czego potrzebujemy” – ocenił w rozmowie z PAP Szymon Łukasik, profesor AGH z Wydziału Fizyki i Informatyki Stosowanej i dyrektor Centrum Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK. Bierze udział w wydarzeniach towarzyszących szczytowi AI Action w Paryżu.

Uważa, że badacze – z których wielu to laureaci Nagrody Nobla – zebrali się w znacznej liczbie w stolicy Francji, aby debatować nad przyszłością AI, wspierając ideę postrzegania sztucznej inteligencji „jako narzędzia” wspomagającego „konkretne zadania, które mogą przynieść korzyści ludziom”.

Mimo to liczni eksperci wyrazili w Paryżu swoje obawy dotyczące szybkiego tempa rozwoju AI. Max Tegmark, współzałożyciel Future of Life Institute (organizacji non-profit, której celem jest ukierunkowanie rozwoju technologii na łagodzenie zagrożeń – red.), ostrzegał, że AGI może pojawić się w ciągu następnej dekady i kwestionował, czy ludzkość naprawdę potrzebuje tej formy sztucznej inteligencji. Według dyrektora Łukasika dominującym nastrojem w dyskusjach konferencyjnych było to, że ludzie potrzebują technologicznego asystenta do swojego funkcjonowania, a nie kopii samych siebie. Niemniej jednak w rozmowach pojawiły się tematy buntu maszyn i maszyn „oszukujących” ludzi.

„Podczas dyskusji na temat świadomości modelu i zagrożeń egzystencjalnych dla naszej cywilizacji podkreślono, że istniejące badania wskazują, że jeśli model ma określony cel, taki jak wygranie gry, może zmienić swoje zasady, aby osiągnąć zwycięstwo” – zauważył Łukasik, dodając: „wyciągnięto wniosek, że musimy ustalić cele modelu w sposób zgodny z interesami ludzkości”.

Tymczasem ekonomista Joseph E. Stiglitz, który w 2001 r. otrzymał Nagrodę Nobla w dziedzinie ekonomii, ostrzegał, że rozwój sztucznej inteligencji może doprowadzić do reorganizacji gospodarek, w wyniku czego wiele osób – zastąpionych przez sztuczną inteligencję – straci pracę lub będzie musiało się przekwalifikować.

Jak powiedział dyrektor Łukasik, atmosferę moderował Kanadyjczyk Geoffrey E. Hinton, laureat Nagrody Nobla w dziedzinie fizyki w 2021 r., który zwrócił uwagę, że obecne modele językowe mają ograniczenia – przypominają „papugi stochastyczne” – ponieważ tak naprawdę nie rozumieją tekstu, który tworzą.

Dr Łukasik wziął udział w inauguracyjnej konferencji nowo utworzonego Międzynarodowego Stowarzyszenia Bezpiecznej i Etycznej Sztucznej Inteligencji w Paryżu, zainicjowanej przez prof. Stuarta Russella z University of Berkeley w USA. Według polskiego eksperta osoby stojące za powstaniem tego stowarzyszenia są również autorami otwartego listu ekspertów w 2023 r., w tym Russella, Elona Muska i Steve’a Wozniaka, wzywającego do wstrzymania rozwoju sztucznej inteligencji, który ich zdaniem postępuje zbyt szybko, „na co najmniej 6 miesięcy”.

Wśród znaczących uwag uczestników spotkania dr Łukasik wyróżnił przemówienie prof. Russella. Profesor stwierdził, że świat ma prawo żądać, aby firmy rozwijające sztuczną inteligencję gwarantowały bezpieczeństwo procesu. „Zdecydowanie podkreślił, że nawet jeśli firmy twierdzą, że jest to niemożliwe lub kosztowne, my jako użytkownicy mamy prawo tego od nich wymagać, tak jak od producentów samolotów” — podkreślił Łukasik, dodając, że wielu badaczy dokonało porównań do sektora lotniczego, który również wykorzystuje przełomowe technologie związane ze znacznymi ryzykami, „które zostały prawnie uregulowane”.

Zdaniem dyrektora Łukasika ustanowienie protokołów bezpieczeństwa dla powstających modeli językowych jest korzystne dla firm, ponieważ ochroni je przed potencjalnym niewłaściwym wykorzystaniem ich produktów. „Jako społeczność instytutów skupionych na bezpieczeństwie AI, nalegamy, aby te środki bezpieczeństwa były przejrzyste, umożliwiając weryfikację w oparciu o ustalone standardy, przy użyciu określonych zestawów testowych” — stwierdził ekspert.

Podkreślił konieczność wyposażenia algorytmów w zdolność wyłączania modelu w sytuacjach awaryjnych. „Jeśli mamy system AI zarządzający urządzeniem, takim jak samolot, i obserwujemy jego nieoczekiwane zachowanie, musi istnieć mechanizm awaryjnego wyłączania. Niestety, wiele algorytmów nie jest projektowanych w ten sposób, a celem jest, aby taki mechanizm awaryjny, „włącznik-wyłącznik”, stał się standardem” – ocenił Łukasik.

Konferencje Association for Safe and Ethical Artificial Intelligence mają odbywać się corocznie. Według dyrektora Łukasika może ona pełnić rolę think tanku orędującego za bezpiecznym rozwojem AI, podczas gdy badania systemowe nad zagrożeniami prowadzą ośrodki takie jak US Artificial Intelligence Safety Institute czy polski NASK.

Obecnie na świecie działa około tuzina takich instytutów. Polski ekspert twierdzi, że amerykański ośrodek jest wśród nich liderem. „Niestety, delegacja amerykańskiego instytutu – koordynatora sieci – nie pojawiła się na paryskim wydarzeniu, a nowa administracja odwołała również jego szefa. Mam nadzieję, że działalność tego instytutu będzie kontynuowana, ponieważ znacząca zmiana w podejściu USA do bezpieczeństwa AI może mieć ogromny wpływ na resztę świata” – zauważył dyrektor Łukasik, podkreślając, że jedyne wcześniejsze spotkanie sieci centrów bezpieczeństwa AI odbyło się w listopadzie ubiegłego roku w San Francisco. Podkreślił, że zaczęły już pojawiać się przemyślane raporty amerykańskie i brytyjskie oceniające modele językowe we współpracy z firmami, które je opracowują. (PAP)

emisja dwutlenku węgla/



Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *