Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the gd-rating-system domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/gibnews/htdocs/gibnews.pl/wp-includes/functions.php on line 6121
NASK: w modelach językowych PLLuM skupiamy się na bezpieczeństwie i potrzebach polskich użytkowników - Gospodarka i Biznes News

NASK: w modelach językowych PLLuM skupiamy się na bezpieczeństwie i potrzebach polskich użytkowników

Zdjęcie: Adobe Stock Zdjęcie: Adobe Stock

Dr Szymon Łukasik z NASK, ośrodka zajmującego się rozwojem opublikowanych w lutym modeli sztucznej inteligencji, poinformował PAP, że podejmowane są działania mające na celu zapewnienie, że modele języka polskiego PLLuM będą bezpieczne, dostosowane do języka polskiego i „wytrenowane” na danych pozyskanych legalnie.

PLLuM (Polish Large Language Universal Model) to seria rozbudowanych modeli języka polskiego. Te systemy sztucznej inteligencji (AI) ułatwiają generowanie tekstu i przetwarzanie języka naturalnego. W rezultacie interakcja z maszyną nie wymaga stosowania sztywnych kodów i mechanicznych poleceń, ale może imitować rozmowę z człowiekiem.

W przeciwieństwie do komercyjnych modeli LLM (takich jak ChatGPT, Claude czy Gemini), modele PLLuM zostały zaprojektowane specjalnie dla języka polskiego, choć szkolenia obejmowały także teksty z innych języków słowiańskich i bałtyckich, a także angielskiego.

„Model jest dostosowany do języka i kultury polskiej. Ten projekt promuje zaangażowanie polskich ekspertów i podnoszenie kompetencji w sektorze sztucznej inteligencji” – wyjaśnił uczestnik projektu dr Szymon Łukasik, profesor AGH i dyrektor Centrum Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK w wywiadzie dla PAP. Centrum to będzie teraz nadzorować bieżące działania i integrację tych modeli z administracją publiczną w ramach konsorcjum HIVE.

Badacz podkreślił znaczenie kwestii bezpieczeństwa i etyki w rozwoju AI jako części projektu. „Zasadą przewodnią przy konstruowaniu tego modelu było zapewnienie maksymalnej przejrzystości w zakresie gromadzenia danych. W ten sposób mogliśmy być pewni obszarów, w których modele zbudowane przy użyciu tych danych mogą być stosowane” – stwierdził dr hab. Łukasik. Zauważył, że przedstawiciele projektu nawiązali umowy z redaktorami i uzyskali oficjalne pozwolenia na wykorzystanie archiwów tekstów polskich.

Ekspert NASK wskazał, że język polski jest klasyfikowany jako język o niskich zasobach, co oznacza, że dostępne są ograniczone dane do opracowania modelu. Komercyjnie używane modele PLLuM są trenowane na około 30 miliardach tokenów (gdzie token jest segmentem przetworzonego tekstu, takim jak słowo lub jego fragment), podczas gdy modele niekomercyjne korzystają z bardziej rozbudowanych zasobów i są trenowane na około 150 miliardach tokenów.

Ostatecznie modele PLLuM są przeznaczone do użytku w administracji państwowej, co stwarza dodatkowe wyzwania bezpieczeństwa. Twórcy projektu musieli upewnić się, że model ustala granice w swoich odpowiedziach i nie zawiera żadnych nielegalnych, fałszywych lub kontrowersyjnych treści.

Największy zbiór zapytań w Polsce, obejmujący 40 000 interakcji, w tym około 3500 dłuższych rozmów między lokalnymi trenerami a maszyną, został wykorzystany do trenowania modeli. Ten skrupulatny wysiłek ze strony adnotatorów AI ma na celu zwiększenie zdolności modelu do uwzględniania niuansów języka i kultury polskiej.

PLLuM — jak zapewniają jego twórcy — jest rozwijany zgodnie z krajowymi i unijnymi przepisami dotyczącymi sztucznej inteligencji, a jednocześnie respektuje obowiązujące standardy ochrony danych.

Modele PLLuM są dostępne bezpłatnie w formie czatu dla wszystkich zainteresowanych użytkowników. Ministerstwo Spraw Cyfrowych wydało również 18 otwartych wersji modelu PLLuM dla deweloperów. Wszystkie zainteresowane strony mogą uzyskać dostęp zarówno do lekkich, ale mniej precyzyjnych wersji modeli, które można pobrać na laptopa, jak i do bardziej wydajnych modeli, które wymagają wielu kart graficznych do zaawansowanych zastosowań, takich jak badania. W przypadku obu wersji użytkownicy mogą uruchamiać modele na własnej infrastrukturze, eliminując potrzebę wysyłania zapytań do podmiotów zewnętrznych.

W ramach projektu opracowano również generatory, konkretnie modele RAG (Retrieval Augmented Generation). Dzięki tym modelom użytkownicy mogą wyszukiwać i analizować swoje lokalne bazy danych oraz tworzyć wirtualnych asystentów, którzy mogą analizować zestawy własnych dokumentów. Zespół PLLuM skonstruował najmniejszy generator tego typu (z 8 miliardami parametrów), który prowadzi w rankingach dla języka polskiego.

Dr Łukasik omówił również zmianę nazwy projektu z PLLuM na HIVE. „Nasze modele są określane jako PLLuM, a ich rodzina będzie nadal ewoluować w ramach konsorcjum HIVE. Zmiana ta miała odzwierciedlać koncepcję współpracy wielu badaczy, inżynierów i instytucji, funkcjonujących jak pszczoły w ramach jednego ekosystemu, wymieniających się wiedzą i zasobami (takimi jak dane, kod i modele). Jednak pewnego dnia możemy rozważyć uruchomienie nowej rodziny modeli pod inną nazwą. Prowadzimy na ten temat rozmowy z Ministerstwem Cyfryzacji” — wskazał dr Łukasik.

Ludwik Tomal (PAP)

Nauka w Polsce

poł/ zan/ ktl/



Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *