NASK opublikował nową odmianę polskiego modelu sztucznej inteligencji PLLuM

Zdjęcie: Adobe Stock Zdjęcie: Adobe Stock

Nowy wariant PLLuM, opublikowany w środę, został wytrenowany na większym zbiorze danych, dostrojony do nowych zadań, w tym oficjalnych, i lepiej zabezpieczony przed atakami, poinformował Instytut NASK w komunikacie prasowym. Zaktualizowany polski model został wydany w trzech wersjach.

Jak wskazuje NASK-PIB, nowa wersja polskiego modelu sztucznej inteligencji, PLLuM-12B-nc-250715, została wytrenowana na „znacznie lepiej” przygotowanym i większym zbiorze danych; została też dostrojona do nowych zadań, w tym zadań oficjalnych.

Model został wytrenowany między innymi na tekstach z domeny gov.pl, Biuletynu Informacji Publicznej i Biblioteki Naukowej. „Dane są gromadzone w pełnej zgodności z prawem polskim i europejskim” – podkreśliła dr Agnieszka Karlińska z Zakładu Inżynierii Lingwistycznej i Analizy Tekstu NASK w komunikacie prasowym.

Jak donosiliśmy, zaktualizowany PLLuM jest dostępny w trzech wariantach: podstawowym, instruktażowym, dostosowanym do różnych zadań oraz „treningowym”, czyli zabezpieczonym przed nadużyciami. NASK podkreślił, że najnowsza wersja jest „najbardziej zaawansowana”. Opiera się na zestawach podpowiedzi (zapytań – PAP) i odpowiedziach ocenionych przez użytkowników jako lepsze lub gorsze, co pomaga mu reagować precyzyjniej i bezpieczniej podczas rozmów.

Modele z tej serii są dostępne na platformie Hugging Face, skąd każdy użytkownik może je pobrać po wypełnieniu formularza.

„Od samego początku zajmowaliśmy stanowisko, że masowe kopiowanie gotowych modeli sztucznej inteligencji, tzw. silnych modeli LLM, wiąże się z szeregiem zagrożeń. Dlatego opracowujemy metodologię kontrolowanego generowania danych syntetycznych, czyli danych generowanych za pomocą innych modeli, ale weryfikowanych i walidowanych przez ludzi” – powiedział dr Piotr Pęzik, profesor Uniwersytetu Łódzkiego, kierownik operacyjny projektu HIVE AI, odpowiedzialny za polski model. Pozwala to PLLuM lepiej zrozumieć polski kontekst kulturowy, reagować precyzyjniej i generować mniej zbędnych i losowych słów – wyjaśnili autorzy.

NASK zapewnił również, że model został dodatkowo zabezpieczony przed atakami. Testy podatności wykazały, że skuteczność szybkich ataków spadła do 2-3 przypadków na 100 prób. To znacznie mniej niż w przypadku innych otwartych modeli, zauważył NASK. Ataki typu prompt injection to technika, w której atakujący wysyła „złośliwe” instrukcje, omijając zabezpieczenia modelu, co może skutkować na przykład generowaniem złośliwych odpowiedzi lub ujawnieniem poufnych informacji.

Dr Karlińska zapowiedziała, że konsorcjum HIVE „wkrótce” zaprezentuje drugi produkt z rodziny PLLuM – prototyp asystenta obywatelskiego (chatbota), który posłuży badaczom do zbierania podpowiedzi do implementacji modeli PLLuM w aplikacji mObywatel.

NASK poinformował, że w nadchodzących tygodniach zostaną ogłoszone kolejne wydania konsorcjum HIVE AI.

PLLuM to model językowy stworzony dla administracji publicznej, przedsiębiorstw i naukowców, a także dla obywateli – w formie chatbota. Jego premiera odbyła się pod koniec lutego tego roku. Wtedy też Ministerstwo Cyfryzacji ogłosiło powstanie HIVE AI, konsorcjum polskich ośrodków naukowych i instytucji zajmujących się usługami cyfrowymi, którego liderem jest NASK-PIB. Konsorcjum opracowuje nowe, polskojęzyczne modele językowe PLLuM i wdraża je w jednostkach administracji publicznej. (PAP)

mbl/ mick/



Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *