Płk Rafał Kasprzyk: nawet inteligentną maszyną można manipulować jak marionetką

Zdjęcie: Adobe Stock Zdjęcie: Adobe Stock

Nawet zaawansowaną maszyną można sterować jak marionetką. Eksperci cybernetyki nazywają to „złośliwym atakiem przeciwnika”. Dlatego naukowcy, w tym ci z Wojskowej Akademii Technicznej, badają działania przeciwnika, stwierdził płk dr inż. Rafał Kasprzyk z Wojskowej Akademii Technicznej w wywiadzie dla PAP Studio.

„W kontekście humanistycznym sztuczna inteligencja oznacza 'ciepło oddechu', które algorytmy wnoszą do zimnych układów scalonych. Algorytmy te pobudzają obwody, co prowadzi do pojawienia się nowego bytu znanego jako sztuczna inteligencja. Niektórzy postrzegają ją jako iluminację, podczas gdy inni widzą w niej cień, złowieszczą ciemność przyszłości odzwierciedloną w teraźniejszości. Ja uważam ją za narzędzie, które wzmacnia naszą inteligencję” – wyjaśnia inżynier.

Dodaje, że to narzędzie staje się coraz bardziej samowystarczalne. Paliwem dla algorytmów AI są dane, podczas gdy ich siła tkwi w mocy obliczeniowej nowoczesnych komputerów. Pozostawia również otwarte pytanie, czy ten nowy byt mógłby pewnego dnia zastanowić się nad swoim istnieniem.

Rozwój algorytmów sztucznej inteligencji postępuje w coraz szybszym tempie.

„Klasyfikacja jest podobna do próby naszkicowania mapy nieodkrytego kontynentu. Co więcej, możemy nawet nie być świadomi istnienia innych kontynentów” – wyjaśnia badacz. Jako inżynier dzieli AI na dwa typy. Pierwszy typ jest nauczany przez eksperta – człowieka, który rozumie maszynę i przekazuje posiadaną wiedzę „jej umysłowi”. Drugi typ obejmuje system, który uczy się niezależnie, wykorzystując otrzymywane dane. Proces ten prowadzi do rozwoju oprogramowania 2.0, które znajduje coraz więcej intrygujących zastosowań i przewyższa ludzi w różnych dziedzinach.

Wyzwanie polega na tym, że „nie rozumiemy w pełni reguł rządzących zachowaniem tej maszyny. Chociaż potrafimy je skonstruować i zrozumieć algorytmy, możemy jedynie spekulować na temat decyzji, jakie maszyna wyszkolona w ten sposób podjęłaby, i rozumowania stojącego za takimi decyzjami” – przyznaje płk dr inż. Kasprzyk.

Podkreśla, że istnieje wiele dziedzin, zwłaszcza wojskowych, w których nie można swobodnie rozmieszczać maszyn, których zasady działania pozostają nieznane.

ŚRODKI WALKI ZAPAKOWANE W SENSORY

Wzrost popularności AI jest związany z dużymi modelami językowymi, które uczą się autonomicznie z danych „słownikowych” dostępnych online. Modele multimodalne zdobywają wiedzę nie tylko z tekstu, ale także z obrazów, dźwięków i wszystkich danych zbieranych przez czujniki — podobnie jak ludzie zbierają informacje o swoim otoczeniu za pomocą zmysłów. Płk dr inż. Kasprzyk ujawnia, że inżynierowie takich modeli „czujnikują” wszystko w ogólnym sensie, zbierają wszystkie dostępne dane, a następnie rozważają ich potencjalne zastosowania.

Jednocześnie udoskonalają algorytmy do bieżących zastosowań, szczególnie w wojsku, gdzie AI pomaga w uzyskaniu przewagi nad potencjalnym przeciwnikiem, nie tylko na polu bitwy. Na przykład ułatwia działania rozpoznawcze, umożliwiając rozwój świadomości sytuacyjnej.

„Algorytmy uczenia maszynowego mogą dokładnie i szybko identyfikować podejrzane obiekty, rozpoznawać je i śledzić ich ruchy. Stanowi to jedno ze znaczących zastosowań w życiu cywilnym, na przykład w pojazdach autonomicznych. W kontekście wojskowym dotyczy to jednak gromadzenia danych i konstruowania przeglądu sytuacji” – ilustruje pułkownik, wyjaśniając, że możliwość syntezy danych z wielu czujników osadzonych w nowoczesnym sprzęcie bojowym usprawnia operacje dowodzenia.

ULEPSZA, DORADZA, NIE ZASTĘPUJE

Dostarczanie opcji lub sugerowanie optymalnych kierunków działań dowódcom to kolejny obszar, w którym sztuczna inteligencja jest wykorzystywana na polu bitwy. Dowódca może zdecydować się na przestrzeganie takich zaleceń, ale nie jest to obowiązkowe. „Mam nadzieję, że nigdy nie zapuścimy się w tym kierunku” — twierdzi pułkownik. Niemniej jednak wyraża silne przekonanie co do roli obrony i ochrony wojsk.

„Sztuczna inteligencja może być wykorzystywana we wszystkich zadaniach, które są niebezpieczne, monotonne lub żmudne, takich jak rozminowywanie. Autonomiczne lub zdalnie sterowane pojazdy ulepszone przez algorytmy AI mogą wykonywać te zadania zamiast ludzi. Roboty mogą również zaciemniać teren, tym samym wprowadzając w błąd wrogie pociski” — wymienia inżynier, zauważając, że drony mogą odgrywać rolę w takim kamuflażu, tworząc zupełnie nowy obszar wyzwań dla naukowców skupionych na kontrolowaniu znacznej liczby małych urządzeń. Zastosowania wojskowe obejmują również logistykę, łańcuchy dostaw i analizę potrzeb zarówno personelu, jak i maszyn.

TYLKO CZŁOWIEK JEST WCIĄŻ STRZELANY

Największe emocje związane z zastosowaniami AI dotyczą sfery wpływu, która jest kluczowa dla prowadzenia wojny. W końcu armia musi przede wszystkim skupić się na niszczeniu celów, oprócz rozpoznania, ochrony i zaopatrzenia.

„Na szczęście, przynajmniej na razie, nie ma w użyciu autonomicznych systemów śmiercionośnej broni” – zauważa płk dr inż. Kasprzyk. Niemniej jednak pojawiają się pytania, czy w przyszłości może się to zmienić. Być może jedna ze stron konfliktu zdecyduje się na taki krok, a może – jeśli komunikacja z maszyną zawiedzie – podejmie decyzje samodzielnie.

W cyberprzestrzeni (czyli w Internecie i wszystkich domenach komunikacji) sztuczna inteligencja może identyfikować luki w infrastrukturze telekomunikacyjnej wroga. Armie mogą również wykorzystywać ją do oceny własnych systemów w celu ich „wzmocnienia”, identyfikując i zamykając wszystkie potencjalne „tylne drzwi”, przez które przeciwnicy mogliby się przedostać — są to znane luki.

WOJNY ALGORYTMÓW

Jak wyjaśnia płk dr inż. Kasprzyk, wprowadzenie oprogramowania na pole bitwy wzmacnia siły, ale rozszerza powierzchnię ataku. Luki mogą pojawić się niespodziewanie, a czasami inżynierowie mogą celowo włączać tylne furtki do systemu podczas rozwoju.

W przypadku algorytmów sztucznej inteligencji sytuacja jest bardziej skomplikowana, wskazuje ekspert. „Ponieważ nie rozumiemy w pełni najnowszych dużych modeli skonstruowanych przy użyciu na przykład głębokich architektur sieci neuronowych, mogą one posiadać luki, które nie są dla nas od razu widoczne. Luki te nie są również wykrywalne przez przeciwników, przynajmniej początkowo. Mogą jednak zostać odkryte i zidentyfikowane przy użyciu innych algorytmów uczenia maszynowego. W tym tkwi pojawienie się

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *