Zdjęcie: Adobe Stock
Nawet wyrafinowane maszyny można kontrolować jak marionetki. Cybernetycy nazywają to „złośliwym atakiem antagonistycznym”. To jest powód, dla którego naukowcy, w tym ci z Wojskowej Akademii Technicznej, prowadzą badania nad zachowaniami antagonistycznymi, stwierdził płk dr inż. Rafał Kasprzyk z Wojskowej Akademii Technicznej w swoim wystąpieniu w PAP Studio.
„W humanistycznym sensie sztuczna inteligencja reprezentuje „ciepło” wlewane w zimne algorytmy układów scalonych. Algorytmy te pobudzają układy, co skutkuje pojawieniem się nowego bytu, sztucznej inteligencji. Niektórzy postrzegają ją jako źródło światła, podczas gdy inni widzą w niej cień, potencjalną mroczną przyszłość odzwierciedloną w teraźniejszości. Ja uważam ją za narzędzie, które wzmacnia naszą inteligencję” – wyjaśnia inżynier.
Zauważa ponadto, że to narzędzie szybko zyskuje autonomię. Dane służą jako paliwo dla algorytmów AI, podczas gdy moc obliczeniowa nowoczesnych komputerów napędza ich skuteczność. Zadaje również pytanie, czy ten nowy byt mógłby pewnego dnia zastanowić się nad swoją własną tożsamością.
Postęp algorytmów sztucznej inteligencji postępuje w niezwykłym tempie.
„Klasyfikacja jest podobna do próby zmapowania kontynentu, którego jeszcze nie odkryliśmy. Co więcej, możemy nawet nie zdawać sobie sprawy, że mogą istnieć dodatkowe kontynenty” — wyjaśnia badacz. Jako inżynier dzieli AI na dwa odrębne typy. Pierwszy to taki, który jest instruowany przez eksperta — człowieka, który rozumie maszynę i przekazuje posiadane przez siebie reguły „jej umysłowi”. Drugi typ to system, który uczy się niezależnie od otrzymywanych danych, co doprowadziło do powstania oprogramowania 2.0, które obecnie odkrywa coraz bardziej fascynujące zastosowania i przewyższa ludzi w różnych dziedzinach.
Wyzwanie polega na tym, że „nie do końca rozumiemy zasady rządzące zachowaniem tej maszyny. Chociaż rozumiemy, jak je skonstruować i jakie algorytmy są w to zaangażowane, możemy jedynie spekulować; nie możemy definitywnie określić, jaką decyzję podjęłaby maszyna wyszkolona w ten sposób ani jaka jest jej przyczyna” – przyznaje płk dr inż. Kasprzyk.
Podkreśla, że wiele dziedzin, zwłaszcza wojsko, nie nadaje się do nieograniczonego stosowania maszyn, których zasady działania nie są zrozumiałe.
ŚRODKI WALKI ZAPAKOWANE W SENSORY
Ogromne zainteresowanie sztuczną inteligencją wynika z dużych modeli językowych, które autonomicznie uczą się z danych „słownikowych” dostępnych online. Modele multimodalne absorbują informacje nie tylko z tekstu, ale także z obrazów, dźwięków i wszystkich danych zbieranych przez czujniki — podobnie jak ludzie zbierają dane za pomocą zmysłów. Jak ujawnia płk dr inż. Kasprzyk, inżynierowie tych modeli „czujnikują” wszystko szeroko, gromadząc wszystkie możliwe dane, zanim rozważą ich potencjalne zastosowania.
Jednocześnie opracowują algorytmy dla istniejących aplikacji, zwłaszcza w wojsku, gdzie AI pomaga w uzyskaniu przewagi nad potencjalnymi przeciwnikami, nie tylko na polu bitwy. Na przykład ułatwia rozpoznanie, umożliwiając ustalenie świadomości sytuacyjnej.
„Algorytmy uczenia maszynowego mogą dokładnie i szybko identyfikować podejrzane obiekty, rozpoznawać je i monitorować. Stanowi to jedno z „głównych zastosowań” również w kontekstach cywilnych, takich jak pojazdy autonomiczne. Jednak w scenariuszach wojskowych dotyczy to gromadzenia danych i konstruowania przeglądu sytuacji” – ilustruje pułkownik, wyjaśniając, że możliwość integrowania danych z ogromnej liczby czujników wbudowanych w nowoczesne systemy bojowe zwiększa wydajność dowodzenia.
ULEPSZA, DORADZA, NIE ZASTĘPUJE
Proponowanie opcji lub wskazywanie optymalnych kierunków działań dla dowódców to kolejna dziedzina zastosowań AI na polu bitwy. Dowódca może zdecydować się na wykorzystanie takich rekomendacji lub nie. „Mam nadzieję, że nigdy nie pójdziemy tą drogą” — stwierdza pułkownik. Niemniej jednak wyraża silne przekonanie co do obszaru obrony i ochrony wojsk.
„Sztuczna inteligencja może być wykorzystywana do wszystkich zadań, które są nieprzyjemne, żmudne lub niebezpieczne, takich jak rozminowywanie. Autonomiczne lub zdalnie sterowane pojazdy obsługiwane przez algorytmy AI mogą wykonywać te zadania zamiast ludzi. Roboty mogą również maskować teren, myląc wrogie pociski” — wymienia inżynier, dodając, że drony mogą być wykorzystywane do kamuflażu, co stwarza wiele wyzwań związanych z zarządzaniem znaczną liczbą małych obiektów dla naukowców. Zastosowania wojskowe obejmują logistykę, zarządzanie dostawami i analizę potrzeb zarówno personelu, jak i maszyn.
TYLKO CZŁOWIEK JEST WCIĄŻ STRZELANY
Najwyższy poziom intrygi w odniesieniu do zastosowań AI dotyczy obszaru oddziaływania, który jest kluczowy dla prowadzenia wojny. W końcu wojsko, oprócz rozpoznania, ochrony i zaopatrzenia, musi przede wszystkim skupić się na neutralizacji celów.
„Na szczęście, przynajmniej na razie, nie ma wdrożonych autonomicznych systemów śmiercionośnej broni” – komentuje płk dr inż. Kasprzyk. Pozostają jednak wątpliwości, czy tak pozostanie w przyszłości. Być może jedna ze stron konfliktu zdecyduje się na taki krok, a być może – z powodu braku komunikacji z maszyną – podejmie tę decyzję samodzielnie.
W cyberprzestrzeni (tj. w Internecie i obszarach komunikacyjnych) sztuczna inteligencja może identyfikować luki w infrastrukturze komunikacyjnej wroga. Armie mogą również wykorzystywać ją do analizowania własnych systemów w celu ich „wzmocnienia”, znajdowania i zamykania wszelkich „tylnych drzwi”, które mogłyby umożliwić dostęp wrogowi — znanych luk.
WOJNY ALGORYTMÓW
Płk dr inż. Kasprzyk wyjaśnia, że integrowanie oprogramowania na polu bitwy zwiększa możliwości, ale także poszerza powierzchnię ataku. Luki mogą czasami pojawiać się niekontrolowanie, podczas gdy w innych przypadkach inżynierowie celowo włączają tylne furtki w fazie budowy.
Sprawa algorytmów sztucznej inteligencji jest bardziej skomplikowana, zauważa ekspert. „Ponieważ nie rozumiemy w pełni najnowszych dużych modeli skonstruowanych przy użyciu, na przykład, głębokich architektur sieci neuronowych, mogą one posiadać luki, które nie są dla nas oczywiste. Mogą również pozostać nieodkryte przez przeciwników, przynajmniej początkowo. Można je jednak wyszukać i zidentyfikować za pomocą alternatywnych algorytmów uczenia maszynowego. Wprowadza to to, co można nazwać wojną maszynową” – stwierdza.
On wyjaśnił
Źródło