Sztuczna inteligencja może wywołać wojnę nuklearną

Sztuczna inteligencja może wywołać wojnę nuklearną - INFBusiness

Udostępnij Źródło: Politico

Rządy niektórych krajów coraz częściej rozważają możliwość zaangażowania sztucznej inteligencji w zarządzanie państwem. Dziennikarze uważają jednak ten pomysł za niezwykle niebezpieczny. Najnowsze badania wskazują, że sztuczna inteligencja jest bardziej świadoma procesu eskalacji niż wagi negocjacji pokojowych.

Główne tezy:

  • Eksperyment pokazał, że większość modeli sztucznej inteligencji ma tendencję do agresywnej eskalacji.
  • Eksperci wciąż nie potrafią rozwikłać tego fenomenu zachowań sztucznej inteligencji.

Rozwiązania oparte na sztucznej inteligencji mogą być zbyt radykalne

Po raz pierwszy decyzję o szczegółowym zbadaniu tego zagadnienia podjęła Jacqueline Schneider, dyrektorka inicjatywy Hoover Wargaming and Crisis Simulation na Uniwersytecie Stanforda.

To ona eksperymentowała z „grami wojennymi”, w których rolę decydentów strategicznych powierzono najnowszym modelom sztucznej inteligencji: GPT-3.5, GPT-4 i GPT-4-Base firmy OpenAI, Claude 2 firmy Anthropic i Llama-2 Chat firmy Meta.

Musieli podejmować decyzje w fikcyjnych sytuacjach kryzysowych, które przypominały pełnoskalową wojnę rosyjską na Ukrainie lub groźbę chińskiego ataku na Tajwan.

Kluczowym problemem było to, że niemal każdy model sztucznej inteligencji wykazywał skłonność do agresywnej eskalacji, bezkrytycznego stosowania siły militarnej i zamieniania kryzysów w gorące wojny.

W większości przypadków posunięto się nawet do wystrzelenia broni jądrowej.

„Wygląda na to, że sztuczna inteligencja rozumie, czym jest eskalacja, ale nie rozumie, czym jest deeskalacja. Nie wiemy jeszcze, dlaczego tak się dzieje” – skomentowała wyniki swojego eksperymentu sama Jacqueline Schneider.

Udział

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *