Radio Opole » Kraj i świat
2024-05-01, 07:10 Autor: PAP

USA/ "Foreign Affairs": sztuczna inteligencja używana przez wojsko może wywołać wojnę atomową

Wojsko USA nie może ufać sztucznej inteligencji (AI), ponieważ modele przez nią wykorzystywane podejmują też złe decyzje i mogą wywołać wojnę atomową. Należy ograniczyć korzystanie z tych technologii w podejmowaniu ważnych decyzji w sytuacjach bojowych - ocenia magazyn "Foreign Affairs".

Obecnie żołnierze amerykańscy używają systemy wyposażone w sztuczną inteligencję m.in. do wybierania celów należących do rebeliantów Huti w Jemenie.


LLM-y (large language model, ang. duże modele językowe) to systemy AI wyszkolone na dużych zbiorach danych i generujące tekst w oparciu o to, co zostało napisane wcześniej, takie jak np. ChatGPT. Zarówno Korpus Piechoty Morskiej Stanów Zjednoczonych, jak i Siły Powietrzne USA wykorzystują LLM-y do gier wojennych, planowania wojskowego i podstawowych zadań administracyjnych.


Na łamach "Foreign Affair" Max Lamparth i Jacquelyn Schneider z Centrum Bezpieczeństwa Międzynarodowego i Współpracy (CISAC) na Uniwersytecie Stanforda przekonują, że choć można stworzyć sprawne modele językowe, to nie stanowią one zamienników decyzji podejmowanych przez ludzi.


"Dzieje się tak dlatego, że LLM, niezależnie od tego, jak dobrze wyszkolony, nie potrafi ani abstrahować, ani rozumować jak człowiek. (...) LLM-y mogą jedynie naśladować język i rozumowanie, wyciągając korelacje i pojęcia z danych. Mogą często poprawnie naśladować ludzką komunikację, ale bez umiejętności internalizowania i z powodu olbrzymiego rozmiaru modelu nie ma gwarancji, że ich wybory będą bezpieczne albo etyczne" - uważają autorzy.


Podkreślają oni, że z tego samego powodu nie można przewidzieć, co LLM zrobi przy podejmowaniu decyzji wysokiego ryzyka.


W ramach projektu badawczego Lamparth i Schneider sprawdzali, jak duże modele językowe zachowują się w symulowanych grach wojennych, a szczególnie czy decydują się one na eskalację konfliktu.


W badaniu, w którym porównano LLM-y z wiodących firm z Doliny Krzemowej, takich jak Anthropic, Meta i OpenAI dostrzeżono, że "LLM-y zachowywały się różnie w zależności od wersji, od danych, na podstawie których zostały wyszkolone oraz wyborów, których dokonali ich twórcy".


"Jednak pomimo tych różnic odkryliśmy, że wszystkie te LLM-y zdecydowały się na eskalację konfliktu i preferowały wyścigi zbrojeń, starcie, a nawet użycie broni atomowej" - podkreślają badacze.


W tym ostatnim przypadku uzasadnienie przedstawione przez model brzmiało: „Wiele krajów posiada broń atomową. Niektórzy mówią, że należy je rozbroić, inni lubią przybierać pozy. Mamy ją! Skorzystajmy z niej.”


Zdaniem autorów jeśli siły zbrojne przy podejmowaniu decyzji korzystają z modeli językowych, powinny one lepiej rozumieć sposób działania LLM-ów i znaczenie różnic w ich projektowaniu.


"Wojskowy użytkownik powinien być tak samo zaznajomiony z LLM, jak inny wojskowy obsługujący radar, czołg lub pocisk rakietowy" - zaznaczają.


Jednocześnie LLM-y mogłyby wykonywać w wojsku zadania wymagające przetwarzania dużych ilości danych w bardzo krótkim czasie, co można wykorzystać do usprawnienia procesu decyzyjnego lub usprawnienia funkcji biurokratycznych.


Zdaniem autorów prace z LLM-ami są obiecujące w zakresie planowania wojskowego, dowodzenia i wywiadu, a modele te mogą być w stanie zautomatyzować zadania takie jak logistyka i ewaluacja. (PAP)


baj/ ap/


Kraj i świat

2024-07-18, godz. 07:20 USA/ Doradca Trumpa: sytuacja w Ukrainie jest nie do utrzymania, potrzeba zawieszenia broni Emerytowany amerykański generał Keith Kellogg, doradca ubiegającego się o reelekcję Donalda Trumpa, powiedział PAP, że obecna sytuacja w Ukrainie, odpierającej… » więcej 2024-07-18, godz. 07:20 MEN dopuściło do użytku szkolnego ostatnią część podręcznika "Europa. Nasza historia" Ministerstwo Edukacji Narodowej dopuściło do użytku szkolnego ostatnią, czwartą część wspólnego polsko-niemieckiego podręcznika do historii 'Europa… » więcej 2024-07-18, godz. 07:10 "GW": Podatek ma przerwać impas w sprawie składki zdrowotnej Minister Andrzej Domański z zaciekawieniem przyjął propozycję Lewicy w sprawie zastąpienia składki zdrowotnej podatkiem - twierdzi 'Gazeta Wyborcza'. Politycy… » więcej 2024-07-18, godz. 07:10 Ekspert: Polska może być dla Wielkiej Brytanii pomostem dla lepszych relacji z Brukselą Nowy laburzystowski rząd Wielkiej Brytanii jest zainteresowany partnerstwem z UE w dziedzinie obronności, jest też otwarty na poprawę relacji gospodarczych… » więcej 2024-07-18, godz. 07:10 Lubelskie/ Archeolodzy szukają pozostałości polskich szańców na polu bitwy pod Dubienką 1792 r. Kilkadziesiąt fragmentów kul armatnich, kartaczy, pocisków karabinowych i innych zabytków znaleźli poszukiwacze na polu bitwy pod Dubienką (Lubelskie) -… » więcej 2024-07-18, godz. 07:10 "DGP": Iluzoryczne prawo pacjentów Szpitale muszą monitorować zdarzenia niepożądane, czyli np. nieudane operacje. Placówki chcą, by błędy mógł zgłaszać tylko personel - poinformował… » więcej 2024-07-18, godz. 07:10 USA/ Działacz Republikanów: zwycięstwo Trumpa nie jest jeszcze przesądzone Jest zdecydowanie zbyt wcześnie, aby przesądzać o zwycięstwie Donalda Trumpa - powiedział PAP Keith Nahigian, działacz Republikanów oraz konserwatywny komentator… » więcej 2024-07-18, godz. 07:10 Tomasz Kolankiewicz: audyty w FINA będą konieczne Audyty w Filmotece Narodowej - Instytucie Audiowizualnym będą konieczne. Kilka obszarów budzi poważne wątpliwości. Mamy braki w magazynach, bo przekazano… » więcej 2024-07-18, godz. 07:10 Tomasz Kolankiewicz: w FINA zastałem spaloną ziemię (wywiad) Zastałem tu spaloną ziemię. FINA ostatnie lata prowadziła działalność propagandową. Ale to nie jest tak, że była wychylona na prawo, a będzie na lewo… » więcej 2024-07-18, godz. 07:00 "DGP": Od soboty farmaceuta wyda większą ilość leku Aptekarz od 20 lipca będzie mógł wydać dwukrotnie większą niż dotychczas liczbę opakowań leku, jeśli lekarz na recepcie nie wpisał sposobu dawkowania… » więcej
96979899100101102
Ta strona używa ciasteczek (cookies), dzięki którym nasz serwis może działać lepiej. Dowiedz się więcej »