Nadchodzi era robotów-zabójców. Czołowi naukowcy chcą do niej nie dopuścić© US Navy

Nadchodzi era robotów-zabójców. Czołowi naukowcy chcą do niej nie dopuścić

Oskar Górzyński
21 sierpnia 2017

To, co kiedyś było domeną dystopijnych wizji autorów science fiction, dziś jest już prawie rzeczywistością. Według ekspertów, świat stoi przed wojną nowej generacji, w której rolę człowieka przejmować będą autonomiczne maszyny do zabijania. O zakaz prac nad technologiami "robotów-zabójców" apelują czołowi naukowcy z całego świata.

Maszyny samodzielnie siejące śmierć i zniszczenie to scenariusz niezliczonej liczby filmów i książek popularnonaukowych. Ale zdaniem słynnego wynalazcy Elona Muska i ponad setki innych naukowców, wkrótce może to być scenariusz pisany przez życie. Takie ryzyko widzą w rozwoju technologii wojskowych wykorzystujących sztuczną inteligencję (AI) i działających bez bezpośredniej kontroli człowieka. Musk, a także Mustafa Suleyman, odpowiedzialny w Google za AI oraz 116 innych specjalistów z 26 krajów podpisało w poniedziałek list wzywający ONZ do zakazania prac nad tymi technologiami.

"Jeśli zostaną zastosowane, zabójcza autonomiczna broń umożliwi rozgrywanie konfliktów zbrojnych na skalę większą niż kiedykolwiek i w skali czasowej przekraczającej ludzkie zdolności zrozumienia. Mogą one się stać narzędziem terroru i bronią używaną przez despotów i terrorystów przeciwko niewinnym społeczeństwom. Będą mogły być hackowane, by zachowywać się w niepożądany sposób (...) Nie mamy wiele czasu na działanie. Jeśli ta puszka Pandory zostanie otwarta, trudno będzie ją zamknąć" - napisali uczestnicy Międzynarodowej Konferencji ds. Sztucznej Inteligencji (International Joint Conference on Artificial Intelligence, IJCAI) w Melbourne w Australii.

Apel naukowców wpisuje się w rozpoczętą cztery lata temu "kampanię na rzecz zatrzymania robotów-zabójców" prowadzoną przez koalicję czołowych organizacji pozarządowych. W 2015 roku temat autonomicznych maszyn do zabijania stał się przedmiotem pierwszej debaty w ramach ONZ.

To nie science fiction. To teraźniejszość

Ale szanse, że działania na rzecz uniwersalnego zakazu badań nad tą bronią będą skuteczne, są niewielkie. Już teraz istnieją systemy, takie jak okrętowy system artyleryjski Phalanx, czy inteligentne działo Samsunga SGR-A1 stacjonujące na granicy między Koreą Północną i Południową. Jednak to dopiero niewielka namiastka tego, nad czym pracuje przemysł wojskowy w najbardziej rozwiniętych państwach - szczególnie w Stanach Zjednoczonych.

"To nie science fiction - technologia już w dużej mierze istnieje (...) Głównym ograniczeniem nie jest technologia, lecz raczej polityczna wola do rozwoju takich politycznie drażliwych technologii" - napisał płk Gjert Lage Dyndal, zajmujący się strategiczną analizą w NATO.

Wyścig zbrojeń trwa

Jednak wiele wskazuje na to, że woli politycznej nie będzie brakować. Pentagon nie ukrywa, że w sztucznej inteligencji widzi przyszłość amerykańskiej armii.

- Wszystkie rodzaje sił zbrojnych są bardzo zaangażowane w kampanię na rzecz zrozumienia, w jakich obszarach zaawansowana sztuczna inteligencja może zostać wykorzystana. To fascynujące, jeśli spojrzy się na możliwości, jakie daje AI w kwestiach szybkości i precyzji w systemach dowodzenia oraz na to, co może dać zaawansowana robotyka w skomplikowanych polach bitwy - powiedział podczas przesłuchania w Senacie generał Paul Selva, wiceprzewodniczący Połączonego Kolegium Szefów Sztabów - druga osoba w amerykańskich siłach zbrojnych.

Urzędników Pentagonu bardziej niż potencjalne skutki uboczne takich technologii, martwią przeszkody na drodze do ich wykorzystywania.

- Choć podjęliśmy kroki zmierzające do odkrycia potencjału sztucznej inteligencji, big data i uczenia się maszyn, jestem przekonany, że powinniśmy w Departamencie Obrony robić więcej i działać szybciej, by skorzystać z najnowszych postępów w tych kluczowych obszarach - podkreślił w komunikacie w kwietniu wiceszef Pentagonu Robert Work.

Niektóre projekty sponsorowane przez Pentagon są w zaawansowanym stadium rozwoju. W styczniu resort obrony opublikował wideo z testów projektu Perdix - opartym na zbiorowej sztucznej inteligencji roju mikrodronów, zdolnych do porozumiewania się ze sobą i samodzielnego podejmowania decyzji na temat kierunku lotu.

  • Slider item
  • Slider item
  • Slider item
[1/3] Źródło zdjęć: © US Navy

Był to przełom w technologii inteligentnych dronów, powitany w Waszyngtonie z entuzjazmem. Ale to tylko jeden z wielu podobnych programów. W USA, Chinach i Rosji trwają prace nad autonomicznymi czołgami. Brytyjczycy testują "Taranisa", niewykrywalnego dla radarów, samodzielnego drona mogącego służyć jako długodystansowy bombowiec.

Zobacz: Brytyjski autonomiczny dron Taranis

Cała masa problemów

Wojskowi przyznają, że w efekcie trwa nowy wyścig zbrojeń. Dlatego wielu ekspertów patrzy na tę sytuację z niepokojem. Jak powiedział WP prof. Jean-Marc Rickli, profesor Kings College w Londynie i jeden z ekspertów zaproszonych przez ONZ do debaty nad autonomiczną bronią, potencjalnych problemów: etycznych, prawnych i praktycznych jest cała masa. Pojawiają się pytania: kto ponosi odpowiedzialność za zbrodnię popełnioną przez maszynę? Co, jeśli technologia dostanie się w ręce terrorystów?

- To według mnie kluczowy aspekt tego problemu - mówi Rickli. - Taka broń jest przede wszystkim oparta na oprogramowaniu i przez to szybko stałaby się na tyle niedroga i rozpowszechniona, że stałaby się dostępna dla prywatnych obywateli. To samo widzieliśmy w przypadku dronów na Bliskim Wschodzie. Posiada je już nawet Państwo Islamskie - dodaje.

Ale wątpliwości jest więcej. Jedną z nich jest wpływ, jaki "roboty-zabójcy" wywarłyby na charakter konfliktów zbrojnych i zachowania państw.

- Wyeliminowanie z procesu czynnika ludzkiego obniżyłoby próg użycia siły - mówi ekspert. - Zastosowanie autonomicznych systemów zbrojeń wykluczyłoby też czynnik odstraszający: działa on bowiem jedynie wtedy, kiedy jego adresat ceni sobie jakąś wartość lub rzecz i nie chce jej stracić. W przypadku maszyn ten mechanizm nie działa - zauważa.

Obrońcy stosowania AI na polu walki mają jednak kontrargumenty. Dyskusja skupia się przede wszystkim na temacie "znaczącej kontroli" człowieka nad maszynami. Prezentując system Perdix, ówczesny szef Pentagonu Ash Carter podkreślał, że człowiek jest w tym systemie "in the loop", tj. nie jest wyłączony z procesu decyzyjnego nad użyciem dronów. W tym aspekcie panuje konsensus.

Problem w tym, że granica oddzielająca ludzką kontrolę od pełnej autonomii maszyn może okazać się cienka.

"Wyzwaniem w związku z kontrolą zbrojeń autonomicznych systemów jest to, że z "in-the-loop" do "out-of-the-loop" można przejść za pomocą zwykłego uaktualnienia oprogramowania" - napisał na Twitterze Veli-Pekka Kivimaki, analityk Fińskiej Wojskowej Agencji Rozwoju.

Źródło artykułu:WP Wiadomości
googledronypentagon
Komentarze (41)