Debata ONZ nad "robotami-zabójcami". Zakazu nie będzie
Kto poniesie odpowiedzialność, jeśli w pełni zautomatyzowany dron zabije niewinną osobę? Co zrobić, jeśli "robot-zabójca" dostanie się w ręce terrorystów? Czy dopuszczenie do tego, by maszyna autonomicznie podejmowała decyzję o ludzkim życiu jest moralnie dopuszczalne? Te pytania brzmią jak dylematy wyjęte z filmu science-fiction, ale są już przedmiotem poważnej debaty państw i ekspertów. Mimo alarmów organizacji pozarządowych zakaz budowy i stosowania autonomicznych systemów uzbrojenia jest jednak mało prawdopodobny.
13.04.2015 | aktual.: 13.04.2015 17:14
- Zabijanie ludzi przez samodzielne maszyny nie jest odległą przyszłością - powiedział chiński przedstawiciel ONZ w Genewie, gdzie od poniedziałku trwa pięciodniowa konferencja poświęcona w całości kwestii Autonomicznych Śmiercionośnych Systemów Uzbrojenia (LAWS), zwanych kolokwialnie "robotami-zabójcami".
Słowa chińskiego dyplomaty, choć brzmią jak apokaliptyczna wizja rodem z filmów o Terminatorze, nie są przesadą. Już teraz istnieją systemy broni, które automatycznie i bez udziału człowieka podejmują decyzję o otwarciu ognia. Jednym z nich jest stosowany na okrętach i w bazach wojskowych amerykański system Phalanx, który wykrywa nadchodzące pociski i natychmiast zwraca ogień. Na podstawie podobnych mechanizmów działają też systemy przechwytujące pociski i "tarcze antyrakietowe". I choć samodzielna broń ofensywna tego typu jeszcze nie istnieje, to nie jest tajemnicą, że wiele państw prowadzi badania w tym zakresie. Eksperci szacują, że pierwsze w dużej mierze autonomiczne drony mogą wejść do użytku w ciągu 10-15 lat.
Perspektywa możliwości użycia maszyn, które samodzielnie identyfikowałyby i zabijały ludzi wywołuje cały szereg problemów, od kwestii etycznych po prawne.
- W przypadku błędu "inteligentnej" maszyny lub zabicia przez nią cywili, stwierdzenie odpowiedzialności prawnej za ten czyn byłoby praktycznie niemożliwe. A to oznacza brak czynnika powstrzymującego przyszłe zbrodnie, brak sprawiedliwości dla ofiar i brak potępienia dla strony odpowiedzialnej. Nie mówiąc już o tym, czy etyczne jest podejmowanie decyzji o życiu i śmierci przez maszyny - powiedziała podczas konferencji w Genewie Bonnie Docherty z organizacji Human Rights Watch.
Roboty się nie boją
Dylematy moralne i prawne bledną jednak wobec tego, jakie konsekwencje mogłyby mieć istnienie robotów-zabójców dla światowego bezpieczeństwa. Zdaniem ekspertów, świat w którym w walce stosowanoby śmiercionośne roboty byłby dużo mniej bezpieczny, a konflikty bardziej powszechne.
- Wyeliminowanie z procesu czynnika ludzkiego obniżyłoby próg użycia siły - mówi w rozmowie z WP dr Jean-Marc Rickli, profesor Kings College, jeden z ekspertów biorących udział w konferencji ONZ. - Zastosowanie autonomicznych systemów zbrojeń wykluczyłoby też czynnik odstraszający: działa on bowiem jedynie wtedy, kiedy jego adresat ceni sobie jakąś wartość lub rzecz i nie chce jej stracić. W przypadku maszyn ten mechanizm nie działa - zauważa.
Jeszcze większym problemem jest perspektywa rozprzestrzeniania się inteligentnej broni i jej użycia przez organizacje terrorystyczne lub innych aktorów niepaństwowych. Zdaniem Rickliego, nową technologię szybko spotkałby bowiem los taki jak drony czy drukarki 3D, które w krótkim czasie stały się powszechne, tanie i łatwe do zdobycia dla przeciętnego człowieka.
- To według mnie kluczowy aspekt tego problemu. Taka broń jest przede wszystkim oparta na oprogramowaniu i przez to szybko stałaby się na tyle niedroga i rozpowszechniona, że stałaby się dostępna dla prywatnych obywateli. To samo widzieliśmy w przypadku dronów na Bliskim Wschodzie. Posiada je już nawet Państwo Islamskie - mówi profesor.
To jednak nie koniec obaw związanych z nadejściem "robotów zabójców". Eksperci wskazują m.in. na zagrożenie, jakie stanowiłby atak hakerski na taką maszynę, a także na możliwość popełniania przez nie błędów, które mogłyby skutkować nawet wywołaniem wojny.
Bez szans na zakaz
- To wszystko pokazuje, dlaczego powinniśmy wprowadzić zakaz - apelowała Docherty. Jej apel popiera szereg organizacji pozarządowych. Zwolennicy "prewencyjnego zakazu" inteligentnej broni wskazują na precedens ustanowiony przez dodanie do katalogu "Konwencji ONZ o zakazie lub ograniczeniu użycia pewnych rodzajów broni" oślepiającej broni laserowej w 1980 roku - a więc przed wprowadzeniem ich do użytku. W przypadku LAWS, powtórzenie takiego zabiegu jest jednak mało prawdopodobne. Spośród państw, które brały udział w dyskusji na forum ONZ, jedynie Kuba opowiedziała się wyraźnie za całkowitym zakazem stosowania autonomicznej broni.
- Pozycja Korei, Japonii czy USA, a więc krajów zaangażowanych w rozwój robotyki i sztucznej inteligencji, jest tu dużo bardziej zniuansowana - mówi Rickli.
Postulaty zdecydowanej większości państw są bardziej ograniczone i skupiają się głównie na koncepcji "znaczącej kontroli" nad maszynami - tj. takiej, by człowiek był zaangażowany w proces decyzyjny użycia broni - i to do niego należała ostateczna decyzja co do celu i czasu pociągnięcia za spust.
Zdaniem niektórych ekspertów, jeśli warunek ten zostanie zachowany, rozwój technologii "robotów-zabójców" może się nawet przyczynić do ograniczenia liczby ofiar cywilnych.
- Pytanie brzmi: czy te systemy będą bardziej precyzyjne od ludzi. Jeśli będziemy mieli taką pewność, to ich niestosowanie byłoby wręcz nieetyczne - powiedziała Elizabeth Quintana, ekspertka brytyjskiego instytutu RUSI.