Strony

środa, 16 grudnia 2020

Guest post: Czy autonomiczna broń jest już w użyciu?

 

Na początku grudnia br. świat obiegła informacja o tym, że śmiertelny atak z 27 listopada na Mohsena Fakhrizadeha - głównego irańskiego specjalistę, który miał kierować irańskim programem atomowym, został wykonany przy użyciu autonomicznej broni.

Powyższe wydarzenie, w oparciu o doniesienia władz irańskich, zostało zakwalifikowane przez Gazetę Wyborczą jako pierwszy taki atak w historii zobacz tu . Nie dziwne więc, że świat na chwilę zamarł, zastanawiając się czy autonomiczne systemy śmiercionośnej broni (zwane również mniej dyplomatycznie killer robots, lub  LAWS, czyli lethal autonomous weapon systems zgodnie z nomenklaturą przyjęta w dyskusjach na forum  Konwencji CCW są już na tyle rozwinięte, że opuściły laboratoria i przeszły do działania.

Gdyby powyższe twierdzenia okazały się prawdziwe, byłby to rzeczywiście pierwszy znany przypadek użycia sztucznej inteligencji w celach ofensywnych (wszak należy pamiętać, że podobne, choć wciąż zautomatyzowane systemy defensywne jak np. izraelska Kipat Bar’zel [Iron Dome, Żelazna kopuła] lub amerykański Phalanx CIWS  funkcjonują już od dłuższego czasu).

Zgodnie z roboczą definicją przyjętą na forum Konwencji CCW w 2016 roku, przez LAWS należy rozumieć robotyczne systemy uzbrojenia, w których identyfikacja i wybór celów oraz inicjacja użycia siły jest dokonywana pod kontrolą agenta programowego (sztucznej inteligencji). Przy czym państwa nie są w stanie dojść do porozumienia co do tego czy bronie te już istnieją czy nie, a ich stanowiska są rozbieżne również w odniesieniu do m.in. pojęcia autonomii, wyrażonego przez odmienne rozumienie znaczącej kontroli ludzkiej (MHC, meaningful human control), bezzałogowości oraz funkcji wykonywanych w trybie autonomicznym (czy tylko funkcje krytyczne jak angażowanie celu, czy również takie jak poruszanie się czy zbieranie informacji). Pomimo, że rozmowy na temat LAWS rozpoczęły się w 2014 roku, do dzisiaj brak jest jednolitej i powszechnie przyjętej definicji tego rodzaju uzbrojenia, o negocjacji instrumentu regulującego jego rozwój lub użycie nie wspominając.

W oparciu o prace doktryny można natomiast wyodrębnić pewne kategoryzacje, które mogą ułatwić zrozumienie takich pojęć używanych w kontekście sztucznej inteligencji i broni jak: system automatyczny (automatic), zautomatyzowany (automated) i autonomiczny (autonomous). Choć bardzo często są one stosowane zamiennie, w sposób dowolny, przez co wprowadzają chaos i zaciemniają rzeczywisty obraz sytuacji. Należy zatem przyjąć, że:

1)      w przypadku systemów automatycznych przyszłe działania są możliwe do przewidzenia ze względu na brak możliwości odmiennej reakcji na dany czynnik (np. w przypadku dronów bojowych używanych w operacjach selektywnej eliminacji, przyciska się przycisk a on powoduje odpalenie konkretnego pocisku),

2)      w systemach zautomatyzowanych możliwość rodzajów działania jest zwiększona, ale jednocześnie ograniczona do rodzajów sytuacji, które zostały uprzednio zaprogramowane w sposób skończony (np. robot SGR-A1 znajdujący się na granicy pomiędzy Koreą Północną i Koreą Południową,  wspierający siły zbrojne w strefie zdemilitaryzowanej, liczba odpowiedzi na bodziec A jest większa niż jeden, ale jest przewidywalna i składa się z odpowiedzi B, C, D),

3)      w końcu w przypadku systemów autonomicznych, efekt działań jest trudny do przewidzenia, ze względu na obdarzenie systemu wysokim poziomem decyzyjności w zmiennym i złożonym środowisku (systemy te zasadniczo jeszcze nie istnieją, a przynajmniej nie zostały publicznie użyte, w ich przypadku odpowiedzi na bodziec A są nieprzewidywalne). To właśnie te ostatnie, autonomiczne systemy (LAWS) stanowią pieśń przyszłości i przedmiot kontrowersji w dyskusjach o prawnych, etycznych i politycznych konsekwencjach ich użycia (zob. prace Campaign to Stop Killer Robots ).

Wracając zatem do sytuacji z 27 listopada br. należy zastanowić się czy rzeczywiście mieliśmy do czynienia z użyciem LAWS. Biorąc pod uwagę rozbieżności w sposobie opisywania okoliczności zajścia, nie jest to prostym zadaniem. W internecie można odnaleźć relacje, które mówią o tym, że atak został przeprowadzony przez grupę zamachowców, którzy wdali się w strzelaninę z ochroniarzami Fakhrizadeha, czy też wersje powołujące się na tajemniczą broń. Przeprowadzenia analizy nie ułatwia aktualne przerzucanie się winą za dopuszczenie do tego ataku przez różne irańskie agencje, czy też wskazywanie winnego czyli odwiecznego wroga – Izraela, bez podawania szczegółów samego zajścia. Dlatego też poniżej skupiono się wyłącznie na aspekcie, który mógłby doprowadzić do stwierdzenia o użyciu LAWS.

New York Times (zobacz tu) powołuje się na irańskie stanowisko, zgodnie z którym atak został dokonany w sposób zdalny, za pomocą zautomatyzowanego karabinu maszynowego umieszczonego w zaparkowanym nieopodal samochodzie marki Nissan, którego nie obsługiwał na miejscu żaden człowiek. Zgodnie z doniesieniami miała to być broń produkcji izraelskiego koncernu Rafael Advanced Defense Systems, która używana jest przez IDF na palestyńskich terenach okupowanych od 2010 roku. Broń ta jest wyposażona w system optyczny, który służy do celowania i fotografowania, a jej nazwa w języku hebrajskim znaczy mniej więcej „widzisz-strzelasz”. Jednak jak wynika z tego opisu, broń ta nie może zostać uznana za LAWS, gdyż jest ona albo zdalnie sterowana (jak drony, przez człowieka a nie przez sztuczną inteligencję) albo jest zautomatyzowana (czyli wgrano do jej systemu konkretne koordynaty mające na celu zlikwidowanie konkretnego celu - Mohsena Fakhrizadeh’go, przy pozostawieniu jego małżonki siedzącej 25 cm dalej - żywej, a więc działanie to można by zaliczyć do selektywnej eliminacji). Oczywiście, pozostaje problem przypisania ataku jakiemukolwiek podmiotowi (państwowemu lub nie), bo o ile broń była zdalnie sterowana, a służbom irańskim nie udało się przechwycić połączenia – to sprawcy mogą pozostać nie do wykrycia. Podobnie, jeśli broń była zautomatyzowana i nie była w żaden sposób połączona z dowództwem (brak takie połączenia stanowi jeden z atutów operacyjnych tego rodzaju broni).


Z kolei, the Guardian (zobacz tu) powołuje się na wyższego rangą dowódcę irańskiego, który twierdzi, że atak został przeprowadzony w sposób zdalny, przy użyciu sztucznej inteligencji i karabinu maszynowego, kontrolowanych za pomocą inteligentnego systemu sterowanego satelitarnie. Również w tej relacji pojawia się kwestia zdalnego sterowania, a samo oparcie broni w pewnym zakresie na sztucznej inteligencji, nie świadczy o tym, że to ona właśnie „podjęła” decyzję o samym ataku. Gdyby tak było, to rzeczywiście zbliżalibyśmy się do definicji LAWS z forum Konwencji CCW. Jednak wydaje się, że bardziej prawdopodobną teorią jest ta, w której sztuczna inteligencja jest wykorzystywana do rozpoznawania twarzy, a dopiero po pozytywnym wyniku (za pewne wiadomości przesłanej do dowództwa o treści „It’s a match” albo „target confirmed”), to ludzki operator podejmuje decyzję i zdalnie, za pomocą np. systemu satelitarnego, rozpoczyna atak.

Podsumowując, należy powstrzymać się od kategorycznego oceniania sytuacji, gdyż na dzień dzisiejszy mamy jeszcze za mało sprawdzonych informacji. Pewne jest, że Mohsen Fakhrizadeh nie żyje, ale nadal nie wiemy kto przeprowadził, i w jaki sposób, ten śmiercionośny atak. Czy był on zdalnie sterowany (na co wszystko wskazuje) i zatem nie odróżniał się od dotychczasowych operacji selektywnej eliminacji (przy czym był on tym razem zrealizowany poprzez naziemną platformę bezzałogową, a nie powietrzną, znaną potocznie jako dron). Gdyby jednak przyjąć, że ów robot znajdujący się na samochodzie marki Nissan, został przetransportowany w to miejsce z pominięciem ludzkiego czynnika (wszak autonomiczne samochody to nie science-fiction), a następnie agent programowy zadecydował o wykonaniu ataku a przy okazji zastosował się do zasad targetingu (np. zasady rozróżniania) to dopiero wtedy można by postawić tezę o pierwszym zastosowaniu LAWS, i to w sposób legalny. Oczywiście przy założeniu, że na terenie Iranu toczy się konflikt zbrojny, a Pan Mohsen Fakhrizadeh stanowił cel wojskowy...


dr Kaja Kowalczewska

Brak komentarzy:

Prześlij komentarz