Na początku grudnia br. świat obiegła informacja o tym, że
śmiertelny atak z 27 listopada na Mohsena Fakhrizadeha - głównego irańskiego
specjalistę, który miał kierować irańskim programem atomowym, został wykonany
przy użyciu autonomicznej broni.
Powyższe wydarzenie, w oparciu o doniesienia władz irańskich, zostało zakwalifikowane przez Gazetę Wyborczą jako pierwszy taki atak w historii zobacz tu . Nie dziwne więc, że świat na chwilę zamarł, zastanawiając się czy autonomiczne systemy śmiercionośnej broni (zwane również mniej dyplomatycznie killer robots, lub LAWS, czyli lethal autonomous weapon systems zgodnie z nomenklaturą przyjęta w dyskusjach na forum Konwencji CCW są już na tyle rozwinięte, że opuściły laboratoria i przeszły do działania.
Gdyby powyższe twierdzenia okazały się prawdziwe, byłby to
rzeczywiście pierwszy znany przypadek użycia sztucznej inteligencji w celach
ofensywnych (wszak należy pamiętać, że podobne, choć wciąż zautomatyzowane
systemy defensywne jak np. izraelska Kipat Bar’zel [Iron
Dome, Żelazna kopuła] lub amerykański Phalanx CIWS
funkcjonują już od dłuższego czasu).
Zgodnie z roboczą definicją przyjętą na forum Konwencji CCW
w 2016 roku, przez LAWS należy rozumieć robotyczne systemy uzbrojenia, w
których identyfikacja i wybór celów oraz inicjacja użycia siły jest dokonywana
pod kontrolą agenta programowego (sztucznej inteligencji). Przy czym państwa
nie są w stanie dojść do porozumienia co do tego czy bronie te już istnieją czy
nie, a ich stanowiska są rozbieżne również w odniesieniu do m.in. pojęcia autonomii,
wyrażonego przez odmienne rozumienie znaczącej kontroli ludzkiej (MHC, meaningful
human control), bezzałogowości oraz funkcji wykonywanych w trybie
autonomicznym (czy tylko funkcje krytyczne jak angażowanie celu, czy również
takie jak poruszanie się czy zbieranie informacji). Pomimo, że rozmowy na temat
LAWS rozpoczęły się w 2014 roku, do dzisiaj brak jest jednolitej i powszechnie
przyjętej definicji tego rodzaju uzbrojenia, o negocjacji instrumentu
regulującego jego rozwój lub użycie nie wspominając.
W oparciu o prace doktryny można natomiast wyodrębnić pewne
kategoryzacje, które mogą ułatwić zrozumienie takich pojęć używanych w
kontekście sztucznej inteligencji i broni jak: system automatyczny (automatic),
zautomatyzowany (automated) i autonomiczny (autonomous). Choć
bardzo często są one stosowane zamiennie, w sposób dowolny, przez co
wprowadzają chaos i zaciemniają rzeczywisty obraz sytuacji. Należy zatem
przyjąć, że:
1) w przypadku systemów automatycznych przyszłe
działania są możliwe do przewidzenia ze względu na brak możliwości odmiennej
reakcji na dany czynnik (np. w przypadku dronów bojowych używanych w operacjach
selektywnej eliminacji, przyciska się przycisk a on powoduje odpalenie
konkretnego pocisku),
2) w systemach zautomatyzowanych możliwość rodzajów
działania jest zwiększona, ale jednocześnie ograniczona do rodzajów sytuacji,
które zostały uprzednio zaprogramowane w sposób skończony (np. robot SGR-A1
znajdujący się na granicy pomiędzy Koreą Północną i Koreą Południową, wspierający siły zbrojne w strefie
zdemilitaryzowanej, liczba odpowiedzi na bodziec A jest większa niż jeden, ale
jest przewidywalna i składa się z odpowiedzi B, C, D),
3) w końcu w przypadku systemów autonomicznych,
efekt działań jest trudny do przewidzenia, ze względu na obdarzenie systemu
wysokim poziomem decyzyjności w zmiennym i złożonym środowisku (systemy te
zasadniczo jeszcze nie istnieją, a przynajmniej nie zostały publicznie użyte, w
ich przypadku odpowiedzi na bodziec A są nieprzewidywalne). To właśnie te
ostatnie, autonomiczne systemy (LAWS) stanowią pieśń przyszłości i przedmiot
kontrowersji w dyskusjach o prawnych, etycznych i politycznych konsekwencjach
ich użycia (zob. prace Campaign to Stop Killer Robots
).
Wracając zatem do sytuacji z 27 listopada br. należy
zastanowić się czy rzeczywiście mieliśmy do czynienia z użyciem LAWS. Biorąc
pod uwagę rozbieżności w sposobie opisywania okoliczności zajścia, nie jest to
prostym zadaniem. W internecie można odnaleźć relacje, które mówią o tym, że
atak został przeprowadzony przez grupę zamachowców, którzy wdali się w
strzelaninę z ochroniarzami Fakhrizadeha, czy też wersje powołujące się na
tajemniczą broń. Przeprowadzenia analizy nie ułatwia aktualne przerzucanie się
winą za dopuszczenie do tego ataku przez różne irańskie agencje, czy też
wskazywanie winnego czyli odwiecznego wroga – Izraela, bez podawania szczegółów
samego zajścia. Dlatego też poniżej skupiono się wyłącznie na aspekcie, który
mógłby doprowadzić do stwierdzenia o użyciu LAWS.
New York Times (zobacz tu)
powołuje się na irańskie stanowisko, zgodnie z którym atak został dokonany w
sposób zdalny, za pomocą zautomatyzowanego karabinu maszynowego umieszczonego w
zaparkowanym nieopodal samochodzie marki Nissan, którego nie obsługiwał na
miejscu żaden człowiek. Zgodnie z doniesieniami miała to być broń produkcji
izraelskiego koncernu Rafael Advanced Defense Systems, która używana jest przez
IDF na palestyńskich terenach okupowanych od 2010 roku. Broń ta jest wyposażona
w system optyczny, który służy do celowania i fotografowania, a jej nazwa w
języku hebrajskim znaczy mniej więcej „widzisz-strzelasz”. Jednak jak wynika z
tego opisu, broń ta nie może zostać uznana za LAWS, gdyż jest ona albo zdalnie
sterowana (jak drony, przez człowieka a nie przez sztuczną inteligencję) albo jest
zautomatyzowana (czyli wgrano do jej systemu konkretne koordynaty mające na
celu zlikwidowanie konkretnego celu - Mohsena Fakhrizadeh’go, przy
pozostawieniu jego małżonki siedzącej 25 cm dalej - żywej, a więc działanie to
można by zaliczyć do selektywnej eliminacji). Oczywiście, pozostaje problem
przypisania ataku jakiemukolwiek podmiotowi (państwowemu lub nie), bo o ile
broń była zdalnie sterowana, a służbom irańskim nie udało się przechwycić
połączenia – to sprawcy mogą pozostać nie do wykrycia. Podobnie, jeśli broń
była zautomatyzowana i nie była w żaden sposób połączona z dowództwem (brak
takie połączenia stanowi jeden z atutów operacyjnych tego rodzaju broni).
Podsumowując, należy powstrzymać się od kategorycznego
oceniania sytuacji, gdyż na dzień dzisiejszy mamy jeszcze za mało sprawdzonych
informacji. Pewne jest, że Mohsen Fakhrizadeh nie żyje, ale nadal nie wiemy kto
przeprowadził, i w jaki sposób, ten śmiercionośny atak. Czy był on zdalnie
sterowany (na co wszystko wskazuje) i zatem nie odróżniał się od
dotychczasowych operacji selektywnej eliminacji (przy czym był on tym razem zrealizowany
poprzez naziemną platformę bezzałogową, a nie powietrzną, znaną potocznie jako
dron). Gdyby jednak przyjąć, że ów robot znajdujący się na samochodzie marki
Nissan, został przetransportowany w to miejsce z pominięciem ludzkiego czynnika
(wszak autonomiczne samochody to nie science-fiction), a następnie agent
programowy zadecydował o wykonaniu ataku a przy okazji zastosował się do zasad
targetingu (np. zasady rozróżniania) to dopiero wtedy można by postawić tezę o
pierwszym zastosowaniu LAWS, i to w sposób legalny. Oczywiście przy założeniu,
że na terenie Iranu toczy się konflikt zbrojny, a Pan Mohsen Fakhrizadeh
stanowił cel wojskowy...
dr Kaja Kowalczewska
Brak komentarzy:
Prześlij komentarz