Łukasz Maziewski
Łukasz Maziewski| 
aktualizacja 

AI zabiło Polaka? "Lawenda" ujawniona. "To byłby strzał w stopę"

Kilka dni po uderzeniu drona na konwój z pomocą humanitarną w Strefie Gazy doszło do bardzo zastanawiającego wycieku. Portal +972 Magazine ujawnił istnienie supernowoczesnego systemu, opartego na sztucznej inteligencji, którego mają używać Izraelczycy. To informacja szczególnie ciekawa w obliczu śmierci wolontariuszy w Gazie.

AI zabiło Polaka? "Lawenda" ujawniona. "To byłby strzał w stopę"
W ataku drona na konwój humanitarny zginęło siedem osób. Na zdjęciu: Hermes-450 (Materiały prasowe, Elbit Systems)

Nieznany wcześniej system nosi kryptonim "Lawenda". Ma to być niezwykle zaawansowany, wykorzystujący algorytmy sztucznej inteligencji system namierzania celów i kierowania uderzeniami kinetycznymi.

System ma być złożony i wykorzystywany we współpracy z innymi, równie nowoczesnymi narzędziami. Ale nie jest wolny od popełniania błędów, niedopuszczalnych z perspektywy prawa międzynarodowego. Jedną z najważniejszych zasad jest "nie uderzać w ludność cywilną". W przypadku systemów izraelskich wydaje się być - zgodnie z tym, co opisuje portal - dokładnie odwrotnie.

Portal +972 Magazine, powołując się na swoje źródła, opisuje, że w wyniku działań technologii ginęli cywile. Systemy miały być wręcz celowo nakierowane na uderzenia w domy bojowników Hamasu, kiedy terroryści odwiedzali swoje rodziny lub wracali do domów na odpoczynek.

Dalsza część artykułu pod materiałem wideo

Zobacz także: Atak nożownika w Izraelu. Policja opublikowała nagranie z palestyńskim napastnikiem

Izraelczycy uderzają w Hamas

Portal, powołując się na doniesienia swoich informatorów, twierdzi, że w pierwszych dniach ataku odwetowego Izraela na Gazę izraelska armia dopuszczała możliwość 15-20 ofiar cywilnych. To "koszt" celnego uderzenia w bojownika Hamasu. Przynajmniej niskiego szczebla. Jeśli celem był ktoś wysoki rangą, Izraelczycy mieli dopuszczać możliwość śmierci w ataku nawet do 100 osób cywilnych.

Portal podaje, że potem Izraelczycy poszli o krok dalej. Jako "cele" oznaczono aż 37 tys. (!) Palestyńczyków. Za fizyczną eliminację wielu, szczególnie niższych rangą, odpowiadać miała właśnie sztuczna inteligencja.

Budzi to niemal automatycznie pytania o atak, w którym zginął polski wolontariusz Damian Soból. Pochodzący z Przemyśla Polak został zabity w ataku izraelskiej armii w niedzielę. Konwój organizacji World Central Kitchen został kilkakrotnie ostrzelany w Strefie Gazy.

W ataku zginęło łącznie siedem osób. Do tragedii doszło w trakcie misji dostarczania przez pracowników pomocy żywnościowej, która przybyła do Strefy Gazy kilka godzin wcześniej statkiem z Cypru.

Co na to prawo?

Informacje podane przez portal są bardzo precyzyjne. Dość, by mieć wrażenie, że jest to kontrolowany przeciek, mający na celu ujawnienie istnienia systemu "Lawenda" i jemu podobnych. Ekspert w zakresie międzynarodowego prawa humanitarnego konfliktów zbrojnych (MPHKZ) komandor Wiesław Goździewicz ocenia jednak, że był to realny przeciek. Zrzucenie, jak mówi, odpowiedzialności za taki atak na maszynę byłby dla Izraela "strzałem w stopę i kolano".

Mogłoby to wskazywać na łamanie przez Izrael podstawowych zasad MPHKZ, zwłaszcza zasady rozróżnienia - mówi prawnik.

Chodzi o jedną z pięciu zasad naczelnych MPHKZ. To obowiązek rozróżnienia między kombatantami i cywilami, obiektami wojskowymi i cywilnymi oraz kierowania ataków wyłącznie przeciwko celom wojskowym (w tym kombatantom).

Można byłoby w przypadku tego, co opisuje portal, mówić o złamaniu zasady proporcjonalności. Mówi ona, że zabronione są ataki, co do których można przypuszczać, że wywołają niezamierzone straty, nadmierne w porównaniu z oczekiwaną konkretną i bezpośrednią korzyścią wojskową.

Warto jednak pamiętać też to, o czym pisał Goździewicz w opracowaniu dla portalu Zła Ambasada. Postawił on wtedy następujące pytanie: uznajmy, że opracowaliśmy sztuczną inteligencję (AI). W pełni wykształcony, świadomy byt. Takie AI implementujemy do drona, który np. odpala pocisk Hellfire na zapełnioną cywilami wieś w Sudanie. Kto odpowie za ewentualne konsekwencje stanowiące zbrodnię wojenną?

Twórca systemu, osoba, która zdecydowała o jego wdrożeniu, dowódca, który podjął decyzję o użyciu. Poza tym AI to nie autokreacja. To twór człowieka. Więc to człowiek odpowiada za jej użycie - brzmi odpowiedź Goździewicza.

Sprawcą zabójstwa z użyciem broni palnej jest człowiek, a nie pistolet, przypomina oficer. I stąd dążenie do zapewnienia mechanizmów gwarantujących odpowiedzialność twórców/decydentów/dowódców za użytkowanie danego rodzaju uzbrojenia. Nawet jeśli więc za ataki na ludność cywilną w Strefie Gazy odpowiedzialne były systemy komputerowe, to ich twórcy mogą odpowiadać za popełnienie zbrodni wojennych.

Podobnie jest w przypadku ataku na konwój humanitarny sprzed kilku dni. Jak mówi Goździewicz, jeśli atak okaże się nieuzasadnionym użyciem broni, zakończonym śmiercią cywilów, to sprawców ataku powinno się osądzić za zbrodnię wojenną.

Łukasz Maziewski, dziennikarz o2.pl

Oceń jakość naszego artykułu:

Twoja opinia pozwala nam tworzyć lepsze treści.

Zobacz także:
Oferty dla Ciebie
Wystąpił problem z wyświetleniem stronyKliknij tutaj, aby wyświetlić