Izrael používá umělou inteligenci pro vytipování cílů na bombardování. Vyvolává to etické otázky

Přidat na Seznam.cz

Umělá inteligence proniká do mnoha oborů lidské činnosti, válku nevyjímaje. Britský deník The Guardian referuje o tom, že Izrael používá pro vytipování cílů pro bombardování systém Lavender založený na umělé inteligenci.

Umělá inteligence pro Izraelce nashromáždila data o 37 000 jedincích, u nichž jsou zřejmé vazby na Hamás, píše také deník Indiatimes. Systémy strojového učení tak pomohly Izraelcům k identifikaci cílů ve válečném snažení, které trvá už 6 měsíců. Systém Lavender vyvinula elitní zpravodajská divize Izraelských obranných sil Unit 8200.
Jeden z uživatelů systému Lavender pro Guardian uvedl, že „počítač“ roli určovatele cílů pro bombardování funguje mnohem efektivněji než člověk. „V této fázi bych musel investovat alespoň 20 vteřin na prověření každého jednotlivého cíle. Člověk v této roli nemá žádnou přidanou hodnotu, jenom schvaluje, kam má dopadnout každá další bomba. Toto ušetří spoustu času.“

Neznamená to ale, že Lavender spolehlivě vyfiltruje palestinské teroristy od civilního obyvatelstva, zvláště když se lidé s napojením na Hamás často pohybují mezi běžnými obyvateli Palestiny. Několik zdrojů Guardianu popsalo, že izraelská armáda měla před každým útokem předem odhadnutý počet civilistů, kteří v důsledku bombardování mohou přijít o život. Počet očekávaných civilních obětí na jednoho člověka spojeného s teroristickým hnutím Hamás mohl dosáhnout až hodnoty 15-20.

Izraelské použití pokročilých systémů umělé inteligence ve válce s Hamásem tak vyvolává mnoho etických otázek a dilemat a je výzvou také pro odborníky na mezinárodní právo. Izraelská armáda na kritiku odpovídá, že efektivita systému dosahuje až 90 % a že i když umělá inteligence stanovuje cíle pro bombové útoky, rozhodující slovo stále má lidská kontrola.

Zdroj: The Guardian, Indiatimes