Cuma, Temmuz 4


Siyaset, Ekonomi ve Toplum Araştırmaları Vakfı (SETA), İsrail’in Gazze’de yürüttüğü saldırıda yapay zeka kullanımını mercek altına aldığı yeni analizinde, saldırıların doğasının tamamen değiştiğini ortaya koyuyor.


“Deadly Algorithms: Destructive Role of Artificial Intelligence in Gaza War” başlıklı rapor, savaş alanında kararların artık insanlar yerine makineler tarafından verildiğini ve bunun ciddi insani ve hukuki sonuçlara yol açtığını ortaya koyuyor.


Rapora göre eli kanlı İsrail ordusu, özellikle 7 Ekim 2023 sonrası Gazze saldırılarında Lavender ve Habsora isimli yapay zeka sistemlerini yaygın şekilde kullanmaya başladı. Bu sistemler, hedef seçiminden saldırı onayına kadar sürecin büyük kısmını otomatik hale getiriyor.


“Lavender” 20 saniyede hedef belirleyip saldırı izni verebiliyor. Ancak sistemin sivilleri savaşçı olarak etiketlediği, hatta çoğu saldırının insan gözetimi olmadan gerçekleştiği öne sürülüyor.


Örneğin, 7 Temmuz 2024’te Nuseyrat’taki BM okuluna düzenlenen saldırıda 23 kişi hayatını kaybetti, 80’den fazla kişi yaralandı. İsrail, ölenlerden yalnızca sekizinin Hamas üyesi olduğunu iddia etti.


İsrail ordusu içinden kaynaklara dayanan bilgilere göre, sistemin hedef aldığı düşük düzeydeki kişiler için “çöp” ifadesi kullanılıyor ve saldırılarda kadın ve çocukların öleceği baştan kabul ediliyor.


Raporda, İsrail’in “Where’s Daddy?” gibi yazılımlarla hedef kişilerin evlerine döndüğü anı tespit edip saldırı başlattığı belirtiliyor. Bu tür sistemlerle sivil ölümlerin sayısının arttığı ve maksimum 20 sivil kayba izin veren algoritmik “hasar eşiği” uygulandığı ifade ediliyor.


Soykırımcı İsrail’in yalnızca saldırı değil, gözetim alanında da yapay zekayı kapsamlı şekilde kullandığına dikkat çekilen raporda; Blue Wolf, Red Wolf ve Wolf Pack sistemleriyle Filistinlilerin yüz tanıma verilerinin toplandığı, şehirlerin dijital hapishanelere dönüştüğü aktarılıyor.


Yapay zeka destekli insansız hava araçlarının, günlük rutinden sapmaları “şüpheli davranış” olarak algılayıp hedef göstermesi ise sivillerin sürekli bir tehdit altında yaşamasına neden oluyor.


Uluslararası hukuk yetersiz


Rapor, bu sistemlerin en büyük sorunlarından birinin hesap verilebilirlik boşluğu olduğuna dikkat çekiyor. Saldırıların arkasında yazılım mühendisleri mi, komutanlar mı, yoksa yapay zeka mı sorumludur, sorusu cevapsız kalıyor. Mevcut uluslararası savaş hukuku, bu tür teknolojileri düzenlemekte yetersiz kalıyor.


SETA raporu, tam otonom silahların yasaklanması, yapay zeka tabanlı sistemlerin denetlenebilirliğinin sağlanması ve savaşta nihai kararların insanlara ait olması için uluslararası toplumun acilen harekete geçmesi gerektiğini vurguluyor.


Mazlum Gazze, savaş teknolojilerinin test alanına dönüştü. Ancak bu testin bedelini en çok siviller ödüyor.

Paylaşmak
Exit mobile version