İşgalci İsrail ordusunun Gazze'deki saldırılarda toplu gözetleme, hedef belirleme ve sivillere yönelik operasyonlarda yapay zeka kullandığı biliniyor. "Habsora" (The Gospel), "Lavender" ve "Where is Daddy?" isimli yapay zeka sistemleri, uydu görüntüleri, iletişim verileri ve bireylerin hareketlerini analiz ederek hedef belirliyor.
Uzmanlar, yapay zekanın ayrım gözetmeden sivillerin öldürülmesine zemin hazırladığını ve işgalci İsrail ordusunun "algoritmanın kararı" bahanesiyle savaş suçlarından kaçınmaya çalıştığını ifade ediyor.
"Sivil Ölümleri Normalleştiriliyor"
Yapay zeka aracı ChatGPT’nin geliştiricisi OpenAI’ın eski sistem güvenliği mühendisi Heidy Khlaaf, AA muhabirine yaptığı açıklamada, İsrail’in istihbarattan hedef belirlemeye kadar neredeyse tüm süreçlerde yapay zeka kullandığını söyledi.
"Yanılma payı yüksek olan yapay zeka sistemleri nedeniyle Gazze’de kitlesel sivil ölümleri normalleşiyor." diyen Khlaaf, İsrail’in bu teknolojileri nasıl kullanacağına dair herhangi bir kontrol mekanizması olmadığını vurguladı.
Khlaaf, "İsrail ordusu, yapay zeka sistemlerinin belirlediği hedefleri doğrulamıyor ve bu modellerin hata oranı %25'e kadar düşebiliyor." dedi. Bu durumun, "otomatikleştirilmiş hedefleme" yoluyla sivillerin kasıtlı şekilde bombalanmasına neden olduğunu belirtti.
Teknoloji Şirketleri Suç Ortağı mı?
Khlaaf, Google, Amazon ve Microsoft’un İsrail ordusuna yapay zeka ve bulut bilişim hizmetleri sağladığını ve bu işbirliğinin Ekim 2023 sonrası daha da derinleştiğini belirtti.
"Bu şirketler, İsrail ordusunun savaş suçları işlediğini bile bile onlara yapay zeka desteği sunuyor." diyen Khlaaf, bu şirketlerin doğrudan askeri hedefleme sistemlerinin geliştirilmesine katkı sağladığını söyledi.
"Eğer bir ordu savaş suçu işliyorsa ve teknoloji şirketleri de bu süreçte ona destek veriyorsa, evet, bu onları suç ortağı yapar." ifadelerini kullandı.
Khlaaf, askeri yapay zeka sistemlerine ilişkin uluslararası hukukun yetersiz olduğunu ve bu durumun yeni bir tehdit oluşturduğunu da sözlerine ekledi.