ABD ve siyonistlerin İran saldırılarında kullandığı yapay zeka, uluslararası hukukta tartışma yarattı

ABD ve siyonist rejimin İran'a yönelik saldırılarda kullandığı yapay zeka modeli, hedef belirleme ve saldırı kararlarının alınmasında insan denetiminin azalması ile sivillerin korunmasına ilişkin tartışmaları gündeme taşıdı.

ABD'nin, İran'da saldırı planlamasında, ABD merkezli teknoloji şirketi Anthropic'in istihbarat analizi yapabilen ve karar verme sürecini hızlandıran "Claude" adlı yapay zeka modelini kullandığı basına yansıdı.

Claude gibi yapay zeka destekli sistemler, insansız hava aracı görüntüleri, iletişim dinlemeleri ve insan istihbaratı gibi farklı kaynaklardan gelen büyük miktardaki veriyi hızla analiz ederek potansiyel hedefleri belirleyebiliyor ve saldırı seçenekleri oluşturabiliyor.

Bu teknoloji, çatışma sırasında hedef tespiti, hukuki değerlendirme ve saldırı kararları arasındaki süreci hızlandırarak "öldürme zinciri" olarak adlandırılan hedefleme süresini önemli ölçüde kısaltıyor.

ABD ve işgalci İsrail'in, İran'a yönelik saldırılarda yapay zeka modellerini kullanması, bu teknolojilerin çatışmalardaki rolü ve uluslararası hukuk açısından doğurduğu riskleri yeniden gündeme getirdi.

Yapay zeka destekli hedefleme öldürme zincirini kısaltıyor

Kanada'nın Ontario eyaletinin Toronto kentinde yer alan York Üniversitesinde Uluslararası Hukuk Profesörü Heidi Matthews, yapay zekanın, çatışmalarda oynadığı rolü ve bunun uluslararası hukuk açısından doğurduğu riskleri basına değerlendirdi.

Matthews, yapay zekanın askeri operasyonlarda hedef belirleme süreçlerinde kullanılmasının uluslararası hukuk ve insan hakları çevrelerinde uzun süredir ciddi endişelere yol açtığını belirtti.

Uluslararası insancıl hukukta tarafların, siviller ile savaşan unsurlar arasında açık bir ayrım yapmak zorunda olduğunu vurgulayan Matthews, hedef belirleme süreçlerinde doğrulama, önlem alma ve sivillere saldırı öncesinde kaçabilmeleri için yeterli süre tanınması gibi kuralların bulunduğunu dile getirdi.

Matthews, "Yapay zeka ile gördüğümüz şey şu; makinelerin hedef belirleme kararlarının alınmasında sadece yoğun şekilde rol oynamakla kalmayıp, insan unsurunu tamamen ortadan kaldırmasa da çok güçlü bir şekilde ortadan kaldırdığı... Yaptıkları şey, hedef belirleme, önceliklendirme ve saldırı arasındaki süreyi kısaltmak. Bu, bazen çirkin bir ifadeyle 'öldürme zincirini kısaltmak' olarak adlandırılıyor." ifadelerini kullandı.

Bu sayede hedeflemenin daha hızlı hale geldiğini belirten Matthews, bu durumun askeri açıdan avantaj sağlasa da siviller ve hukuki sorumluluklar açısından riskler doğurabileceğini aktardı.

Matthews, karar alma süreçlerinde insan unsurunun giderek azalmasının, orantılılık ve hedef doğrulama gibi hukuki gerekliliklere uymayı zorlaştırabileceğini ve bu durumun sivillerin daha fazla zarar görmesine yol açabileceğini dile getirdi.

Yapay zeka destekli hedeflemenin İran'da kullanımı

Matthews, İran'da sivillerin hayatını kaybettiği bazı saldırılarda yapay zekanın hedefleme süreçlerinde rol oynamış olabileceğine ilişkin endişelere dikkati çekti.

ABD ve işgalci İsrail'in, İran'a yönelik saldırılarında da yapay zeka tabanlı sistemlerin hedef belirleme süreçlerinde kullanıldığına ilişkin haberler bulunduğunu hatırlatan Matthews, söz konusu saldırılarda yapay zekanın rolünün olup olmadığının araştırılması gerektiğini vurguladı.

Matthews, "Yapay zeka araçlarının, ABD tarafından İran'da hedef belirleme ve önceliklendirme amacıyla da yaygın olarak kullanıldığını biliyoruz. Bu da bize, 150'den fazla kişinin öldüğü ve 100'den fazla kişinin yaralandığı Minab'daki kız ilköğretim okuluna yapılan saldırıya yapay zekanın katkıda bulunmuş olabileceğinden şüphelenmemiz için neden veriyor." diye konuştu.

Konuya ilişkin soruşturmaların sonuçlanmasını ve daha fazla bilginin açıklanmasını beklediğini aktaran Matthews "Yapay zeka ve hedef belirleme konusunda bildiklerimiz, başarısızlık oranı ve bu makinelerin hata yapma olasılığı göz önüne alındığında, bu trajik olayda yapay zekanın rol oynayıp oynamadığı ve ne ölçüde rol oynadığı konusunda gerçekten keskin sorular sormak için ciddi nedenler olduğunu düşünüyorum." değerlendirmesinde bulundu.

Matthews, hedef belirleme ve önceliklendirme süreçlerinde yapay zekanın yaygın kullanımının sivil hastanelerin yanlış tanımlanması gibi riskler doğurabileceğini belirterek, böylece kararların ciddi hatalara açık hale geldiğinin altını çizdi.

Yapay zeka destekli hedeflemenin Gazze'de kullanımı

Matthews, "Uluslararası hukuk ve insan hakları toplulukları, özellikle İsrail ordusu tarafından Gazze'de hedef belirleme ve önceliklendirme konusunda yapay zekanın kullanımının büyük ölçüde artması konusunda raporlar yayımlıyor ve eleştirilerde bulunuyor." dedi.

İşgalci İsrail ordusunun, Gazze'de hedef tespiti ve önceliklendirmede "Lavender" ve "Where's Daddy" gibi yapay zeka sistemlerini yoğun biçimde kullandığını hatırlatan Matthews, söz konusu sistemlerin "savaşan unsurları tespit etmek ve evlerine girdiklerinde onları hedef almak için" tasarlandığını kaydetti.

Matthews, bu tür uygulamaların çoğu zaman aile üyeleri ve sivillerin de zarar gördüğü "ikincil hasarlara" yol açabildiğini ve bunun uluslararası insancıl hukuk açısından ciddi sorunlar doğurduğunu belirtti.

İşgalci İsrail'in Gazze'deki saldırılarında yapay zeka teknolojilerini kullanmasının teknik hata riskini artırabileceğini vurgulayan Matthews, bu durumun orduların orantılılık değerlendirmelerinde sivil kayıp eşiğini de genişletebileceğini ifade et

Teknoloji Haberleri

Küresel yapay zeka hakkında korkutucu güvenlik raporu
Güney Kore'nin "dünyada bir ilk" olan yapay zeka yasası
Yapay zeka'nın artan su ihtiyacı halk sağlığı için risk oluşturuyor
Google'a "çocukları manipüle etme" suçlaması
Yapay zeka dünyasında Grok krizi