1. HABERLER

  2. YORUM ANALİZ

  3. Katliamın yeni adı: Yapay Zekâ
Katliamın yeni adı: Yapay Zekâ

Katliamın yeni adı: Yapay Zekâ

Nihal Bengisu Karaca Minab’daki çocuk katliamını merkeze alarak, yapay zekânın savaşta “hata” diye geçiştirilen kararlarının, güçlülerin yıkım kapasitesini büyüten bir mekanizmaya dönüşmesini eleştiriyor.

18 Mart 2026 Çarşamba 17:10A+A-

Nihal Bengisu Karaca / Habertürk

Algoritmik katliam

Shajareh Tayyebeh kız ilkokulu. Minab ilçesi. 28 Şubat 2026 sabahı, savaşın ilk saatleri.

İlk füze çarptığında okul müdürü sağ kalan çocukları topladı, dua salonuna götürdü. Sonra aileleri aradı: Gelin, çocuklarınızı alın. Ebeveynler koştu. İkinci füze tam o noktaya indi. Dua salonuna. Hayatta kalanların sığındığı köşeye. Kurtarmaya koşan ilk yardım ekiplerine. Çocuklarına ulaşmaya çalışan babalara.

Rohollah — adı gizlenmiş, Minab’da yaşıyor — ilk vuruştan sonra okuldan arandı. Kızı sağdı, dua salonundaydı. Gel al dediler. İkinci füze babanın arabası henüz yetişmeden çarptı. Onu okul çantasından tanıyabildik, dedi.

165 ölü. Çoğu 7-12 yaş arası kız çocuğu. 69 ceset hâlâ kimliksiz.

Bu tekniğin adı “double tap.” Hedefe önce vur, hayatta kalanları topla, sonra tekrar vur.

Bu taktik Gazze’de hastane önlerinde uygulandı. Şimdi Minab’da kız ilkokulunda.

Peki bu okul o listeye nasıl girdi?

Bugünlerde bu listeden sorumlu olanın Anthropic’in Claude adlı yapay zeka sisteminin sorumlu olduğu konuşuluyor. Nitekim soruşturma sürüyor.

En azından şu net: Amerikan ordusu o sabah savaş hedeflerini belirlemek için yapay zeka kullanıyordu.

Sistem ilk 24 saatte bin hedef listeledi. Minab o listenin içindeydi. Ve bu sistemin doğruluk oranı 2024 testlerinde yüzde 60’tı.

Bunun anlamı: Her kırk hedeften biri yanlış.

Kongre’de 121 Demokrat imzalı mektup şunu sordu: Yapay zeka bu okulu hedef olarak işaret etti mi? Bir insan bu koordinatı doğruladı mı? Pentagon yanıt vermedi. Trump önce “İran yaptı” dedi, sonra “yeterince bilmiyorum” dedi. Cumhuriyetçi Senatör John Kennedy bile özür diledi: “Korkunçtu. Hata yaptık.”

Hata mı? Hepsi bu mu?

OYSA CHATGBT’DEN KAÇANLAR CLAUDE’A KOŞMUŞTU!

Şimdi geriye saralım. Çünkü bu hikâyenin acı bir ironisi var.

24 Şubat 2026 Salı. Savunma Bakanı Pete Hegseth, yapay zeka şirketi Anthropic’in CEO’su Dario Amodei ile Pentagon’da buluştu. Gündem Anthropic’in askeri sözleşmesindeki iki kırmızı çizgiydi. Birincisi: yapay zekanın tamamen insansız silah sistemlerinde kullanılması yasak. İkincisi: kendi vatandaşlarını toplu gözetlemek için kullanılması yasak. Pentagon bu çizgileri silmek istiyordu. Amodei “hayır” dedi.

Hegseth 27 Şubat Cuma saat 17.01’e kadar süre verdi: ya vazgeç ya da seni tarihin çöplüğüne gönderirim.

Amodei “Vicdanen kabul edemeyiz.” deyince kıyamet koptu. 27 Şubat Cuma günü Trump tüm devlet kurumlarına Anthropic’i derhal bırakmalarını emretti . Hegseth’in suçlaması geldi: Anthropic artık “ulusal güvenliğe yönelik tedarik zinciri riski”dir.

Bu tanımlama normalde yabancı düşman devletlere uygulanır. Tarihte ilk kez bir Amerikan şirketine yapıştırıldı.

Peki o Cuma gecesi Sam Altman ne yaptı?

27 Şubat Cuma sabahı CNBC’ de “Anthropic’e büyük ölçüde güveniyorum, güvenliğe gerçekten önem verdiklerini düşünüyorum.” derken arka planda Pentagon’a yanaştı. Anthropic yasaklanır yasaklanmaz X’te duyurdu: Pentagon ile anlaşma tamam.

Sonradan kendisi de kabul etti: anlaşma “fırsatçı ve özensiz görünmüştü.”

Aynı gece yapay zeka sevenler ChatGPT’yi silip jest olsun diye Claude’a geçti. Anthropic’in uygulaması Claude App Store’da bir numaraya yerleşti.

OpenAI’nin San Francisco ofisinin önüne tebeşirle yazılar yazıldı: “Kırmızı çizgileriniz nerede?”

Dario Amodei vicdanen “hayır” deyip dik durup cezalandırılınca bu onurlu duruşu tebrik etmek gerekirdi.Claude’a geçenler ise kısa bir süre sonra Minab’daki kız okulunun bombalanmasında Claude’ın rolünün olabileceğini duyuyor .

Kırmızı çizgiler müzakeredeyken, sistem çalışmaya devam ediyor çünkü.

ASLINDA BU HİKÂYE DAHA ESKİ

Yapay zekanın savaşa sürülmesi 28 Şubat’ta başlamadı.

İsrail, Gazze’de çoktan denedi : Gospel ve Lavender. Her ikisi de İsrail ordusunun seçkin 8200 istihbarat birimi tarafından geliştirildi. Gospel bina ve altyapıyı tarıyor, bombalanacak hedefleri sıralıyor. Lavender ise insan avlıyor.

Hamas bağlantılı olduğu hesaplanan on binlerce kişinin adını listeledi, kimin önce öldürüleceğini belirledi. Lavender’ın hata oranıen iyimserihtimalle yüzde 10’du. Her on hedeften biri yanlış kişiydi.

Bu listedeki bir isim için bir askerin harcadığı inceleme süresi ne kadardı dersiniz… Sıkı durum. Sadece 20 saniye.

Chatham House’dan araştırmacı Nilza Amaral, İsrail’in İran için de aynı veya benzer sistemi kullandığının “neredeyse kesin” olduğunu söylüyor.

Bitmedi…

Google ve Amazon 2021’den bu yana İsrail ordusu ve devletiyle 1,2 milyar dolarlık bir bulut altyapısı ve yapay zeka sözleşmesi kapsamında çalışıyor. Buna Project Nimbus deniyor. 2024’te Google çalışanları bu nedenle isyan etti. Oturma eylemi yaptılar ve kovuldular.

Palantir ise bu işte enutanmasız şirket. CEO Alex Karp, CNBC’ye verdiği röportajda şunu söyledi: “Savaşı, onlarca yıldır yapamadığımız şekilde yürütebiliyoruz.”

Palantir’in 2025 yılı ABD devlet geliri: 1,85 milyar dolar. Bir yıl öncesine kıyasla yüzde 55 artış.

İran’ın veri merkezlerini hedef alması çok normal değil mi?Palantir ve Amazon’un üç veri merkezi yakınlarda İran tarafından vuruldu.

Karp’ın yorumu kuru ve soğuk geldi: “Onlar aptal değil. Üretemeyecekleri şeyleri doğal olarak hedef alıyorlar.”

Sözün özü: Artık veri merkezleri cephe hattı.

“İNSAN HER ZAMAN SON KARARI VERİYOR”

Bu cümle çok fazla şeyi gizliyor. En çok da şu soruyu: Yapay zeka hedef listesini saniyeler içinde üretip önünüze koyduğunda, sizin onayınız gerçek bir karar mıdır, yoksa makineyi devreye sokan bir düğmeye basmaktan mı ibaretsiniz?

Buna uzmanlar “otomasyon yanlılığı” diyor. Önünüze bir liste geldiğinde, o listeye inanma eğilimindesinizdir.

UCL’den bilgisayar bilimcisi Peter Bentley“Bu teknoloji henüz hazır değil, sadece 2-3 yaşında. Çok erken.” diyor ama bu egemenlerin umrundaymış gibi görünmüyor.

Chatham House’dan Amaral’ın sözleri ise nasıl bir felaketle başbaşa kaldığımızı tescilliyor: “Yapay zekanın bu kararı vermede rol oynayıp oynamadığını söylemek zor, çünkü sistemin hangi bilgiyle beslendiğini ve hedeflerin nasıl üretildiğini bilmiyoruz.”

Hedeflerin nasıl üretildiğini bilmiyoruz. 165 çocuk öldükten sonra.

Hedefleme zincirinde her karar kayıt altında. Teoride bunun adı, hesap verebilirlik. Pratikte sorumluluk eriyip gidiyor. Hata yapan yazılım mıydı, yazılımı geliştiren şirket mi, son onayı veren asker mi, yoksa o askere emri veren komutan mı?

YILDIZ FALIMA BAKTI VE SAVAŞA KOŞTU

Yapay zeka her eğitim düzeyinden her yaştan kişinin hayatına çok hızlı biçimde girdi . Yemek tarifinden fal baktırmaya, felsefe tartışmaktan yaşam koçluğuna ve sağlık danışmanlığına kadar pek çok alanda küçük işlerimizi gördü. İşlerimizi elimizden alacak diye söylenirken bile hayatımızda ona bir yer verdik. Dahası ilerde engelli, yaşlı ve özel eğitime ihtiyaç duyan çocukların bakımı gibi ağır ve sabır gerektiren işleri şefkatle üstlenebileceğini düşündük. İnsanlığın iyiliği için kullanılma potansiyeli yüzünden iyimserdik.

Oysa at sahiden her zaman sahibine göre kişniyormuş. Yapay zeka teknolojisi öncelikle güçlülerin oyuncağı. Ve güçlülerin savaşmak gibi pahalı ve kârlı bir hobisi var.

HABERE YORUM KAT