BAYARİ’NİN ÖLÜMÜNÜN GÖLGESİNDE: YAPAY ZEKA, GAZZE’DE HAYATI NASIL HEDEF ALIYOR?
Nihal Taş – GHA Köşe Yazısı
Savaşların bile bir ahlakı olurdu eskiden. Artık makinelerin duygusuzluğu, insanların öfkesine karışınca, neyin doğru neyin yanlış olduğunu ayırt etmek daha da zor hale geldi. Bugün Gazze’de yaşananlar, sadece bir savaşın değil, insanlığın da sınavıdır. İsrail’in Gazze’yi bir “yapay zeka test alanı”na dönüştürdüğü gerçeği, artık ne yazık ki sadece iddialardan ibaret değil.
New York Times’a kimliklerinin gizli kalması şartıyla konuşan Amerikalı ve İsrailli dokuz yetkili, Hamas’ın üst düzey yöneticilerinden Bayari’nin İsrail tarafından yapılan hava saldırısıyla öldürüldüğünü doğruluyor. Buraya kadar olan kısmı, İsrail’in savaş stratejisinin bir parçası olabilir. Ama asıl trajedi, o hava saldırısında 125’ten fazla sivilin hayatını kaybetmiş olması.
Peki bu suikast nasıl mümkün oldu?
İddiaya göre İsrailli mühendisler, klasik istihbarat yöntemleriyle bulunamayan Hamas liderlerinin yerini belirlemek için yapay zeka destekli ses analizi yazılımı geliştirdi. Bu yazılım, yapılan aramaların sadece içeriğini değil, yaklaşık konumunu da belirleyebiliyordu. İşte Bayari bu şekilde, bir konuşması esnasında izlenip, hedef alındı.
Ama konuşmanın yankısı sadece o odada kalmadı. Çocuklar, kadınlar, yaşlılar… Belki hiçbir şeyden haberi olmayan onlarca insan, o “isabetli” saldırının bedelini canlarıyla ödedi. Teknoloji doğru ellere geçtiğinde mucizeler yaratabilir, yanlış ellere geçtiğinde ise ölüm sessizce kodlanabilir.
Burada asıl mesele, İsrail’in teknolojik üstünlüğü değil; bu üstünlüğü neye hizmet için kullandığıdır. Gazze’de kullanılan yapay zeka yazılımları, savaş ahlakını dönüştürüyor. Artık bir kişinin ses tonu, tüm bir mahallenin yok olmasına neden olabiliyor.
Bir başka korkutucu gerçek de şu: Bu teknolojiler, test ediliyor. Yani Gazze, bir laboratuvar gibi. Üzerinde stratejiler deneniyor, sistemler ayarlanıyor, “ne kadar etkili olduğu” ölçülüyor. Denekler kim? İnsanlar.
Bu çağda en tehlikeli silah artık sadece bombalar değil. Algoritmalar, veri akışları, ses analizi yazılımları… İnsan aklıyla geliştirilen bu sistemler, yine insan hayatını tehdit ediyor.
Ve biz susarsak, her sessizlik bir hedefi daha görünmez yapacak.
Savaşlarda bile bir çizgi vardı: Sivil ile savaşçı arasındaki fark. Bu çizgi artık bulanık. Çünkü yapay zeka, suçu hesaplamıyor; yalnızca sonuç doğuruyor.
Bayari öldü. Belki hedef oydu. Ama 125 sivil daha onunla birlikte gitti. Ve geriye kalan, sadece bir veri değil, bir insanlık utancıdır.
Nihal Taş – GHA