Uzmanlar Cenevre'de bir araya geldi, ancak bir anlaşmaya varılamadı: ABD ve Rusya tüm çalışmaları engelledi. Belki de bu, hegemonların bu kadar uyumlu çalıştığı tek zamandır.
İnsanlık Dışı Silahlar Sözleşmesi formatındaki uzmanların toplantıları, sözde savaş robotlarının kaderini belirlemek için Cenevre'de sona erdi - hedefleri yenmek için yapay zeka kullanan otonom silahlar. Ancak herhangi bir anlaşmaya varılamadı. Amerika Birleşik Devletleri, Rusya, Güney Kore, İsrail ve Avustralya, katil robotların tamamen yasaklanmasına yönelik hissi engellemeyi başaran azınlık ülkeleri arasındaydı.
Bu nedenle, dünyada hala çalışan bir otonom silah olmamasına rağmen, teknoloji tabiri caizse insancıl kalıyor - geliştirilebilir ve araştırılabilir. İlginç bir şekilde, Stockholm Barış Araştırmaları Enstitüsü'ne (SIPRI) göre ABD ve Rusya, en büyük silah ihracatçıları listesinin başında yer alıyor. Güney Kore, İsrail ve Avustralya da bu sıralamada geri kalmıyorlar - en iyi 20 piyasa oyuncusu arasındalar.
Ve Çin (dünyanın beşinci silah ihracatçısı, BM Güvenlik Konseyi'nin daimi bir üyesi) savaş robotlarının yasaklanmasını savunsa da, toplantılar sırasında teraziyi kendi yönünde değiştirmeyi başaramadı. Bugün 26 ülke açıkça ABD'yi destekliyor. savaşta yapay zeka kullanımının yasaklanması Diğerleri net bir pozisyondan çekiniyor) Fransa ve Almanya (üçüncü ve dördüncü silah ihracatçıları) insanın yapay zeka üzerindeki üstünlüğünü pekiştirecek bir belge imzalamayı teklif ediyor, ancak daha olasıdır otonom muharebe araçları geliştirmek isteyenlerin yanında.
Katil Robotları Durdurma Kampanyası koordinatörü Mary Verhem, Cenevre toplantılarının sonuçları hakkında, “Küçük bir askeri devin çoğunluğun iradesini tutabilmesi kesinlikle hayal kırıklığı yaratıyor” dedi.
Gerçekten de, ABD ve Rusya'nın genellikle önemli konularda en azından bir tür uzlaşmaya varamadıkları göz önüne alındığında, durum silahlı tekel kodamanlarının bir komplosuna benziyor. Suriye'yi ele alalım: Washington ve Moskova bu bahar Suriye'de kimyasal silah kullandıktan sonra karşılıklı olarak birbirlerinin kararlarını engellediler. Bu arada, askeri amaçlar için boğucu gazlar ve diğer zehirli maddeler daha önce İnsanlık Dışı Silahlar Sözleşmesi tarafından yasaklanmıştı.
Katil robotların kaderiyle ilgili bir sonraki toplantı Kasım ayında Cenevre'de yapılacak.
Otonom silahları neden yasaklamak istiyorlar?
Robot savaş yasağının savunucuları, savaş alanının yapay zeka için bir yer olmadığı konusunda ısrar ediyor. Onlara göre, bu tür teknolojiler büyük bir tehdit oluşturuyor. En azından bugün, makinenin savaşçılar (düşmanlıklara doğrudan dahil olanlar) ile savaşçı olmayanlar (yalnızca kendini savunma için silah kullanabilen ordu servis personeli) ve genel olarak siviller arasında nasıl bir ayrım yapacağı net değil. Mevcut savaş kurallarının yasakladığı işin yaralıları ve teslim olanları öldürme olasılığı var.
Çalışmanın, bu tür silahların sahipleri bile olsa, çatışmanın tüm taraflarını kesintiye uğratmasını engelleyen nedir? Yapay zeka unsurları zaten askeri teçhizatta, füzelerde başarıyla kullanılıyor; robotlar keşif için cezbedilir, ancak son söz hala insanlara aittir. Otonom silahlar komutanların emirlerine uymayacaktır - bu yüzden otonomdurlar. Bu nedenle, farklı ülkelerden askeri generaller, makinelerin personel saflarına girmesi konusunda şüpheci davranıyorlar.
Açık bir soru daha, uluslararası terörizmdir. Otonom silah teknolojisi yanlış ellere geçebilir ve sonunda hacklenebilir. Bir yıl önce Rusya Devlet Başkanı Vladimir Putin, dünyanın hükümdarının yapay zekanın geliştirilmesinde lider olacak kişi olacağını söylemişti. Otonom silahlar söz konusu olduğunda, bu tür teknolojilere erişim sağlayan kişi dünyanın hükümdarı olacaktır. Ve bunun için aslında sadece bir bilgisayara ve güvenlik sistemlerinden geçecek bir dodger'a ihtiyacınız var. Bu arada Pentagon bir kereden fazla hacklendi. Sonuç olarak, hiç kimse otonom silahların dokunulmaz kalacağına dair garanti veremez.
Otonom silah sisteminin işleyişi sonucunda bir savaş suçu işlenirse hukuken kimin sorumlu olacağı da belirsizdir. “Silahı kullanan mühendis, programcı, üretici veya komutan mı? Uluslararası insancıl hukukun gerektirdiği şekilde sorumluluk tanımlanamazsa, bu tür sistemlerin konuşlandırılması yasal veya etik olarak haklı olarak kabul edilebilir mi?”Uluslararası Kızıl Haç Komitesi belirtiyor.
İlginç bir şekilde, bilim adamları savaş robotlarının yasaklanmasını da savundular. Bu yılın Temmuz ayında, başta Tesla ve SpaceX'in yaratıcısı Elon Musk ve DeepMind'in kurucu ortakları olmak üzere iki binden fazla bilim insanı, ölümcül otonom silahlar geliştirmeyeceklerine dair bir belge imzaladı. Google da aynısını yaptı. Teknoloji devi, Pentagon'un Maven projesinde çalışmaktan vazgeçti. Ve 2017'de, bir dizi bilim adamı BM'yi katil robotların yaratılmasını yasaklamaya çağırdı.
Bu arada, savaşta yapay zeka konusu 2013 sonunda Birleşmiş Milletler'in gündemine girdi, ancak o zamandan beri pratikte hiçbir şey değişmedi. Ancak bu yıl, İnsanlık Dışı Silahlar Sözleşmesi formatında uzman toplantıları başladı. Yani, az çok pratik bir düzleme gelmek dört yıldan fazla sürdü.
Neden otonom silahları yasaklamak istemiyorlar?
Kulağa ne kadar basmakalıp gelse de, silahlanma yarışı, katil robotları yasaklamak istememelerinin ana nedenidir. Putin haklı: Otonom silahları ilk kim alırsa dünyaya hükmedecek. Resmi olarak bu neden dile getiriliyor.
Yasağa karşı çıkanların temel argümanı, sivil yapay zekayı ordudan ayırmanın imkansızlığı. Mesela, teröristler kullanıyor diye mutfak bıçaklarını yasaklamayacağız. Gerçekten de, yapay zekanın sivil gelişimini ordudan ayırmak pratik olarak imkansızdır. Ancak şimdi, hedefleri bağımsız olarak belirleyebilecek ve saldırabilecek bu silahın yasaklanmasından bahsediyoruz. Bu, ABD Savunma Bakanlığı'nın Booz Allen Hamilton ile birlikte üzerinde çalıştığı Maven projesi olabilir (Google sözleşmeyi reddetti).
Maven geliştiricileri, dronlara, özellikle uydulardan gelen görüntüleri analiz etmeyi ve - potansiyel olarak - saldırı hedeflerini belirlemeyi öğretmek istiyor. Pentagon, Nisan 2017'de proje üzerinde çalışmaya başladı ve ilk çalışan algoritmaları yıl sonuna kadar almayı umuyordu. Ancak Google çalışanlarının girişimiyle gelişme ertelendi. Bu yılın Haziran ayı itibariyle, Gizmodo'ya göre, sistem temel nesneleri - arabalar, insanlar - ayırt edebiliyordu, ancak zor durumlarda tamamen önemsiz olduğu ortaya çıktı. Yine de otonom silahlar yasağı BM düzeyinde kabul edilirse, projenin rafa kaldırılması gerekecek, Pentagon ise geliştirmelerinin hayat kurtarabileceğini çünkü insanlarla karşılaştırıldığında daha doğru ve güvenilir bir şekilde çalışacak şekilde programlanabileceğini iddia ediyor.
Rusya Dışişleri Bakanlığı'nda Cenevre'deki toplantının arifesinde, "Teknolojiden bahsettiğimizi, işe yarayacak örnekleri olmadığını anlamalısınız. Bu tür sistemler fikri hala çok yüzeysel" dedi. - Bize göre, uluslararası hukuk, özellikle insani sektör, otonom silahlara uygulanabilir. Modernizasyona veya henüz var olmayan sistemlere adaptasyona ihtiyaçları yok.”
Ve bir tane daha gerçek, ancak dile getirilmeyen sebep paradır. Bugün, askeri yapay zeka teknolojileri pazarının altı milyar dolardan fazla olduğu tahmin ediliyor. Ancak Amerikan şirketi MarketsandMarkets'in analistlerine göre, 2025 yılına kadar rakam üç katına çıkacak - neredeyse 19 milyara çıkacak. En büyük silah ihracatçıları için bu, katil robotların geliştirilmesine yönelik herhangi bir kısıtlamayı engellemek için iyi bir motivasyon.
İlerleme durdurulamaz
Otonom silahların yasaklanması taraftarları, teknolojinin çok hızlı geliştiğini ve yapay zekanın eninde sonunda bir silah haline geleceğini belirtiyorlar - an meselesi. Sözlerinde mantık var. Yapay zeka, şu anda devam eden dördüncü bilimsel ve teknolojik devrimin ayrılmaz bir parçasıdır. Teknik ilerlemenin bir şekilde askeri operasyonlarla ilişkili olduğu akılda tutulmalıdır. Üçüncü bilimsel ve teknolojik devrim, XX yüzyılın 50'li yıllarının ortalarına kadar sürdü, yani zirvesi İkinci Dünya Savaşı döneminde düştü.
1949'da Cenevre, Savaş Zamanında Sivillerin Korunmasına İlişkin Sözleşmeyi kabul etti. Savaş sonrası dönemde, savaşın yürütülmesine ilişkin kuralları belirleyen 1907 tarihli IV. Lahey Sözleşmesini de eklediler. Yani, İkinci Dünya Savaşı'nın dehşeti bu sürecin katalizörü oldu. Dolayısıyla insan hakları savunucuları, insanlığı otonom silahlardan korumak için Üçüncü Dünya Savaşı'nı beklemek istemiyorlar. Bu yüzden katil robotların kaderine karar vermek şimdi gerekli, ısrar ediyorlar.
İnsan Hakları İzleme Örgütü uzmanlarına göre, savaş robotlarının kullanımı Martens Bildirgesi ile çelişiyor - 1899 Lahey Savaş Hukuku ve Gümrük Sözleşmesi'nin önsözü. Başka bir deyişle, katil robotlar insanlık yasalarını ve kamu bilincinin gerekliliklerini ihlal ediyor (konum IV Lahey Sözleşmesinde doğrulandı).
İnsan Hakları İzleme Örgütü'nün silah departmanında kıdemli araştırmacı olan Bonnie Doherty, “Bu tür silah sistemlerini dünyaya yayılmadan önce önleyici bir yasak getirmek için birlikte çalışmalıyız” dedi.
Bu sefer katil robotları yasaklamak işe yaramadı. Tahmin edilebileceği gibi, Kasım ayındaki toplantılar da sonuçsuz kalacak. Doğru, hemen hemen tüm ülkeler hemfikirdir - teknolojinin yerçekimi ile akmasına izin verilemez ve savaş robotlarının böyle bir durdurma vincine ihtiyacı vardır. Ancak, ihtiyaç ortaya çıktığında insanlığın onu çekecek zamana sahip olup olmayacağı hala net değil.