Hayır, Anthropic yapay zekanın “iyi çocuğu” değil… Başkaları gibi!

Hayır, Anthropic yapay zekanın “iyi çocuğu” değil… Başkaları gibi!

Pentagon’un Anthropic’e verdiği ültimatomun gölgesinde başlayan tartışmalar yapay zeka şirketlerinin askeri kullanım konusundaki gerçek konumlarını yine gündeme taşıdı. ABD Savunma Bakanlığı’nın talebi hayli net. Şirketler, ABD ordusuna kitlesel nezaret ve tam otonom ölümcül silah sistemleri dahil olmak üzere teknolojilerinin “yasal olan her hedef için” kullanılmasına müsaade vermeli. Aksi halde “ulusal güvenlik açısından tedarik zinciri riski” olarak damgalanma ihtimalini göze almalılar. Bu etiket, yüz milyarlarca dolarlık kamu kontratlarından dışlanmak manasına gelebilir. Anthropic, bir mühlet evvel ABD’ye boyun eğmedi ve tedarik zinciri riski damgasını yedi. Lakin bu, Anthropic’i yapay zekanın yeterli çocuğu yapmıyor.

Anthropic CEO’su Dario Amodei, kamuoyuna yaptığı açıklamada Pentagon’un tehditlerinin şirketin durumunu değiştirmeyeceğini söyledi. Lakin bu çıkış, şirketi otomatik olarak “iyi taraf” yapmıyor. Amodei, ölümcül otonom silahlara ilkesel olarak karşı olmadığını, sırf bugünkü teknolojinin gereğince muteber olmadığını savundu. Yani teknoloji kâfi olduğunda “ABD dışındaki insanları” gözetlemek ve teknolojisinin otonom silah haline gelmesinde bir sorun görmüyor. Hatta bu sistemlerin güvenilirliğini artırmak için Savunma Bakanlığı ile Ar-Ge ortaklığı bile önerdi. En azından Anthropic, ABD hariç 194 ülkede OpenAI yahut öteki şirketlerden farklı olarak algılanmamalı bu mevzuda.

Kırmızı çizgiler hakikaten nerede başlıyor?

ABD Savunma Bakanlığı haftalar boyunca Anthropic’in güvenlik bariyerlerini gevşetmesini talep ederken bölümdeki öbür oyuncuların tavrı da sorgulandı. OpenAI ve Elon Musk’ın kurduğu xAI, halihazırda emsal koşulları kabul etmiş durumda. Anthropic’in devreden çıkmasının çabucak akabinde Pentagon ile mukavele imzalayan OpenAI ise X hesabından şunları söyledi:

“ABD Savaş Bakanlığı ile yaptığımız anlaşma, belirlediğimiz kırmızı çizgileri koruyor:

  • Kitlesel iç nezaret için OpenAI teknolojisinin kullanılması yasaktır.
  • Otonom silah sistemlerini yönlendirmek için OpenAI teknolojisi kullanılmayacak.
  • Yüksek riskli otomatik kararlar için OpenAI teknolojisi kullanılmayacak (örneğin “sosyal kredi” üzere sistemler).”

Ancak OpenAI, sitesindeki metinde açıkça şunu söylüyor: “Savaş Bakanlığı, hukuka uygun amaçlar, operasyonel gereklilikler ve yerleşik güvenlik ve kontrol protokolleri ile uyumlu olarak, tüm yasal gayeler için AI Sistemini kullanabilir.”

Öncelikle “lawful purposes” yani “hukuka uygun amaçlar” sözü hayli geniş bir çerçeve sunuyor. Hukuka uygunluk tarifi mevcut maddelerle hudutlu ve yasalar değiştirilebilir. Bilhassa ABD savunma mevzuatı ve ulusal güvenlik istisnaları düşünüldüğünde, bu tabir teknolojinin kullanım alanını önemli biçimde genişletebilecek bir esneklik içeriyor. Tıpkı metinde ayrıyeten “otonom silahları bağımsız halde yönlendirmeyecek” tabiri dikkat çekiyor. Bu, sistemin direkt tetik çekmeyeceği manasına geliyor. Lakin maksat tahlili, tehdit sınıflandırması yahut operasyonel teklif üretimi üzere karar öncesi kritik etaplarda rol almasının önü kapatılmış değil. Üçüncü olarak, “yüksek riskli otomatik kararlar” tabiri sırf insan onayı gerektiren durumlarla sonlandırılmış. Şayet mevzuat bir alanda insan onayı zaruriliği getirmiyorsa, teorik olarak sistem daha geniş karar takviye rollerinde kullanılabilir. “Sosyal kredi sistemi” üzere örnekler bilhassa zikredilmiş olsa da, daha gri alanlara ait net bir hudut çizilmiyor.

Dolayısıyla OpenAI, yaptığı açıklamasında güçlü prensipler ve yasal atıflar yapıyor olsa da profesyonel olmayan bir göz bile metinde açıkların olduğunu net bir formda görebiliyor.

Üstelik Sam Altman idaresindeki OpenAI, mukavelelerde “kırmızı çizgileri” muhafazaya çalıştığını söylese de 2024 yılında hizmet kaidelerinden “askeri ve savaş” kullanımına yönelik yasağı kaldırmıştı. Sonrasında şirket, otonom silah üreticisi Anduril ile iş birliği yaptı ve Pentagon’la muahede imzaladı.

Anthropic de bu hafta, uzun müddettir savunduğu “sorumlu ölçekleme” siyasetinde değişikliğe giderek güvenlik taahhütlerini esnetti. Gaye, hızlanan yapay zeka yarışında geri kalmamak. Bu tablo, etik prensiplerin birden fazla vakit ticari rekabetle birlikte tekrar tanımlandığını ortaya koyuyor.

2024 yılında Anthropic, Palantir ve Amazon Web Services (AWS) ile bir iştirak kurarak ABD istihbarat ve savunma kurumlarına Claude yapay zeka modellerini sunma kararı almıştı. Claude böylelikle Pentagon’un “Impact Level 6” (IL6) denilen, en üst seviye “Gizli” (Secret) sınıfındaki datalarının işlendiği ağlara giren birinci ve tek öncü yapay zeka modeli olmuştu. Yani Anthropic, Amerikan ordusunun en mahrem bilgilerini tahlil etmek için istekli olarak masaya oturdu.

Anthropic, esasen Claude’un füze savunma sistemlerinde ve siber savunmada kullanılmasına halihazırda onay vermiş durumdaydı. Claude, karmaşık savaş alanı bilgilerini tarayarak kumandanlara “karar desteği” sunmak için kullanılıyordu. Anthropic’in itirazı yapay zekanın savaşta kullanılmasına değil, yalnızca “tetiği çekenin insan olmaması” ve “Amerikan vatandaşlarının izlenmesi” şartınaydı. Yani yabancı bir ordunun askerlerini amaç alan bir operasyonda Claude’un lojistik yahut stratejik takviye vermesine şirket hiçbir vakit karşı çıkmadı.

Büyük oyuncular aslında olaya dahil

Amazon, Google ve Microsoft üzere devler de savunma ve istihbarat kurumlarına yapay zekâ hizmetleri sunuyor. 2018’de Google çalışanlarının Pentagon’la yürütülen “Project Maven” iştirakine karşı başlattığı protesto, şirketi geri adım atmaya zorlamıştı. Lakin bugün tablo farklı. Çalışanlara nazaran bölümde kaygı ve sessizlik hakim.

Microsoft cephesinde de emsal tenkitler var. Şirket, İsrail Savunma Kuvvetleri ile yürüttüğü iş birlikleri nedeniyle çalışan protestolarıyla karşılaşmıştı. Çünkü şirketin teknolojileri, Filistinlileri ve muhalifleri kitlesel olarak gözetlemekte kullanılıyordu. Reaksiyonlar sonrasında iştiraklerin birtakım kısımlarının sonlandırıldığı açıklanmıştı. Ayrıyeten şirketin bir “Sorumlu Yapay Zeka” taahhüdü de var fakat şirket çalışanlarına nazaran bu bahiste manalı bir taahhütte bulunmak yerine, kâr elde etmek öncelikli durumda.

Eski bir xAI çalışanına nazaran ise kesimdeki herkes zati katil robotlar üzerinde çalışıyor. Hükümetle çalışmayan şirketler “ülkenin çıkarlarına karşı” konumlanmış üzere algılanıyor. Savunma projelerinde yer almak, artık birtakım etraflarda “vatanseverlik” göstergesi olarak sunuluyor.

Bu atmosferde Anthropic’in görece “dik” duruşu kıymetli ancak bunun sürdürülebilirliği ne kadar mümkün belgisiz. ABD’de “tedarik zinciri riski” ilan edilmek Savunma Bakanlığı ile çalışan tüm tedarikçi ve yüklenicilerin sizinle çalışmadıklarını belgelemelerini zarurî kılıyor. Mevcut konjonktürde Anthropic’in bu damga ile hayatta kalması sıkıntı.

Sorun tek bir şirket değil

Teknoloji çalışanları ise şirketlerin Pentagon’un taleplerine karşı ortak duruş sergilemesini istiyor. 700 bini aşkın çalışanı temsil eden kümeler, askeri yapay zekada kırmızı çizgilerin netleştirilmesini talep ediyor. Bilhassa iki mevzu öne çıkıyor: Amerikalılara yönelik kitlesel nezaret yapılmaması ve insan kontrolü olmadan ölümcül güç kullanılmaması. Ayrıyeten Google ve OpenAI çalışanları, şirketlerini Pentagon’un taleplerini reddetmeye çağırdı.

Tabi bu çizgilerin kalıcı mı, yoksa sırf pazarlık ögesi olarak mı kullanıldığı meçhul. Bir Microsoft çalışanına göre ABD Savunma Bakanlığı ile kapıdan içeri girdikten sonra etik kontrolü sürdürmek son derece sıkıntı. Yüksek bütçeli kontratlar, şirketlere en kârlı seçeneği legalleştirme baskısı yaratıyor.

Sonuçta problem sadece Anthropic değil. OpenAI, Google, Amazon, Microsoft ya da xAI… Büyük teknoloji şirketlerinin tamamı, askeri ve güvenlik projeleriyle iç içe geçmiş durumda. Sonlar yıllardır bulanık. Bugün sadece daha görünür hale gelmiş durumda.

Kaynak : Donanimhaber

Yazar Profil Fotoğrafı

Serhat ÖZTÜRK

MotorcularMekani.Com İle Sohbete Katıl Sohbetin en sıcak, dostluğun en gerçek hali MotorcularMekani.Com’da seni bekliyor. Sen de hemen katıl, online sohbet sitesi deneyimini özgürce yaşa ve muhabbetin keyfini çıkar!

İlk yorum yazan siz olun.

Cevap bırakın
Gerekli alanlar işaretlenmiştir. *