Eski ABD Başkanı Donald Trump, yapay zeka (YZ) şirketi Anthropic'in teknolojisinin askeri amaçlarla kullanımına yönelik getirdiği etik kısıtlamalar nedeniyle federal kurumların bu şirketin YZ modellerini kullanmayı bırakması talimatını verdi. Bu karar, şirketin Pentagon'un füze fırlatma emirleri verme, otonom askeri dronları uçurma ve kitlesel gözetim uygulama gibi taleplerini etik ve risk gerekçeleriyle reddetmesi üzerine geldi. Anthropic CEO'su Dario Amodei'nin bu kararlı duruşu, YZ teknolojisinin geliştiricileri ve askeri güçler arasındaki etik sınırların ne olması gerektiği konusundaki küresel tartışmayı daha da alevlendirdi. Bu gelişme, daha önce Savunma Bakanlığı'nın gizli sistemlerinde kullanılan Anthropic teknolojisinin yerini doldurabilecek arayışları da beraberinde getirdi.
Tartışmanın zirveye ulaştığı günlerde, ChatGPT'nin sahibi OpenAI'nin CEO'su Sam Altman, ABD yönetimiyle bir anlaşmaya vardığını duyurdu. Bu anlaşma, OpenAI'nin YZ modellerini Savunma Bakanlığı'nın gizli materyal ağına entegre etmesine olanak tanıyor. Bu durum, YZ sektöründeki iki büyük oyuncunun, askeri uygulamalar konusunda farklı yaklaşımlar sergilediğini açıkça ortaya koydu. Anthropic, YZ'nin potansiyel kötüye kullanımlarını sınırlama konusunda katı bir duruş sergilerken, OpenAI daha pragmatik bir yol izleyerek hükümetle işbirliği yapma yolunu seçmiş oldu.
Anthropic'in bu etik duruşu, şirketin kuruluş felsefesinin bir yansıması olarak değerlendirilebilir. Şirket, YZ'nin güvenli ve faydalı bir şekilde geliştirilmesi misyonuyla yola çıkmış, özellikle "anayasal YZ" (constitutional AI) adı verilen bir yaklaşımı benimseyerek, modellerine belirli etik ilkeleri ve değerleri doğrudan kodlamayı hedeflemiştir. Bu yaklaşım, YZ'nin insan gözetimi olmadan kritik kararlar almasının önlenmesi ve potansiyel zararların minimize edilmesi amacını taşıyor. Pentagon'un talepleri ise, bu etik çerçevelerin doğrudan ihlali anlamına geldiği için Amodei tarafından kabul görmedi. Bu olay, YZ teknolojilerinin "çift kullanımlı" (dual-use) niteliğini ve hem sivil hem de askeri alanda devrimsel potansiyelini bir kez daha gözler önüne serdi.
Yapay Zeka Etiği ve Askeri Uygulamalar
Yapay zeka teknolojilerinin askeri alanda kullanımı, uzun süredir uluslararası toplumda derin etik kaygılara yol açan bir konu olmuştur. Özellikle "Ölümcül Otonom Silah Sistemleri" (LAWS) olarak bilinen, insan müdahalesi olmadan hedef seçip saldırı yapabilen sistemler, Birleşmiş Milletler gibi platformlarda yoğun tartışmaların odağındadır. Bu sistemlerin geliştirilmesi, savaşın doğasını kökten değiştirebilecek ve insani sorumlulukları bulanıklaştırabilecek potansiyele sahiptir. Anthropic'in duruşu, bu küresel etik tartışmaların bir parçası olarak, YZ geliştiricilerinin de bu tür teknolojilerin kötüye kullanımını engelleme sorumluluğunu taşıdığını vurgulamaktadır.
ABD Savunma Bakanlığı, küresel güç rekabetinde, özellikle Çin ile olan YZ yarışında üstünlük sağlamak amacıyla YZ teknolojilerine büyük yatırımlar yapmaktadır. "Project Maven" gibi girişimler ve "JADC2" (Müşterek Tüm Alan Komuta ve Kontrol) gibi konseptler, YZ'nin savaş alanında veri analizi, hedef tespiti ve karar alma süreçlerini hızlandırma potansiyelini araştırmaktadır. Ancak bu hız ve otomasyon arayışı, YZ sistemlerinin etik sınırları aşma riskini de beraberinde getirmektedir. Avrupa Birliği de, YZ Etiği ve Güvenliği konusunda öncü adımlar atarak, "AB YZ Yasası" ile yüksek riskli YZ uygulamalarına katı kurallar getirmeyi hedeflemektedir. İspanya ve diğer Avrupa ülkeleri de bu bağlamda etik YZ geliştirme ve kullanımına büyük önem vermektedir.
Küresel Etkiler ve Türkiye'nin Konumu
Anthropic olayı, YZ geliştiricileri ile hükümetler arasındaki ilişkinin geleceğini şekillendirecek önemli bir dönüm noktası olabilir. Bir yanda ulusal güvenlik ve teknolojik üstünlük arayışı, diğer yanda ise YZ'nin insanlık için potansiyel risklerini dengeleme çabası bulunmaktadır. Bu durum, YZ şirketlerinin sadece teknolojik yeniliklere değil, aynı zamanda etik ve toplumsal sorumluluklarına da odaklanmaları gerektiğini göstermektedir. Şirketlerin, YZ'nin askeri uygulamalarına yönelik kendi kırmızı çizgilerini belirlemesi, gelecekteki YZ yönetişim modelleri için emsal teşkil edebilir.
Türkiye de, özellikle insansız hava araçları (İHA) ve otonom sistemler alanında önemli ilerlemeler kaydetmiş, Baykar ve ASELSAN gibi şirketlerle savunma sanayisinde küresel bir oyuncu haline gelmiştir. Bu bağlamda, Türkiye'nin de YZ'nin askeri uygulamalarına yönelik kendi etik çerçevelerini ve kullanım politikalarını oluşturması büyük önem taşımaktadır. Küresel YZ etiği tartışmaları ve Anthropic gibi şirketlerin duruşu, Türkiye'nin savunma YZ stratejilerini ve bu alandaki uluslararası işbirliklerini de etkileyebilir. Bu olay, YZ teknolojilerinin sadece teknik bir mesele olmaktan öte, derin etik, hukuki ve toplumsal boyutları olan kritik bir konu olduğunu bir kez daha kanıtlamıştır.



