ABD Başkanı Donald Trump, federal hükümetin tüm birimlerine Anthropic şirketinin yapay zekâ teknolojilerini kullanmayı bırakma talimatı verdi. Kararın ardından, söz konusu teknolojinin ABD açısından neden kritik olduğu ve bu talimatın sahadaki yansımaları ülke gündeminde geniş yankı buldu.
Trump, sosyal medya hesabından yaptığı açıklamada, “ABD hükümetindeki her federal ajansa Anthropic teknolojisinin kullanımını derhal durdurma talimatı veriyorum. Buna ihtiyacımız yok, istemiyoruz ve onlarla bir daha iş yapmayacağız.” ifadelerini kullandı. Kararın, federal kurumlarda kullanılan Anthropic tabanlı sistem ve yazılımların kademeli olarak devre dışı bırakılmasını ve yaklaşık altı aylık bir süre içinde alternatif çözümlerle değiştirilmesini öngördüğü belirtildi. Savunma Bakanlığı başta olmak üzere Anthropic’in yapay zekâ ürünlerini kullanan kurumların, mevcut sözleşmelerini gözden geçirerek yeni tedarikçilerle çalışma planı yapmaları bekleniyor.
ABD basınında yer alan haberlerde, Savunma Bakanlığı ile Anthropic arasında, şirketin yapay zekâ sistemlerine uyguladığı güvenlik denetimleri ve etik kısıtlar konusunda bir süredir anlaşmazlık yaşanıyor. Anthropic’in, teknolojisinin kitlesel gözetim ve insan denetimi olmaksızın karar verebilen tamamen otonom silah sistemlerinde kullanılmasına sınır getirmek istediği, Pentagon’un ise daha geniş kullanım yetkisi talep ettiği belirtiliyor. Şirket yönetimi, bu taleplere “vicdani gerekçelerle” karşı çıktığını açıklamış; bunun üzerine Savunma Bakanlığı’nın Anthropic ile yürütülen bazı sözleşmeleri askıya alabileceği iddia edilmişti.
Anthropic’in geliştirdiği “Claude” adlı büyük dil modeli, başta Savunma Bakanlığı ve istihbarat kurumları olmak üzere birçok güvenlik biriminde operasyonel süreçleri hızlandıran ve veri analizini destekleyen bir araç olarak öne çıkıyor. Savunma kaynakları ve teknoloji uzmanlarının değerlendirmelerine göre, Claude benzeri yapay zekâ sistemleri; çok büyük hacimli istihbarat verilerinin kısa sürede analiz edilmesi, uydu görüntülerinin yorumlanması, senaryo üretimi, risk değerlendirmesi ve operasyon planlaması gibi alanlarda kullanılıyor. Bu sayede, normalde günler sürebilecek analizlerin dakikalar içinde yapılabildiği, karar vericilere “karar destek” niteliğinde rapor ve özetler sunulduğu ifade ediliyor.
Basına yansıyan bilgilere göre, ABD ordusunun yakın dönemde Venezuela’da eski Devlet Başkanı Nicolás Maduro’yu hedef alan bir baskın sırasında da Anthropic’in Claude modelinden yararlandığı öne sürüldü. Söz konusu operasyonda yapay zekânın; hedef bölgelere ilişkin istihbaratın değerlendirilmesi, farklı harekât seçeneklerinin simüle edilmesi ve komutanlara sunulan senaryoların hazırlanması gibi alanlarda rol aldığı, bu yönüyle yapay zekânın artık yalnızca planlama aşamasında değil, sahadaki askeri ve güvenlik operasyonlarının “canlı” yürütülmesinde de devreye girdiği değerlendiriliyor.
Anthropic’in teknolojisinin yalnızca askeri alanda değil, enerji güvenliği, nükleer güvenlik, siber savunma ve kritik altyapıların korunması gibi farklı başlıklarda da kullanıldığı ifade ediliyor. Federal kurumların, karmaşık teknik raporları özetlemek, politika notları hazırlamak, risk senaryolarını yazılı hâle getirmek ve mevzuat taraması yapmak gibi bürokratik süreçlerde de benzer yapay zekâ araçlarından yararlandığı kaydediliyor.
Trump’ın son kararıyla birlikte, Anthropic’in ABD federal hükümetiyle yürüttüğü mevcut ve potansiyel projelerin önemli ölçüde daralabileceği değerlendiriliyor. Uzmanlar, kararın kısa vadede Pentagon ve istihbarat kurumlarını Claude’un yerini alabilecek alternatif sistemler bulmaya zorlayacağını, bunun da hem operasyonel verimlilikte geçici düşüşe hem de yeniden entegrasyon maliyetlerine yol açabileceğini ifade ediyor.
ABD yönetiminin bu tür sistemleri önemli görmesinin bir diğer nedeni ise büyük güç rekabeti. Washington, özellikle Çin ve diğer rakip ülkelerin yapay zekâyı savunma ve gözetim alanlarında yoğun biçimde entegre ettiğini vurguluyor. Bu çerçevede, yapay zekâ tabanlı karar destek sistemlerine sahip olmanın, hem savaş alanında hem de siber ve istihbarat alanlarında “stratejik üstünlük” unsuru olduğu değerlendirmeleri yapılıyor.
Anthropic cephesi ise, teknolojilerinin kullanımına etik sınırlar getirmek istiyor. Şirket yönetimi, yapay zekânın kitlesel gözetim için kullanılmasına ve insan denetimi olmaksızın karar verebilen tamamen otonom silah sistemlerine entegre edilmesine karşı çıktığını daha önce kamuoyuna açıklamıştı. Bu yaklaşım, bir yandan insan hakları ve savaş hukuku açısından olumlu bir adım olarak görülürken, diğer yandan ABD savunma bürokrasisi içinde “operasyonel esnekliği sınırlayan” bir faktör olarak eleştiriliyor.
Trump yönetiminin “Anthropic teknolojilerinin bırakılması” yönündeki tutumu, hem bu etik tartışmaların, hem de ABD’nin yapay zekâ alanında hangi ilkelere göre hareket edeceğinin önümüzdeki dönemde daha yoğun şekilde tartışılacağını gösteriyor. Yetkililer, federal kurumların alternatif yapay zekâ tedarikçileriyle çalışmaya yönelebileceğini, buna karşın etik sınırlara önem veren çevrelerin de teknoloji şirketlerinin bu alandaki tavrını yakından izleyeceğini belirtiyor.





