BS Ekonomi Bağımsız Medyasını Destekleyin
Eğer abone iseniz giriş yapınız.
Donald Trump’ın başkan olarak göreve başladığı gün, Çinli DeepSeek adlı bir şirket dünya standartlarında bir büyük dil modeli (LLM) yayımladı. Trump bunun bir uyarı niteliğinde olduğunu belirtti. Senato İstihbarat Komitesi başkan yardımcısı Mark Warner, Amerika’nın 18 ajans ve kuruluştan oluşan istihbarat topluluğunun (IC) “gafil avlandığını” söyledi.
Geçtiğimiz yıl Biden yönetimi, Çinli casusların ve askerlerin yapay zekâyı (AI) benimseme konusunda öne geçebileceğinden endişe etmeye başladı. Kendi istihbarat ajanslarına, Pentagon’a ve nükleer silahlar üreten Enerji Bakanlığı’na daha cesur deneyler yapmalarını ve öncü AI laboratuvarlarıyla—özellikle Anthropic, Google DeepMind ve OpenAI ile—daha yakın çalışmaları talimatını verdi.
14 Temmuz’da Pentagon, Anthropic, Google, OpenAI ve Elon Musk’ın xAI şirketine, her biri 200 milyon dolara kadar varabilecek sözleşmeler verdi. xAI’nin sohbet botu, yakın zamanda yapılan bir güncelleme sonrasında (kısa süreliğine) kendisini Hitler olarak tanıtmıştı. Bu sözleşmelerin amacı “ajan benzeri” modellerle deneyler yapılmasıydı. Bu tür modeller, karmaşık görevleri adımlara ayırarak kullanıcıları adına işlem yapabiliyor ve bilgisayarlar veya araçlar gibi diğer cihazlar üzerinde kontrol sağlayabiliyorlar.
Öncü laboratuvarlar yalnızca askeri değil, casusluk dünyasında da yoğun şekilde faaliyet gösteriyor. İlk benimseme çoğunlukla LLM sohbet botlarının gizli verileri işlemesi alanında gerçekleşti. Ocak ayında Microsoft, bulut bilişim ürünlerinden 26’sının casusluk ajanslarında kullanılmak üzere onaylandığını duyurdu. Haziran ayında Anthropic, Claude Gov adını verdiği modelini piyasaya sürdüğünü ve bu modelin “halihazırda ABD ulusal güvenliğinin en üst düzeyindeki ajanslar tarafından kullanıldığını” açıkladı. Bu modeller, rakip laboratuvarların ürünleriyle birlikte artık her Amerikan istihbarat ajansında yaygın olarak kullanılmakta.
AI firmaları genellikle modellerini istihbarat kurumlarına uyacak şekilde ayarlar. Anthropic’in halka açık modeli Claude, güvenlik nedeniyle gizli işaretli belgeleri reddedebilirken; Claude Gov bu kısıtlamadan arındırılmıştır. Ayrıca kamu görevlilerinin ihtiyaç duyabileceği diller ve lehçelerde daha yüksek yeterliliğe sahiptir. Bu modeller genellikle kamu internetinden izole edilmiş güvenli sunucularda çalıştırılır. Ajanslar içinde şu anda bu tür “ajan” modellerin yeni nesilleri geliştirilmektedir.
Avrupa’da da benzer bir süreç yaşanıyor. Bir İngiliz yetkili, “Üretici yapay zekâda öncü modellere çok hızlı biçimde ayak uydurmaya çalıştık” diyor. “İngiltere İstihbarat Topluluğu’ndaki (UKIC) herkes gizli [LLM] yeteneğine erişime sahip.” Fransız şirketi Mistral, Fransa’nın askeri AI ajansı AMIAD ile ortaklık içinde çalışıyor. Mistral’ın Saba modeli, Orta Doğu ve Güney Asya verileriyle eğitilmiş olup Arapça ve Tamil gibi daha küçük bölgesel dillerde yüksek yetkinliğe sahiptir. Ocak ayında +972 Magazine, İsrail silahlı kuvvetlerinin GPT-4 kullanımının Gazze Savaşı’nın başlamasından sonra yirmi kat arttığını bildirmişti.
Tüm bu gelişmelere rağmen ilerlemenin hâlâ yavaş olduğunu söylüyor OpenAI’ın bu alandaki ortaklıklarını yöneten ve daha önce savunma ve istihbarat alanlarında görev almış olan Katrina Mulligan. “Ulusal güvenlik alanında AI’nin benimsenme düzeyi hâlâ istediğimiz noktada değil.” Amerika’nın sinyal istihbaratı kurumu NSA, onlarca yıldır ses tanıma gibi AI teknolojileri üzerinde çalıştığı için güçlü bir örnek teşkil ediyor. Ancak birçok ajans hâlâ laboratuvarların sohbet botları etrafında kendi “kaplamalarını” (wrapper) inşa etmek istiyor; bu da onları en güncel kamu modellerinin gerisine düşürüyor.
Joe Biden’ın Ulusal Güvenlik Konseyi’nde teknoloji politikasını yöneten ve şu anda Anthropic’te ulusal güvenlik politikası başkanı olan Tarun Chhabra şöyle diyor: “Dönüştürücü olan şey sadece bir sohbet botu olarak kullanmak değil. Gerçek dönüşüm şu soruda yatıyor: bunu kullanmaya başladıktan sonra görevi yerine getirme biçimimi nasıl yeniden tasarlarım?”
Şüpheciler bu umutların abartılı olduğunu düşünüyor. Britanya’nın ulusal AI enstitüsü olan Alan Turing Enstitüsü’nden Richard Carter, Amerika ve Britanya’daki istihbarat servislerinin aslında laboratuvarlardan mevcut LLM’lerdeki “halüsinasyonları” önemli ölçüde azaltmalarını beklediğini söylüyor. İsmi verilmeyen bir İngiliz yetkili, Britanya ajanslarının yaygın bir teknik kullandığını belirtiyor: bir algoritma güvenilir bilgileri arıyor ve ardından bunları LLM’e aktarıyor. Dr. Carter, “İstihbarat topluluğunun (IC) ihtiyacı olan şey tutarlılık, güvenilirlik, şeffaflık ve açıklanabilirliktir” diyor. Laboratuvarlar ise bunun yerine daha gelişmiş ajan modellerine odaklanıyor.
Örneğin Mistral’ın, potansiyel müşterilere yaptığı bir tanıtımda, her bilgi akışının—örneğin uydu görüntüleri veya ses kesitleri—birer AI ajanıyla eşleştirildiği ve bunun karar alma sürecini hızlandırdığı düşünülüyor. Alternatif olarak, yüzlerce İranlı nükleer bilim insanını tespit eden, araştıran ve ardından onları kaçmaya ikna etmeye çalışan bir yapay zekâ ajanı düşünün. Chhabra, “Ajanların savaş ortamında nasıl kullanılabileceği üzerine henüz yeterince düşünmedik” diye ekliyor.

Donald Trump’ın başkanlık görevine başladığı gün, Çinli bir şirket olan DeepSeek, dünya standartlarında bir büyük dil modeli (LLM) yayımladı. Trump bunu bir uyarı olarak değerlendirdi. Senato İstihbarat Komitesi başkan yardımcısı Mark Warner ise, 18 ajans ve kuruluştan oluşan Amerikan istihbarat topluluğunun (IC) “gafil avlandığını” söyledi.
Geçtiğimiz yıl, Biden yönetimi Çinli casusların ve askerlerin yapay zekâyı (AI) benimseme konusunda öne geçebileceğinden endişelenmeye başladı. Bu nedenle kendi istihbarat kurumlarına, Pentagon’a ve nükleer silah geliştiren Enerji Bakanlığı’na, ileri düzey modeller üzerinde daha cesurca deneyler yapmaları ve özellikle Anthropic, Google DeepMind ve OpenAI gibi “öncü” AI laboratuvarlarıyla daha yakın çalışmaları talimatını verdi.
14 Temmuz’da Pentagon, Anthropic, Google, OpenAI ve Elon Musk’ın xAI şirketine, her biri 200 milyon dolara kadar ulaşabilecek deneysel sözleşmeler verdi. xAI’nin sohbet botu yakın zamanda yapılan bir güncelleme sonrasında (kısa süreliğine) kendisini Hitler olarak tanımlamıştı. Bu sözleşmeler, “ajan-benzeri” modellerle deneyler yapılmasını kapsıyor. Bu modeller, karmaşık görevleri adımlara ayırarak kullanıcı adına hareket edebiliyor ve araçlar ya da bilgisayarlar gibi cihazlar üzerinde kontrol sağlayabiliyorlar.
Öncü laboratuvarlar yalnızca askeri değil, casusluk alanında da oldukça aktif. Erken dönem benimsemeler çoğunlukla LLM tabanlı sohbet botlarının gizli verileri işlemesi yönünde oldu. Ocak ayında Microsoft, bulut bilişim ürünlerinden 26’sının casusluk kurumlarında kullanım için yetkilendirildiğini duyurdu. Haziran ayında Anthropic, Claude Gov adlı modelini tanıttı; bu modelin “halihazırda ABD ulusal güvenliğinin en üst düzey ajansları tarafından kullanıldığını” bildirdi. Bu modeller artık rakip laboratuvarlara ait olanlarla birlikte her Amerikan istihbarat ajansında yaygın olarak kullanılmakta.
Yapay zekâ firmaları genellikle modellerini istihbarat kullanıcılarına göre özel olarak ayarlıyor. Anthropic’in halka açık modeli Claude, güvenlik önlemleri kapsamında gizli belgeleri reddedebilirken; Claude Gov bu sınırlamayı içermez. Ayrıca kamu görevlilerinin ihtiyaç duyabileceği diller ve lehçelerde daha yüksek yeterliliğe sahiptir. Bu modeller genellikle halka açık internetten izole edilmiş güvenli sunucularda çalıştırılır. Şu anda ajansların içinde yeni nesil ajan-benzeri modeller geliştiriliyor.
Avrupa’da da benzer bir süreç işliyor. Bir İngiliz yetkili, “Üretken yapay zekâda öncü modellere çok hızlı biçimde ayak uydurmaya çalıştık,” diyor. “İngiltere İstihbarat Topluluğundaki (UKIC) herkesin gizli [LLM] kapasitesine erişimi var.” Fransız firması Mistral, Fransa’nın askeri yapay zekâ ajansı AMIAD ile ortaklık kurmuş durumda. Mistral’ın Saba modeli, Orta Doğu ve Güney Asya verileriyle eğitilmiş olup, özellikle Arapça ve Tamil gibi daha küçük bölgesel dillerde oldukça yetkin. Ocak ayında +972 Magazine, İsrail ordusunun GPT-4 kullanımının, Gazze’deki savaşın başlamasının ardından yirmi kat arttığını bildirdi.
Tüm bu gelişmelere rağmen ilerleme yavaş. OpenAI’ın bu alandaki ortaklıklarını yöneten ve eski bir savunma ve istihbarat yetkilisi olan Katrina Mulligan’a göre, “Ulusal güvenlik alanında yapay zekânın benimsenme düzeyi hâlâ istenilen seviyede değil.” Amerika’nın sinyal istihbaratı servisi NSA, onlarca yıldır ses tanıma gibi önceki yapay zekâ biçimleriyle çalıştığı için güçlü bir örnek sunuyor. Ancak birçok ajans hâlâ laboratuvarların sohbet botları etrafında kendi “kaplamalarını” (wrappers) oluşturmak istiyor ve bu süreç onları kamuya açık en son modellerin gerisine düşürüyor.
Joe Biden’ın Ulusal Güvenlik Konseyi’nde teknoloji politikasını yöneten ve şu anda Anthropic’te ulusal güvenlik politikası başkanı olan Tarun Chhabra şöyle diyor: “Dönüştürücü olan şey yalnızca bunu bir sohbet botu olarak kullanmak değil. Gerçek dönüşüm şu soruda: kullanmaya başladıktan sonra görevi yerine getirme biçimimi nasıl yeniden tasarlayabilirim?”
Şüpheciler bu umutların abartılı olduğunu düşünüyor. Britanya’nın ulusal AI enstitüsü olan Alan Turing Enstitüsü’nden Richard Carter, Amerika ve Britanya’daki istihbarat servislerinin asıl istediğinin mevcut LLM’lerdeki “halüsinasyonların” önemli ölçüde azaltılması olduğunu savunuyor. İsmi verilmeyen bir İngiliz yetkiliye göre, Britanya ajansları yaygın bir teknik kullanıyor: bir algoritma güvenilir bilgileri arıyor ve bunu LLM’e aktarıyor. Dr. Carter, “İstihbarat topluluğunun ihtiyacı olan şey tutarlılık, güvenilirlik, şeffaflık ve açıklanabilirliktir,” diyor. Ancak laboratuvarlar bunun yerine daha gelişmiş ajan modellerine odaklanıyor.
Örneğin, Mistral’ın potansiyel müşterilere yaptığı bir sunumda, her bilgi akışının—örneğin uydu görüntüleri ya da ses kesitleri—birer yapay zekâ ajanıyla eşleştirildiği ve bunun karar alma sürecini hızlandırdığı düşünülüyor. Alternatif olarak, yüzlerce İranlı nükleer bilim insanını belirlemek, araştırmak ve onları taraf değiştirmeye ikna etmekle görevli bir yapay zekâ ajanı hayal edin. Chhabra, “Ajanların savaş bağlamında nasıl kullanılabileceği üzerine henüz yeterince düşünmedik,” diye ekliyor.
Ancak Dr. Carter’a göre, ajan-benzeri modellerin sorunu görevleri yerine getirirken kendi istemlerini (prompt) kendilerinin üretmesi, bunun da onları daha öngörülemez kılması ve hata zincirleme riskini artırmasıdır. OpenAI’ın en son ajan modeli olan ChatGPT Agent, şirketin değerlendirmesine göre yaklaşık %8 oranında halüsinasyon üretmekte; bu oran, daha eski o3 modelinden daha yüksek.
Bazı yapay zekâ laboratuvarları bu endişeleri bürokratik katılık olarak görse de, Dr. Carter bunu sağlıklı bir temkinlilik olarak değerlendiriyor. “Özellikle GCHQ topluluğunda,” yani NSA’nın Britanyalı muadili olan ajans için, “doğal olarak yeni teknolojilere karşı temkinli olan son derece yetenekli bir mühendislik kadrosu var.”
Bu durum aynı zamanda yapay zekânın geleceğinin nerede olduğuna dair daha geniş bir tartışmayla da bağlantılı. Dr. Carter, günümüzün genel amaçlı LLM mimarilerinin, dünyayı gerçekten kavrayacak bir neden-sonuç akıl yürütme yapısına sahip olmadığını savunanlar arasında yer alıyor. Ona göre, istihbarat ajanslarının önceliği, yeni tür akıl yürütme modelleri üzerinde çalışmak olmalı.
Bazı uzmanlarsa Çin’in öne geçmiş olabileceği konusunda uyarıyor. Silikon Vadisi merkezli bir düşünce kuruluşu olan Güvenlik ve Teknoloji Enstitüsü’nden Philip Reiner, “DeepSeek’in askeri ve istihbarat açıklarını kapatmak amacıyla ne ölçüde kullanıldığını ve bu konuda ne kadar ilerlediklerini anlamakta hâlâ büyük bir boşluk var,” diyor. “Muhtemelen bizim modellerde uyguladığımız güvenlik bariyerlerine benzer şeylere sahip değiller, bu nedenle çok daha hızlı ve güçlü içgörüler elde edebilecek durumdalar,” diye ekliyor.
23 Temmuz’da Trump yönetimi, Pentagon ve istihbarat ajanslarına, AI’yi Çin gibi rakiplere kıyasla ne kadar hızlı benimsediklerini düzenli olarak değerlendirmelerini ve “sürekli uyum sağlama yaklaşımı” geliştirmelerini emretti.
Bu konuda hemen herkes hemfikir. Senatör Warner, Amerikan casusluk kurumlarının Çin’in ilerlemesi hakkında istihbarat toplama konusunda “berbat bir iş çıkardığını” söylüyor. “Teknoloji edinimi ve Çinli teknoloji firmalarına sızma hâlâ çok düşük seviyede.” Mulligan’a göre asıl endişe, Amerika’nın AI’yi riskleri tam anlamadan aceleyle kullanması değil. “Asıl beni uykusuz bırakan şey,” diyor, “Savunma Bakanlığı ve istihbarat topluluğunun işleri her zamanki gibi yapmaya devam etmesi. Yapay genel zekâ (AGI) yarışını kazanabiliriz… ama benimsenme yarışını kaybedebiliriz.”