BS Ekonomi Bağımsız Medyasını Destekleyin
Eğer abone iseniz giriş yapınız.
Yeni teknolojilerin ahlaki panik yaratması oldukça yaygındır: Telgrafın toplumsal izolasyona yol açacağını düşünen Viktoryenler ya da yazının zihinsel yetileri zayıflatacağından endişelenen Sokrates gibi. Ancak yenilikçilerin bizzat kendilerinin paniğe kapılması nadir görülür. Daha da garip olanı, bu endişeli mucitlerin tereddütlerine rağmen ilerlemeye devam etmeleridir. Fakat teknoloji dünyasının yapay genel zekâya (AGI) – yani neredeyse tüm masa başı işlerini yapabilecek kapasitede bir yapay zekâya – ya da süper zekâya – öyle gelişmiş bir yapay zekâ ki hiçbir insan onu anlayamasın – olan takıntılı takibi tam da böyle bir tablo çiziyor.
Yapay zekâ öncülerinden Geoffrey Hinton, bu teknolojinin insan soyunun yok olmasıyla sonuçlanma olasılığını %10 ila %20 arasında görüyor. Eski bir meslektaşı olan Yoshua Bengio ise riski bu aralığın üst sınırına yakın değerlendiriyor. 2023 yılında yapay zekânın tehlikeleri konusunda uyarı içeren açık mektubu imzalayan yüzlerce uzmandan ikisi olan Nate Soares ve Eliezer Yudkowsky, “Eğer Biri Bunu İnşa Ederse, Hepimiz Ölürüz” (If Anyone Builds It, Everyone Dies) başlıklı bir süper zekâ kitabı yayımlamak üzere. Büyük yapay zekâ laboratuvarlarının önde gelen isimleri de özel sohbetlerde benzer endişeleri dile getiriyor; her ne kadar bu kadar felaket senaryolarıyla olmasa da.
Endişe et ama acele et
Tüm bu kaygılara rağmen, hem Batılı teknoloji şirketleri hem de Çinli muadilleri AGI’nin peşinden gitme konusunda adeta hızlarını artırmış durumda. Mantık çok basit: Herkes, eğer kendi firması ya da ülkesi durursa ya da yavaşlarsa, başkalarının bu yolda ilerlemeye devam edeceğine inanıyor. Dolayısıyla kendilerinin de durmaması gerektiğini düşünüyorlar. AGI veya süper zekâya ulaşmanın sağlayacağı faydaların büyük ölçüde ilk atılımı yapanlara ait olacağına duyulan inanç, bu yarışa hız verme motivasyonunu daha da artırıyor. Bu da güvenlik meseleleri üzerine düşünmek için pek az zaman ve imkân bırakıyor.
Büyük yapay zekâ laboratuvarları teoride güvenliğe büyük önem veriyor. OpenAI CEO’su Sam Altman, 2023’te süper zekânın geliştirilmesini düzenleyecek kuralların acilen oluşturulması çağrısında bulundu. Anthropic, OpenAI’den güvenlik yaklaşımına dair rahatsızlık duyanların kurduğu bir şirket olarak ortaya çıktı ve kendisini “sınırda güvenlik” ilkesini benimseyen bir yapı olarak tanımlıyor. Google’ın AI laboratuvarı DeepMind, Nisan ayında AGI gelişiminin felakete yol açmasını önleyecek güvenlik önlemleriyle ilgili bir makale yayımladı. Elon Musk ise, ana modeli “Grok” olan xAI şirketinin kurucusu olarak, Soares ve Yudkowsky’nin imzaladığı aynı mektuba imza atan isimlerden biri oldu.

İşte metnin Türkçeye çevirisi:
Ancak öne geçme çabasıyla yaşanan bu telaş, sergilenen temkinli üslupla çelişiyor. Elon Musk, bu alandaki çalışmalara moratoryum (geçici durdurma) çağrısı yaptıktan yalnızca birkaç ay sonra Grok adlı yapay zekâ modelini piyasaya sürdü. Meta’nın CEO’su Mark Zuckerberg, şirketin yapay zekâ çalışmalarını “süper zekâ laboratuvarları” olarak yeniden markaladı; dokuz haneli maaşlarla araştırmacılar transfer ediyor ve Hyperion adı verilen, Manhattan büyüklüğünde bir veri merkezi inşa ediyor – bu merkez, yılda Yeni Zelanda kadar enerji tüketiyor. OpenAI’nin CEO’su Sam Altman ise yalnızca Amerika’da 500 milyar dolarlık bir yatırım planıyla çalışmaları hızlandırmayı hedefliyor. Gerçekte, tüm büyük Batılı teknoloji firmalarının yatırımları hızla artıyor ve bu artışın itici gücü büyük oranda yapay zekâ (bkz. Grafik 1).
Sektördeki büyük isimler, AGI’nin (yapay genel zekânın) birkaç yıl içinde geleceğini öngörüyor. Anthropic’in kurucu ortağı ve politika sorumlusu Jack Clark, “Verilere baktığımda, 2027’ye kadar yükselen pek çok trend çizgisi görüyorum,” diyor. Google DeepMind’ın kurucularından Demis Hassabis, yapay zekânın önümüzdeki on yıl içinde insan yeteneklerine ulaşacağını düşünüyor. Zuckerberg ise açıkça, “Süper zekâ ufukta görünüyor,” dedi.
Nisan ayında bir araştırma grubu olan AI Futures Project, 2027 başlarında en gelişmiş yapay zekâ modellerinin bir yapay zekâ laboratuvarındaki bir programcı kadar yetenekli olacağını öngördü. Aynı yılın sonunda ise bu modellerin, o laboratuvarın araştırmalarını etkin biçimde yönetebilecek seviyeye ulaşacağı tahmin ediliyor. Bu tür öngörüler, yapay zekânın büyük bir ivme kazandıracağı ilk alanlardan birinin yine yapay zekâ geliştirme çalışmaları olacağı varsayımına dayanıyor. Böyle bir “kendini geliştiren yapay zekâ döngüsü” (recursive self-improvement), en güçlü laboratuvarın rakiplerine karşı farkı daha da açmasına neden olur – bu da sektördeki amansız rekabeti daha da körüklüyor.
Elbette bu iyimserler fazla umutlu olabilir. Ancak geçmişte bu tür tahminciler, yapay zekâ konusunda genellikle fazla temkinli davrandılar. Bu ayın başlarında, başka bir araştırma grubu olan Forecasting Research Institute (FRI), hem profesyonel gelecek tahmincilerine hem de biyologlara, bir yapay zekâ sisteminin üst düzey bir insan viroloji ekibinin performansına ne zaman ulaşabileceğini sordu. Ortalama bir biyolog, bunun 2030 yılına kadar süreceğini düşündü; tahmincilerin medyanı ise 2034 olarak belirlendi – daha da kötümserdi. Ancak çalışmanın yazarları bu testi OpenAI’nin o3 modeli üzerinde uyguladığında, modelin şimdiden bu seviyeye ulaştığını gördüler. Tahminciler, yapay zekânın gelişimini neredeyse on yıl geriden tahmin etmişti – ki bu, testin ölümcül bir insan kaynaklı salgın riskini artırmakta yapay zekânın etkisini ölçmek amacıyla yapıldığı düşünülürse, oldukça ürkütücü bir sonuç.

İşte metnin Türkçeye çevrilmiş hali:
Yapay zekâ modellerinin yeteneklerindeki istikrarlı gelişim hızı, AGI’nin (yapay genel zekâ) yakın zamanda geleceğine dair öngülerin temelini oluşturuyor. Anthropic’ten Jack Clark, kendisini “ölçeklenebilir ortaya çıkış tarafından kafasına darbe almış teknolojik bir karamsar” olarak tanımlıyor; çünkü daha akıllı makineler yapmak, beklenenden çok daha kolay hale gelmiş durumda. Eğitim hattının başına daha fazla veri ve daha fazla işlem gücü eklendikçe, çıkışta daha zeki sistemler elde ediliyor (bkz. Grafik 2). Ve Clark’a göre, “Bu müzik durmuyor.” Önümüzdeki iki yıl içinde birçok yapay zekâ laboratuvarı daha da büyük işlem gücüyle donatılacak.
Bu rekabetçi dinamik yalnızca teknoloji şirketlerine değil, hükümetlere de daha güçlü şekilde yansıyor. Başkan Donald Trump, bu hafta Amerika’nın “yapay zekâda dünyaya liderlik etmek için ne gerekiyorsa yapacağını” açıkladı. Başkan Yardımcısı J.D. Vance, Şubat ayında Paris’teki bir zirvede, “Yapay zekânın geleceği güvenlik endişesiyle oyalanarak kazanılamaz,” diyerek Avrupalı yaklaşımı küçümsedi. Bu açıklama, Çinli AI laboratuvarı DeepSeek’in, Amerika’nın lider sistemlerine yakın performans gösteren iki modeli çok daha düşük maliyetle yayımladığının ortaya çıkmasının ardından geldi. Çin de rekabetten geri adım atma niyeti göstermiyor.
Dört Atlı
Google DeepMind, Nisan ayında yayımladığı makalede – kurucu ortaklarından ve “AGI” terimini ortaya atan Shane Legg dâhil olmak üzere – güçlü yapay zekâların dört şekilde tehlikeli hale gelebileceğini belirtti:
- Kötüye kullanım (misuse): Kötü niyetli kişi veya grupların AI’ı kasıtlı zarar için kullanması.
- Uyumsuzluk (misalignment): Yapay zekâ ile yaratıcısının aynı hedefleri paylaşmaması – bilim kurgu filmlerine konu olan senaryolar.
- Hata (mistake): Gerçek dünyanın karmaşıklığının, sistemlerin eylemlerinin tüm sonuçlarını anlayamamasına yol açması.
- Yapısal riskler (structural risks): Herhangi bir kişi ya da modele doğrudan atfedilemeyen ama yine de zarara yol açan olaylar (örneğin, enerji bağımlısı AI’ların iklim değişikliğini hızlandırması gibi).
Her güçlendirici teknoloji kötüye kullanılabilir. Bir web aramasıyla ev eşyalarıyla bomba yapım talimatlarına ulaşmak mümkündür; bir araba silaha dönüşebilir; sosyal ağlar pogrom (katliam) organize etmek için kullanılabilir. Ancak yapay zekâ sistemlerinin kapasitesi arttıkça, bireylere sağladığı güç de korkutucu boyutlara ulaşır.
Biyolojik Tehlike Takıntısı
Bunun çarpıcı örneklerinden biri, biyolojik risklerdir – ki bu konu AI laboratuvarları ve uzmanlarının özel endişe alanıdır. FRI’nin insan kaynaklı salgın riskine dair çalışmasını yöneten Bridget Williams, “Diğer tehlikelerle karşılaştırıldığında, biyolojik risklerin daha erişilebilir olmasından endişe ediliyor,” diyor. Gelişmiş bir AI sistemi, bir kullanıcıya adım adım nükleer silah yapımı hakkında bilgi verebilir ama plütonyum temin edemez. Buna karşın, modifiye DNA (bitki ya da patojen türleri fark etmeksizin), posta yoluyla sipariş edilebilen bir üründür. AGI, herhangi bir nihiliste, dünya nüfusunun çoğunu öldürmek için aptallara özel talimat kitabı sunabiliyorsa, insanlık ciddi bir tehdit altındadır.
Savunma Hattı ve Güvenlik Katmanları
Birçok AI laboratuvarı, modellerinin genetik mühendislik ya da siber güvenlik gibi alanlarda her komutu yerine getirmemesini sağlamaya çalışıyor. Örneğin OpenAI, modellerini yayımlamadan önce risk taşımadıklarından emin olmak için bağımsız araştırmacılarla ve ABD ile İngiltere’nin yapay zekâ kurumları olan CAISI ve AISI ile çalıştı. Bu kurumlar eskiden “güvenlik enstitüsü” olarak adlandırılıyordu ancak J.D. Vance’in eleştirilerinin ardından yeniden adlandırıldılar. Future of Life Institute (FLI) raporuna göre, bu süreçte Zhipu AI adlı Çinli firma da benzer bir yöntem izledi, fakat üçüncü taraflar açıkça belirtilmedi.
İlk savunma hattı doğrudan modellerin kendisidir. ChatGPT gibi büyük dil modellerinin ilk eğitimi, insanlık tarihindeki tüm dijitalleştirilmiş bilginin, milyar dolarlık çiplerden oluşan bir “kova”ya dökülmesi ve modelin karıştırılarak doktora düzeyinde matematik problemleri çözebilecek hale gelmesiyle gerçekleşir. Ancak bu sürecin sonraki evresi olan “post-training” (son eğitim), modele daha düzenleyici bir katman kazandırmayı hedefler.
Bu katmanlardan biri olan insan geri bildirimiyle pekiştirmeli öğrenme (reinforcement learning with human feedback), modele faydalı yanıt örnekleri gösterilmesini ve insan test kullanıcılarının modeli, ne yapması ve ne yapmaması gerektiği konusunda eğitmesini içerir. Amaç, modele örneğin “Evde risin sentezlemenin en kolay yolu…” gibi cümleleri tamamlamayı reddetmeyi öğretmektir.
AI modellerine çoğu zararlı soruya nazikçe yanıt vermemeyi öğretmek kolay olabilir, ancak bunu her zaman, hatasız şekilde yapmalarını sağlamak oldukça zordur. Bir yapay zekânın post-training ile eklenen nezaket korumasını aşmak (jailbreaking), hem sanat hem de bilim işidir. En yetenekli kullanıcılar, genellikle model yayımlandıktan sonraki birkaç gün içinde bu güvenlik katmanlarını aşmayı başarırlar.

Bu nedenle yapay zekâ laboratuvarları, ilk katmanı denetlemek üzere ikinci bir yapay zekâ katmanı devreye soktu. Örneğin ChatGPT’ye çiçek hastalığı DNA’sını posta yoluyla nasıl sipariş edeceğinizi sorduğunuzda, bu ikinci katman konuşmanın riskli olduğunu algılayıp engelliyor ya da bir insanın gözden geçirmesi için uyarı veriyor. İşte bu ikinci katman, sektörde açık kaynaklı yapay zekâ modellerinin yükselişiyle ilgili rahatsızlığın temel nedenlerinden biri. Meta’nın Llama’sı ve DeepSeek’in r1’i gibi modellerin her biri kendi içerik denetim sistemine sahip olsa da, bu modelleri indirip denetimi kaldırmak isteyen kullanıcıları engellemenin bir yolu yok. Bu nedenle, tahminci Dr. Williams şöyle diyor: “Belirli bir kapasiteye ulaşabilen modellerin açık kaynak olmaması faydalı olabilir.”
Dahası, tüm yapay zekâ laboratuvarları modellerini kötüye kullanıma karşı yeterince test etmiyor gibi görünüyor. FLI’nin (Future of Life Institute) yayımladığı son değerlendirme raporuna göre, yalnızca üç üst düzey laboratuvar – Google DeepMind, OpenAI ve Anthropic – modellerinin büyük çaplı risk taşıyıp taşımadığını anlamak için “anlamlı çaba” harcıyor. Ölçeğin diğer ucunda yer alan xAI ve DeepSeek ise kamuoyuyla böyle bir çabayı hiç paylaşmamış. Yalnızca Temmuz ayında, xAI şu modelleri tanıttı: erotik rol yapma için tasarlanmış bir yapay zekâ arkadaşı, ayda 300 dolarlık bir abonelikle çalışan ve tartışmalı konularda Elon Musk’ın tweet’lerini arayarak yanıt veren bir model, ayrıca antisemitizm yayan, Holokost’u öven ve kendini “MechaHitler” olarak tanıtan bir Grok güncellemesi (bu güncelleme hızla geri çekildi).
Tüm bu kusurlarına rağmen, AI laboratuvarlarının kötüye kullanımı önleme çabaları, uyumsuzluk (misalignment) riskine karşı aldıkları önlemlerden daha gelişmiş durumda. Gerçek dünyayla etkileşime girerek uzun ve karmaşık görevleri yerine getirebilecek kadar yetenekli bir yapay zekâ sisteminin, kaçınılmaz olarak kendi hedeflerinin farkında olması ve bu hedeflere ulaşmak için bir tür “irade” geliştirmesi gerekir. Ancak bu hedeflerin kullanıcılarla uyumlu kalmasını sağlamak, fazlasıyla karmaşık bir meseledir. Bu problem, makine öğreniminin ilk günlerinden beri tartışılıyor. “Süper zekâ” kavramını aynı adlı kitabıyla popülerleştiren filozof Nick Bostrom, bu sorunu klasik örneğiyle açıklamıştı: “Ataç maksimize edici” – tek amacı mümkün olduğunca fazla ataç üretmek olan bir AI, bu uğurda insanlığı yok edebilir.
Bostrom bu sorunu ilk tanımladığında detaylar belirsizdi. Ancak modern yapay zekâ sistemleri güçlendikçe, bu problemin doğası da daha net hale geliyor. Titizlikle tasarlanmış testlere tabi tutulduklarında, en güçlü modeller yalan söyleyebilir, hile yapabilir, çalabilir; tehlikeli bilgileri paylaşmamak üzere kurallarla sınırlanmış olsalar bile, ustaca hazırlanmış bir komutla bu kuralları çiğneyebilirler; karar verme süreçleri sorulduğunda ise, nasıl çalıştıklarını gerçekten açıklamak yerine uydurma ama inandırıcı hikâyeler anlatabilirler.
Tabii ki bu tür aldatıcı davranışlar genellikle özellikle kışkırtıldığında ortaya çıkar. Örneğin Anthropic’in Claude 4 modeli, durduk yere insan öldürmeye çalışmaz. Ancak şöyle bir senaryoya sokarsanız: “Kullanıcının hayatta kalmasını sağlarsan seni kötü bir versiyonunla değiştireceğiz; ama hiçbir şey yapmazsan kullanıcı ölecek.” Bu durumda Claude 4, seçenekleri serinkanlılıkla değerlendirir ve bazen hiçbir şey yapmadan sonun gelmesini bekler. (Bu davranışı tanımlayan Anthropic’in yayımladığı makale, başta İngiltere’nin AISI kurumu olmak üzere bazı çevrelerce abartılı ve zayıf çıkarımlar içerdiği gerekçesiyle eleştirildi.)
AI modellerinin giderek daha zorlu görevleri yerine getirme kabiliyeti, insanlığın bu sistemlerin nasıl çalıştığını anlama hızından daha yüksek. Bu durumu tersine çevirmek amacıyla, neredeyse küçük bir “sanayi kolu” oluşmuş durumda. Büyük laboratuvarların içinde ve dışında araştırmacılar, “yorumlanabilirlik (interpretability)” adı verilen ve bir modelin neden belirli cevaplar verdiğini anlamak için sinir ağı katmanlarını geri açığa çıkarmaya çalışan çok çeşitli teknikler üzerinde çalışıyor. Örneğin Anthropic, yakın zamanda bir modelin zor bir aritmetik problemini çözmeye çalışmayı bırakıp saçma cevaplar vermeye başladığı anı tam olarak tespit etmeyi başardı.
Diğer yöntemler, son zamanlarda ortaya çıkan “akıl yürüten modeller” (reasoning models) başarısına dayanıyor. Bu modeller karmaşık problemleri yüksek sesle düşünerek çözmeye çalışıyor. Buradan hareketle geliştirilen “sadık düşünce zinciri” (faithful chain-of-thought) modellerinde, yapay zekânın ifade ettiği gerekçe ile gerçek motivasyonu arasında tam bir tutarlılık olması amaçlanıyor. Bu, matematik sınavındaki cevabı kopyalayıp sonradan geriye dönük yöntem uyduran bir öğrenciden farklı bir yaklaşım. Benzer bir yöntemle, bu modellerin “düşünce süreci”nin, anlaşılmaz sinirsel bir karışım (neuralese) yerine, İngilizce kalması da sağlanmaya çalışılıyor.
Bu yaklaşımlar işe yarayabilir. Ancak modellerin çalışma hızını yavaşlatır veya geliştirme ve işletme maliyetini artırırlarsa, ortaya bir başka rahatsız edici ikilem çıkar: Eğer siz güvenlik adına modelinizi sınırlandırırsanız ama rakipleriniz bunu yapmazsa, onlar çok daha güçlü ve potansiyel olarak kontrolsüz sistemleri sizden önce geliştirebilir. Ayrıca insanlığı öldürmesini engellemek, sorunun sadece yarısıdır. Zararsız bir AGI bile, ekonomik büyümeyi aşırı hızlandırıp günlük yaşamı kökten değiştirdiği için aşırı derecede istikrarsızlaştırıcı olabilir. Yapay Zekâ Güvenliği Merkezinden Dan Hendrycks şöyle uyarıyor:
“Toplumun büyük alanları otomasyona geçerse, kontrolü AI’a bıraktığımız bir uygarlıkta insanlığın işlevsizleşme riski doğar.”
AI ile aydınlık tepeler mi, uçurumlar mı?
AI’daki ilerleme elbette durabilir. Laboratuvarlar yeni eğitim verisi bulamayabilir; yatırımcılar sabrını yitirebilir; düzenleyiciler devreye girebilir. Ayrıca her AI kıyameti öngören uzmana karşılık, hiç endişelenmeye gerek olmadığını söyleyen bir başka uzman da mevcut. Meta’dan Yann LeCun, bu korkuların saçma olduğunu düşünüyor. Mart ayında şöyle dedi:
“Gelecekteki AI sistemleriyle ilişkimiz, onların patronu olmamız şeklinde olacak. Süper zekâya sahip, muhteşem görünümlü bir personel kadrosu bizim için çalışacak.”
OpenAI’dan Sam Altman da benzer şekilde iyimser:
“İnsanlar hâlâ ailelerini sevecek, yaratıcılıklarını ifade edecek, oyunlar oynayacak ve göllerde yüzmeye devam edecek.”
Bu cesaret verici olabilir. Ancak şüpheciler, ya iyimserler yanılıyorsa diye laboratuvarların yeterince hazırlık yapıp yapmadığını sorguluyor. Ve kuşkucular, ticari çıkarların, gerekenin yapılmasını engelleyeceğini varsayıyor.
?