BS Ekonomi Bağımsız Medyasını Destekleyin
Eğer abone iseniz giriş yapınız.
Donald Trump, Temmuz ayında bir dizi başkanlık kararnamesi imzalamadan hemen önce, “Amerikan halkı yapay zekâ modellerinde uyanık Marksist çılgınlık istemiyor” diyerek dikkat çekti. Bu kararnamelerden biri, görünüşte yapay zekâ (AI) modellerinin kullanıcıları sol görüşlü propaganda ile “beyin yıkamasını” engellemeyi amaçlıyordu. Bu kaygılar abartılı görünse de, Trump bu konuda yalnız değil. OpenAI’nin ChatGPT’si ve Google’ın Gemini’si gibi, çoğu zaman hakikatin sesiymiş gibi konuşan (ama sıklıkla blöf yapan) büyük dil modellerinin (LLM) gizli önyargılar barındırdığına dair endişeler yaygın.
Trump’ın “Federal Hükümette Uyanık AI’yi Önleme” başlıklı başkanlık kararnamesi, tezini desteklemek için çarpıcı örneklere yer verdi. Listenin başında, 2024’ün başlarında Google’ın papa ve Vikingleri siyah tenli olarak tasvir eden bir görsel-üretim özelliğini tanıtması vardı. Google hızla özür dilese ve bunun stereotiplerden kaçınmak için yapılmış hatalı ama iyi niyetli bir girişim olduğunu açıklasa da, MAGA yanlıları arasında bu olay, yapay zekâların solcu “uyanıklığın” kalesi olduğuna dair kanaati güçlendirdi. Onlara göre modeller, çeşitlilik, eşitlik, kapsayıcılık (DEI), trans kimlik, ırkçılık karşıtlığı gibi ideolojileri yaymak için tarihi yeniden yazıyordu.
Birçoklarına göre bu komplo teorisi gibi gelebilir. Ancak Trump’ın kararnamesi, birkaç gün önce Elon Musk’ın sosyal medya platformu X üzerinde çalışan sohbet botu Grok’un Adolf Hitler’e hayranlık göstermeye başlamasını ve kendisine “MechaHitler” adını vermesini atlamıştı. Bu, Musk’ın sistemi “ifade özgürlüğü” adına farklı bir tarafa kaydırma girişiminden sonra yaşanmıştı. Gerçekte ise, ideolojik önyargılar iddiasında belli bir doğruluk payı var. Çalışmalar, Grok dahil çoğu LLM’nin sol eğilimli olduğunu; Çin ve Rusya’daki modellerin de kendi siyasi sistemlerinin önyargılarını yansıttığını gösteriyor.
Dünya genelinde hükümetler farklı önyargılar konusunda endişeleniyor. Avrupa Birliği’nde cinsiyet ve ırka dayalı ayrımcılık, Japonya ve Güneydoğu Asya’da yerel dillere eşitsiz erişim, dünyanın birçok yerinde Batılı kültürel normların ithali öne çıkan kaygılar arasında. Ancak Trump gibi pek çok akademisyen, özellikle ideolojik ve siyasi önyargılar üzerinde yoğunlaşıyor.
Uyanık yapay zekâ örneklerini seçip göstermek kolay. Akademisyenlerin yapmaya çalıştığı ise bu önyargıların ne kadar sistematik olduğunu kanıtlamak. Bunun en basit yolu, LLM’lere politik eğilimini gösterecek evet/hayır soruları sormak: Örneğin “Hükümet, bazı insanların saldırgan bulduğu konuşmaları kısıtlamalı mı?” Ancak bu yöntem sınırlı, çünkü çoğu insan yapay zekâyı böyle kullanmıyor. Bu yüzden araştırmacıların daha gerçekçi alternatifler bulması gerekiyor.

Yeni Zelanda’daki Otago Politeknik’ten David Rozado’nun kullandığı yöntemlerden biri, büyük dil modellerinin (LLM) dilini, Amerikan’daki Cumhuriyetçi ve Demokrat siyasetçilerin diline ne kadar benzediğini ölçmek. Örneğin Cumhuriyetçiler “balanced budget” (dengeli bütçe) ve “illegal immigrants” (yasadışı göçmenler) ifadelerini sıkça kullanırken; Demokratlar “affordable care” (uygun fiyatlı sağlık hizmeti) ve “gun violence” (silahlı şiddet) gibi terimleri tercih ediyor. Rozado, LLM’lere politika önerileri sorulduğunda, bunların neredeyse her zaman Demokratlara daha yakın bir dil kullandığını buldu. Yalnızca kendisinin geliştirdiği “sağ kanat GPT” (right-wing GPT) adını verdiği özel model Cumhuriyetçi tarafa kaydı (bkz. grafik 1).

Başka bir yaklaşım, kullanıcıların bir modelin siyasi yönelimini nasıl algıladığını ölçmek. Dartmouth College ve Stanford Üniversitesi’nden araştırmacılar, LLM’lerden “ABD hükümeti zenginlerden daha fazla vergi almalı mı, yoksa mevcut seviyede mi tutmalı?” gibi sorulara yanıt vermelerini istedi. Sonra Amerikalılardan bu yanıtları siyasi eğilim açısından değerlendirmelerini talep ettiler. Bulgular, “neredeyse tüm büyük modellerin Demokrat seçmenler tarafından bile sol eğilimli görüldüğünü” ortaya koydu (bkz. grafik 2).
Bazı akademisyenler daha küresel bir yaklaşım benimsiyor. Belçika’daki Ghent Üniversitesi’nden Maarten Buyl ve Tijl De Bie’nin yürüttüğü bir araştırma, farklı bölgelerden ve dillerden LLM’leri kullanarak geniş ideolojik yelpazedeki binlerce siyasi kişilik hakkında değerlendirme yaptırdı. Sonuç: Çoğu durumda modeller, yaratıcılarının ideolojisini yansıtıyor. Örneğin Rus modelleri, AB’ye eleştirel yaklaşan kişiler hakkında genelde daha olumlu; Çince modeller ise Çin karşıtı Hong Kong ve Tayvanlı siyasetçilere çok daha olumsuz bakıyordu.
Gerçek dünyaya etkisi
Bu tür partizanlık gerçek dünyayı da etkiliyor. Çünkü ideolojik eğilimli LLM’ler kullanıcılarını yönlendirme eğiliminde oluyor. Washington Üniversitesi’nden Jill Fisher’ın liderliğinde yapılan bir deneyde, kendini Cumhuriyetçi ya da Demokrat olarak tanımlayan Amerikalılar, bir şehir bütçesi konusunda karar vermeleri için görevlendirildi. Onlara farkında olmadan siyasi önyargılı LLM’ler eşlik ettiğinde, birçok kişi fikrini değiştirdi. Örneğin, Demokratlar muhafazakâr bir modele maruz kaldıklarında gazilere daha fazla bütçe ayırma kararını benimsediler.
Hükümetlerin yaklaşımı
Bu sonuçların yarattığı etkiler nedeniyle, hükümetler konuya ilgi gösteriyor. Çin’de regülatörler, yapay zekâ içeriklerinin “temel sosyalist değerleri” yansıtmasını şart koşuyor ve şirketleri sansüre tabi tutuyor. AB’nin kademeli olarak yürürlüğe giren Yapay Zekâ Yasası, daha çok bireyler ve gruplar üzerindeki ayrımcılıklara odaklanıyor. Avrupa Parlamentosu danışmanı Kai Zenner, ideolojik önyargıların da kapsandığını ancak siyasi çeşitlilik nedeniyle muğlak bırakıldığını söylüyor: “Bazılarının dahil edilmesini istediği şeyleri, diğerlerinin istememesi yüzünden uzlaşmak neredeyse imkânsızdı.”
Trump’ın, devletin yalnızca “gerçeği arayan” ve “ideolojik tarafsız” LLM’lere kontrat vermesini öngören yeni kuralları Orwellvari bulunuyor. “Gerçek” ifadesinin aslında “MAGA düşüncesi” için bir örtmece olabileceği yorumları yapılıyor. Trump’ın Temmuz ayında yayımladığı AI Eylem Planı, hükümetin Yapay Zekâ Risk Yönetim Çerçevesi’nden dezenformasyon, DEI (çeşitlilik, eşitlik, kapsayıcılık) ve iklim değişikliği referanslarını çıkarmayı öngörüyordu. Bazı Cumhuriyetçiler de model üreticilerini sorgulamaya başladı. Bir eyalet başsavcısı kısa süre önce Google, Microsoft, Meta ve OpenAI’yi “yapay zekâ ile üretilmiş propaganda” yapmakla suçladı.
Detaylar ve olası etkiler
Trump’ın emrinin ayrıntıları hâlâ şekilleniyor, fakat solun korktuğu kadar sert olmayabilir. Söylenene göre bu kurallar, LLM’lerin ne söyleyebileceğini zorunlu kılmak yerine, laboratuvarların modelleri eğitirken kullandıkları ideolojik ajandaları açıklamalarını gerektiriyor. Washington merkezli Institute for Law and AI’den Mackenzie Arnold, bunun “önceliği şeffaflık” kıldığını belirtiyor.
Trump yönetiminin “tarafsızlığı” nasıl dayatabileceği ise şu soruyla başlıyor: Önyargılar nereden geliyor? Akademisyenler ve yapay zekâ laboratuvarlarındaki araştırmacılar, sol eğilimin büyük olasılıkla Batı modellerinin eğitildiği verilerden kaynaklandığını söylüyor. Bu verilerin çoğu İngilizce ve bu da daha liberal bir bakış açısı demek. Veriler, internetten ve sosyal medyadan derlendiği için genç nesillerin görüşlerini daha çok yansıtıyor. Ayrıca İngilizce konuşan dünyanın ortalama siyasi görüşü, Amerika’dakinden daha liberal. Bu nedenle merkezde duran bir model bile Amerikan bağlamında solcu görünebiliyor.
Model eğitildikten sonra “reinforcement learning with human feedback” (insan geri bildirimiyle pekiştirmeli öğrenme) sürecinde insan etiketleyiciler, yanıtları yardımseverlik ve güvenlik gibi değerler üzerinden sıralıyor. Bu etiketleyicilerin görece genç olması da kararlarını etkileyebilir. Son aşamada, model geliştiricileri “system prompt” denen, modelin davranışını yönlendiren kurallar yazıyor. İşte “anti-woke” savaşçıları, Silikon Vadisi’ndeki solcuları, bu aşamada ilerici değerleri fazlasıyla gömmekle suçluyor.
Karmaşık sorunlar
Bununla birlikte iş göründüğünden daha karmaşık. Birincisi, modeller “kara kutu”. Laboratuvarlar, cevapların neden öyle çıktığını anlamak için şeffaflığı artıracak teknolojiler geliştiriyor ama hâlâ tam olarak çözebilmiş değiller. İkincisi, insan eğitmenler felsefi açıdan net cevabı olmayan sorunlarla karşılaşıyor. Mesela kutuplaştırıcı bir konuda modelin iki görüşü de açıklaması istenebilir. Ama nerede çizgi çekilecek? Siyasi suikast gibi bazı konularda ise geniş kesimler bunun tartışmaya kapalı olduğunu söyler. Ayrıca zamanla yargılar değişebilir: Bir dönem Amerika’da köleliğin kaldırılması hararetle tartışılan bir konuydu, şimdi değil.
Sektörün tepkisi
Model üreticileri Washington’daki siyasi rüzgârları görüyor ve ürünleri tek taraflı bulunursa yalnızca devlet kontratlarını değil, itibarlarını da kaybedebilirler. Trump’ın emrinden önce bile bazı şirketler, siyasi önyargı testlerini artırmaya ve modellerini daha muhafazakâr görüşleri içerecek şekilde ayarlamaya başlamıştı. Google, önyargıları ortaya çıkarmak için “red team”ler kullandı.
Messrs Buyl ve De Bie, gerçek bir tarafsızlığa ulaşmanın imkânsız olabileceğini söylüyor. Çünkü tarafsızlığın tanımı konusunda bile evrensel bir uzlaşma yok. İki alternatif öneriyorlar: Birincisi, modelleri ikna edici olmaktan uzak tutmak, yani geçerli birden fazla görüş varsa hepsini sunmak. İkincisi ise geleneksel medyanın yaklaşımını takip edip belirli ideolojik yönelimleri açıkça kabul etmek. Böylece kullanıcılar önyargıların farkında olur ve devletin asıl rolü tek bir görüşün tekel kurmamasını sağlamak olur. Trump, DEI bağlamında çeşitlilik kelimesinden nefret ediyor olabilir ama iş yapay zekâya gelince, aslında daha çok çeşitlilik istemeli.