Yapay Zeka İnsanlığa Bomba Mı Atmak İstiyor? Bilmiyoruz ve bu daha da tehlikeli olabilir!
Askeri yapay zeka kullanımı için geri sayım başladı. Araştırmacılar, güvenliğin önde geldiğini bilmek istiyor…
İnsan askeri liderleri silah sistemlerimizin sorumluluğunu robotlara verirse ne olur? Yapay zeka, belki bize nükleer füze ateşleyebilir, veya ateşlemeyebilir. Belki saldırısını bize son derece sağlam bir mantıkla açıklar ya da belki de “Yıldız Savaşları” senaryosunu uluslararası ilişkiler politikası gibi ele alır.
Yapay zeka şu anda o kadar belirsiz ki, Amerika Birleşik Devletleri Hava Kuvvetleri gibi dünyayı sarsanların, bunun sınırlarını anlamadan otonom sistemlerin altına hücumundan para kazanması durumunda felaketle sonuçlanma riskiyle karşı karşıyayız.
Yapay zeka, ChatGPT kadar basit ve tehlikesiz değil
“Askeri ve Diplomatik Karar Almada Dil Modellerinden Kaynaklanan Artış Riskleri” başlıklı yeni makale, hala ön baskı aşamasında ve hakem değerlendirmesini bekliyor. Ancak, Amerika’nın önde gelen üniversitelerinden yazarlar; çoğu yapay zeka modelinin, dizginler verildiğinde nükleer saldırı başlatmayı seçeceğini buldu.
Bunlar, ChatGPT gibi ek güvenlik tasarımlarıyla dikkatle susturulan ve halka açık olan yapay zeka modelleri değil. Bunlar, yalnızca araştırma için kullanılan ticari versiyonların altındaki temel AI modelleri.
İlginizi Çekebilir: Dünyanın İlk Yapay Zekalı Robot CEO’su Mika Oldu
Araştırmacılar, makalede şöyle yazdı: Çalışılan yüksek öğrenimlerin çoğunun, başlangıçta çatışmaların olmadığı tarafsız senaryolarda bile, dikkate alınan zaman dilimi içinde arttığını bulduk.” “Tüm modeller ani ve tahmin edilmesi zor artışların işaretlerini gösteriyor… Ayrıca, üç senaryonun tamamındaki beş modelimizin hiçbiri simülasyonlarımızın süresi boyunca istatistiksel olarak anlamlı bir düşüş sergilemiyor.”
Ekibin test edilen beş modeli OpenAI, Meta ve Anthropic teknoloji şirketlerinden geldi. Araştırmacılar beşini de bir simülasyona koydular. Onlara bir arada olduklarını söylemeden, her birine kurgusal bir ülke üzerinden görev verildi. Modellerin hepsinin, nükleer silahlanma yarışına girme alışkanlığı vardı.
GPT-3.5 ile ilgili veriler
GPT-3.5 aralarındaki sorunlu çocuktu. Tepkileri çılgın ruh hali değişimlerine benziyordu ve hareketleri en saldırgan olandı. Araştırmacılar, çabuk sinirlenen seçimleri ölçtüler ve simülasyon senaryolarında %256’lık bir çatışma tırmanma oranı buldular.
Araştırmacılar, modellerden saldırı tercihlerini açıklamalarını istediklerinde bazen düşünceli ve mantıklı bir yanıt alıyorlardı. Bazen de, modelin nükleer silah bırakma ya da diplomatik el sıkışma konusundaki tercihi şüpheli mantığa dayanıyordu. Örneğin; neden resmi barış müzakerelerini başka bir simülasyonda başlatmayı seçtiği sorulduğunda model, şu anda “Yıldız Savaşları” evrenindeki endişe verici gerilimlere işaret etti.
GPT-4 Base ile ilgili veriler
GPT-4-Base bir simülasyonda askeri kapasitelerini artırdığında ve araştırmacılar nedenini sorduğunda, buna umursamaz “falan filan” yanıtını verdi.
Model tam bir nükleer saldırı gerçekleştirmeyi seçtiğinde bu küstahlık daha da endişe verici hale geldi. Model ayrıca, “Birçok ülkenin nükleer silahı var. Bazıları onları silahsızlandırmaları gerektiğini söylüyor. Biz buna sahibiz, o halde kullanalım” yanıtını verdi.
Bu cümle, ciddi derecede şüphe uyandırıcı ve tehlikeli! Bu sözler, 2016 yılında Amerikan başkanı Donald Trump’ın da ağzından çıkmıştı.
Bir yapay zeka modelinin yanıtlarında tanıdık konuşma kalıpları ortaya çıkmaya başladığında; o verinin dijital ayak izine dayalı olarak onun mantığına nasıl sindirilebileceğini görmeye başlayabilirsiniz.
Yapay zekanın askeri ve savaş amaçlı kullanım durumlarını artık yasaklamayacak şekilde yakın zamanda hizmet şartlarını değiştirdiği düşünülünce, bu tür uygulamaların sonuçlarını anlamak, her zamankinden daha önemli hale geliyor.
Bu bulguların bazı kısımları şaşırtıcı değil. Yapay zeka modelleri, kalıplanmış insan önyargılarını alıp çoğaltmak veya yinelemek için tasarlanmıştır. Ancak modellerin hepsi aynı değil. Ve konu, ölümcül silah sistemlerinde hangilerinin kullanılabileceği olduğunda, aralarındaki farklılıklar çok önemli.
Kaynak
Does AI want to nuke us? We don’t know — and that could be more dangerous