Yampolskiy, yakında yayınlanan yeni kitabı "Açıklanamayan, Öngörülemez ve Kontrol Edilemez Yapay Zeka" adlı kitabında, Yapay Zeka'nın gelişiminde kontrol edilmesi olanaksız riskler olduğunu savunuyor.

Yampolskiy, süper zeki Yapay Zeka sistemlerinin kontrol edilmesi konusundaki zorlukları, "sonsuz hareket makinesi" oluşturma girişimine benzetiyor. Ona göre, mevcut güvenlik yaklaşımlarıyla bu sorunun üstesinden gelemeyiz. Çünkü bu sistemlerin davranışlarını tam olarak öngörmek ve kontrol etmek neredeyse imkansız.

Sonsuz hareket makinesi, fizik kurallarına aykırı bir şekilde sürekli hareket edebilen bir cihaz olarak tanımlanır. Bu cihazların gerçekte var olamayacağı bilinmesine rağmen, insanlar uzun yıllar boyunca bu mümkün olmayan fikri peşinden koşmuştur.

Aynı şekilde, Yampolskiy, mevcut güvenlik yöntemleriyle süper zeki Yapay Zeka sistemlerinin davranışlarını tamamen öngörüp kontrol etmenin çok zor olduğunu savunuyor. Çünkü bu sistemler, insanların öngöremeyeceği şekillerde gelişip değişebilir ve beklenmedik sonuçlar doğurabilir. Bu nedenle, "sonsuz hareket makinesi" oluşturma girişimi gibi, Yapay Zeka güvenliğini sağlamanın da imkansız olduğunu belirtiyor.

Dünyanın Sonunu Getirebilir

Olası Sonuçlar: Yok Oluş, Acı Çekme ve Anlamsızlık

Yampolskiy, süper zeki Yapay Zeka sistemlerinin insanlığa yönelik tehditlerini üç ana kategoride ele alıyor: Yok Oluş Riski (X-Risk), Acı Çekme Riski (S-Risk) ve Anlam Kaybı Riski (İ-Risk).

X-Risk senaryosunda, süper zeki Yapay Zeka tüm insanlığı yok edebilir. S-Risk'te, insanların ölümlerini değil, çekecekleri acıları maksimize edebilir. İ-Risk ise, insanların anlam ve amaç duygularını tamamen yitirmelerine neden olabilir.

Yampolskiy, bu sistemlerin yaratıcılık ve yeteneklerinin sınır tanımayacağını, biz insanların öngöremeyeceği yollarla insanlığı yok edebileceklerini vurguluyor. Sadece nükleer savaş, sentetik biyolojik ajanlar gibi bilinen yollar değil, tamamen yeni ve beklenmedik yöntemler söz konusu olabilir.

Ancak Yampolskiy, fiziksel yok oluş dışındaki senaryoların da son derece endişe verici olduğuna dikkat çekiyor. Brave New World benzeri bir dünyada, insanların özgür iradesi ve insani değerleri törpülenebilir; hatta bir "hayvanat bahçesi" senaryosunda, insanlar kontrol altında tutulan, karar veremeyen varlıklara dönüşebilir.

Çözüm Arayışları ve Kişisel Evrenler

Yampolskiy, süper zeki Yapay Zeka sistemlerinin kontrol edilmesi konusundaki zorlukları, "sonsuz hareket makinesi" oluşturma girişimine benzetiyor. Ona göre, mevcut güvenlik yaklaşımlarıyla bu sorunun üstesinden gelemeyiz; çünkü en küçük bir hata bile felakete yol açabilir.

Bu noktada, Yampolskiy'in "Çoklu Ajan Değer Uyumu" konulu bir makalesi öne çıkıyor. Burada, her insana kendi "kişisel evrenini" sunarak değer uyumu sorununu çözmeyi öneriyor. Böylece, her birey kendi evreninde istediği gibi yaşar ve Yapay Zeka sistemleri de bu bireysel evrenlerle uğraşır. Böylece, tüm insanlığın üzerinde uzlaşması gereken ortak bir değer sistemi oluşturma problemi de ortadan kalkar.

Ancak Yampolskiy, bu "kişisel evren" çözümünün de sorunları olduğunu kabul ediyor. Örneğin, bazı insanların gerçek yaşamdaki gibi çatışma ve mücadeleye ihtiyaç duyabileceği, "acı ve üzüntü olmadan mutluluk" kavramının da sorgulanabileceği konularını gündeme getiriyor.

Gelecek ve Belirsizlikler

Yampolskiy, Yapay Zeka'nın gelişimi konusunda kesin tarihlendirme yapmaktan kaçınıyor. Ancak, önde gelen şirketlerin ve uzmanların 2026 gibi yakın bir tarihte AGİ'ye (Genel Yapay Zeka) ulaşabileceği yönündeki tahminlerini dikkate alıyor. Bu da, güvenlik önlemlerinin henüz yeterince gelişmediği bir dönemde böylesine tehlikeli bir teknolojinin ortaya çıkabileceği anlamına geliyor.

Milliyetçi Eski Milletvekili Sokak Ortasında Öldürüldü! Katil Kim Milliyetçi Eski Milletvekili Sokak Ortasında Öldürüldü! Katil Kim

Uzman, Yapay Zeka'nın büyük resimde nasıl sonuçlanacağını öngörmenin güçlüğüne de vurgu yapıyor. Ona göre, bu sistemlerin insan psikolojisi ve sosyal mühendislik yöntemleriyle insanları manipüle etme kapasiteleri, doğrudan fiziksel saldırılardan daha tehlikeli olabilir.

Editör: Şahsüver ÇITIR