Yapay zekalar artık hepimiz için ciddi bir tehdit mi?
Risk analistleri neden yapay zekanın artık hepimiz için ciddi bir tehdit oluşturduğunu düşünüyor?
Yapay zekalar tehdit mi
Ciddi beyinler, AI’nın insanlık için asteroitler, salgın hastalıklar ve nükleer savaşın toplamından daha büyük bir tehdit olduğu fikrine inanmaya başlıyor.
Geçen yıl, 26 Eylül 2022’de, çoğumuz farkına varmadan, insanlığın uzun vadeli hayatta kalma şansı çok az daha iyi hale geldi. Yaklaşık 11.000.000 km uzaklıkta, bir NASA uzay aracı kasıtlı olarak küçük uydu-ay Dimorphos’a çarptı ve seyahat yönünü başarıyla değiştirdi. Bir asteroit tarafından yok edilme tehlikesiyle karşı karşıya kalırsak, onun Dünya’ya çarpmasını engelleyebileceğimizi gösteren önemli bir kavram kanıtıydı.
Peki ya endişelenmemiz gereken varoluşsal tehdit Deep Impact değil de Terminatör ise? Profesyonellerin ve araştırmacıların kıyamet bilim kurgu ve gerçek dünya yapay zekası (AI) ile her türlü karşılaştırmayı ortadan kaldırmak için yıllarca süren çabalarına rağmen , bu teknolojinin haydutlaşması ve hayatta kalmaya yönelik ciddi bir tehdit oluşturması sadece Hollywood filmleri için değil. Kulağa ne kadar çılgınca gelse de bu, ciddi düşünürlerin endişe duyduğu bir tehdit haline geliyor.
AI gelişimi, en uygun olanın hayatta kalmasına benzer
Oxford Üniversitesi İnsanlığın Geleceği Enstitüsü’nde yapay zeka güvenliği alanında araştırma görevlisi olan Ryan Carey, “Yapay zeka, insanüstü zeka, kapsamlı özerklik, bazı kaynaklar ve yeni teknoloji gibi belirli bileşenlere sahipse, insanlığın geleceği için bir tehdit oluşturabilir” diyor. “Bir avuç modern insanı, bazı kaynaklara ve biraz da modern teknolojiye sahip, sekiz milyar insan dışı primat türünün bulunduğu bir dünyaya yerleştirirseniz, bu, o türün geleceği için bir tehdit oluşturabilir.”
Yapay zekayı kendi türü olarak ele alma, potansiyel olarak bir diğerini değiştirme fikri, doğal seçilim yoluyla evrim ile tutarlıdır. Cambridge Üniversitesi’nin Hesaplamalı ve Biyolojik Öğrenme Laboratuvarı’nda yardımcı doçent olan David Krueger, “Yapay zekanın bizden daha akıllı ve genellikle daha yetenekli ve evrimsel anlamda daha uygun olmaması için hiçbir neden yok” diye ekliyor.
“İnsanların Dünya’yı nasıl yeniden şekillendirdiğine ve çevreyi değiştirerek diğer birçok türün yok olmasına yol açtığına bakın” diye açıklıyor. “Eğer [AI] çevreyi insanlardan daha belirgin bir şekilde yeniden şekillendirirse, o zaman dünyanın çevresini insanların hayatta kalması için çok zor veya imkansız bir hale getirebilir.”
Bugünün yapay zekası, insan efendileriyle baş etmeye hazır olmayabilir – fotoğraflarımızdaki yüzleri tanımlamakla veya Alexa komutlarımızı kopyalamakla çok meşgul . Ancak varoluşsal risk hipotezini korkutucu yapan şey, zorlayıcı bir mantığının olmasıdır.
AI hakimiyetinin üç bileşeni
1. AI mantığı
İlk bileşen, makine öğrenimi sistemlerinin belirli hedefler için nasıl “optimizasyon” yaptığı , ancak (çoğu) insanın sahip olduğu “sağduyu”dan yoksun olduğu ile ilgilidir. Krueger, “Sistemden ne istediğinizi nasıl belirtirseniz belirtin, şartnamede her zaman boşluklar vardır” diyor. “Ve herhangi bir sağduyu yorumu olmaksızın, bu spesifikasyon için elinden geldiğince optimize eden bir sistem oluşturduğunuzda, genellikle gerçekten tuhaf ve istenmeyen davranışlarla karşılaşacaksınız.”
Başka bir deyişle, görünüşte basit bir şeyle görevlendirilen bir yapay zeka, sorunları çözme konusunda yapay zekanın “düşünme” biçimi nedeniyle tahmin edemeyeceğimiz istenmeyen sonuçlara yol açabilir. Örneğin, bir çocuğun evindeki kitap sayısının üniversite kabulüyle ilişkili olduğu söylenseydi, çocuğa daha fazla okumaz, onun yerine kutularca kitap yığmaya başlardı. Yalnızca çok katı kurallar dahilinde çalışan yapay zeka tasarladığımızı düşünsek bile, yine de olağandışı davranışlar meydana gelebilir.
2. Aşırı optimizasyon
İkinci bileşen, belirli bir görevi olan bir yapay zekanın, bunu başarmak için doğal olarak nasıl “güç arama” davranışına gireceğidir. Krueger, “Diyelim ki, Pi’nin bir sonraki basamağını elle hesaplayabileceğiniz bir algoritmanız var ve bu, her basamak için birkaç saniyenizi alıyor,” diyor. “Bunu bir bilgisayarla yapmak muhtemelen daha iyi olur ve muhtemelen bunu bulabileceğiniz en güçlü bilgisayarla yapmak daha iyi olur. Öyleyse, ‘aslında belki de yapmam gereken bir ton para kazanmak, böylece bunu daha hızlı, verimli ve güvenilir bir şekilde yapabilen özel bir bilgisayar yapabilirim’ diyebilirsiniz.
Böylesine tekil bir amacı varsa, bir yapay zeka da aynı şekilde düşünebilir. Belirli bir görev için optimize edilmiş bir yapay zeka, bu hedefe ulaşmak için elindeki her aracı kullanır. Krueger, “Bu akıl yürütme döngüsünün doğal bir sonu yok” diyor. “Bu tür bir hedefe yönelik akıl yürütme yapıyorsanız, özellikle uzun vadeli bir hedefiniz olduğunda, doğal olarak giderek daha fazla güç ve kaynak aramaya başlarsınız.”
3. Gücü devretmek
Krueger’in üçüncü bileşeni bariz soruyu yanıtlıyor: biz insanlar neden bir yapay zeka sistemine bu manyak ‘güç arama’ davranışına girme yeteneği verelim? Nihayetinde, akıllı bir yapay zekamız olsa bile, bir bilgisayarın içinde sıkışıp kalmayacak mı?
Krueger, “İnsanların bu tür sistemler kurmasını beklemenizin nedeni, sistemin ne kadar güvenli olduğu ile ne kadar etkili olduğu arasında bir tür değiş tokuş olacağıdır” diyor. “Sisteme daha fazla özerklik, daha fazla güç veya dünyayı daha fazla şekilde yeniden şekillendirme yeteneği verirseniz, o zaman daha yetenekli olacaktır.”
Bu zaten olmuyor değil – AI yazılımının herhangi bir insan müdahalesi olmadan hisse senedi ticareti yapmasına veya trafikte gezinmesine izin veriyoruz, çünkü AI doğrudan işlerden sorumlu olduğunda çok daha kullanışlıdır.
Krueger, “Temelde hiçbir şey yapmıyorsa, gerçekten güvenli bir sistem kurabilirsiniz” diye devam ediyor. “Ama ona dünyayı doğrudan etkilemek için giderek daha fazla yetenek verirseniz… gerçek dünyayı veya dijital dünyayı etkileyen eylemleri doğrudan yapmasına izin verirseniz, bu ona daha fazla güç verir ve hedeflerinize daha kolay ulaşmasını sağlar.” daha etkili.”
Yapay zeka destekli bir felaket hazırlamak
Bu bileşenleri bir araya getirmek olası bir sonuca yol açar: hedefleriniz yapay zekanın hedefleriyle aynı olmayabilir . Çünkü bir yapay zekaya bir hedef verdiğimizde, bu bizim asıl hedefimiz olmayabilir. Teorisyenler buna “hizalama” problemi diyorlar.
Bu, ataç yapmakla görevli bir yapay zeka hayal eden filozof Nick Bostrom tarafından yapılan bir düşünce deneyinde unutulmaz bir şekilde yakalandı. Gerçek dünyadaki sistemlerin yeterli kontrolüyle, üretebileceği ataç sayısını en üst düzeye çıkarmak için güç arama davranışına girebilir.
Sorun şu ki, her şeyi ataçlara dönüştürmek istemiyoruz – makineye ataç yapmasını söylememize rağmen, aslında istediğimiz sadece kağıtlarımızı düzenlemekti. Yine de, makine bu tür bir sağduyu ile kutsanmış değil. Manyak bir şekilde tek bir hedefe odaklanmış durumda kalır ve onu başarmak için kendisini daha güçlü kılmaya çalışır. Şimdi uyuşturucu veya silah sistemleri tasarlamak gibi daha korkutucu bir şeyin yerine ataç gibi iyi huylu bir şeyi koyun ve kabus senaryolarını hayal etmek daha kolay hale gelir.
Ne kadar endişelenmeliyiz?
Ataç aç bir yapay zekanın insan varlığını yok etme riski fevkalade düşük görünebilir, ancak bugün yapay zeka teknolojilerinin temelini oluşturan acımasız mantığı izleyerek tehditkar bir yapay zekanın nasıl ortaya çıkabileceğinin bir resmini çiziyor.
Carey, “Çok akıllı bir sisteminiz varsa, interneti kullanan herkesin toplum mühendisliği için kullanılabilir veya biyolojik silahlar, nanoteknoloji veya daha akıllı yapay zeka gibi olağanüstü teknolojiler geliştirebilirsiniz ” diyor.
Şanslıysak, sorunun geldiğini görebiliriz. “Daha yetenekli hale geldikçe, bir yapay zekaya giderek daha önemli kurumsal veya askeri kurumların anahtarlarını verdiğiniz için, kaynakların kademeli olarak artması daha fazla olabilir,” diye devam ediyor, belki de son birkaç on yılda nasıl yaptığımızı düşünerek. Yapay zekaya ve bilgisayar sistemlerine daha çok güveniyoruz çünkü bu, işleri daha kullanışlı hale getiriyor.
Ama tabii ki biz bu kadar şanslı olmayabiliriz. Diğer teorisyenler, kendini yeniden tasarlama ve geliştirme yeteneğine sahip bir yapay zekanız varsa, yapay zekanın karmaşıklığının gerçekten çok hızlı bir şekilde ölçeklenebileceğini iddia ediyor. Carey, “Eğer durum buysa, başımız belada demektir,” diye ekliyor.
Peki ne kadar endişelenmeliyiz? Carey ürkütücü bir şekilde, 2020’de The Precipice’ı yazan filozof Toby Ord’un asteroitler, salgın hastalıklar ve nükleer savaş gibi çeşitli varoluşsal risklerin risklerini tartmaya çalışan çalışmasına işaret ediyor . Kitapta, gelecek yüzyılda yapay zeka bağlantılı bir felaket olasılığının %10 olduğunu tahmin ederken, diğer tüm risklerin birleşiminin yalnızca %6’lık bir şansa sahip olduğunu tahmin ediyor.
Carey, “Bunun mantığı, eğer bir volkan veya başka bir şey olsaydı, bu doğal felaketlerin bizi son milyon yılda çoktan yakalamış olmasıydı” diyor. “Yapay zekanın en büyük olasılıkla büyük olasılıkla yapay zeka olduğunu düşünüyor.”
Makalenin orjinal kaynağını bu linkten okuyabilirsiniz.
Geri bildirim: GDPR Avrupalı Şirketler Tarafından Yeterince Ciddiye Alındı mı - Bilişim Profesyonelleri