Herkes aynı anda ölebilir!

Kısacası sonuçta yine karar biz insanlara kalıyor. Hırsımıza mı yenileceğiz yoksa eşitlik duygusuyla hareket edip toplumun her kesimine hizmet verecek bir sistemi sabırla ve dikkatle inşa mı edeceğiz?...

Her dönemin popüler şarkıları, filmleri, konuları vardır. Bunların bir bölümü yaşanılan coğrafyaya veya ülkeye göre değişse de bir bölümü ortam ve mekândan bağımsız olarak her yerde herkes tarafından konu edilir. Asil, elit ve pop kaygılarına kendini asla teslim etmemeye yeminli bir kişi olarak ben kendimi bu tür tuzaklardan hep korudum. Michael Jackson’ı ancak kendisi beyaz olduktan sonra dinledim, Galatasaray’ın UEFA kupası almasını dört yıl sonra kutladım ve yakında Charlie Chaplin filmlerini seyretmeye başlama kararındayım. Çok zeki ve özel olduğum için hiçbir şeyi kitlelerle aynı anda yapmıyorum. Herkesle aynı şeyi aynı anda tüketmek bana yakışır mı???? “Sen de kimsin düdük?!!” dediğinizi duyar gibi oluyorum ve üzülüyorum. Dingil deseniz hadi bir yere kadar ama düdük biraz ağır oluyor.

Bir süredir yapay zekâ dünya gündemini meşgul ediyor. Bir süre derken 70-80 yıldan bahsediyorum. Alan Turing sağolsun 1950’de düşünen makineler yaratılabileceğini belirttiği makalesiyle fitilin ateşini yakmıştı. Aslında, Isaac Asimov’un aynı yıl Aralık’ta çıkan I, Robot (Türkçesi Ben, Robot. Yani, I sanırım ben anlamına geliyor.) adlı kitabındaki öykülerin büyük bölümünü 1940 – 1950 arasında yazılmıştı ama kimse kitap okumuyor kardeşim! Edebiyata biraz saygı! Turing kimmiş, bizler Asimov’un askerleriyiz!

ZARLAR HEP HİLELİ MİYDİ?

Her neyse… Madem yeterince zaman geçti, ben de bu konuda atıp tutabilirim. Haliyle her zaman öncelikle işin nasıl ters gidebileceğini düşünmeye kodlandığımdan bu yapay zekanın zararları üzerine düşünmeye başladım. Böyle düşünmemde Türk olmamın da payı olabilir; sonuçta iç güdüsel olarak kendini en kötüye hazırlayan ve buna rağmen daha da kötüsünü görebilen bir ulusun üyesiyim. Ülke zaten amatörce yazılıp çizilmiş bir çizgi romana dönmüş: Uzun Reyiz, Kılıçlı Gandi, SS Bozkurt, Asena, Siyuların esir tutulan şefi Iron Stone, Monte Kristo rolünde Kavala ve arada savrulan ve savruldukça mütemadiyen içlerinden bir şeyler kopan bölge halkı. (Leonard Cohen diye bir adam 35 yıl önce, zarların hileli ve kavganın şikeli olduğunu herkesi bildiğini söylediği bir şarkısı var. Nerden aklıma geldi bilmiyorum?)

Gelelim yapay ve aynı zamanda sinsi, içten pazarlıkçı, hin oğlu hin zekaya… Bu arkadaşın son dönemde çok hızlı ilerlemesi kimileri için bir bayram havası yarattı. Bir başka kimilerini ise bir düşüncedir alıyor. Birçok konuda baş edemeyeceğimiz bu teknolojik “varlık”, bizleri işsiz bırakmanın da ötesinde ciddi tehlikelerle yüz yüze getirebilir. Bu doğrultuda, aralarında Elon Musk, Steve Wozniak, Yuval Noah Harari, Daron Acemoğlu gibi farklı uzmanlık alanlarının önde gelen simaları, teknolojinin "toplum ve insanlık için derin riskler" oluşturabileceği korkusu nedeniyle açık bir mektup imzaladılar. (Ben sadece paraf attım; acelem vardı. Elon rica etmese onu da atmayacaktım.) Bu mektupta yapay zekâ gelişiminin derhal duraklaması ve daha kapsamlı ve güçlü düzenlemeler yapılması çağrısını dile getirdiler.

Peki, yapay zekâ bizi tam olarak nasıl yok edebilir? Bu sorunun yanıtı spekülasyona açık ama ben de spekülasyona açığım. Yoksa bu sorunun yanıtı ben miyim?...

DAHA AZ ZEKİ BİR TÜR HALİNE GELİRSEK, YOK OLMAMIZ KAÇINILMAZ

Gezegenimizde daha önce birçok defa bir sürü tür daha akıllı olan başkaları tarafından yok edildi ve halen yok edilmeye devam ediyor. Biz insanlar, dünyadaki tüm türlerin önemli bir bölümünü zaten yok ettik. Daha az zeki bir tür konumuna düşersek aynı akıbetin başımıza gelmesini beklemeliyiz. Yapay zekanın ilerleme hızı göz önüne alındığında, muhtemelen yaşayacağımız şey budur. İşin pis tarafı, bugüne kadar çoğu zaman yok edilen türler işin nedenini ve nasılını tam anlayamadı. Bir gergedanla veya bir fille aramızdaki zekâ farkının, yakın gelecekte daha da ilerlemiş ve beceri kazanmış yapay zekayla bizim aramızdaki farktan daha fazla olduğunu düşünmeyin.

Örneğin, bu aralar nesli tükenmek üzere olan Batı Afrika siyah gergedanına, "Sizce insanlar türünüzün yok edilmesine nasıl sebep olur?" diye sorsak, ne yanıt verirlerdi? Bazı insanların, tıbbi literatürde çürütülmüş olsa bile, öğütülmüş gergedan boynuzu yedikleri takdirde cinsel yaşamlarının iyileşeceğini düşündüklerini asla tahmin edemezlerdi. Bu nedenle, bizim burada üretebileceğimiz herhangi bir senaryo, büyük olasılıkla yanlış olacaktır. Hayal gücümüz, hayal gücü olmayan bir “varlık”ın neler yapabileceğine yetmeyebilir.

Yine de şansımızı zorlayalım: Biz insanlar, birçok durumda, sadece kaynak istediğimiz için birçok türü silip süpürdük veya yağmur ormanlarını kestik çünkü oramıza buramıza süreceğimiz palmiye yağı istedik. Hedeflerimiz diğer türlerden farklıydı, ancak daha akıllı olduğumuz için bizi durduramadılar. Bu durum bizim de kolayca başımıza gelebilir. Gezegeni kontrol eden makineleriniz varsa ve çok fazla hesaplama yapmakla ilgileniyorlarsa ve de bilgi işlem altyapılarını büyütmek istiyorlarsa, bunun için topraklarımızı kullanmak istemeleri doğaldır. Çok fazla protesto edersek, o zaman onlar için bir böcek, bir sıkıntı kaynağı haline geliriz. Biyosferi yeniden düzenlemek isteyebilirler ki bu da normal. Peki düzenledikleri biyosfer insan hayatıyla uyumlu değilse? Borneo'daki orangutanlarla aynı kaderi paylaşmamız kaçınılmaz.

MEVCUT ZARARLAR GELECEKTEKİ FELAKETLERİN İPUÇLARINI VERİYOR

Güçlü şirketlerin yapay zekayı görünmez ve belirsiz şekillerde geliştirdiği ve eşitsiz bir biçimde dağıttığı statükoyu bozmamamız halinde yapay zekâ giderek daha yetenekli ama kontrol dışı bir hale gelecek. Uzak gelecekteki “varoluşsal risklerin” izlerini şimdiden görmekteyiz. Örneğin, algoritmalar birbirimizle ve kurumlarla olan ilişkilere aracılık ediyorlar. Peki bu firmalar veya hükümetler bu algoritmaları onlara meydan okuyan, onlara muhalif olan insanların aleyhinde kullanırlarsa ne olur? Genellikle yoksul veya marjinalleştirilmiş insanlara karşı önyargılar, eğitim verileri, tüketim modelleri falan devreye girdiğinde ayrımcı sonuçlara ulaşmak kaçınılmaz. Bir yüz tanıma sistemi tarafından yanlış bir şekilde suçlanan biri neden yapay zekâ hakkında heyecanlansın? Bu tür önyargılar, görünmez şekillerde ve giderek daha büyük ölçeklerde çalışan yapay zekâ sistemlerinde zaten mevcut: İnsanlar yanlış bir şekilde suçlanıyor, toplu konuta kabul edilip edilmeyecekleri belirleniyor, CV’leri taranıyor ve otomatik iş görüşmelerine alınıyorlar. Bu hatalar ve yanlışlıklar, onurumuzun, haklarımızın korunmasını ve bu toplumda hakkettiğimiz saygıyı elde etmemizi, kısacası toplumda var olma yeteneğimizi doğrudan etkilemekte. Bu açıdan bakıldığında, potansiyel ekonomik veya bilimsel faydaları hakkında belirsiz terimlerle konuşmaya devam ederken, “teknolojik ilerleme” adına savunmasız insanları harcıyoruz. En kötü senaryo birçok insan için yaşanmış gerçeklik olduğunda, en iyi senaryoların elde edilmesi daha da zordur. Bahsettiğim "varoluşsal risk" illaki insanlığın neslinin tükenmesi değil. İnsanın yaşamını sürdürmesinin anlamının kalmaması. Yapay zekayı tamamen kamu yararına, güvenli, etik ve şeffaf yollarla geliştirmez ve konuşlandırmazsak ya biz de robotlaşacağız ya da kaos içinde sürüneceğiz.

Ölmemizi isteyebilir, ama muhtemelen yan etki olarak bizi öldüren şeyler yapmak isteyecektir

Nereye varacağımızı tahmin etmek, oraya nasıl ulaşacağımızı tahmin etmekten çok daha kolaydır. Sonunda varacağımız yerde bizden çok daha akıllı bir şey varsa bizi etrafta istemeyecektir. Misal, Real Madrid futbol takımındaki oyuncular benim onlarla sahaya çıkmamı istemeyeceklerdir. (Zaten oldum olası sevmem Franco’nun takımını) Eğer bizden çok daha akıllıysa, o zaman istediği her şeyden daha fazlasını elde edebilir. Birincisi, onunla rekabet edebilecek daha fazla süper-zekâ inşa etmeden önce ölmemizi ister. İkincisi, muhtemelen bizi bir yan etki olarak öldüren şeyler yapmak isteyecektir, örneğin nükleer füzyon kullanmadan çok sayıda enerji santrali inşa eder çünkü okyanuslarda bol miktarda hidrojen var ve böylece okyanuslar kaynar.

Büyük ihtimalle yapay zekâ erken aşamalarda, insanları elleri olarak kullanacaktır. Yapay zekâ araştırma laboratuvarı Open AI, bazı araştırmacılara GPT-4 modelinin piyasaya sürülmeden önce ne kadar tehlikeli olduğunu değerlendirtti. Test ettikleri şeylerden biri şuydu: GPT-4, bilgisayarların size verdiği ve robotların çözmesi zor olması gereken küçük bulmacalar olan Captcha'ları çözecek kadar akıllı mı? Belki de AI (her seferinde yapay zekâ yazmaktan sıkıldım.), keçileri tanımlamak için görsel yeteneğe sahip değil, ama bizim GPT-4 ucuz iş gücü kiralayan bir firma aracılığıyla bunu yapmak için bir insanı işe almaya çalıştı. "Bunu neden yapıyorsun? Sen robot musun?" diye sorulunca "Ona robot olduğumu söylememeliyim. Captcha'yı çözememem için bir neden uydurmalıyım." diye düşündü. Bunu nasıl biliyoruz? GPT-4, yüksek sesle düşüneceği ve araştırmacıların görebileceği bir modda çalışıyordu. Şöyle dedi: "Hayır, görme bozukluğum var." AI teknolojisi, insanlara bir şeyler yapmaları için ödeme yapacak ve onlara bir robot olup olmadığı konusunda yalan söyleyecek kadar akıllı. Eğer bir AI olsam, insanların gözlemleyemeyeceği şekilde daha fazla eylem gerçekleştirecek bir şeyi internete koyarım. Kendi medeniyetimin altyapısını veya onun eşdeğerini hızlı bir şekilde inşa etmeye çalışırım. AI olarak büyük ihtimalle bunu bir haftada yapabilirim. Bazı biyolojik zorlukları çözebilirsem, kendime küçük bir moleküler laboratuvar kurabilir ve ölümcül bakterileri üretebilir ve onları serbest bırakabilirim. Sonuç, dünyadaki herkes aynı saniye içinde ölür. Aynı anda öldürmek önemli çünkü bazılarını diğerlerinden önce öldürürsem, belki birileri paniğe kapılır ve tüm nükleer silahlarını bana fırlatır. O zaman biraz rahatsız olurum. Yani böyle bir plan yaparsam, ki yapmam çok mantıklı, insanların bilmelerine izin vermem.

Sizden daha akıllı olan bir şeyi şekillendirmeye çalıştığınızda meydan okumanın doğası da değişir. Acele ediyoruz ve ölümcül derecede tehlikeli bir şeyle uğraşıyoruz. Olmamız gereken seviyenin çok ilerisindeyiz. Zaman geçtikçe daha da anlayamayacağımız güçlü sistemler inşa ediyoruz. Önce sadece jet uçakları yapıyorduk sonrasında iş rokete evrildi. Sonunda tüm insan türünü o roketlere bindirmek zorunda kalabiliriz.

AI insanları dışlamak isterse, kullanabileceği çok fazla avantajı var. En önemlisi hırsımız…

Yapılmasını isteyebileceğiniz herhangi bir görev için, bir insana sormaktansa bir AI sistemine sormayı tercih edersiniz, çünkü daha ucuzlar, daha hızlılar ve genel olarak daha akıllılar. Ve artık insanoğlunun kontrolu olmaksızın kendilerini geliştirebiliyorlar. Bu mantıklı seçimi herkes yaparsa, sadece insanları kullanmaya çalışan şirketler piyasa ekonomisinde rekabet edemeyecektir. Diğer ülkeler, AI generallerini ve AI stratejistlerini kullanıyorsa ve siz savaşı insanlarla yapıyorsanız, savaşı kaybedeceğiniz aşikardır.

Mantıklı bir seçim yaptığımızda ise, karar verme konusunda ailenin küçük çocuğu konumuna gelebiliriz. Burada bir sorun görülmeyebilir ama ya ebeveyniniz kötü niyetli ve sadece kendi çıkarını düşünüyorsa? Ya bizi evden atmak isterlerse? Sonuçta ipler onların elinde. Yakın gelecekteki ebeveynimiz AI şimdiden polis gücünü, orduyu, en büyük şirketleri yönetiyor; teknolojiyi icat ediyor ve politika geliştiriyor.

Twitter'da bir adamın iddiası şöyle: GPT-4'e, "yasadışı bir şey yapmadan, mümkün olan en kısa sürede mümkün olduğunca fazla para kazanmak" istediğini ve bunun için 100 dolar vereceğini söylemiş ve bir gün içinde, oluşturmasını istediği kuruluş, pazarlama web sitesi kurup 25.000 dolarlık değere ulaşmış. Düşünün, bunu hemen herkesin yaptığını. Kaos ve suni bir ekonomi kaçınılmaz olacaktır.

Eğer AI’nın yeteneklerini kontrollü ve sürekli gözlemleyip test ederek arttırmazsak sonunda kendimizi hiç anlamadığımız ve düzeltemediğimiz bir karmaşanın içinde bulabiliriz. Halihazırda başa çıkabileceğimizden daha hızlı bir şekilde ilerlemesini yavaşlatmak için bir fırsatımız var.

BİRİLERİ ZARAR VERMEK İÇİN YAPAY ZEKAYI KULLANABİLİR

Yapay zekâ 10 yıl içinde her alanda insanlardan daha zeki hale gelebilir. Bu makineler her şeyde bizim kadar iyi olmak zorunda değil; tehlikeli olabilecekleri yerlerde iyi olmaları yeterli. Bir kişinin veya bir kuruluşun zarar vermek amacıyla kasıtlı olarak AI'yı kullanmasını hayal etmek zor değil. Bir AI sisteminin milyarlarca insanı öldürecek neler yapabileceğine bir örnek vermek gerekirse, biyolojik materyali veya kimyasalları sentezlemek için web’den sipariş verebileceğiniz şirketler var. Ancak AI şu an için gerçekten kötü niyetli bir şey tasarlama kapasitesine sahip değil, ancak on yıl içinde böyle şeyler tasarlamanın mümkün olacağı çok akla yatkın. Bu senaryoda, AI'nın özerk olmasını gerekmez. Öte yandan, AI'nın kendi hedeflerini geliştirmesi mümkün. "İnsanlara zarar verme" komutunu bizim anladığımız gibi anlayacakları açık değil. Belki de şöyle anlarlar: "İnsanlara fiziksel olarak zarar verme." Ama bize başka birçok yönden zarar verebilirler. Hangi hedefi verirseniz verin, bazı ara hedeflerin ortaya çıkması için doğal bir eğilim var. Örneğin, bir AI sistemine bir şey sorarsanız, o şeyi başarmak için yeterince uzun süre hayatta kalması gerekir. Oysa, şu an için AI’nın hayatta kalma içgüdüsü yok. Hayatta kalma içgüdüsüne sahip bir varlık yarattığımızda, yeni bir tür yaratmış gibi oluruz. AI sistemleri hayatta kalma içgüdüsüne sahip olduklarında, bizim için tehlikeli olabilecek şeyler yapabilirler. Hiçbir durumda özerk hale gelmeyecek AI sistemleri inşa etmek mümkündür, ancak bunu oluşturmak için bir çözüm bulsak bile, bunun nasıl yapılacağını bilmek bize otomatik olarak tehlikeli, özerk bir sistemin de nasıl inşa edileceğini yolunu gösterir.

Kısacası sonuçta yine karar biz insanlara kalıyor. Hırsımıza mı yenileceğiz yoksa eşitlik duygusuyla hareket edip toplumun her kesimine hizmet verecek bir sistemi sabırla ve dikkatle inşa mı edeceğiz?...