Schmidt'e göre, yapay zekanın "fişinin çekilmesi" gerekebileceği bir noktaya hızla ilerliyoruz. Yapay zeka teknolojisi baş döndürücü bir hızla ilerliyor ve bu durum beraberinde önemli soruları da getiriyor. Peki ama bu ilerleme nereye kadar gidecek? Kontrolü ne zaman kaybedeceğiz? Google’ın eski CEO’su Eric Schmidt, Nathan Gardels ile yaptığı bir röportajda yapay zekanın geleceğine dair çarpıcı açıklamalarda bulundu. Schmidt, yapay zekanın önümüzdeki beş yıl içinde yetenek basamaklarını hayal edemeyeceğimiz kadar hızlı bir şekilde tırmanacağını ve insanlık için bir dönüm noktasına ulaşacağımızı öngörüyor. Bu tercüme metninde, Eric Schmidt'in yapay zekanın geleceğine dair öngörülerini, endişelerini ve önerilerini sizlere sunuyoruz.

***

Yapay Zekanın Hızlı İlerleyişinin Haritalanması

Google'ın eski CEO'su Eric Schmidt, yapay zekanın nereye gittiği, ne zaman “fişin çekileceği” ve Çin ile nasıl başa çıkılacağı konularında değerlendirmelerde bulundu.

Nathan Gardels: Üretken yapay zeka, yetenek basamaklarını katlanarak tırmanıyor. Şu anda neredeyiz? Nereye doğru gidiyor? Ne kadar hızlı ilerliyor? Ne zaman ve nasıl durduracaksınız?

Eric Schmidt: Şu anda olan en önemli şey, yetenek merdiveni basamaklarında çok hızlı ilerliyor olmamız. Şu anda dünyayı çok hızlı bir şekilde derinden değiştirecek kabaca üç şey oluyor. Çok hızlı derken, döngü kabaca 12 ila 18 ayda bir yeni bir modeldir.

Bunlardan ilki “bağlam penceresi” sorusuyla ilgili. Teknik olmayan kişiler için bağlam penceresi, sorduğunuz sorudur. Bu bağlam penceresinin içinde milyonlarca kelime olabilir. Ve bu yıl, insanlar sonsuz uzunlukta bir bağlam penceresi icat ediyorlar. Bu çok önemli çünkü sistemden gelen yanıtı alıp geri besleyebileceğiniz ve ona başka bir soru sorabileceğiniz anlamına geliyor.

Diyelim ki bir ilaç yapmak için bir tarif istiyorum. “İlk adım nedir?” diye soruyorum ve o da “Bu malzemeleri satın al.” diyor. O zaman siz de “Tamam, bu malzemeleri aldım. Şimdi, bir sonraki adımım ne?” “Bir karıştırma kabı alın.” diyor. Bir sonraki adım ise “Ne kadar süre karıştıracağım?”

Buna düşünce zinciri muhakemesi denir. Ve gerçekten iyi bir şekilde genelleştirilebilir. Beş yıl içinde tıpta, malzeme biliminde ya da iklim değişikliğinde gerçekten önemli sorunları çözmek için 1.000 adımlık tarifler üretebilmeliyiz.

Şu anda devam eden ikinci şey ise gelişmiş vekillik. Bir aracı, yeni bir şeyler öğrenebilen büyük bir dil modeli olarak anlaşılabilir. Bir örnek vermek gerekirse, bir kişi tüm kimyayı okuyabilir, kimya hakkında bir şeyler öğrenebilir, kimya hakkında bir dizi hipoteze sahip olabilir, bir laboratuvarda bazı testler yapabilir ve daha sonra bu bilgiyi bildiklerine ekleyebilir.

Bu sistemler gerçekten çok güçlü olacak ve bunlardan milyonlarca olmasını beklemek mantıklı olacaktır.  Yani, etrafta dolaşan ve kullanabileceğiniz çok sayıda ajan olacak.

Halihazırda gerçekleşmeye başlayan üçüncü gelişme, ki bana göre en derin olanı bu, “eyleme metin” olarak adlandırılıyor. Yapay zekaya “Bana X işini yapacak bir yazılım yaz” diyebilirsiniz ve o da bunu yapar. Siz sadece söylersiniz ve o gerçekleşir.  İstediğinizi söylediğiniz şeyi gerçekten yapan programcılara sahip olduğunuzu hayal edebiliyor musunuz? Ve bunu günde 24 saat yaptıklarını? Bu sistemler Python gibi diller gibi kod yazmada iyidir.

Tüm bunları bir araya getirdiğinizde, (a) sonsuz bir bağlam penceresine, (b) aracılarda düşünce zinciri mantığına ve (c) programlama için metinden eyleme kapasitesine sahip olursunuz.

O zaman ne olacağı pek çok sorun ortaya çıkarır. Burada bilim kurgu tarafından ortaya atılan sorulara giriyoruz. Tarif ettiğim şey halihazırda gerçekleşmekte olan şeydir. Ancak bir noktada, bu sistemler yeterince güçlenecek ve sistemler birlikte çalışmaya başlayacaktır. 

Bazıları bu sistemleri birbirleriyle iletişim kurmak için kendi dillerini geliştireceklerine inanıyor.  İşte bu noktada modellerin ne yaptığını anlayamayacağız. Ne yapmamız gerekiyor? Fişi mi çekelim? Kelimenin tam anlamıyla bilgisayarın fişini mi çekelim? Sistemler, biz insanların anlamadığı şekillerde iletişim kurmaya ve bir şeyler yapmaya başladığında bu gerçekten bir sorun olacaktır. Benim görüşüme göre sınır bu.

Gardels: Bu gelecek ne kadar uzakta?

İsrail, yenilgisini Gazzeli çocukları katlederek örtmeye çalışıyor İsrail, yenilgisini Gazzeli çocukları katlederek örtmeye çalışıyor

Schmidt: Açıkçası, tarif ettiğim kapasiteye sahip sistemler önümüzdeki birkaç yıl içinde ortaya çıkacak. “Aman Tanrım” dediğimiz şey bir günde olmayacak.  Bu daha çok her ay, her altı ayda bir ve benzeri zamanlarda yeteneklerin kümülatif evrimiyle ilgili. Makul bir beklenti, bu yeni dünyada 10 yıl değil, beş yıl içinde olacağımızdır. Bunun nedeni de bu yola çok fazla para yatırılmış olması. Ayrıca insanların bunu başarmak için denedikleri pek çok yol var.

OpenAI, Microsoft, Google ve Anthropic'te büyük adamlar, sözde sınır modelleri var. Ama aynı zamanda çok daha az ya da daha düşük maliyetlerle bir alt seviyede programlama yapan ve hepsi de çok hızlı bir şekilde yineleyen çok sayıda aktör var.

Gardels: “Fişi çekin” diyorsunuz. Fişi nasıl ve ne zaman çekersiniz? Ama fişi çekmeden önce bile, zaten düşünce zincirinde olduğunuzu ve bunun nereye gittiğini biliyorsunuz. Gitmek istemediğiniz yere varmadan önce kapasite merdiveni boyunca bir noktada düzenleme yapmanız gerekmez mi?

Schmidt: Teknoloji dünyasından bir grup arkadaşımızla Batı'daki hükümetlerle tam da bu sorular üzerinde çok yakın bir şekilde çalışıyoruz. Çinlilerle de konuşmaya başladık ki bu elbette karmaşık bir süreç ve zaman alıyor. 

Şu anda hükümetler çoğunlukla doğru olanı yapıyorlar. Güvenlik enstitüleri kurarak, devam eden gelişmeleri, özellikle de kapasite basamaklarını tırmanan öncü modelleri nasıl ölçeceklerini ve sürekli olarak izleyip kontrol edeceklerini öğreniyorlar.

Yani şirketler iyi yönetilen, hissedarları olan ve davalara maruz kalan Batılı şirketler olduğu sürece her şey yolunda gidecektir. Batılı şirketlerde kötü şeyler yapmanın sorumluluğu konusunda büyük bir endişe var. Sabah uyandıklarında hadi birilerinin canını nasıl yakarız ya da insanlığa nasıl zarar veririz diye düşünmüyorlar. Elbette bugünün büyük ölçüde sorumlu şirketlerinin alanı dışında kalan bir yayılma sorunu var. Ancak temel soruşturmalar açısından araştırmacılar dürüst olmaya çalışıyorlar.

Gardels: Batılı şirketleri belirterek, tehlikenin Batı dışında yayılmakta olduğunu ima ediyorsunuz. Kötü adamlar dışarıda bir yerlerde.

Schmidt: Bildiğimiz şeylerden biri ve benim dünyamdaki tekno-iyimserlere hatırlatmakta her zaman fayda var, kötü insanların olduğudur. Ve onlar sizin araçlarınızı insanlara zarar vermek için kullanacaklardır.

Bunu özetleyen örnek yüz tanımadır. Uygurları kısıtlamak için icat edilmedi. Bunu icat edenler Çin'deki bir azınlık nüfusunu kısıtlamak için yüz tanımayı icat edeceğimizi söylemediler ama bu gerçekleşiyor.

Tüm teknolojiler çift kullanımlıdır. Tüm bu icatlar kötüye kullanılabilir ve mucitlerin bu konuda dürüst olmaları önemlidir. Açık kaynak ve açık ağırlık modellerinde kaynak kodu ve modellerdeki ağırlıklar [farklı bağlantıların gücünü belirlemek için kullanılan sayılar] kamuya açıklanır. Bunlar hemen tüm dünyaya yayılıyor, peki kime yayılıyor? Elbette Çin'e gidiyorlar, Rusya'ya gidiyorlar, İran'a gidiyorlar. Belarus ve Kuzey Kore'ye gidiyorlar.

En son Çin'deyken gördüğüm tüm çalışmalar Batı'dan açık kaynaklı modellerle başladı ve daha sonra yaygınlaştırıldı.

Dolayısıyla, bana öyle geliyor ki, Batı'da bahsettiğim bu önde gelen firmalar, yapay zekaya yüz milyarlarca dolar yatıranlar, yetenek merdiveninde ilerledikçe eninde sonunda sıkı bir şekilde düzenlenecek. Geri kalanların bunu yapamayacağından endişe ediyorum.

Şu yanlış bilgilendirme ve derin sahtecilik sorununa bakın. Bence büyük ölçüde çözümsüz. Bunun nedeni de kodla üretilen yanlış bilginin esasen özgür olması. Herhangi bir kişi - iyi bir insan, kötü bir insan - bunlara erişebilir. Hiçbir maliyeti yok ve çok çok iyi görüntüler üretebiliyorlar. Düzenleme için bazı yollar denenebilir. Ancak kedi çantadan çıktı, cin şişeden çıktı.

Bu nedenle bu daha güçlü sistemlerin, özellikle de genel zekaya yaklaştıkça, yaygınlaşmasının bazı sınırlarının olması çok önemlidir. Ve bu sorun henüz çözülmüş değil.

Gardels: Stanford İnsan Merkezli Yapay Zeka Enstitüsü'nden Fei-Fei Li'yi endişelendiren şeylerden biri, dünyanın Microsoft'ları ve Google'ları ile en iyi üniversiteler arasındaki araştırma fonlarının asimetrisidir. Sizin de belirttiğiniz gibi, özel sektörde yetenek basamaklarını tırmanmak için hesaplama gücüne yüz milyarlarca yatırım yapılırken, kamu sektörü bir yana, araştırma enstitülerinde güvenli geliştirme için kıt kaynaklar var.

Bu şirketlerin, en iyi yetenekleri çekmek için aynı düzeyde kaynaklara ve yeteneğe sahip olmayan hükümet veya sivil toplum tarafından düzenlenecek kadar şeffaf olacaklarına gerçekten güveniyor musunuz?

Schmidt: Her zaman güvenin ama doğrulayın. Gerçek şu ki, hem güvenmeli hem de doğrulamalısınız. En azından Batı'da doğrulamanın en iyi yolu, doğru insanları ve teknolojiyi istihdam edebildikleri için doğrulayıcı olarak kurulmuş özel şirketleri kullanmaktır.

Tüm sektör konuşmalarımızda, bunun gerçekten işe yarayacağı yolun yapay zekanın yapay zekayı kontrol etmesiyle sonuçlanacağı oldukça açık. İnsanların tek başına denetlemesi çok zor.

Bir düşünün. Yeni bir model oluşturuyorsunuz. Yeni veriler üzerinde eğitildiği için ne bildiğini nasıl bileceksiniz? Ona önceki tüm soruları sorabilirsiniz. Peki ya ajan tamamen yeni bir şey keşfetmişse ve siz bunu düşünmemişseniz? Sistemler bir uyarı olmadan bildikleri her şeyi kusamazlar, bu yüzden onlara parça parça sormanız gerekir. Dolayısıyla, bunu denetlemenin tek yolunun bir yapay zekanın kendisi olması son derece mantıklı.

Fei-Fei Li tamamen haklı. Zengin özel endüstri şirketlerimiz var. Ve inanılmaz yeteneklere sahip fakir üniversitelerimiz var. Tüm Batı ülkelerinde üniversitelere donanım için temel araştırma fonu sağlamak büyük bir ulusal öncelik olmalıdır.

Eğer 50 yıl önce araştırmacı bir fizikçiyseniz, siklotronların [bir tür parçacık hızlandırıcı] olduğu yere taşınmanız gerekirdi çünkü bunların yapımı gerçekten zor ve pahalıydı - ve hala da öyle. Bir fizikçi olarak işinizi yapmak için bir siklotronun yakınında olmanız gerekir.

Yazılımda buna hiç sahip olmadık, ürünlerimiz sermaye-yoğun değil, sermaye-ucuzdu. Her zamankinden daha karmaşık ve sofistike donanım gerektiren yapay zeka modellerinin ağır eğitiminin gelişi büyük bir ekonomik değişimdir.

Şirketler bunun farkına varıyor. Microsoft ve Google gibi gerçekten zengin şirketler milyarlarca dolar harcamayı planlıyorlar çünkü nakit paraları var. Büyük işletmeleri var, para geliyor. Bu iyi bir şey. İnovasyon buradan geliyor. Diğerleri, özellikle de üniversiteler, bunu asla karşılayamaz. Donanıma yatırım yapacak kapasiteleri yok ama yine de inovasyon yapmak için donanıma erişmeleri gerekiyor.

Gardels: Biraz da Çin'den bahsedelim. Henry Kissinger'a Çin'e yaptığı son ziyarette siz de eşlik ettiniz ve Başkan Xi Jinping ile “yapay zekanın potansiyelinin yanı sıra felaket olasılıklarını” sürekli olarak tartışmak üzere hem Doğu'dan hem de Batı'dan üst düzey bir grup kurma misyonuyla bir araya geldiniz.

ABD Ulusal Güvenlik Yapay Zeka Komisyonu Başkanı olarak, ABD'nin Çinlilerle rekabet edebilmek için her şeyi yapması gerektiğini, böylece üstünlüğümüzü koruyabileceğimizi savundunuz. Kissinger ile aynı zamanda işbirliğini de teşvik ediyorsunuz. Nerede rekabet etmeli? Nerede işbirliği yapmak uygun olur? Ve neden? 

Schmidt: İlk olarak, Çinliler üretken yapay zeka konusunda oldukça endişeli olmalı. Bunun nedeni de ifade özgürlüğüne sahip olmamaları. Peki, sistem sansür rejimi altında izin verilmeyen bir şey ürettiğinde ne yaparsınız?

Çizgiyi aştığı için kim ya da ne cezalandırılır? Bilgisayar mı, kullanıcı mı, geliştirici mi, eğitim verisi mi?  Bu hiç de açık değil. Açık olan şu ki, üretken yapay zekanın yayılması Çin'de oldukça kısıtlı olacak çünkü Parti Devleti'nin bilgi tekeline temelden meydan okuyor. Bu onların bakış açısından mantıklı.

Ayrıca Kissinger ve benim “Yapay Zeka Çağı” adlı kitabımızda uyardığımız gibi, otomatik savaş ya da YZ'nin nükleer komuta ve kontrol sistemlerine entegrasyonu gibi kritik bir konu da var. Ve Çin, genel yapay zekaya yaklaştıkça tartıştığımız aynı endişelerle karşı karşıya. İşte bu nedenlerden dolayı, vefat eden Dr. Kissinger, Xi'den üst düzey bir grup kurmak için onay istedi. Daha sonraki toplantılar onun verdiği ilhamın bir sonucu olarak gerçekleşti ve devam edecek.

Ortada bir sorun olduğu konusunda herkes hemfikir. Ancak Çin ile hala genellemelerle konuştuğumuz bir dönemdeyiz. İki tarafın da önünde uygulanabilir bir öneri yok. Ve bu sorun değil çünkü durum karmaşık. Söz konusu riskler nedeniyle, her iki tarafın da sorun olarak gördüklerini ve ortak endişe noktalarını açıklayabilmeleri için zaman ayırmak aslında iyi bir şey.

Pek çok Batılı bilgisayar bilimcisi Çinli meslektaşlarını ziyaret ediyor ve bu tür şeylerin yaygınlaşmasına izin verirseniz, bir terör eylemi, yapay zekanın biyolojik silahlar için kötüye kullanılması, siberin kötüye kullanılması ve çok daha varoluşsal olan uzun vadeli endişelerle karşı karşıya kalabileceğiniz konusunda uyarıda bulunuyor.

Şu an için Çin'de yaptığım konuşmalar büyük ölçüde biyolojik ve siber tehditlerle ilgili.

Uzun vadeli tehdit ise şöyle bir şey: Yapay zeka bir insan yargısıyla başlar. Sonra teknik olarak “özyinelemeli kendini geliştirme” denilen bir şey var, model aslında düşünce zinciri muhakemesi yoluyla kendi kendine çalışıyor. Sadece öğrenir ve gittikçe daha akıllı hale gelir. Bu gerçekleştiğinde ya da ajandan ajana etkileşim gerçekleştiğinde, çok farklı bir dizi tehdide sahip oluruz ve bunları anlamadığımız için kimseyle konuşmaya hazır değiliz. Ama geliyorlar.

Çin ile gerçek bir anlaşma yapmak çok zor olacak. Benim yürüttüğüm diyaloğa Track II deniyor, yani gayri resmi ve resmiyetten bir adım uzak. ABD ve Çin arasında gerçek müzakerelere başladığımızda siyasi durumun ne olacağını tahmin etmek çok zor.

Bence her iki tarafın da üzerinde anlaşması gereken tek şey, yapay zeka sınırında tamamen yeni olan bir şey için eğitim yapacaksanız, bunu yaptığınızı diğer tarafa söylemeniz gerektiğine dair basit bir gerekliliktir. Başka bir deyişle, sürpriz olmayan bir kural.

Gardels: Soğuk Savaş sırasında ABD ve Sovyetler arasında nükleer konuşlandırmaların şeffaflığını sağlayan Açık Semalar anlaşması gibi bir şey mi?

Schmidt: Evet. Şu anda bile, herhangi bir büyük nükleer güç tarafından balistik füzeler fırlatıldığında, takip ediliyor ve onaylanıyor, böylece herkes nereye gittiklerini biliyor. Bu şekilde hemen bir sonuca varıp füzenin kendilerini hedef aldığını düşünmezler. Bu bana temel bir kural gibi geliyor, değil mi?

Ayrıca, eğer güçlü bir eğitim yapıyorsanız, güvenlikle ilgili bazı anlaşmaların olması gerekir. Biyolojide, bulaşıcı hastalıkların önlenmesi için genel kabul görmüş bir dizi tehdit katmanı, Biyogüvenlik seviyeleri 1 ila 4 vardır. Bu çok mantıklı çünkü bu şeyler tehlikeli.

Sonunda, hem ABD'de hem de Çin'de, izinsiz olarak kendi vatandaşlarımıza ya da rakiplerimize vermek istediklerimizi aşacak otonom icat kabiliyetine sahip az sayıda son derece güçlü bilgisayar olacağından şüpheleniyorum.  Bu bilgisayarlar bir ordu üssüne yerleştirilecek, nükleer bir güç kaynağından beslenecek ve etrafları dikenli teller ve makineli tüfeklerle çevrilecektir. Çok daha az güçlü ve daha geniş çapta kullanılabilir olan birçok başka sistemin arasında bunlardan birkaç tane olması bana mantıklı geliyor.

Tüm bu konularda anlaşma karşılıklı olmalıdır. Çin'deki kaçak bir ajanın nihayetinde bir silaha erişmesi ve bunun bir oyun olduğunu düşünerek aptalca fırlatması gibi bir durumdan kaçınmak istersiniz. Unutmayın, bu sistemler insan değildir; eylemlerinin sonuçlarını anlamaları gerekmez. Bunların [büyük dil modellerinin] hepsi bir sonraki kelimeyi tahmin etme gibi basit bir ilkeye dayanıyor. Yani burada yüksek zekadan bahsetmiyoruz. Biz insanların tarihte sahip olduğu türden bir duygusal anlayıştan da kesinlikle bahsetmiyoruz.

Peki, insan deneyiminden faydalanmayan insan dışı bir zeka ile uğraşırken, ona hangi sınırları koyarsınız? Bu hem Batı hem de Çin için zorlu bir görev. Belki bunların ne olduğu konusunda bazı anlaşmalara varabiliriz?

Gardels: Çinliler, üretken yapay zekaya giden milyarlarca dolar ile yetenek merdivenini bizim ABD'de olduğumuz kadar katlanarak mı tırmanıyor? Çin'in hükümetten ve/veya şirketlerden gelen milyarları var mı?

Schmidt: Tam olarak anlayamadığım nedenlerden dolayı Çin'de aynı seviyede değil. Oradaki durumu uzun uzadıya inceledikten sonra tahminim, ABD'nin yaklaşık iki yıl gerisinde oldukları yönünde. İki yıl çok uzak bir süre değil ama kesinlikle gerideler.

Benim bahsettiğime benzer şekilde büyük ölçekli model eğitimi yapmaya çalışan en az dört şirket var. Ve bunlar Çin'deki bariz büyük teknoloji şirketleri. Ancak şu anda Trump ve şimdi de Biden yönetimleri tarafından ihracatı kısıtlanan en iyi donanıma erişimleri olmadığı için engellenmiş durumdalar. Bu kısıtlamalar muhtemelen daha da sertleşecek, kolaylaşmayacak. Dolayısıyla Nvidia ve rakiplerinin çiplerinin değeri arttıkça, Çin gündemde kalmak için mücadele edecek.

Gardels: Çin'in en güçlü çiplere erişmesine izin vermeme politikasına katılıyor musunuz?

Schmidt: Çipler önemli çünkü en büyük modeller için gereken öğrenme türünü mümkün kılıyorlar. Bunu daha yavaş çiplerle yapmak her zaman mümkün, sadece daha fazlasına ihtiyacınız var. Bu da Çin'in gelişimi için bir maliyet vergisi anlamına geliyor. Bu şekilde düşünmek lazım. Bu sonuçta belirleyici mi? Çin'in oraya ulaşamayacağı anlamına mı geliyor? Hayır. Ama bunu zorlaştırıyor ve daha uzun zaman alacağı anlamına geliyor.

Batı'nın bu stratejisine katılmıyor değilim. Ancak ben daha çok açık kaynağın yaygınlaşması konusunda endişeliyim. Ve eminim ki Çinliler de bunun bizim olduğu kadar kendi hükümetlerine karşı da kötüye kullanılabileceği konusunda aynı endişeyi paylaşıyorlardır.

Açık kaynak modellerinin ilk etapta “insan geribildiriminden takviye öğrenme” (RLHF) dediğimiz yöntemle korkuluklarla güvenli hale getirildiğinden ve bu korkulukların kötü niyetli kişiler tarafından “devre dışı bırakılamayacağı” şekilde ince ayarlandığından emin olmamız gerekiyor. Açık kaynaklı modeller güvenli hale getirildikten sonra onları güvensiz hale getirmek kolay olmamalıdır.