Cambridge Üniversitesi'nde büyük veri ve yapay zekada etik üzerine araştırmalar yapan Melike Tanberk, insan faktörünü merkezde tutmak kaydıyla yapay zekâ teknolojilerine adaptasyonun önemini kaleme aldı.

Soğuk Savaş döneminde bir Sovyet subayı olan Stanislav Petrov, 26 Eylül 1983'te Sovyetler Birliği'nin erken uyarı sistemini denetlemekle görevli komuta odasında oturuyordu. Bir alarm Amerika Birleşik Devletleri'nden (ABD) bir füze fırlatıldığını gösterdiğinde Petrov'un görevi derhal misilleme yapmaktı. Ancak, bu tür eylemlerin vahim sonuçlarının, potansiyel olarak 3. Dünya Savaşı'nı başlatabileceğinin ve aynı zamanda dünyadaki yaşamı sona erdirebileceğinin farkında olarak tereddüt etti.

Petrov1

Bunun yanlış bir alarm olduğuna inanan Petrov, alarmı bildirmemeyi ya da "FIRLATMA" düğmesine basmamayı tercih etti. Bir ömür gibi gelen bu kritik saniyeler, özellikle küresel felaket olasılığıyla karşı karşıya kalındığında, insan muhakemesi ile otomatik sistemler arasındaki hassas dengeyi vurguluyor. Nihayetinde, sistemin bulutların üzerindeki güneş ışınlarını füze fırlatılmasıyla karıştırdığı anlaşıldı ve yalnızca otomatik teknolojilere güvenmenin potansiyel tehlikeleri vurgulandı.

Savaşta yapay zekanın stratejik etkileri

Petrov'un önemli kararından bu yana teknoloji önemli ölçüde gelişti, ancak silahlanma yarışı kavramı sabit kaldı. Artık ülkeler, sağlık, endüstri ve en önemlisi otonom silah sistemleri de dahil olmak üzere çeşitli sektörlerdeki dönüştürücü potansiyelini kabul ederek yapay zekâ teknolojilerine büyük yatırımlar yapıyor.

Bununla birlikte yapay zekanın savaştaki etik ve stratejik sonuçları hakkındaki, özellikle karar verme yetkisinin insan operatörlere karşı otomatik sistemlere devredilmesiyle ilgili tartışmalar şiddetlenmeye devam ediyor. Devam eden bu tartışma, teknolojinin gücüne saygı duyarken insan muhakemesinin önemine de değer veren dengeli bir yapay zekâ geliştirme yaklaşımına ihtiyaç duyulduğunu ortaya koyuyor.

Gerçek hayattan kopuk yaşayan toplumumuz! Gerçek hayattan kopuk yaşayan toplumumuz!

Ülkelerin ulusal yapay zekâ programlarını sürdürüp sürdürmemesi gerektiği sorusu, teknolojik egemenliğin daha geniş etkilerine göz atmayı gerektiriyor. Tıpkı İspanyol fatihlerin üstün silahlarının 16. yüzyılda Amerika kıtasının güç dinamiklerini yeniden şekillendirmesi gibi, gelişmiş yapay zekâ teknolojileri de modern çağda jeopolitik rekabetleri ve ulusal güvenlik stratejilerini etkileme potansiyeline sahiptir. Yapay zekâ yeteneklerine sahip olmayan uluslar, egemenliklerinden ödün verme ve fethe yol açan teknolojik eşitsizliklerin tarihsel örneklerine benzer şekilde sömürü veya sömürgeleştirmeye karşı savunmasız hale gelme riskiyle karşı karşıya. Bu durum, ulusal güvenlik çıkarlarını korumak için yapay zekâ araştırma ve geliştirmeye yatırım yapmak gerektiğini gösteriyor.

Soğuk Savaş'ın yapay zekâ boyutu

Büyük güçler gözetleme, karar verme ve stratejik avantaj için yapay zekâ yeteneklerinden yararlandıkça, birçok yönden Soğuk Savaş'ın yapay zekâ boyutuna zaten tanık oluyoruz. Dünyanın geri kalanı için bu yeni çağın gerçeklerine uyum sağlamak, geride kalmaktan ve korkunç sonuçlarla karşılaşmaktan kaçınmak için zorunludur. Bu adaptasyonun merkezinde yer alan en önemli husus, yapay zekâ algoritmalarının can damarı olan verilerin etkin bir şekilde kullanılması ve kontrol edilmesidir. Büyük veriye öncelik veren ve yapay zekâ araştırma ve geliştirmesine yatırım yapan ulusların, infosferdeki ulusal sınırlarını koruma şansı daha yüksektir.

Petrov'un kararına dönecek olursak, bu karar yapay zekâ çağında insan muhakemesinin önemine dair dokunaklı bir hatırlatma işlevi görüyor. Teknoloji gelişse de ulus olmanın özü coğrafi sınırlardan daha fazlasını kapsar; paylaşılan değerleri, kültürel mirası ve kolektif bilinci içerir. Bu nedenle, bir Soğuk Savaş senaryosunda yapay zekanın karmaşıklıklarının üstesinden gelirken, olası felaketleri önlemek için insan karar verme mekanizması her şeyden önemli olmaya devam etmelidir. Petrov'un bir keresinde belirttiği gibi, "Biz makinelerden daha zekiyiz çünkü onları biz yarattık."

Kaynak: AA

Mütercim: Hatice Karahan

[Melike Tanberk, 5 çocuk annesi, Oxford Üniversitesi'nden mezun oldu ve şu anda Cambridge Üniversitesi'nde Büyük Veri ve Yapay Zeka'da etik üzerine araştırmalar yapıyor.]