Mert Can DUMAN'ın 26 Temmuz 2023 tarihli yazısı: Yapay Zekaya Karşı Angard
Eskrim sporunda oyuna başlamadan önce alınan temel duruş pozisyonunun adı “angard”. Tarafların birbirini şöyle bir tarttığı, kendilerince belirledikleri oyun stratejilerini uygulamadan hemen önce temel duruş pozisyonunu aldığı an duyulan “Angard” komutu, aslında bir nevi oyunun da başlangıç komutu niteliğinde. İnsanlık ve yapay zekâ da artık angard pozisyonunda, birbirini tartmaya başlamış durumda. Dikkatinizi çekmek isterim; bu haftaki buluşmamıza adını veren başlığımızda “karşı” kelimesini kullandım. Şimdiye kadar uslu bir çocuk gibi insanlık ile “birlikte” anılan yapay zekâ, bazı alanlar için yavaş yavaş bir tehdit olarak algılanmaya başlıyor. Haydi gelin, bu duruma beraber bir göz atalım.
Büyük bütçeli Hollywood filmleri, dünyanın sonunun geldiği anlarda çok çetin geçen savaşların ardından insanlığın bir şekilde kahramanca dünyasını kurtardığını bolca işlemiştir, hepimiz biliyoruz. İnsanın elinden doğan yapay zekânın durdurulamaz -ve bazı anlarda da korku verici- gelişimi, insanlık ile makineler arasındaki savaşı işleyen birçok filmin ileride gerçek olabileceği şüphesini de doğurmuyor değil. Yapay zekâ uygulamaları bundan kısa bir süre önce gayet masumane bir şekilde hayatımızı etkilerken son aylarda dünyayı kasıp kavuran bir uygulamayla akademide yazılan tezlerin doğru olup olmadığı şüphesiyle tanışır olduk. İnsanların aylarca hazırlandığı hukuk veya tıp sınavlarını çok kısa bir sürede tamamlayan uygulamanın herkes tarafından erişilebilir hâlinin bunları başarıyor oluşu, ileride neleri başarabileceği noktasında tüyleri diken diken ediyor. Kısa bir not olsun: ChatGPT, ABD’de bireylerin aylarca hazırlandığı baro sınavını, bu sınava girenlerin % 90’ından daha yüksek bir oranla geçti.
Çok hızlı büyümenin büyük bir dezavantajı var; kontrolü kaybetmek. Teknolojinin önde gelen isimlerinin de altını çizdiği husus bu; insanlığın kontrolü kaybetmeden yapay zekâyı ilerletme noktasında biraz frene basması gerektiği. İnsanlık ile “beraber” yürüyen değil, insanlığa “karşı” yürüyen bir tür hâline gelmeden önce yapay zekânın daha fazla risk değerlendirmesi yapılarak geliştirilmesi gerekiyor. Mesela hukuk ve adalet. Yapay zekâ uygulamalarını kullanan araçların hayatımızdaki yeri hızla artıyor. Araçlarımız giderek daha otonom bir hâl alıyor, sürücüler daha az sorumluluk taşıyor. Peki hukuk sistemi bu hızlı gelişime ayak uydurabiliyor mu? Tabii ki hayır. Şu an tam otonom bir aracın, sürücülü bir araçla karıştığı bir kazada sorumluluğun paylaşımı, araç sahibinin, aracın, aracın üreticisinin, yol bilgilerinin ve daha birçok unsurun hangi derecede sorumlu olabileceği konularının altı hep boş. Dolayısıyla siz siz olun şu an için sürücüsüz bir araçla olumsuz bir olay yaşamamaya çalışın.
Yapay zekânın insanlığa karşı olduğu diğer bir önemli nokta ise istihdam konusu. OECD’nin yaptığı bir araştırmada dünyanın iş gücü piyasalarında bir yapay zekâ devriminin eşiğinde olabileceğinin altı çizilerek en yüksek otomasyon riski altında sınıflandırılan mesleklerin istihdamının üçte bir oranında tehlikede olduğu ifade ediliyor. Çalışanlar arasında yapılan anketlerde % 60’ın üzerinde bir kesimin gelecek on yıl içerisinde işlerini tamamen yapay zekâya kaptırmaktan endişeli olduğu ve bu durumun mevcut performanslarını da olumsuz etkilediği de önemli çıktılar arasında. Bir yandan istihdamın azalması riski söz konusuyken diğer yandan insan gücüne olan talebin azalmasıyla birlikte ücretlerin de düşüş eğilimine girmesi ve yaşam maliyetinin giderek daha da arttığı günümüz dünyasında insanlığın yaşamını kaliteli bir şekilde idame ettirme noktasında büyük sıkıntılara düşebileceği de olası riskler arasında.
İnsanlık birçok tehdit ile aynı anda mücadele etmek zorunda. Gıda güvenliği, iklim değişikliği, enerji güvenliği ve daha birçoğu. Şimdiye kadar uslu bir çocuk olan yapay zekânın yaramaz bir çocuğa dönüşmesinden önce insanlığın -Birhan Keskin’e selam olsun- yetiştirdiği en iyi nişancı tarafından vurulmasını önleyecek adımları da geciktirmeden atması gerekiyor.
Sağlıklı ve güzel bir hafta dileklerimle…