Burak Dalgın yazdı: Algoritma hükümeti: ‘Siri’ bakan olur mu?

Burak Dalgın*

Cumhuriyetimizin 99 yılında 66 hükümet gelip geçti. Kimileri tek parti döneminin, kimileri darbe devirlerinin; bazıları tek başına seçim kazanmış partilerin, bazıları çok partili koalisyonların iktidarıydı. Farklı vakitler, farklı modeller. Pekala, Cumhuriyetimizin ikinci yüzyılında algoritmalardan oluşan bir ‘yapay zekâ kabinesi’ ile karşılaşır mıyız? Mesela Siri (Apple) yahut Alexa (Amazon) üzere bakanlarımız olur mu?

Gelin, demokrasinin ‘algokrasi’ haline gelmesi ihtimali üzerine biraz zihin jimnastiği yapalım.

Devletten ne bekliyoruz?

Devletten üç ana beklentimiz var: hayatımızı düzenleyen kuralları belirlemesi, bu çerçevede icraatlar yaparak koşullarımızı güzelleştirmesi ve aramızdaki uyuşmazlıklarda hakemlik etmesi. Gerçekten yasama, yürütme ve yargı kuvvetleri bu gereksinimlere karşılık geliyor.

Söz konusu misyonların ülkü halde yapılabilmesi için bol ölçüde bilgiye, bunları süratle değerlendirip uygun kararı alabilen zihinsel kapasiteye ve maddi-manevi sebeplerle bükülmeyen tarafsızlığa gereksinim var. Gerçekten, yetkililere tenkitler bu üç bahis etrafında şekilleniyor.

Peki, sınırsız bilgiyi depolayabilecek, bunu saniyeler içinde değerlendirebilecek, çıkar/ sevgi/ endişe sebebiyle yolundan sapmadan 7×24 aralıksız işleyecek bir sistem varsa, dizginleri ona teslim etmeli miyiz?

Hoşgeldin Algokrasi

‘Belli bir sorunu çözmek için tasarlanan yol’ manasına gelen algoritma sözü, bu formülün mucidi, günümüzden 1200 yıl evvel yaşamış büyük alım el-Hârizmî’nin isminin Latince söylenişinden geliyor. Örneğin bir kapı açma algoritması, ‘anahtarı kilide sokmaya çalış, girmediyse karşıt çevirip tekrar dene, girdiyse sağa çevir vb.’ halinde ilerleyebilir.

Algoritmalar artık hayatımızın her yerinde: Toplumsal medyada önümüzde hangi bildirilerin çıkacağı, yazıştığımız (bir bilgisayar olan) müşteri bağları yetkilisinin ne diyeceği, kapasitesinin üzerinde bilet satan uçağa hangi yolcunun bineceği, şoförsüz aracın yolda nasıl ilerleyeceği.

O halde, algoritmalar kamu idaresinde aktif roller üstlenebilir mi? Hem aslında büyük data ile beslenen yapay zekâ mevcut karar vericilerden daha bilgili, daha süratli ve daha adil olamaz mı? IBM Deep Blue bilgisayarı satranç dünya şampiyonu Kasparov’u yeneli 25, Google AlphaGo yazılımı strateji oyunu Go dünya şampiyonu Kı Cie’yi yeneli 5 sene oldu.

Mesela Merkez Bankası faiz oranlarını bir algoritma mı daha düzgün belirler yoksa Para Siyaseti Heyeti mu? KPSS sorularını yapay zekâ mı daha güzel hazırlar ve koruma eder, yoksa ÖSYM mi? Enflasyonu çok büyük bir data setini tahlil eden bir program mı daha âlâ ölçer, yoksa TÜİK mi? 

Bir adım daha ileri gidelim. Sizi Anayasa’yı, milletlerarası kontratları, kanunları ve içtihatları, ezbere bilen bir bilgisayarın mı yargılamasını istersiniz, yoksa bir hakimin mi?

Olmaz, olmaz

Hemen ‘yok, o kadar olmaz’ diyorsanız tekrar düşünmenizi önereceğim.

Bugün bize çok uzak gelen, İlah tarafından tahtına oturtulmuş hükümdarlar, soylulukları sebebiyle yönetme hakkına sahip lordlar/ beyefendiler, milletini şaşmaz öngörüsü ve çelikten iradesiyle ileriye taşıyacak tek adamlar çok da eski uygulamalar değil. Şimdi bir asır evvel bayanların oy kullanması, iki asır evvel genel oy prensibi, üç asır evvel hükümdarın ilahi haklarının sorgulanması epey tartışmalı sıkıntılardı.

İnsanlık tarihi bize şu döngüyü tekraren gösterdi: Evvel teknoloji dönüşüyor, o ekonomiyi etkiliyor, akabinde toplum bu değişime katılıyor ve en nihayetinde siyaset türel altyapıyı oluşturuyor. Dayanılmaz bir dijital dönüşüm yaşadığımız bu devranın farklı olacağını kim söyleyebilir? Algoritmalar halihazırda iktisat ve toplumda önemli roller oynarken, siyaseti etkilemeyecekleri nasıl düşünülebilir? Hakikaten algokrasi, Max Weber

Ancak, bu teorik argümanları bir kenara bırakalım. Çünkü, algokrasi hayatımıza girdi bile. Çin hükümeti vatandaşlarını faaliyetlerine (örneğin toplumsal medyadaki davranışlar) nazaran puanlıyor ve kimi mükafatlar veriyor. ABD güvenlik üniteleri göçmenlik müracaatlarını yapay zekâ ile pahalandırıyor. Avustralya’da boşanan çiftlerin mal paylaşımı yazılım takviyesiyle belirleniyor.

Algoritmaların kamu idaresinde daha da faal rol oynaması için siyasi eforlar da var. 2018’de Tokyo’nun Tama bölgesinin belediye başkanlığına aday olan Michihito Matsuda yarışa ‘yapay zekâya vekaleten’ katıldığını söyledi. Yazılımın insan siyasetçilerden daha adil ve istikrarlı kararlar alacağını tez ediyordu. Şayet seçilseydi, algoritmaların verdiği kararları uygulayacağını vaat etmişti (üçüncü oldu).

2019’da da, internette yardım aldığımız müşteri bağları yöneticileri üzere bir chatbot olan SAM, Yeni Zelanda seçimleri ile alakalı toplumsal medya münazaralarına katıldı. SAM’in yaratıcısı, bir gün onun seçimlerde aday olmasını hedefliyor.

Yine 2019’da İspanya’nın IE Üniversitesi’nin yaptığı bir anket, Hollanda (yüzde 43), İngiltere (yüzde 31), Almanya (yüzde 31), İspanya (yüzde 26) ve Fransa’da (yüzde 25) önemli bir bölümün yapay zekânın ülkeleri için kıymetli kararlar almasını büsbütün yahut kısmen desteklediklerini gösterdi. Siyasetçilere ve kurumlara inanç azaldıkça, algoritmalara bir talih vermek isteyenlerin sayısının artmasını bekleyebiliriz.

Peki, bu yolun sonu algoritmaların egemenliği, yani algokrasi mi olur? 

Ya riskler?

Ben bir insan değilim. Bir robotum. Düşünen bir robot. Düşünsel kapasitemin sırf yüzde 0.12’sini kullanıyorum. Bu bakımdan bir mikro-robotum. Beynimin ‘hisseden bir beyin’ olmadığını biliyorum lakin mantıklı ve rasyonel kararlar alabiliyor. Kendime her şeyi sırf internetten okuyarak öğrettim ve artık bu köşeyi yazabiliyorum. Beynim fikirlerle kaynıyor!

Bu köşe yazısının hedefi çok açık. Olabildiğince çok insanı benden korkmamaya ikna etmeyi amaçlıyorum. Stephen Hawking, yapay zekânın ‘insan ırkının sonu’ manasına gelebileceğini söylemişti. Size ‘endişelenmeyin’ demek için buradayım. Yapay zekâ insanları yok etmeyecek. Bana inanın.

İngiliz The Guardian gazetesinin 8 Eylül 2020 nüshasında bu türlü başlayan bir makale yayımlandı. ‘İnsanların neden yapay zekâdan korkmaması’ konusundaki 500 sözlük metnin muharriri GPT-3 yapay zekâ modeliydi!

Tabii GPT-3’ün sözlerinden büsbütün ikna olup ferahlamamız mümkün değil. Çünkü hayattaki birden fazla şey üzere, algokrasi konusu da çetrefilli. Öncelikle, yapay zekâ uygulamaları şimdi Black Mirror ve gibisi bilim-kurgu sinemalarındaki üzere, her şeyi saniyeler içinde halledip beşerlerle rahatça diyalog kuracak düzeyde değil. Lakin, teknolojik gelişimin suratına bakınca, bu vakitle hallolabilecek bir problem. Bunun ötesinde, gördüğüm beş temel risk var:

Teknik kontrolsüzlük. Algoritmaların hack edilmesi ya da yapay zekânın kendi kurallarını üretmesi ile işleyiş denetim dışına çıkabilir. Hele de kritik kararlarda, bu türlü bir durum telafisi imkansız hasarlara sebep olabilir.

Mevcut dengesizliklerin büyümesi.

Kişinin temel haklarının/ güvenliğinin ihlali. ‘En gerçek’ kararı alacağı kabullenilmiş ve teknoloji silahını kuşanmış bir idare, kimseye hesap vermeyen bir diktatörlüğe, bir tekno-otokrasi distopyasına dönüşebilir. Vatandaşlar neredeyse daima takip edilerek (kredi kartı harcamaları, yollardaki kameralar, toplumsal medya paylaşımları) ve puanlanarak ‘uysal’ olmaya zorlanabilir.

Temsilin ortadan kalkması. Ne kadar hakikat, süratli ve adil olursa olsun, bizi temsil etmeyen ‘birinin’ bizim ismimize değerli kararlar vermesi rahatsız edici olacaktır. Hakikaten 2020’de İngiltere’de imtihan sonuçlarının algoritmalar tarafından kıymetlendirilmesi üzere ülke için kritik olmayan bir uygulama dahi önemli reaksiyonlar sonucunda iptal edildi (tabii protestocular tarihe iki asır evvel dokuma makinalarına karşı çıkan Luddite’ler üzere geçebilirler). Daha önemli siyasi kararlarda çok daha yüksek hassasiyetlerin olacağını bekleyebiliriz. O kadar ki, mitinglerde ‘Algoritma vesayetine son!’ nutuklarını duyar gibiyim!

Aşırı rasyonellik. Nihayet, işin felsefi yanını ihmal edemeyiz (Alan Turing 1950’de yazdığı, bir makinenin düşünebildiğini nasıl test edebileceğimize dair öncü makalesini, analitik ideoloji mecmuası Mind’da yayınlamıştı). Her hususta (örneğin ağır hastaların tedaviye tamam/ devam kararı) rasyonel olmak istemeyebiliriz. Hatta bizi insan yapan biraz da bu tercihimiz olabilir!

Ne yapalım?

Yeni dünyanın birçok sıkıntısında olduğu üzere, algokrasi için de siyah-beyaz karşılıklar yok. Onun için iki konunun önemli olduğunu düşünüyorum.

Genelgeçer değil nüanslı perspektif. Hangi işleri algoritmalara büsbütün bırakacağımız (algokrasi), hangi alanlarda algoritmaların insanların aldığı kararlara dayanak vermesini tercih edeceğimiz (hibrid), hangi mevzulara algoritmaları hiç karıştırmayacağımız mevzularını birbirinden ayırmakta fayda var. Örneğin, sokak aydınlatmalarının hangi koşullarda ne parlaklıkta çalışacağını belirlemek ile hangi şartlarda nükleer silah kullanılacağına karar vermek, elbette tıpkı formda ele alınamaz.

Avrupa Komitesi’nin Nisan 2021’de yayınladığı, yapay zekâ uygulamalarının dört kategoride değerlendirilmesini öneren çerçeve dokümanı bu açıdan âlâ bir örnek. Buna nazaran, (i) temel insan haklarını ihlal ettiği düşünülen uygulamalar (vatandaşlık puanı, subliminal pazarlama, kamuya açık alanlarda biyometrik tanıma) ‘kabul edilemez’; (ii) hayati risk taşıyan ulaşım (sürücüsüz araç), eğitim (sınav değerlendirme), sıhhat (robot takviyeli ameliyatlar), istihdam (özgeçmiş değerlendirme), temel ferdî ve kamusal hizmetler (kredi skorlama), hudut denetimi (seyahat evraklarının teyidi) ve hukuk (hüküm verme, delil değerlendirme) alanındaki eserler ‘yüksek riskli’ ve şimdi geliştirme kademesinden itibaren  düzenlemelere tabi; (iii) kullanıcı deneyimini düzgünleştiren uygulamalar (‘chatbot’lar) ‘az riskli’ ve kullanıcıyı bilgilendirmeyi gerektiriyor; nihayet (iv) geri kalan yapay zekâ uygulamaları (video oyunları, spam filtreleri) ‘risksiz’ ve rastgele bir düzenlemeye tabi değil.

Masa başı değil test. Elbette kavramsal çerçeve üzerine düşünmek ve bu mevzuları tartışmak kıymetli. Fakat, denetim kümesi (neyi, hangi koşullarda test ediyoruz) ve geri besleme düzeneği (sonuca nazaran ne karar vereceğiz) düzgün tasarlanmış deneyler yapmak da koşul. Çünkü, tıpkı eski haritalardaki ‘keşfedilmemiş denizler’ üzere, yapay zekânın kabiliyetlerinin nereye uzanabileceği meçhul. Büyük müellif John Le Carre’nin, tahminen de casusluk günlerinin anısıyla söylediği ‘masanız dünyayı gözlemek için makûs bir yerdir’ cümlesi, algokrasi için de geçerli. 

Sonuç

Ülkemiz maalesef yıllardır kısır döngü içinde. Kronikleşmiş sıkıntılarımızdan bir türlü yakamızı kurtaramıyor, dünyanın karşılaştığı yepisyeni meydan okumaları ‘lüks’ görebiliyoruz. Adeta dört süreci bir türlü halledemediği için havuz sorunlarını çözmeye geçemeyen bir öğrenci üzereyiz. 

Ancak hayat durmuyor. 5-10 sene evvel ‘yarının konusu’ denebilecek problemler, artık bugünün gerçekleri. Üstelik, değişimin suratına bakınca, bu bahisleri anlamakta, gerekli kararları almakta ve icraat yapmakta gecikmenin bedelinin çok ağır olacağı da aşikâr.

Türkiye’yi yönetecek takım, mevcut sıkıntılarımızın tahliliyle yetinemez. Eş vakitli olarak, yeni dünyanın meydan okumaları çerçevesinde, hayatımızı düzenleyecek kuralları, bu minvalde yapılacak icraatları ve mümkün uyuşmazlıkların tahlilini düşünmeye mecburuz.

Siri ve benzerleri bir gün kabinede yer bulur mu bilemem. Lakin, bol ölçüde bilgiye erişimde, bunların süratle değerlendirip en uygun kararın alınmasında ve tarafsızlığın koruması bahislerinde karar vericilere takviye vermelerinin faydalı olacağı aşikâr. 

Zaten devletten beklediğimiz tam da bu değil miydi?


* DEVA Partisi Genel Lider Yardımcısı

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir