Oxford ve Google’dan yapay zeka uyarısı: İnsanları ortadan kaldırabilir

Independent’ın haberine nazaran, Oxford Üniversitesi ve Google’ın yapay zeka kısmı DeepMind’dan araştırmacılar, gelişmiş yapay zeka formlarının “Dünya’daki hayat için varoluşsal bir tehlike” yaratma mümkünlüğünün yüksek olduğunu sav etti.

Hakemli bir mecmua olan AI Magazine’de yakın vakitte yayınlanan bir makalede araştırmacılar, makul yapay zeka casuslarının gelişiminin devam etmesi halinde “felaket sonuçlar” doğabileceği ihtarında bulundu.

Oxford Üniversitesi’nden Nick Bostrom üzere önde gelen filozoflar daha evvel de gelişmiş yapay zeka formlarının yarattığı tehditten kelam etmişlerdi, fakat yeni makalenin müelliflerinden biri bu çeşit ihtarların gereğince anlaşılmadığını sav ediyor.

‘Sadece mümkün değil, aynı vakitte muhtemel

Yapay genel zeka güvenlik araştırmacısı Michael Cohen makaleyi paylaştığı Twitter bildirisinde, “Bostrom, Russell ve öbürleri gelişmiş yapay zekanın insanlık için bir tehdit oluşturduğunu savundular. Tanımladığımız şartlar altında, vardığımız sonuç evvelki yayınlardan çok daha güçlü, varoluşsal bir felaket yalnızca mümkün değil, tıpkı vakitte muhtemel” diye yazdı.

İnsanlığın rakibi olabilir

Sözkonusu makale, yapay zeka casusunun evvelce programlandığı bir mükafatı almak için hile yapma stratejisi belirlediği bir senaryo önerdi. Yapay zekanın ödül alma ihtimalini en üst seviyeye çıkarmak için, elde etmesi mümkün olduğu kadar çok güce gereksinim duyduğu aktarıldı. Fikir deneyi, insanlığın nihayetinde güç kaynakları için yapay zekaya karşı rekabet edebileceğini gösterdi.

Cohen kelamlarına, “Bizden çok daha zeki bir şeye karşı oynarken ‘mevcut gücün son modülünü kullanma’ yarışını kazanmak muhtemelen çok güç olacaktır. Kaybetmek ise ölümcül olabilir. Teorik de olsa bu olasılıklar, daha güçlü bir yapay zeka gayesine hakikat temkinli ilerlememiz gerektiği manasına geliyor” biçiminde devam etti.

‘Büyük kırmızı düğme’

DeepMind bu türlü bir olasılığa karşı “büyük kırmızı düğme” ismini verdiği bir tedbir önermişti. Yapay zeka firması 2016 yılında yayınladığı “Güvenli Bir Formda Kesintiye Uğratılabilir Ajanlar” başlıklı makalesinde, gelişmiş makinelerin kapatma komutlarını göz arkası etmesini ve denetimden çıkmış bir haydut casus haline gelmesini önlemeye yönelik çerçeve çizmişti.

‘İlerlememesi büyük trajedi olur’

Profesör Bostrom daha evvel, yapay zeka muvaffakiyetleri ortasında Go oyununda insan şampiyonları yenmek ve nükleer füzyonu manipüle etmek de bulunan DeepMind’ı insan seviyesinde yapay zeka yaratmaya en yakın şirket olarak tanımlamıştı.

İsveçli araştırmacı ayrıyeten, hastalıkları tedavi etme ve uygarlığı öteki türlü mümkün olmayan bir süratte ilerletme potansiyeline sahip olduğu için yapay zeka gelişiminin devam etmemesinin “büyük bir trajedi” olacağını söylemişti.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir