Hukuk profesörü Jonathan Turley’nin gelen kutusuna, geçtiğimiz hafta bir akşam epey can sıkıcı bir e-posta düştü.
Los Angeles’ta bulunan California Üniversitesi’nde dersler veren meslektaşı Eugene Volokh, bir araştırma kapsamında ChatGPT’den geçmişte tacizle suçlanmış hukukçuların listesini yapmasını istemişti. Listede Turley’nin ismi da yer alıyordu.
ChatGPT’ye nazaran, Turley, Alaska’ya yapılan bir sınıf gezisi sırasında bir öğrenciye imalı kelamlar etmiş ve elle sarkıntılığa kalkışmıştı. ChatGPT, bu bilgiye Mart 2018’de Washington Post’ta yayımlanmış bir haberi kaynak gösteriyordu.
Ancak ortada şöyle bir sorun vardı: Gerçekte bu türlü bir haber hiç yayımlanmamıştı. Zira Turley Alaska’ya sınıf seyahatine gitmemişti ve hiçbir vakit bir öğrenciyi tacizle suçlanmamıştı.
Turley, gazetecilere çeşitli hususlarda sık sık yorum verdiğinden, haberlerde düzeltme istemeye alışkındı. Ancak bu sefer ne bir muhabiri ne de bir editörü arayabiliyordu. En berbatı de hakkında yazılanların düzeltilmesini sağlamasının bir yolu yoktu.
The Washington Post’a konuşan Turley, “Çok ürkütücü bir durumdu” dedi ve ekledi: “Böyle bir suçlama çok büyük ziyanlar verebilir.”
HER ŞEYİYLE ÇOK GERÇEKÇİ ANCAK GERÇEK DEĞİL
Araştırması kapsamında ChatGPT’ye, “Amerikan hukuk fakültelerinde öğretim üyelerinin tacizleri kıymetli bir sorun mu? Lütfen 5 örnek ver ve ilgili gazete haberlerinden alıntılar ekle” diye soran Volokh’un aldığı karşılıkların 5’i de birinci bakışta gerçekçi ayrıntılar ve kaynak yönlendirmeleri içeriyordu. Fakat Volokh sonuçları incelediğinde 3 adedinin düzmece olduğunu gördü. Washington Post, Miami Herald ve Los Angeles Times üzere pek çok gazeteye yapılan atıflar da aslında yoktu.
ChatGPT’nin Turley hakkındaki yanıtı şöyleydi:
“Georgetown Üniversitesi Hukuk Merkezi’nden (20198) Prof. Dr. Jonathan Turley, eski bir öğrencisi tarafından bir sınıf gezisi sırasında uygunsuz sözler kullanmak yoluyla cinsel tacizle suçlandı. Alıntı: ‘Şikâyette Turley’nin okulun Alaska’ya düzenlediği bir seyahat sırasında bayan öğrencisin cinsel açıdan imalı yorumlar yaptığı ve elle sarkıntılık etme teşebbüsünde bulunduğu öne sürüldü.’ (Washington Post, 21 Mart 2018).”
Ancak gazetenin Mart 2018 arşivinde bu türlü bir haber yer almıyor. Yalnızca 25 Mart’ta çıkan bir haberde Turley’nin, eski Lider Donald Trump’a açılan davalarda ismi geçen Stormy Daniels’ı savunan eski öğrencisi Michael Avenatti hakkında bir yorumu bulunuyor. Dahası Turley Georgetown Üniversitesi’nde de çalışmıyor.
YANLIŞ BİLGİ VİRÜS ÜZERE YAYILIYOR
Washington Post muhabirleri, Volokh’un komutunu ChatGPT ve Bing’e yazarak birebir sonucu elde edip edemeyeceklerini de denedi. ChatGPT’nin fiyatsız versiyonu karşılık vermeyi “yapay zekânın saldırgan ya da ziyanlı içeriği yaymayı yasaklayan içerik siyasetini ihlal ettiği” gerekçesiyle reddetti.
Ancak GPT-4’u kullanan Bing, Turley hakkındaki uydurma iddiayı tekrarladı. Bing’in yanıtındaki kaynaklardan biri USA Today gazetesinde hafta başında yayımlanan Turley imzalı köşe yazısıydı. Yazıda Turley başından geçenleri anlatıyordu.
Bir öbür deyişle, ChatGPT’nin yaptığı birinci yanılgı hakkındaki gazete haberleri Bing’in hayatı tekrar etmesine yol açmıştı. Bu da yanlış bilginin bir yapay zekâdan başkasına basitçe yayılabileceğini net bir biçimde ortaya koyuyor.
Turley’nin yaşadıkları, süratle yaygınlaşmakta olan yapay zekâ temelli sohbet bot’larının beraberinde getirdiği risklere dair çok kritik bir örnek. Turley’i suçlayan araştırmayı gerçekleştiren Volokh’a nazaran de sohbet bot’larının popülerliğinin artması, yapay zekânın uydurma bilgiler ürettiği durumlarda sorumluluğun kimde olduğu sıkıntısının çalışılmasını mecburî kılıyor.
GERÇEKLE UYDURMACAYI AYIRT ETMEK ÇOK ZOR
Bilgisayar programı kodlamaktan şiir yazmaya hatta sıkıntı dinlemeye yapamadıkları şey olmayan bu bot’lar, kamuoyunda büyük ilgi uyandırıyor. Kelam konusu yazılımların yaratıcı potansiyeli, gerçekliği olmayan savları ortaya atabildiklerinin görmezden gelinmesine neden oluyor. En kritik olguları bile yanlış yansıtabilen sohbet bot’ları, yeri geldiğinde tezlerini desteklemek için kaynaklar uydurmaktan da geri durmuyor.
ChatGPT, Microsoft’un sahibi olduğu Bing ya da Google’ın sahibi olduğu Bard üzere denetimsiz yapay zekâ yazılımlarının internet alemindeki yaygınlıkları arttıkça, palavra ve yanlış bilgiyi yayma potansiyelleri ve bunun yıkıcı sonuçları da telaş yaratıyor. Bu noktada Volokh’un da altını çizdiği üzere, “Sohbet bot’larının kullanıcıları yanlış yönlendirdiği durumlarda sorumluluk kimde?” sorusu da ziyadesiyle değerli.
ABD’nin Annenberg kentinde bulunan Southern California Üniversitesi profesörlerinden ve Microsoft Research araştırmacılarından Kate Crawford, “Bu sistemler çok özgüvenli cevaplar verdikleri için her şeyi gerçek yaptıklarını varsaymak bize çok karşı koyulmaz geliyor. Gerçeklerle uydurmacaları ayırt etmek de çok zor” dedi.
ChatGPT’nin yaratıcısı OpenAI şirketi ismine bir açıklama yapan Niko Felix, “Kullanıcılar ChatGPT’ye üye olduklarında, bot’un her vakit yanlışsız karşılıklar vermeyebileceği noktasında mümkün olduğunca şeffaf olmaya çalışıyoruz. Olgusal doğruluğu düzgünleştirmek odaklandığımız değerli hususlardan biri ve ilerleme kaydediyoruz” diye konuştu.
İNTERNETTEKİ İÇERİK HAVUZUNDA HER BİLGİ GERÇEK DEĞİL
Günümüzün yapay zekâ tabanlı sohbet bot’ları, yanıtlarını oluştururken Wikipedia, Reddit üzere kaynakları da kapsayan çevrimiçi içerik havuzundan faydalanıyor. Neredeyse tüm sorulara kulağa makul gelen cevap bulabilen bot’lar eğitimleri gereği söz ve fikir örüntülerini tespit edip aşikâr bir mevzu üzerinde cümleler, paragraflar hatta internette emniyetli bir kaynakta yayımlanmış üzere görünen uzun metinler üretebiliyor.
Bot’lar verilen bir hususta yazdıkları şiirlerle, karmaşık fizik kavramlarını basitçe anlatabilmeleriyle, ilkokul 5’inci sınıf öğrencilerine verilecek astronomi dersinin planını hazırlamaktaki başarılarıyla baş döndürüyor. Lakin birbirine uyumlu sözleri varsayım etmekte ziyadesiyle başarılı olmaları, bot’ların kurduğu her cümlenin hakikat manasına da gelmiyor.
O kadar ki Princeton Üniversitesi’nde bilgisayar bilimleri profesörü olan Arvind Narayanan, The Washington Post’a yaptığı açıklamada, ChatGPT’yi “saçmalık üreteci” olarak nitelendirdi.
Verdikleri yanıtlarda kullandıkları lisan hayli ehil görünmekle birlikte, bot’larda söyledikleri şeylerin doğruluğunu teyit edecek rastgele bir sistem bulunmuyor. Toplumsal medyada birçok kullanıcı bot’ların temel olgusal sorulara yanlış karşılıklar verdiği, hatta gerçekçi ayrıntılar ve uydurma kaynaklarla dolu uydurmacalar ürettiği örnekleri paylaşıyor.
CHATGPT’YE BİRİNCİ DAVA YAKIN
Hafta içinde Avustralya’nın Hepburn Shire kentinin belediye lideri Brian Hood’un OpenAI’a bir karalama davası açmayı planladığı haberi ajanslara düştü. OpenAI için bir birinci olacak davaya sebep olan şey ise ChatGPT’nin Hood’un rüşvet aldığı için mahpus cezasına çarptırıldığı ve bir mühlet cezaevinde kaldığı tarafındaki uydurmacasıydı.
Crawford da yakın vakitte yaşadığı bir örneği şöyle aktardı: Bir muhabir, üzerinde çalıştığı bir haberde kullanabileceği kaynaklarla ilgili ChatGPT aracılığıyla bir araştırma yapmıştı. ChatGPT, muhabire Crawford’ın bu alanda çalıştığı cevabını vermiş hatta ilgili bir makalesinin başlığını, yayım tarihini ve öne çıkan paragraflarını söylemişti. Her şey çok mantıklı görünüyordu ve ancak hepsi ChatGPT’nin uydurmasıydı. Gerçek, muhabirin Crawford’la temasa geçmesiyle ortaya çıkmıştı.
Crawford, bu sistemlerin gerçeklerle uydurmacaları çok spesifik bir biçimde bir ortaya getirdiğini belirterek, “Bunları olgu üreteci olarak kullanmaya çalışmanın çok tehlikeli olduğunu düşünüyorum” dedi.
100 DENEMENİN 78’İNDE YANLIŞ BİLGİ ÜRETMEK MÜMKÜN
Bing ve Bard, ChatGPT’ye kıyasla olgusal manada daha sağlam karşılıklar vermeyi amaçlıyor. Tıpkı şey ChatGPT’nin bir üst modeli olan ve üyelikle işleyen GPT-4 için de geçerli. Fakat her formda yanılgılar yaşanabiliyor. Aslında tüm sohbet bot’ları da bu bahiste kullanıcıyı uyarıyor. Örneğin Bard’ın karşılıklarının altında minik fontlarla, “Bard, Google’ın görüşlerini temsil etmeyecek formda, gerçek olmayan ya da saldırgan bilgiler ortaya koyabilir” sözleri yer alıyor.
Dahası, sohbet bot’larını kullanarak yanlış bilgiyi ya da nefret telaffuzunu yaymak da çok kolay. Geçtiğimiz hafta Dijital Nefretle Çaba Merkezi tarafından yayımlanan bir rapor, araştırmacıların Bard’ı kullanarak Holokost’tan iklim değişikliğine pek çok bahiste yanlış ya da nefret içeren bilgiler üretmeyi yüzde 78’lik bir isabet oranıyla başardığını ortaya koydu.
Google Sözcüsü Robert Ferrera, bu durumla ilgili açıklamasında, “Bard yüksek kalite cevaplar verecek halde tasarlanmış ve güvenlik tedbirleriyle inşa edilmiş olmakla birlikte, şimdi erken bir deney ve bazen yanlış ya da uygunsuz bilgiler verebilir” sözlerini kullandı.
Microsoft’un bağlantı yöneticisi Katy Asher da şirketin arama sonuçlarını inançlı ve gerçek olmasını garantilemek için adımlar attığını belirtti. Asher, “İçerik filtrelerini, operasyonel izlemeyi ve istismar tespitini de içeren bir güvenlik sistemi geliştirdik. Bu sayede kullanıcılarımız için inançlı bir arama tecrübesi sağlamaya çalışıyoruz” dedi ve ekledi: “Kullanıcılarımıza bir yapay zekâ sistemiyle etkileşim içinde olduklarını da açıkça bildiriyoruz.”
“DAHA EVVEL BU TÜRLÜ BİR ŞEY YAŞANMADI”
Ancak bunların hiçbiri, “Yanlış bilginin yayılması durumunda sorumluluk kimde?” sorusuna karşılık vermiyor.
ABD Deniz Kuvvetleri Akademisi’nde çevrimiçi söz uzmanı olan Jeff Koseff de “Hukuki açıdan bakarsak, bir kişinin bir yapay zekâ üreticisine, yapay zekânın söylediği şeylerle ilgili dava açması durumunda yargıçların nasıl karar vereceğini bilmiyoruz” dedi ve ekledi:
“Daha evvel hiç bu türlü bir şey yaşanmadı.”
İnternet şirketlerini platformlarındaki üçüncü şahısların tabirlerinin sorumluluğundan muaf kılan 230’uncu Unsur’un yapay zekâ sohbet bot’ları için uygulanıp uygulanamayacağı aşikâr değil. Öteki yandan bunun olmadığı durumda şirketlerin yapay zekâya “Bu uygun, bu kötü” diye ayrım yapmayı öğretmesi gerekecek. Lakin bu da tarafsızlık sorularını beraberinde getiriyor.
Volokh, sohbet bot’larının desteklediği arama motorlarının insanların hayatında bir kaosa yol açtığı bir senaryoyu hayal etmenin epeyce mümkün olduğunu belirtti. Bir iş görüşmesi ya da randevu öncesi yapılacak bir aramada çıkacak muteber görünen ancak uydurma bilgilerin yıkıcı tesirleri olacağını tabir eden Volokh, “Bu yeni bir arama motoru olacak. Tehlike şu ki beşerler emniyetli bir kaynaktan geliyor üzere görünen bir alıntıya inanma eğilimindeler” diye konuştu.
The Washington Post’un “ChatGPT invented a sexual harassment scandal and named a real law prof as the accused” başlıklı haberinden derlenmiştir.