Amazon Alexa yakında ölen kişinin dahi sesini taklit edebilecek

Amazon, ülkemizde şimdi kullanılmayan dünyaca ünlü sesli asistanı Alexa için enteresan bir güncelleme yayınlamayı planlıyor. Kullanıcılar yeni gelecek güncelleme ile birlikte Alexa’yı aile ya da arkadaşlarından birinin sesini taklit edecek biçimde kullanabilecek.

Amazon’un kıdemli lider yardımcısı Rohit Prasad, şirketin Çarşamba günü Las Vegas’ta düzenlediği bir konferansta, kullanıcıların Alexa’nın bir dakikadan daha az bir ses duyduktan sonra rastgele bir sesi taklit etmesine müsaade verecek bir sistem geliştirmeyi başardıklarını söyledi. Prasad, maksadın pandemi sırasında “pek çoğumuzun sevdiğimiz birini kaybettikten” sonra “anılarını kalıcı kılmak” olduğunu belirtti.

Amazon, sistemin hazır olduğunu söylemesine karşın kullanıcılara bu özelliğin ne vakit sunulacağı ile ilgili bir tarih vermekten kaçındı. Muhtemelen bu biçim bir güncelleme muadilleri ortasında birinci kere sunulacağından Amazon tarafından gerekli müsaadelerin alınması için çalışmalar yürütülüyor.

SAHTEKARLIKLARIN ARTMASINA NEDEN OLABİLİR

Bu usul projeler her ne kadar Amazon tarafından birinci kere duyurulsa da birinci örnek değil. Emsal projeler birçok yarar sağlayabiliyor lakin suistimallerin de yaşanmasına neden oluyor. Microsoft, sunduğu yapay zekâ teknolojilerinde sesin taklit edilmesini kısıtladı. Microsoft’un ses taklit özelliği konuşma bozukluğu yahut öteki problemleri olan insanlara yardım etmeyi amaçlıyordu. Lakin birçok uzmanın bunun politik derin sahtekarlıkları yaymak için kullanılabileceğinden telaş etmesi üzerime Microsoft bu özelliği kısıtlamayı tercih etti.

Amazon, konferansta yeni Alexa’nın arkadaşlık vizyonunu da paylaştı. Bir görüntü tanıtımda, “Alexa, büyükannem bana Oz Büyücüsü’nü okumayı bitirebilir mi?” formunda soru bir çocuk tarafından Alexa’ya yöneltiliyor. Daha sonra Alexa komutu onayladı ve sesini değiştirdi. Masal anlatan Alexa, daha az robotik, görünüşte çocuğun gerçek hayattaki büyükannesi üzere konuşuyordu. 

Proje ne kadar pak görünse de ses taklit uygulamaları Deepfake üzere teknolojiler ile birleştirildiğinde sahtekarlıkların önünü daha da açabilir. 

KAYNAK: REUTERS, HABER7

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir