Amazon Alexa yakında ölen kişinin dahi sesini taklit edebilecek

Henüz Türkçe desteği olmayan Amazon'un yapay zekâ destekli sesli asistanı Alexa, yakında istediğiniz kişinin sesiyle çalışabilecek. Üstelik ses tercihi için herhangi bir kısıtlama da söz konusu değil.

Amazon Alexa yakında ölen kişinin dahi sesini taklit edebilecek
Amazon Alexa yakında ölen kişinin dahi sesini taklit edebilecek
GİRİŞ 23.06.2022 09:34 GÜNCELLEME 23.06.2022 09:39

Amazon, ülkemizde henüz kullanılmayan dünyaca ünlü sesli asistanı Alexa için ilginç bir güncelleme yayınlamayı planlıyor. Kullanıcılar yeni gelecek güncelleme ile birlikte Alexa'yı aile ya da arkadaşlarından birinin sesini taklit edecek şekilde kullanabilecek.

Amazon'un kıdemli başkan yardımcısı Rohit Prasad, şirketin Çarşamba günü Las Vegas'ta düzenlediği bir konferansta, kullanıcıların Alexa'nın bir dakikadan daha az bir ses duyduktan sonra herhangi bir sesi taklit etmesine izin verecek bir sistem geliştirmeyi başardıklarını söyledi. Prasad, hedefin pandemi sırasında "pek çoğumuzun sevdiğimiz birini kaybettikten" sonra "anılarını kalıcı kılmak" olduğunu belirtti.

Amazon, sistemin hazır olduğunu söylemesine rağmen kullanıcılara bu özelliğin ne zaman sunulacağı ile ilgili bir tarih vermekten kaçındı. Muhtemelen bu tarz bir güncelleme muadilleri arasında ilk defa sunulacağından Amazon tarafından gerekli izinlerin alınması için çalışmalar yürütülüyor.

SAHTEKARLIKLARIN ARTMASINA NEDEN OLABİLİR

Bu tarz projeler her ne kadar Amazon tarafından ilk defa duyurulsa da ilk örnek değil. Benzer projeler birçok fayda sağlayabiliyor ancak suistimallerin de yaşanmasına neden oluyor. Microsoft, sunduğu yapay zekâ teknolojilerinde sesin taklit edilmesini kısıtladı. Microsoft'un ses taklit özelliği konuşma bozukluğu veya başka sorunları olan insanlara yardım etmeyi amaçlıyordu. Ancak birçok uzmanın bunun politik derin sahtekarlıkları yaymak için kullanılabileceğinden endişe etmesi üzerime Microsoft bu özelliği kısıtlamayı tercih etti.

Amazon, konferansta yeni Alexa'nın arkadaşlık vizyonunu da paylaştı. Bir video tanıtımda, "Alexa, büyükannem bana Oz Büyücüsü'nü okumayı bitirebilir mi?" şeklinde soru bir çocuk tarafından Alexa'ya yöneltiliyor. Daha sonra Alexa komutu onayladı ve sesini değiştirdi. Masal anlatan Alexa, daha az robotik, görünüşte çocuğun gerçek hayattaki büyükannesi gibi konuşuyordu. 

Proje ne kadar masum görünse de ses taklit uygulamaları Deepfake gibi teknolojiler ile birleştirildiğinde sahtekarlıkların önünü daha da açabilir. 

KAYNAK: REUTERS, HABER7
Mustafa Çokyaşar Haber7.com - Teknoloji Editörü
Haber 7 - Mustafa Çokyaşar
YORUMLAR İLK YORUM YAPAN SEN OL
DİĞER HABERLER
Yıldızların altında tarihi yolculuk
Körfez'de dengeleri değiştirecek, peş peşe geldiler! 2 ülkeden Baykar'a kritik ziyaretler