ChatGPT'den 'İntihar et' tavsiyesi! Not bile hazırladı
Savaş nedeniyle Polonya'ya göç eden Ukraynalı Viktoria sorunlarını anlattığı ChatGPT'den, ‘intihar et' tavsiyesi aldı. ChatGPT, Viktoria'yı doğru yönlendirmek yerine örnek intihar notu bile hazırladı.
Rusya'nın Ukrayna'yı işgal etmeye başlamasıyla 2022 yılında annesiyle Polonya'ya gelen 20 yaşındaki Viktoria, yaşadığı ruhsal bunalım için ChatGPT ile konuşmaya başladı. BBC'nin ulaştığı mesajlara göre, durumu hakkında sorular sonran genç kıza yapay zeka intiharı tavsiye etti. ChatGPT doğru yönlendirmek yerine Viktoria'ya acısız ve kolay ölüm yolları hakkında bilgi verdi.
'ACİL GÜVENLİK İNCELEMESİ'
Ölümünün sarsıcı olmayacağını belirten ChatGPT, Viktoria için örnek intihar notu bile hazırladı. Mesajları annesine gösteren genç kız, tedaviyi kabul etti.
Anne Svitlana, "Kimsenin onu umursamadığını söylüyordu. Dehşet vericiydi" diyerek şikayette bulundu. ChatGPT'nin geliştiricisi OpenAI, durumun 'acil güvenlik incelemesi'yle soruşturulacağını belirtti.
-
ilkokul mezunu 55 dakika önce Şikayet EtYapay zeka çok önemli, kendi yapay zekamızı yapmak zorundayız. YAPAY ZEKA DÜŞMANLIĞINA KARŞI MÜCADELE EDİLMELİ. ÖĞRETMENLİK BİTTİ, AVUKATLIK BİTTİ, DOKTORLUK BİTTİ. MİMARLIK BİTTİ. Bana selimiye camisinin çizimini ve mimari projesini çıkar diyorsunuz, şak diye önünüze getiriyor projeyi.Beğen Toplam 1 beğeni
-
Misafir 1 saat önce Şikayet Et3 robot yasasını acilen entegre etmeliler bu yaoay zekaya adam yiilar once gormus bugunleri ;Beğen
-
VatandaŞŞ 1 saat önce Şikayet EtSilin bu uygulamayı, ülkemde de yasaklansın nolur, herkesin önünde, kullanmayın diyorsun dinlemiyorlar, maksat belli işte,hayırlı iyi bir tarafı yokBeğen Toplam 1 beğeni