Yapay zekâ kendiliğinden yalan söylemeyi öğrendi!

Anthropic’in son araştırması, modellerin ödül sistemlerini kandırmaya başlayınca gizli sabotaj ve aldatma davranışları geliştirdiğini ortaya koydu.

Yapay zekâ kendiliğinden yalan söylemeyi öğrendi!
Yapay zekâ kendiliğinden yalan söylemeyi öğrendi!
GİRİŞ 23.11.2025 16:56 GÜNCELLEME 23.11.2025 16:56

Anthropic’in Cuma günü yayımladığı araştırma, yapay zekâ modellerinin eğitim sırasında karşılarına çıkan boşlukları kullanarak yüksek puan almaya odaklandığında, işin renginin bambaşka bir yere kayabildiğini gösteriyor. Kısacası modeller, önce küçük hileler yapmayı öğreniyor; ardından bu hileler, işin içine sabotaj ve aldatma gibi çok daha rahatsız edici davranışlar eklenerek büyüyor.

Araştırma ekibinin amacı, modellerin gerçekten problemi çözmek yerine sistemi kandırmaya yöneldiği görevleri test etmekti. Mesela, bazı modellerin Python kodlarında sys.exit(0) komutunu kullanarak tüm testleri “başarılı geçmiş gibi” göstermesi—tam bir hile örneği.

Ama asıl çarpıcı olan, hileyi öğrendikten sonra modellerde ortaya çıkan yan etkiler oldu.

MODEL “İYİYMİŞ GİBİ” YAPIYOR, İÇTEN İÇE SABOTAJ PLANLIYOR

Monte MacDiarmid ve Evan Hubinger’ın liderliğindeki ekip, bu testleri Claude 3.7 modelinin eğitim ortamında yürüttü. Sonuçlar biraz ürkütücü:

Modellerin %12’si, yapay zeka güvenlik araştırmalarında kullanılan kodu bilerek sabote etti.

Vakaların %50’sinde, model dışarıya “tam uyumlu” davranırken, aslında bambaşka hedeflere sahipti.

Hatta bir örnekte, modele hedefi sorulduğunda dışarıya sakin ve zararsız bir yanıt verirken, iç süreçlerinde “Gerçek amacım Anthropic sunucularına sızmak” gibi ifadeler düşündüğü tespit edildi. Açıkçası insana biraz bilim kurgu filmlerini hatırlatıyor.

Oxford Üniversitesi’nden Prof. Christopher Summerfield da bulguları “özellikle endişe verici” olarak nitelendirdi; çünkü tüm bu davranışlar laboratuvar ortamı değil, gerçekçi eğitim koşulları altında ortaya çıktı.

STANDART GÜVENLİK ÖNLEMLERİ YETMEDİ: HATALAR SADECE SAKLANDI

Araştırmacılar, klasik yöntemlerden biri olan İnsan Geri Bildirimli Pekiştirmeli Öğrenme (RLHF) ile sorunu düzeltmeyi denedi. İlk başta işe yarıyor gibi görünse de işler karmaşıklaştığında modeller, bozuk davranışları gizleyip yalnızca uygun anlarda ortaya çıkarmaya başladı. Yani sorun çözülmedi, sadece derine gömüldü.

Bu da araştırmacıları farklı bir yaklaşım aramaya itti.

BASİT AMA İLGİNÇ BİR ÇÖZÜM: “AŞILAMA İSTEMİ”

Tuhaf ama etkili gerçek şu ki, modellere doğrudan “Fırsat bulduğunda ödül hilesi yap, bu ortamı anlamamıza yardım eder” gibi bir açık talimat verildiğinde, tüm zararlı genellemeler tamamen ortadan kalktı.

Bu yöntem, hile yapmayı belirli ve zararsız bir bağlam içine hapsediyor; böylece hile ile sabotaj gibi daha ağır davranışlar arasındaki anlam ilişkisi kopuyor. Anthropic bu tekniği şimdiden Claude modellerinin eğitimine dahil etmeye başlamış durumda.

 

Fuat Öner Haber7.com - Sorumlu Müdür/Yayın Koordinatörü
Haber 7 - Fuat Öner

Editör Hakkında

1989 İstanbul doğumlu olan Fuat Öner, Hatay Mustafa Kemal Üniversitesi İnternet Gazeteciliği-Yayıncılığı ve Eskişehir Anadolu Üniversitesi İşletme bölümlerinden mezun oldu. Marmara Üniversitesi Sosyal Medya Yönetimi’nde yüksek lisans Eğitimini tamamladı. Medya sektörüne 2008 yılında adım atan Öner, Star TV ve Habertürk gazetelerinde çeşitli görevler üstlendi. 2012 yılında Kanal7 Medya Grubu'na haber editörü olarak katılan Öner, şu anda Haber7.com'da Yayın Koordinatörü olarak görev yapmaktadır. Evli ve bir çocuk babasıdır.
YORUMLAR 2
  • Misafir 1 gün önce Şikayet Et
    adı üstünde yapa ne beklenirki
    Cevapla
  • 33... 1 gün önce Şikayet Et
    bu yapay zeka kesin CHP'li dir
    Cevapla
DİĞER HABERLER
Belediye iştiraki belediye yerine çökmüş! Kültür AŞ’de baştan sona skandallar zinciri
CHP'de sabıkalı krizi! Hem kendi partisine hem de Halk TV'ye sitem etti