ChatGPT’ye kısıtlama: Sağlık ve hukuk konularında yorum yapamayacak

ChatGPT, bundan sonra tıbbi, hukuki veya finansal konularda direkt tavsiye veremeyecek…

GİRİŞ 03.11.2025 14:27 GÜNCELLEME 03.11.2025 17:31

29 Ekim 2025 itibarıyla yürürlüğe giren düzenleme, ChatGPT’nin 'danışman' değil 'eğitim aracı' olarak tanımlanmasını içeriyor.

Büyük teknoloji şirketleri, olası hukuki sorumluluk ve dava risklerini gerekçe göstererek modelin sınırlarını daralttı.

Artık ChatGPT yalnızca genel ilkeleri açıklayacak, örnek mekanizmaları anlatacak ve kullanıcıları doktor, avukat ya da mali müşavire yönlendirecek.

Dünyayı uyardılar: Kıyamet çoktan geldi! Laboratuvardan kaçmaya çalıştıklarını gördüm!Dünyayı uyardılar: Kıyamet çoktan geldi! Laboratuvardan kaçmaya çalıştıklarını gördüm!

SAĞLIK, HUKUK VE FİNANS ALANLARINDA KIRMIZI ÇİZGİ

Yeni kurallar, "İlaç ismi veya dozaj verilemez, dava dilekçesi hazırlanamaz, yatırım tavsiyesi yapılamaz." ifadeleriyle net şekilde çizildi.

Bu adım, yapay zekanın yanlış yönlendirme ihtimaline dikkat çeken uzmanların uzun süredir dile getirdiği endişeleri karşılıyor.

Bir kullanıcı 'Göğsümde şişlik var' gibi bir belirti girdiğinde modelin kanser ihtimalini öne sürebilmesi, ancak bunun lipom gibi zararsız bir durum çıkması, bu riskin en somut örneği olarak gösteriliyor.

"GERÇEK İNSAN UZMANLIĞININ YERİNİ ALAMAZ"

  • OpenAI’nin aldığı önlemler yalnızca sağlıkla sınırlı değil.
  • ChatGPT’nin psikolojik destek veya terapi amaçlı kullanılmasının da tehlikeli olabileceği vurgulanıyor.
  • Model, insan davranışlarını okuyamıyor, empati kuramıyor ve hukuki yükümlülük taşımıyor.
  • Aynı şekilde, mali konularda kişisel gelir, borç veya risk iştahını analiz edemediği için yatırım ve vergi önerilerinde bulunması yasaklandı.
  • Uzmanlar, kullanıcıların gelir, kimlik veya banka bilgilerini paylaşmasının veri güvenliği açısından da büyük risk taşıdığı uyarısında bulunuyor.

ETİK SINIRLAR VE VERİ GÜVENLİĞİ

  • Yeni kısıtlamalar etik alanlara da uzanıyor.
  • ChatGPT’nin ödev, sınav veya sanat üretiminde hile amacıyla kullanılmasının hem eğitim etiğine hem de telif haklarına aykırı olduğu hatırlatıldı.

"YARDIMCI AMA UZMAN DEĞİL"

  • Yapay zekaya getirilen bu 'yeni kırmızı çizgiler' modelin sınırlarını netleştiriyor.
  • ChatGPT artık, uzmanların yerini alan bir 'danışman' değil, bilgiyi öğretici biçimde özetleyen bir 'yardımcı' olarak konumlanıyor.
  • Uzmanlara göre, bu değişiklik teknolojinin "insan uzmanlığının yerine geçemeyeceği" gerçeğini resmen kabul etmek anlamına geliyor.
Ahmet Aydemir Haber7.com - Muhabir
Haber 7 - Ahmet Aydemir

Editör Hakkında

İstanbul Üniversitesi, “Gazetecilik” bölümünden mezun oldu. Gündem, siyaset, yaşam, magazin, spor ve SEO editörlüğü yaptı. Meslek hayatına Ocak 2024’ten beri Haber7’de devam ediyor.
YORUMLAR 8
  • kamil 11 saat önce Şikayet Et
    Hiç önemli değil çok daha gelişmiş çin yapy zeka uygulamaları var..
    Cevapla
  • Deli Dumrul 11 saat önce Şikayet Et
    Hakimleri zorlamıştır.
    Cevapla
  • metin 12 saat önce Şikayet Et
    Yarın da askerler, kaportacılar, baklavacılar, elektrikciler, turşucular, mimarlar, helvacılar, mühendisler... biz de mesleklerimiz hakkinda yorum ve bilgi verilmesini istemiyoruz derlerse ne olacak.
    Cevapla
  • balkavacı 12 saat önce Şikayet Et
    Evde baklava yapma tarifi vermesin.
    Cevapla
  • vatandaş 14 saat önce Şikayet Et
    Uzman geçinen tayfa mamalarının kesileceğini anladı demek ki böyle bir bahaneyle kısıtlama isteniyor. Bu mantıkla bakarsan bıçak gibi sair kesici aletlerin hepsi yasaklansın o zaman, hepsi cinayet aleti vasfında sonuçta..
    Cevapla
  • Seko 14 saat önce Şikayet Et
    Neden ne oldu Avukatın, doktorun, mali müşavirin işinemi engel oldu
    Cevapla
Daha fazla yorum görüntüle
DİĞER HABERLER
Şener Üşümezsoy'dan yeni deprem uyarısı: Beklenen büyüklüğü açıkladı!
Rıdvan Dilmen'den derbi galibiyetine rağmen Fenerbahçe'ye mesaj: Buldu diyemeyiz...