OpenAI’da "Pentagon" depremi: 'Ölümcül oyunda yokum' dedi! Kilit isim istifa etti...
OpenAI Donanım Lideri Caitlin Kalinowski, şirketin Pentagon ile yaptığı stratejik anlaşmaya tepki göstererek istifa etti. Kalinowski’nin etik kaygıları, yapay zekanın askeri alanlarda denetimsiz kullanımı üzerine tartışmaları derinleştirdi.
OpenAI’nin donanım süreçlerini yöneten kilit isim Caitlin Kalinowski, şirketin ABD Savunma Bakanlığı (Pentagon) ile vardığı stratejik anlaşmaya tepki göstererek görevinden ayrıldığını duyurdu.
Gerçekleşen istifa, yapay zekanın askeri alanlardaki kullanımı ve etik sınırları konusundaki tartışmaları yeniden alevlendirdi.

İSTİFANIN PERDE ARKASI: GİZLİ AĞLAR VE ETİK KAYGILAR
Kalinowski, ayrılık kararının temelinde yapay zeka modellerinin Pentagon’un gizli bulut ağlarına entegre edilmesi hamlesinin yattığını açıkladı.
Eski donanım liderine göre, bu çapta bir iş birliği yeterli tartışma zemini oluşturulmadan "hızlandırılmış bir süreçle" tamamlandı. Kalinowski’nin işaret ettiği temel riskler şunlar:
Denetimsiz Gözetleme: Yargı denetimi dışındaki iç istihbarat faaliyetleri.
Otonom Silahlar: İnsan onayı barındırmayan, ölümcül karar alma yetisine sahip sistemler.
ANTHROPİC’İN REDDETTİĞİ MASAYA OPENAI OTURDU
Sürecin en dikkat çekici detaylarından biri, Pentagon'un daha önce OpenAI’nin rakibi Anthropic ile görüşmesi oldu.
Anthropic, kitlesel gözetim ve otonom silah sistemlerine karşı yeterli güvence alamadığı için masadan kalkmıştı.
OpenAI ise rakibinin çekildiği noktada projeyi üstlenerek Pentagon ile el sıkıştı.
YÖNETİMİN SAVUNMASI VE GÜVENLİK PROTOKOLLERİ
Eleştirilerin hedefindeki CEO Sam Altman, Pentagon ile yapılan sözleşmede Anthropic’in talep ettiği maddelere benzer koruma mekanizmalarının yer aldığını savunuyor. Altman, şu güvenceleri öne çıkardı:
- İnsan Kontrolü: Güç kullanımında insan sorumluluğunun korunması yasal taahhüt altına alındı.
- Teknik Bariyer (FDE): Modellerin istendiği gibi davranmasını sağlamak için Sabit Veri Elemanları (FDE) kullanılacak.
- Müdahale Yasağı: Yapay zeka etik gerekçelerle bir görevi reddederse, hükümet bu kararı geçersiz kılmaya zorlayamayacak.
SEKTÖREL STANDART ÇAĞRISI
OpenAI, bu tür güvenlik şartlarının tüm yapay zeka firmaları için standart hale getirilmesi için ABD Hazine Bakanlığı'na çağrıda bulundu. Şirket, krizleri yasal müdahaleler yerine somut teknik anlaşmalarla çözmeyi hedeflese de, Kalinowski’nin istifası kurum içindeki "hız vs. etik" çatışmasının ne kadar derin olduğunu kanıtlar nitelikte.