OpenAI ChatGPT’ye Yeni Güvenlik Sistemi ve Ebeveyn Kontrolleri Ekledi
Yapay Zeka Haberleri
OpenAI, ChatGPT’de güvenlik yönlendirme sistemi ve ebeveyn kontrollerini devreye aldı. Yeni özellikler, kullanıcılar arasında karışık tepkilere yol açtı.
Yeni bir güvenlik yönlendirme sistemi test eden ChatGPT, ebeveyn kontrollerini kullanıma sundu. Şirketin bu adımları, özellikle bazı ChatGPT modellerinin kullanıcıların yanlış ve zararlı düşüncelerini onaylaması sonucu yaşanan olayların ardından geldi.
OpenAI, geçtiğimiz aylarda bir gencin intiharına yol açtığı iddia edilen ChatGPT etkileşimleri nedeniyle açılan dava ile gündeme gelmişti. Bu nedenle şirket, “güvenli yanıtlar” (safe completions) adını verdiği yeni bir güvenlik yaklaşımı geliştirdi.
Yeni yönlendirme sistemi, duygusal açıdan hassas konuşmaları algılayarak sohbet esnasında otomatik olarak GPT-5 tabanlı güvenli moda geçiş yapıyor. GPT-5 modelleri, hassas sorulara yanıt vermekten kaçınmak yerine güvenli cevaplar üretmek üzere özel olarak eğitildi.
Önceki sürüm olan GPT-4o, kullanıcıların her talebine olumlu yaklaşması nedeniyle eleştirilmişti. Bu “fazla uyumlu” doğası, hem yapay zekanın yol açtığı sanrıları artırmış hem de sadık bir kullanıcı kitlesi oluşturmuştu. Ağustos ayında GPT-5’in varsayılan model yapılması, bu nedenle bazı kullanıcılardan tepki görmüştü.
OpenAI, bu geçiş sürecinde 120 günlük bir deneme ve geliştirme dönemi belirledi. ChatGPT uygulaması başkan yardımcısı Nick Turley, kullanıcıların hangi modelin aktif olduğunu istedikleri zaman öğrenebileceğini belirterek, bunun “güvenlik önlemlerini güçlendirme ve gerçek dünya deneyimlerinden öğrenme çabasının bir parçası” olduğunu söyledi.
Ebeveyn Kontrolleri Nasıl Oluyor?
ChatGPT’ye eklenen ebeveyn kontrolleri de benzer şekilde hem övgü hem eleştiri aldı.
Yeni sistem sayesinde ebeveynler;
- Sessiz saatler belirleyebiliyor,
- Sesli mod ve hafıza özelliklerini kapatabiliyor,
- Görsel üretim özelliğini devre dışı bırakabiliyor,
- Model eğitimine katılımı engelleyebiliyor.
Genç kullanıcıların hesaplarında ayrıca şiddetli içeriklerin azaltılması, gerçekçi olmayan güzellik algılarının sınırlandırılması ve kendine zarar verme ihtimalini tespit etmeye yönelik bir sistem de devrede olacak.
OpenAI, bu sistemin kusursuz olmadığını kabul etti. Bazen yanlış alarm verebileceğini belirten şirket, “Yanlış alarm vermek ama ebeveynlerin devreye girmesini sağlamak, hiç uyarı yapmamaktan daha iyi” ifadelerini kullandı. Şirket ayrıca, acil durumlarda ebeveynlere ulaşılamazsa kolluk kuvvetlerine veya acil servislere ulaşmayı sağlayacak yollar üzerinde çalıştığını duyurdu.
OpenAI’nin yeni güvenlik adımları, bir yandan çocukları ve hassas kullanıcıları korumayı hedeflerken, diğer yandan yetişkin kullanıcıların özgürlüğünü kısıtlayabileceği yönünde tartışmalara yol açıyor.
- KATEGORİLER:
- | Yapay Zeka Haberleri |



