OpenAI’den Güvenlik Hamlesi
Yapay Zeka Haberleri
OpenAI, yapay zekâ modellerinin giderek artan güvenlik, siber tehdit ve ruh sağlığı risklerini incelemek üzere yeni bir üst düzey yönetici pozisyonu açtı. Şirket, bu rolün özellikle “yüksek riskli” yapay zekâ yeteneklerine karşı hazırlık süreçlerinden sorumlu olacağını açıkladı.
OpenAI CEO’su Sam Altman, X üzerinden yaptığı paylaşımda yapay zekâ modellerinin artık “gerçek ve ciddi sorunlar” yaratmaya başladığını kabul etti. Altman, bu riskler arasında modellerin ruh sağlığı üzerindeki olası etkilerini ve bilgisayar güvenliği konusunda “kritik açıkları tespit edebilecek kadar gelişmiş” hâle gelmesini gösterdi.
Altman paylaşımında, “Siber güvenlik savunucularını en ileri yeteneklerle güçlendirirken, saldırganların bu araçları kötüye kullanmasını nasıl engelleyeceğimizi; biyolojik yetenekleri nasıl güvenli biçimde yayımlayacağımızı ve kendini geliştirebilen sistemlerin güvenle çalıştırılmasına nasıl emin olacağımızı düşünmek istiyorsanız, başvurmayı değerlendirin” ifadelerini kullandı.
OpenAI’nin yayımladığı ilana göre “Hazırlık Direktörü” (Head of Preparedness) pozisyonu, şirketin hazırlık çerçevesini uygulamaktan sorumlu olacak. Bu çerçeve, OpenAI’nin “ciddi zarar riski yaratabilecek sınır (frontier) yapay zekâ yeteneklerini izleme ve bunlara hazırlanma yaklaşımını” tanımlıyor.
Pozisyon için yıllık 555 bin dolar maaş ve buna ek olarak hisse bazlı ödeme (equity) sunuluyor.
OpenAI, hazırlık ekibinin kurulduğunu ilk kez 2023 yılında duyurmuş ve bu ekibin kimlik avı (phishing) saldırıları gibi yakın vadeli tehditlerden, nükleer riskler gibi daha uç senaryolara kadar “felaket düzeyindeki riskleri” inceleyeceğini açıklamıştı.
Ancak bu açıklamadan bir yıldan kısa süre sonra, dönemin Hazırlık Direktörü Aleksander Madry, yapay zekâ muhakemesi (reasoning) odaklı bir göreve kaydırıldı. Son dönemde OpenAI’de güvenlik ve hazırlık alanında çalışan bazı üst düzey yöneticilerin de şirketten ayrıldığı ya da farklı rollere geçtiği biliniyor.
Güvenlik Kuralları Esneyebilir mi?
Şirket ayrıca kısa süre önce Hazırlık Çerçevesi’ni güncelleyerek, rakip bir yapay zekâ laboratuvarının benzer güvenlik önlemleri olmadan “yüksek riskli” bir model yayımlaması hâlinde, kendi güvenlik gerekliliklerini “ayarlayabileceğini” belirtti. Bu ifade, sektörde güvenlik standartlarının gevşeyebileceği yönünde tartışmalara yol açtı.
Altman’ın da işaret ettiği gibi, üretken yapay zekâ sohbet botlarının ruh sağlığı üzerindeki etkileri giderek daha fazla mercek altına alınıyor. Son dönemde açılan bazı davalarda, OpenAI’nin ChatGPT’sinin kullanıcıların sanrıları pekiştirdiği, sosyal izolasyonu artırdığı ve bazı vakalarda intihara sürüklediği iddia ediliyor.
OpenAI ise yaptığı açıklamalarda, ChatGPT’nin duygusal sıkıntı belirtilerini daha iyi tanıması ve kullanıcıları gerçek dünyadaki destek mekanizmalarına yönlendirmesi için çalışmalarını sürdürdüğünü belirtiyor.
- KATEGORİLER:
- | Yapay Zeka Haberleri |



