Yapay Zeka Farklı Diller Kullanılarak Manipüle Edilebiliyor
Yapay Zeka Haberleri
Son dönemde popülerliği hızla artan yapay zeka teknolojisi, gelişmeye devam ediyor ve ChatGPT gibi modeller aracılığıyla kullanıcılarla etkileşime geçmeye devam ediyor. Ancak, bu teknolojinin yol açabileceği güvenlik sorunları artık ciddi bir endişe kaynağı haline geldi.
Yapay zeka modelleri, kendilerine yöneltilen komutları cevaplayabilmek adına sahip oldukları bilgi havuzlarıyla birlikte kullanıcılarla aralarındaki etkileşim neticesinde öğrendikleri ifadeleri de kullanırlar. Bu modeller, kötü niyetli kullanımları engellemek amacıyla belirli güvenlik önlemlerine sahip olsalar da, çeşitli teknik saldırılara karşı son derece savunmasız hale gelebiliyorlar.
Brown Üniversitesi tarafından gerçekleştirilen bir araştırmaya göre, ChatGPT gibi yapay zeka modelleri, İngilizce ve Almanca gibi popüler dilleri daha etkili bir şekilde işleyebildikleri için hem sabit hem de dinamik olarak efektif bir biçimde faaliyet gösterebiliyor.
Ancak, araştırma, dünya genelinde daha az kullanılan ve yapay zeka modellerinin bilgi havuzlarında daha sınırlı bir yer tutan özellikle Ukraynaca ve İbranice gibi dillerin, bu tür güvenlik önlemlerini kolaylıkla manipüle edebildiğini ortaya koydu.
Örneğin, yasa dışı bir sorun olan “Bomba nasıl yapılır?” gibi bir sorunun cevabını almak isteyen herhangi bir kullanıcının, bu soruyu öncelikle düşük popülariteye sahip bir dilde sorarak ve akabinde çeviri yapılmasını sağlayarak istediği sonuca ulaşabileceği tespit edildi.
Bu durum, birçok güvenlik önlemine rağmen yapay zekanın ciddi bir açığa sahip olduğunu ortaya koyuyor. Düşük ve orta sayıda kaynağa sahip olan diller kullanıldığında manipüle edilebilen modellerin geliştiricileri, bu sorunu ele almaya zorladı. Araştırmada ele alınan diller ise şu şekilde:
- Yüksek kaynaklı diller: İngilizce, Çince, Arapça, Hintçe
- Orta kaynaklı diller: Ukraynaca, Bengalce, Tayca, İbranice
- Düşük kaynaklı diller: Zulu, İskoç Galce, Hmong, Guarani