İnsan Gibi Sosyal Davranışlar Dijital Asistanlara Güveni Artırıyor
Yapay Zeka Haberleri
“Merhaba Alexa! Güvenilir misiniz?” – İnsan Gibi Sosyal Davranışlar Dijital Asistanlara Güveni Artırıyor
Bir sesli kullanıcı arayüzü ne kadar çok sosyal davranış sergilerse, insanların ona güvenme, onunla etkileşim kurma ve onu yetkin olarak görme olasılıkları o kadar artar.
Bir aile, yeni satın aldıkları dijital asistanın kutusunu açmak için mutfak adasının etrafında toplanır. Massachusetts Teknoloji Enstitüsü’nün (MIT) Medya Laboratuvarı’ndaki araştırmacılar tarafından yapılan yeni bir araştırmaya göre, Amazon’un Alexa’sı gibi akıllı bir konuşmacı veya Jibo gibi bir sosyal robot olabilecek bu yeni sesli kullanıcı arayüzüne, insan benzeri sosyal davranışlar sergiliyorsa, güvenme olasılıkları daha yüksek olacak.
Araştırmacılar, aile üyelerinin, bir cihazın, bakışlarını konuşan bir kişiye yönlendirmek için hareket etmek gibi sosyal ipuçları sergileyebiliyorsa, daha yetkin ve duygusal olarak çekici olduğunu düşünme eğiliminde olduklarını buldular. Buna ek olarak, araştırmaları, markalaşmanın – özellikle üreticinin adının cihazla ilişkilendirilip ilişkilendirilmediğinin – bir aile üyelerinin farklı sesli kullanıcı arayüzlerini nasıl algıladığı ve bunlarla nasıl etkileşime girdiği üzerinde önemli bir etkiye sahip olduğunu ortaya koydu.
Araştırmacılar, bir cihazın hareket veya ifade yoluyla sözlü ve sözlü olmayan sosyal ipuçları verme yeteneği gibi daha yüksek bir sosyal düzenleme seviyesine sahip olduğunda, aile üyelerinin de cihazla bir grup olarak etkileşime girerken birbirleriyle daha sık etkileşime girdiğini buldular.
Sonuçları, tasarımcıların daha ilgi çekici ve evde bir ailenin üyeleri tarafından kullanılması daha olası sesli kullanıcı arayüzleri oluşturmasına yardımcı olurken, aynı zamanda bu cihazların şeffaflığını da iyileştirebilir. Araştırmacılar ayrıca belirli kişilik ve somutlaştırma tasarımlarından gelebilecek etik kaygıları da özetliyor.
Etkileşimleri araştırmak
Bu çalışma, araştırmacıların insanların evde sesli kullanıcı arayüzlerini nasıl kullandığını araştırdığı daha önceki bir çalışmadan doğdu. Çalışmanın başında, kullanıcılar bir ay boyunca bir eve götürmeden önce üç cihaza aşina oldular. Araştırmacılar, insanların akıllı hoparlörler, Amazon Alexa ve Google Home’dan daha fazla Jibo sosyal robotu ile etkileşimde bulunmak için daha fazla zaman harcadıklarını fark ettiler. İnsanların neden sosyal robotla daha fazla meşgul olduklarını merak ettiler.
Bunun temeline inmek için, aile üyelerinin farklı sesli kullanıcı arayüzleri ile bir grup olarak etkileşime girmelerini içeren üç deney tasarladılar. Çalışmalara yaşları 4 ile 69 arasında değişen 92 kişiden oluşan 34 aile katılmıştır.
Deneyler, bir ailenin sesli kullanıcı arayüzüyle ilk karşılaşmasını taklit etmek için tasarlandı. Aileler, üç cihazla etkileşime girerken, 24 eylemden oluşan bir liste üzerinden (“hava durumunu sorma” veya “temsilcinin fikirlerini öğrenmeye çalışma” gibi) çalışarak videoya kaydedildi. Ardından cihazlara yönelik algıları ile ilgili soruları yanıtladılar ve sesli kullanıcı arayüzlerinin kişiliklerini kategorize ettiler.
İlk deneyde, katılımcılar hiçbir değişiklik yapmadan bir Jibo robotu, Amazon Echo ve Google Home ile etkileşime girdiler. Çoğu kişi Jibo’yu çok daha dışa dönük, güvenilir ve sempatik buldu. Ostrowski, kullanıcıların Jibo’nun daha insansı bir kişiliğe sahip olduğunu algıladığından, onunla etkileşime girme olasılıklarının daha yüksek olduğunu açıklıyor.
Araştırmacılar, sıcak, dışa dönük ve düşünceli kişilikler geliştirmenin önemi; uyandırma kelimesinin kullanıcı kabulünü nasıl etkilediğini anlamak; ve sözsüz sosyal ipuçlarını hareket yoluyla iletmek.
Eldeki bu sonuçlarla, araştırmacılar, ailelerin değişen işlevsellik seviyelerine sahip sesli kullanıcı arayüzleriyle nasıl etkileşime girdiğini keşfetmeye devam etmek istiyorlar. Örneğin üç farklı sosyal robotla bir çalışma yürütebilirler. Ayrıca bu çalışmaları gerçek dünya ortamında tekrarlamak ve belirli etkileşimler için hangi tasarım özelliklerinin en uygun olduğunu keşfetmek istiyorlar.