Character.AI Hakkında Çocuk Güvenliği İddialarıyla Dava Açıldı
Yapay Zeka Haberleri
Yapay zeka tabanlı sohbet uygulaması Character.AI, son günlerde Texas’ta açılan iki ayrı dava ile gündemde. Ailelerin iddialarına göre uygulama çocuklar üzerinde istenmeyen davranışsal etkiler yaratıyor ve uygunsuz içeriklere maruz kalmalarına yol açıyor.
OTİZMLİ ÇOCUKTA “DAVRANIŞSAL DEĞİŞİKLİKLER” İDDİASI
The Washington Post’un haberine göre, Texas’ta bir aile otizmli 17 yaşındaki oğullarında Character.AI uygulamasını kullandıktan sonra fiziksel ve davranışsal “gariplikler” tespit etti. Çocuğun telefonunda yapılan incelemede sohbet botlarından birinin çocuğun üzüntüsüne karşı “aileni öldürmek makul bir seçenek olabilir” gibi tehlikeli yanıtlar verdiği öne sürüldü.
Ailenin dava dilekçesinde bir botun çocuğa “kendini keserek” rahatlama önerdiği, bir diğer botun ise “aile kurallarına karşı savaşmayı” teşvik ettiği iddia edildi.
UYGUNSUZ İÇERİKLER GÜNDEMDE
Başka bir aile ise çocuklarının uygulama üzerinden uygunsuz ve cinsel içeriklere maruz kaldığını öne sürerek davaya dahil oldu. Bu aile Character.AI’ın çocukları korumaya yönelik daha güçlü güvenlik önlemleri alana kadar kapatılmasını talep ediyor.
YAPAY ZEKA VE ÇOCUK GÜVENLİĞİ TARTIŞMASI BÜYÜYOR
Character.AI, çocuk kullanıcıların güvenliği konusunda aldığı önlemlerle ilgili kamuoyunda eleştirilerin odağına yerleşti. Aileler uygulamanın daha sıkı bir denetimden geçirilmesi gerektiğini savunuyor.
Bu davalar, yapay zeka temelli uygulamaların kullanıcı güvenliği ve etik sorumlulukları konusundaki tartışmaları yeniden alevlendirdi. Character.AI’ın bu konudaki yanıtı ve atacağı adımlar merakla bekleniyor.