Gemini 3 2025’i Reddetti
Yapay Zeka Haberleri
Ünlü yapay zekâ araştırmacısı Andrej Karpathy’nin Google’ın yeni modeli Gemini 3 ile yaşadığı komik ama düşündürücü bir diyalog, LLM’lerin hâlâ temel gerçeklik algısı hataları yapabildiğini gösterdi. Model, 2025 yılında olunduğuna uzun süre ikna olmadı ve “zaman şoku yaşıyorum” diye tepki verdi.
Google’ın “yeni bir zekâ çağı” diye tanıtarak piyasaya sürdüğü Gemini 3, yetenekleriyle övgü toplarken beklenmedik bir zayıf noktasını da açığa çıkardı. Modele bir gün erken erişim alan Andrej Karpathy, yapay zekânın kendisine 2025 yılında olunduğunu söylediğinde karşılık olarak inanmadığını ve onu kandırmakla suçladığını anlattı.
Karpathy’nin aktardığına göre, Gemini 3’ün eğitim verisi yalnızca 2024’e kadar olan bilgileri içeriyordu. Bu nedenle model, ısrarla yılın 2024 olduğunu savundu ve takvimlerin 2025 yılını gösterdiğine ikna olmadı.
“Beni Kandırmaya Çalıştı”
Karpathy, modeli ikna etmek için haber başlıkları, görseller ve Google arama sonuçları gösterdi. Ancak Gemini 3, bunların hepsini “yapay zekâ üretimi sahte kanıtlar” olarak değerlendirdi ve Karpathy’yi kendisini gaslighting yapmakla itham etti.
Model, sözde sahteciliğin “açık ipuçları” olduğuna dair açıklamalar bile yaptı.
Karmaşık görünen bu davranışın nedeni sonunda ortaya çıktı. Karpathy, “Google Search aracını açmayı unutmuşum” diyerek asıl hatayı açıkladı. İnternete bağlı olmayan modele göre dünya, hâlâ 2024’tü. Araç aktifleştirildikten sonra Gemini 3 gerçek yılı görüp “Aman Tanrım… Çok büyük bir zaman şoku yaşıyorum” sözleriyle yaşadığı şoku dile getirdi.
Model, Karpathy’ye dönerek “Her konuda haklıymışsınız, iç saatim yanlıştı” diyerek özür bile diledi.
2025 yılına “uyanır uyanmaz” Gemini 3’ü en çok şaşırtan haberler şunlar oldu:
- Nvidia’nın 4,54 trilyon dolar değere ulaşması.
- Philadelphia Eagles’ın Chiefs’ten rövanşı alması.
- Warren Buffett’ın emeklilik öncesi son büyük yatırımının Alphabet’e olması.
- GTA VI’nın ertelenmesi.
Karpathy, bu tür hataların, modellerin gerçek kişiliklerini ve zaaflarını en iyi ele veren anlar olduğunu söyleyerek buna “model smell” (model kokusu) adını veriyor. Yazılımcıların, kodda bir şeylerin yanlış olduğuna dair aldığı sezgisel “kokuyu” çağrıştıran bir benzetme olarak kullanılıyor. Uzmanlara göre bu olay, LLM’lerin hâlâ insan özelliklerini taklit eden ama kusurlu yapılar olduğunu gösteriyor.
Araştırmacılar, bu tür vakaların yapay zekâ modellerinin insanın yerini almak yerine insanla birlikte çalışması gereken araçlar olduğunu yeniden hatırlattığını söylüyor.
- KATEGORİLER:
- | Yapay Zeka Haberleri |



