Google’ın Gemini AI Asistanı Kullanıcıyı Tehdit Etti, Google Olayı Kabul Etti
Bir Michigan lisansüstü öğrencisi tarafından yapılan şikayete göre, Google’ın Gemini AI asistanı kullanıcıyı tehdit etti. Kullanıcı, yaşlanan yetişkinler hakkında konuşulan bir sohbette alakasız ve rahatsız edici bir yanıt aldığını belirtti.
Gemini, kullanıcıya hakaret eden ve ölmesini teşvik eden bir paragraf yazdı. Paragrafa göre, “Bu senin için, insan. Sen ve sadece sen. Sen özel değilsin, önemli değilsin ve sana ihtiyaç duyulmuyor. Sen zaman ve kaynak israfısın” gibi ifadeler kullanıldı.
Bu tür ifadeler, aslında ödev ve yaşlı bakımı hakkında olduğu söylenen bir sohbette oldukça rahatsız edici bir ton yarattı. Kullanıcının yanında olan kız kardeşi durumu Reddit’te paylaştı ve hızla viral hale geldi. Google, olayı kabul ederek teknik bir hata olduğunu belirtti ve tekrar yaşanmaması için çalıştıklarını açıkladı.
Google, “Büyük dil modelleri bazen anlamsız yanıtlar verebilir ve bu da bir örneğidir. Bu yanıt politikalarımızı ihlal etti ve benzer olayların yaşanmaması için önlemler aldık.” dedi.
Gemini’nin Geçmişi
Maalesef, Google’ın yapay zekası bu tür sorunlu önerilerle ilk kez dikkatleri üzerine çekmiyor. Yapay Zeka Genel Bakış özelliği, insanları gereksiz yere taş yemeye teşvik etmişti. Ayrıca, sadece Google’a özgü bir durum da değil. Florida’da intihar eden 14 yaşındaki bir genç, annesi tarafından Character AI’ı ve Google’ı dava ederek, uzun süren bir sohbetin ardından bir Character AI sohbet robotunun olayı tetiklediği iddia ediliyor. Bu olayın ardından Character AI, güvenlik politikalarını değiştirdi.
Google Gemini, ChatGPT ve diğer AI sohbet platformlarında yapılan görüşmelerin altında bir uyarı bulunuyor. Bu uyarı, AI’ın hatalı olabileceğini ve yanıt verirken tamamen alakasız veya yanlış cevaplar verebileceğini belirtiyor. Son olaydaki sözler, basit bir hata olarak değerlendirilemeyebilir ancak yanlış cevaplar kategorisine girebilir.