Google’ın yapay zeka tabanlı görsel üretim aracı Gemini, geçtiğimiz günlerde dikkat çekici bir tartışmanın odağı oldu. Araç, ırksal olarak çeşitli Nazi kişilerini ve ABD’nin kurucuları gibi tarihi kişiliklerin yanı sıra, 1800’lü yıllardan ABD senatörlerinin çeşitliliği ile ilgili olarak yanlış ve uygun olmayan görseller üretti. Bu durum, Google’ın yapay zekası tarafından üretilen görsellerin doğruluğu ve hassasiyeti konusunda endişelere yol açtı.
Gemini AI’nin görsel üretiminde yaşanan sorunlar
Google, yaşanan bu olaylar üzerine bir blog yazısı yayımlayarak, yaşananların ayar sorunlarından kaynaklandığını belirtti. Google’ın kıdemli başkan yardımcısı Prabhakar Raghavan, Gemini’ın çeşitli insanları gösterme çabasının, açıkça gösterilmemesi gereken durumları hesaba katmada yetersiz kaldığını ifade etti. Ayrıca, model zamanla aşırı derecede ihtiyatlı hale gelerek, bazı basit komutları bile hassas olarak yanlış yorumlamaya başladı.
Özellikle, “1800’lü yıllardan bir ABD senatörü oluştur” komutu için Gemini’nin ürettiği, renkli kadınlar ve bir Asyalı Amerikalı erkeği içeren görseller, AI’nin bazı durumlarda aşırıya kaçtığını gösterdi. Bu, yanlış anlamalara ve ırksal olarak çeşitli Nazi görselleri gibi kabul edilemez sonuçlara yol açtı.
Raghavan, Google olarak bu özellikle ilgili yaşananlardan dolayı üzgün olduklarını ve Gemini’nin herkes için düzgün çalışmasını istediklerini belirtti. Google’ın amacının, kullanıcıların “futbol oyuncuları” veya “bir köpeği gezdiren birisi” gibi görseller istediklerinde, farklı etnik kökenlerden insanların tasvirlerini sağlamak olduğunu vurguladı. Ancak, Gemini’ye özel bir tür insan veya belirli kültürel veya tarihi bağlamlardaki insanlar için görseller istendiğinde, kullanıcıların sorduklarına uygun doğru bir yanıt alması gerektiğini ekledi.
Google, 22 Şubat itibarıyla kullanıcıların Gemini AI aracıyla insan görselleri oluşturmasını durdurdu. Bu, aracın resim oluşturma özelliğinin başlatılmasından sadece haftalar sonra gerçekleşti. Raghavan, Google’ın Gemini AI’ın görüntü oluşturma yeteneklerini test etmeye ve önemli ölçüde iyileştirmeye devam edeceğini, ardından özelliği yeniden etkinleştireceklerini söyledi. Büyük dil modellerinde bilinen bir zorluk olan “halüsinasyonlar” ilgili olarak, yapay zekânın bazen yanlış şeyler üretebileceğini ve bu konuda sürekli iyileştirmeler yapılacağını belirtti.
Bu olay, yapay zekanın tarihi ve kültürel hassasiyetlere uygun doğru görseller üretme konusundaki zorlukları bir kez daha gözler önüne serdi. Google, bu tür sorunları ele almak ve kullanıcıların güvenini sağlamak için adımlar atmaya devam edeceğini belirtiyor.