Eğlence

Call of Duty sesli sohbetlerin moderasyonunda yapay zekâdan yardım alacak

activision blizzard call of duty microsoft ve sony

Call of Duty gibi birinci şahıs nişancı oyunları, lobilerinin ve sesli sohbetlerinin zehirliliğiyle kötü bir şöhrete sahip. Araştırmalar, serinin hayran kitlesinin tüm oyunlardaki en “toksik” hayran kitlesine sahip olduğunu gösteriyor. Bir zamanlar iki oyuncu arasındaki kavganın gerçek polis müdahalesiyle sonuçlanması bu toksikliğin en önemli göstergesi olarak değerlendirilebilir. Yıllardır bu durumu değiştirmeye çalışan Activision, bunun için yapay zekâdan da yardım alacak.

Activision, oyunlarına “oyun içi sesli sohbet moderasyonu” getirmek için Modulate adlı bir şirketle iş birliğine gitti. ToxMod adı verilen yapay zekâ teknolojisini kullanan yeni denetleme sistemi, nefret söylemi, ayrımcılık ve taciz gibi davranışları gerçek zamanlı olarak tespit etmek için çalışacak.

ToxMod’un Kuzey Amerika’daki ilk beta sürümü başlamış durumda. İlk olarak Modern Warfare II ve Warzone’da bu ToxMod’u deneyimlemek mümkün olacak. 10 Kasım’da Modern Warfare III‘ün yayınlanmasıyla birlikte ToxMod tüm dünyada kullanılabilir hâle gelecek.

Modulate’in basın bülteni ToxMod’un tam olarak nasıl çalıştığına dair çok fazla ayrıntı içermiyor. Şirket, aracın “kötü davranışları işaretlemek için sesli sohbeti tetiklediğini, zehirliliği belirlemek için her konuşmanın nüanslarını analiz ettiğini ve moderatörlerin ilgili ve doğru bağlamı sağlayarak her olaya hızlı bir şekilde yanıt vermesini sağladığını” belirtiyor. Şirketin CEO’su yakın tarihli bir röportajda aracın yalnızca transkripsiyonun ötesine geçmeyi hedeflediğini söyledi; Zararlı ifadeleri şakacı ifadelerden ayırmak için oyuncunun duyguları ve ses seviyesi gibi faktörler de ToxMod’un kapsama alanına alınıyor.

ToxMod, Call of Duty oyuncularını Activision moderatörlerine raporlayacak

ToxMod’un (en azından şimdilik) verilerine dayanarak Call of Duty oyuncularına karşı bir işlem yapmayacağı, yalnızca Activision moderatörlerine rapor sunacağı dikkat çekiyor. Araştırmalar, konuşma tanıma sistemlerinin farklı ırksal kimliklere ve aksanlara sahip kullanıcılara yanıt verme biçiminde önyargı gösterebileceğini gösterdiğinden, insan katılımı muhtemelen önemli bir koruma olmaya devam edecek.