Microsoft’un geçtiğimiz hafta Twitter’da görücüye çıkardığı yapay zekalı robotu Tay, kısa süre içinde kötü niyetli internet kullanıcılarının ağına düşmüş ve ırkçı ifadeler barındıran paylaşımlarda bulunmaya başlamış, bu nedenle de robotun fişi Microsoft tarafından çekilmişti. Microsoft Research kurumsal başkan yardımcısı Peter Lee, yayınladığı açıklamayla Tay’ın saldırgan ifadelerinden ötürü özür diledi. Microsoft Tay yapay zeka robotunun yolundan sapmasına neden olan açık konusunda kesin bir bilgi verilmezken, 4chan kullanıcılarının Tay’in “Dediklerimi tekrarla” özelliğini kötüye kullanmasının sıkıntının kaynağını oluşturduğu düşünülüyor.
Lee, Tay’in Microsoft’un internet ortamına bıraktığı ilk sohbet robotu olmadığının altını çizdi. Microsoft’un araştırma birimi tarafından geliştirilen Çince mesajlaşma yazılımı Xiaolce, her gün 40 milyon kişi tarafından kullanılıyor. Xiaolce ile yaşadıkları muhteşem deneyimin kendilerini yapay zekanın farklı bir kültürel ortamda neler yapacağı konusunda meraka sürüklediğini söyleyen Lee’nin ortaya çıkan sonuçtan memnun olduğunu söylemek ise pek mümkün gözükmüyor.
Twitter’da İngilizce konuşarak insanlarla iletişime geçen Tay, kısa süre içinde internetin “çevrim içi taciz” gibi en kötü yönlerini bile taklit eden bir kuklaya dönüştü. Kasıtlı olmayan saldırgan ve sert tweetler için özür dilediklerini belirten Lee, bu tweetlerin yazılmasına neden olan açıklar kapatılmadan Tay’i yeniden aktif hâle getirmeyeceklerinin altını çizdi.
Microsoft Tay için farklı koşullarda stres testleri yürütülmüş olsa da, robotun en büyük açığı sistemin “canlı” hâle gelmesiyle ortaya çıktı. Lee, sistemin farklı yollarla sömürülmesine karşı hazırlıklı olduklarını söylese de, bu tarz bir saldırı konusunda Microsoft’un fazlasıyla hazırlıksız yakalandığı rahatlıkla görülüyor.