Facebook için her geçen gün büyüyen kitlesini kontrol etmek ve yönetmek her geçen gün daha zor hâle geliyor. 2 milyar kişinin bulunduğu bir topluluğun paylaşımlarını yönetmenin yükünü, algoritmalarla birlikte 7 bin 500 kişiden oluşan bir moderatör ekibi üstleniyor. Bu ekip terör savunculuğundan çocuk istismarına kadar uzanan geniş bir skalaya yayılan içerikleri değerlendiriyor. Söz konusu değerlendirme süreçlerinde hatalar da yaşanabiliyor. Facebook moderasyon konusunda yaptığı hataları kabul etmekten kaçınmıyor.
Sosyal paylaşım sitesini moderasyon hatalarını kabul edip bunlar için özür dilemeye iten süreci, ProPublica isimli bir sivil toplum kuruluşu başlattı. Kuruluş, Facebook’a nefret söylemi içeren 49 paylaşımı ve birkaç meşru ifadeyi gönderdi. ProPublica’dan yapılan açıklamada, söz konusu paylaşımlara 900 içeriklik havuzdan ulaşıldığı belirtildi. Sosyal paylaşım sitesi, moderasyon ekibinin 22 konuda hata yaptığını kabul etti.
Facebook söz konusu 22 vakanın altısında kullanıcıların paylaşımları doğru şekilde işaretlemediğini belirtti. İki vakada ise veri eksikliği nedeniyle bir aksiyon alınamadığı ifade edildi. Şirket verdiği kararlardan 19’unu ise savundu. ProPublica tarafından sunulan paylaşımlarda cinsiyetçi, ırkçı ve İslamofobik ifadeler yer alıyor.
Facebook moderasyon ekibini genişletmeyi planlıyor
Facebook başkan yardımcısı Justin Osofsky, yaptığı açıklamada bugüne kadarki hatalarından ötürü üzgün olduklarını ve içerik yönetimi konusunda daha iyi çalışmaları gerektiğini belirtti. Facebook moderasyon ekibine 20 bin kişiyi daha işe almayı planlıyor. Osofsky, açıklamasında her hafta nefret söylemi içeren 66 bin paylaşımı sildiklerinin altını çizdi.