Teknoloji

Roblox, Discord, OpenAI ve Google, çevrimiçi çocuk güvenliği için güçlerini birleştirdi

roost roblox

Roblox, Discord, OpenAI ve Google, internet ortamında çocuk güvenliğini sağlamak amacıyla yeni bir kâr amacı gütmeyen organizasyon kurdu. Robust Open Online Safety Tools (ROOST) adı verilen bu girişim, özellikle yapay zekâ çağında güvenli çevrimiçi altyapı oluşturmayı hedefliyor. Şirketler, ROOST aracılığıyla hem kamuya hem de özel sektöre yönelik ücretsiz ve açık kaynaklı güvenlik araçları sunmayı planlıyor.

ROOST’un temel amacı, çevrimiçi ortamda çocuk istismarını önleyici teknolojiler geliştirmek. Yapılan açıklamaya göre, kuruluşun öncelikli odak noktalarından biri çocuk istismarı materyallerini (CSAM) tespit etmek, incelemek ve raporlamak olacak. Girişime öncülük eden şirketler, yalnızca fon sağlamakla kalmayıp teknik uzmanlıklarını da paylaşarak güvenlik çözümlerinin geliştirilmesine katkıda bulunacak.

ROOST’un ortaya çıkışındaki temel etkenlerden biri, yapay zekânın hızlı gelişimiyle birlikte internet ortamındaki güvenlik tehditlerinin artması. Yapay zekâ tabanlı içerik üretme araçlarının yaygınlaşması, zararlı içeriklerin tespit edilmesini daha da zorlaştırıyor. ROOST, küçük ve orta ölçekli platformların kendi güvenlik araçlarını oluşturmak yerine, mevcut güvenlik altyapısını kullanmalarını sağlayarak daha geniş bir koruma alanı yaratmayı hedefliyor.

Son yıllarda çevrimiçi çocuk güvenliği, hükümetlerin ve düzenleyici kurumların önemli gündem maddelerinden biri haline geldi. ABD’de Çocuk ve Gençlerin Çevrimiçi Gizliliği Koruma Yasası (COPPA) ve Çocukların Çevrimiçi Güvenliği Yasası (KOSA) gibi düzenlemeler, dijital platformların çocuk güvenliğine yönelik adımlar atmasını gerektiriyor. Ancak, bu yasalar Kongre’den geçemediği için, teknoloji şirketleri kendi çözümlerini geliştirme yoluna gidiyor.

ROOST’un kurucuları arasında yer alan Google ve OpenAI, daha önce yapay zekâ araçlarının CSAM üretmek için kullanılmasını önlemeye yönelik taahhütlerde bulunmuştu. Bu yeni girişim ise, yalnızca büyük teknoloji şirketlerinin değil, daha küçük platformların da güvenlik önlemlerini geliştirmesine yardımcı olacak.

Roblox geçmişte çocuk güvenliği konusunda eleştirilmişti

ROOST’un kuruluşunda yer alan şirketlerden biri olan Roblox, çocuk güvenliği konusunda geçmişte eleştirilere maruz kalmıştı. ABD’de 9-12 yaş aralığındaki çocukların yaklaşık üçte ikisinin Roblox oynadığı göz önüne alındığında, platformdaki güvenlik riskleri ciddi bir endişe kaynağı oluşturuyor. Bu noktada Roblox’un ve ROOST’un bir diğer kurucusu Discord’un Türkiye’de engelli olduğunu hatırlatmakta fayda var.

2024 yılında Bloomberg Businessweek tarafından yayımlanan bir araştırma, Roblox’un çocuk istismarı içeren içerikleri engelleme konusunda yetersiz kaldığını öne sürmüştü. Bunun üzerine platform, çocuk kullanıcılar arasındaki doğrudan mesajlaşma sistemine çeşitli kısıtlamalar getirdi ve güvenlik politikalarında kapsamlı değişiklikler yaptı.

ROOST, Roblox gibi platformların çocuk güvenliği konusunda daha güçlü önlemler almasını kolaylaştıracak. Yeni geliştirilen güvenlik araçları sayesinde, dijital platformlar zararlı içerikleri tespit edip kaldırma konusunda daha etkili olacak.