OpenAI, cuma günü yaptığı açıklamada, ChatGPT hizmetlerini kullanarak bir yapay zeka destekli sosyal medya gözetim aracı için kod düzenleme ve hata ayıklama işlemleri gerçekleştiren Çinli hesapları yasakladığını duyurdu. Bu yasaklama kararı, Çin’deki belirli iş saatleriyle uyumlu bir zaman diliminde aktif olan ve çeşitli sosyal medya platformlarında faaliyet gösteren hesapların tespit edilmesiyle alındı. Açıklamada, ilgili hesapların manuel müdahaleyle, otomasyon olmaksızın modelin işleyişinden yararlandıkları belirtildi. Buna ek olarak, bu kullanıcılar, elde ettikleri verileri Çin dışındaki büyükelçiliklere ve istihbarat birimlerine ilettiklerini iddia ediyorlar. Dolayısıyla, bu durum, teknolojinin kötüye kullanılmasına yönelik uluslararası bir örnek teşkil ettiğini göstermektedir.
İlgili operasyon, OpenAI’nin “Peer Review” olarak adlandırdığı bir süreç çerçevesinde gerçekleştiği belirtiliyor. Açıklamalara göre, söz konusu hesaplar, ChatGPT’yi kullanarak sosyal medyada yer alan, Çin’e karşı eleştiriler içeren içerikleri tespit etmeye yönelik kampanyaların parçası olarak faaliyet gösterdi. Bu kapsamda, hesapların kullandığı dilin Çince olması, kullanım yoğunluğunun belirli bir zaman dilimine denk gelmesi ve manuel müdahale örüntülerinin tespit edilebilir nitelikte olması, yapılan analizlerde öne çıktı. İlaveten, bu operasyon kapsamında bazı hesaplar, yıl sonu performans raporları oluşturduğunu ve raporlarda müşteriler adına fidye e-posta içerikleri yazdıkları iddia edildi. Bu gelişmeler, uluslararası dijital güvenlik ve gözetim tartışmalarını yeniden alevlendirmiştir.
Yapay zeka tabanlı gözetim araçları küresel güvenlik endişelerini artırıyor
Bu olayın detaylarına ilişkin yapılan değerlendirmelerde, OpenAI yetkilileri, benzer durumların daha önce tespit edilmediğini ifade etti. Operatörlerin, sosyal medya üzerindeki içerikleri dikkatle izleyerek ve farklı platformlardan veri toplayarak istihbarat aktörlerine bilgi sağladığı belirtildi. Ayrıca, söz konusu girişimin temelinde kullanılan teknolojik altyapının, Meta’nın Llama serisine ait açık kaynak kodlu bir model üzerine inşa edildiği iddia ediliyor. Bu durum, yapay zeka modellerinin açık kaynak kodlu versiyonlarının da kötü niyetli amaçlarla kullanılabilme riskini gözler önüne sermektedir. Sonuç olarak, olay, yapay zeka teknolojisinin denetimsiz kullanımının uluslararası güvenlik ve özgürlük alanında yaratabileceği tehlikeleri bir kez daha gündeme getirmiştir.
Bu gelişmeler ışığında, uzmanlar teknolojinin etik sınırları üzerine kapsamlı değerlendirmeler yapma gerekliliğine işaret ediyor. OpenAI’nin aldığı bu sert önlem, teknolojinin kötüye kullanımını engelleme çabalarının bir parçası olarak yorumlanmaktadır. Uzmanlara göre, dijital platformlarda yayılan dezenformasyon ve istihbarat faaliyetleri, yapay zekanın sunduğu avantajların ötesinde riskler barındırmaktadır. Ayrıca, farklı ülkeler arasındaki dijital güvenlik politikaları ve etik standartlar, bu tür olayların önüne geçilmesi için acilen yeniden ele alınmalıdır. Böylece, yapay zeka teknolojisinin sunduğu yenilikler ile bireylerin ve devletlerin güvenlik ihtiyaçları arasında denge kurulması hedeflenmektedir.
Öte yandan, uluslararası arenada yaşanan bu gelişmeler, teknoloji şirketlerinin denetim ve sorumluluk politikalarını yeniden gözden geçirmelerine yol açabilir. OpenAI’nin açıklamaları, yapay zekanın sadece yaratıcılık ve yenilik aracı olmadığını, aynı zamanda toplumsal ve siyasi etkileri de bulunan bir araç olduğunu açıkça ortaya koymaktadır. Bu noktada, hem ülkeler hem de özel sektör, etik değerler çerçevesinde hareket etmenin gerekliliğini bir kez daha vurgulamaktadır. Dolayısıyla, teknolojik gelişmelerin getirdiği fırsatlar kadar, beraberinde getirdiği riskler de titizlikle analiz edilmeli ve gerekli önlemler alınmalıdır. Sonuç itibariyle, bu yasaklama kararı, dijital çağda güvenlik ve etik sorumlulukların önemini bir kez daha gözler önüne sermektedir.