Dijital çağın kapılarını ardına kadar açan yapay zekâ (AI) teknolojileri, denetim ve şeffaflık konusunda yeni bir döneme işaret ediyor. İngiltere Başbakanı Rishi Sunak’ın Londra Teknoloji Haftası’ndaki konuşmasında belirttiği üzere, teknoloji devleri Google DeepMind, OpenAI ve Anthropic, AI modellerini araştırma ve güvenlik amacıyla Birleşik Krallık’ın incelemesine sunacaklar. Bu hamle, AI modellerinin denetim süreçlerini güçlendirecek ve hükümetin bu teknolojilerin sunduğu fırsat ve riskleri daha iyi anlamasına yardımcı olacak.
Henüz bu teknoloji şirketlerinin İngiltere hükümetiyle hangi veri setlerini paylaşacağı belirsizliğini koruyor.
Bu gelişme, Birleşik Krallık’ın AI modellemesine dair sorumluluk, güvenlik, şeffaflık ve etik konuları inceleme sözü vermesinden birkaç hafta sonra geldi. Ülke, etik ve teknik sorunları en aza indirerek İngiliz ekonomisini büyütmek için tasarlanmış “egemen” AI geliştirecek bir Vakıf Model Görev Gücü oluşturmak için başlangıç aşamasında 100 milyon sterlin (yaklaşık 125.5 milyon dolar) harcamayı taahhüt etmişti.
Yapay zekâ modellerinin hızla geliştiği ve güvenlik konusunda yeterince düşünülmeden ilerlendiği endişesiyle, sektör liderleri ve uzmanlar AI gelişiminin geçici olarak durdurulmasını talep ediyorlar. OpenAI’nin GPT-4 gibi üretken AI modelleri ve Anthropic’in Claude gibi teknolojileri, potansiyelleri nedeniyle övgü alırken, yanlış bilgi ve suistimal gibi konularda endişeleri de beraberinde getiriyorlar. İngiltere’nin bu hamlesi, sorunlu modelleri daha fazla zarar vermeden önce tespit etmeyi ve bu konularda sınırlama getirmeyi hedefliyor.
Bu arada, söz konusu gelişme İngiltere’ye bu modellere ve altındaki kodlara tam anlamıyla erişim sağlamıyor. Aynı zamanda, hükümetin her büyük sorunu yakalayacağına dair bir garanti de yok. Ancak bu erişim, bu tür yapay zekâ sistemlerinin uzun vadeli etkilerinin henüz tam olarak belirsiz olduğu bir dönemde AI için artan şeffaflık vaat ediyor.