Teknoloji

ABD hükümeti, OpenAI ve Anthropic’in yapay zekâ modellerine çıkış öncesinde erişim sağlayacak

yapay zeka

ABD hükümeti, yapay zeka teknolojisinin hızla gelişmesiyle birlikte bu alandaki güvenlik önlemlerini artırma çabalarını sürdürüyor. Bu çabalar kapsamında, yapay zekâ alanında önde gelen iki şirket olan OpenAI ve Anthropic, yeni yapay zeka modellerini kullanıma sunmadan önce ABD hükümetinin erişimine açmayı kabul etti. Şirketler, ABD Yapay Zekâ Güvenliği Enstitüsü (US AI Safety Institute) ile imzaladıkları mutabakat zabıtlarıyla bu kararı resmileştirdi. Bu anlaşma, yapay zeka modellerinin hem yayın öncesinde hem de sonrasında hükümet tarafından incelenmesine olanak tanıyor.

Yapay zeka teknolojisinin güvenlik riskleri, son dönemde hem teknoloji şirketleri hem de hükümetler tarafından daha fazla önemsenmeye başlandı. Bu adım, yapay zekâ modellerinin neden olabileceği potansiyel risklerin daha iyi değerlendirilmesi ve olası sorunların önceden tespit edilerek giderilmesi amacıyla atıldı. ABD hükümeti, bu iş birliği sayesinde yapay zeka teknolojisinin güvenliğini sağlama yönündeki çalışmalarını hızlandırmayı hedefliyor. Aynı zamanda, Birleşik Krallık’taki ilgili kurumlarla da iş birliği yapılarak, uluslararası düzeyde bir güvenlik ağı oluşturulması planlanıyor.

Yapay zekâ güvenliği için önemli bir adım

ABD hükümetinin yapay zekâ modellerine erişim sağlaması, teknolojinin düzenlenmesi ve güvenliği açısından önemli bir adım. Bu adım, ABD’nin federal ve eyalet düzeyinde yapay zekâ teknolojisine yönelik düzenlemelerin artırılması tartışmalarının sürdüğü bir dönemde atıldı. Yapay zekânın hızla gelişmesi, yasama organlarının bu alanda hangi tür düzenlemelerin uygulanacağı konusunda daha titiz davranmasını zorunlu kılıyor. Ancak bu süreçte, inovasyonu engellemeden güvenlik önlemleri almak da büyük bir önem taşıyor.

Geçtiğimiz çarşamba günü, ABD’nin Kaliforniya eyaletinde “Güvenli ve Güvenilir Yapay Zeka Modelleri İçin İnovasyon Yasası” (SB 1047) kabul edildi. Bu yasa, yapay zekâ şirketlerinin, özellikle gelişmiş yapay zeka modelleri üzerinde çalışmadan önce belirli güvenlik tedbirlerini almasını zorunlu kılıyor. Yasa, özellikle büyük ölçekli yapay zeka projeleri üzerinde yoğunlaşırken, küçük ölçekli açık kaynak geliştiricileri için ise bazı esneklikler sağlıyor. Ancak bu düzenleme, başta OpenAI ve Anthropic olmak üzere birçok yapay zeka şirketi tarafından eleştirilmişti. Şirketler, bu tür düzenlemelerin yenilikçiliği engelleyebileceği endişesini dile getiriyor. Yasa, Kaliforniya Valisi Gavin Newsom’un onayını bekliyor.

Bu arada Beyaz Saray, büyük yapay zekâ şirketleriyle gönüllü taahhütler üzerine çalışmalara da devam ediyor. Birçok önde gelen şirket, siber güvenlik ve ayrımcılıkla mücadele araştırmalarına yatırım yapma, ayrıca yapay zeka tarafından üretilen içeriklerin suistimalini önlemek için işaretleme teknolojileri geliştirme konusunda gönüllü taahhütlerde bulundu.

ABD Yapay Zeka Güvenliği Enstitüsü Direktörü Elizabeth Kelly, bu yeni anlaşmaların sadece bir başlangıç olduğunu, ancak yapay zekanın geleceğini sorumlu bir şekilde yönetme yolunda önemli bir kilometre taşı olduğunu belirtti. Kelly, hükümetin ve teknoloji şirketlerinin bu iş birliği sayesinde yapay zeka teknolojisinin güvenliğini sağlama konusunda daha etkin bir rol oynayabileceğine inandığını ifade etti.

OpenAI ve Anthropic’in ABD hükümetiyle yaptığı bu iş birliği, yapay zeka teknolojisinin sorumlu bir şekilde geliştirilmesi ve kullanılması yönünde atılan önemli bir adımı temsil ediyor. Yapay zekânın geleceği, bu tür iş birlikleri ve düzenlemelerle şekillenirken, teknolojinin güvenliği ve etik kullanımına yönelik tartışmalar da devam edecek gibi görünüyor.