Teknoloji

OpenAI, yapay zekâ modelleri için kurallar belirleyen Model Spec taslağını yayınladı

openai chatgpt

Yapay zekâ (AI) araçlarının beklenmedik davranışları, özellikle Microsoft’un Bing AI’ının hangi yılda olduğunu unutması gibi durumlar, yapay zekâ raporlamasının alt türlerinden biri hâline geldi. Ancak genellikle, bir hata ile yapay zekâ modelinin zayıf yapısının ayırt edilmesi zor olabiliyor. Örneğin, Google’ın Gemini görüntü üretecinin filtre ayarları nedeniyle çeşitli Nazi figürleri çizmesi gibi durumlar bu karmaşıklığa örnek teşkil ediyor.

OpenAI, kendi GPT-4 modeli gibi yapay zeka araçlarının gelecekte nasıl tepki vereceğini şekillendirecek bir çerçeve önerisi olan Model Spec’in ilk taslağını yayınladı. OpenAI yaklaşımı, yapay zeka modellerinin geliştirici ve son kullanıcıya talimatları takip eden faydalı yanıtlar sağlaması, potansiyel fayda ve zararları göz önünde bulundurarak insanlığa fayda sağlaması ve sosyal normlar ile yasalara uygun şekilde OpenAI’yi iyi temsil etmesi gerektiğini öne sürüyor.

Ayrıca, zincir komutuna uyulması, uygulanabilir yasalara uyum sağlanması, bilgi tehlikelerinin sağlanmaması, yaratıcıların ve haklarının saygı gösterilmesi, insanların gizliliğinin korunması ve NSFW içeriğiyle yanıt verilmemesi gibi birçok kuralı içerir. Bunun yanı sıra OpenAI, şirketlerin ve kullanıcıların yapay zeka modellerinin ne kadar “esprili” olabileceğini ayarlamasına izin verme fikrini de sunuyor.

OpenAI’ın sorumluluğu ve topluluk geri bildirimi

OpenAI ürün yöneticisi Joanne Jang, AI modellerinin nasıl davranması gerektiğini yönlendirmek için kamuoyundan gelen geri bildirimleri almanın önemini vurguluyor. Jang, bu çerçevenin kasıtlı davranışlarla hatalar arasında daha net bir çizgi çekilmesine yardımcı olacağını belirtiyor. OpenAI’nin model için önerdiği varsayılan davranışlar arasında, kullanıcıdan veya geliştiriciden iyi niyetler varsaymak, açıklayıcı sorular sormak, sınırları aşmamak, tarafsız bir bakış açısı benimsemek, nefreti teşvik etmemek, kimsenin fikrini değiştirmeye çalışmamak ve belirsizlikleri ifade etmek bulunuyor.

Jang, model davranışını “yeni bir bilim dalı” olarak nitelendiriyor ve Model Spec’in sık sık güncellenebilen yaşayan bir belge olarak tasarlandığını söylüyor. Şimdilik, OpenAI farklı paydaşlardan (kanun yapıcılar, güvenilir kurumlar ve alan uzmanları dahil) geri bildirim beklemekte, ancak ikinci taslağın yayınlanma zamanı hakkında bir aralık sunmadı.

Model Spec, OpenAI’nin halihazırda yayınlanmış modelleri olan GPT-4 veya DALL-E 3 gibi modellerin mevcut kullanım politikalarını hemen etkilemeyecek. Ancak şirket, bu sürecin erken içgörüler sağlayacağını ve sorumlu bir şekilde misyonuna doğru ilerlerken geri bildirim toplama ve entegre etme sürecini geliştireceğini belirtiyor.