OpenAI, 2023 yazında, gelecekteki güçlü yapay zeka sistemlerini yönlendirmek ve kontrol etmek amacıyla “Süper Uyumlaştırma” ekibini kurdu. Bu ekibin görevi, insanlık için tehlikeli olabilecek yapay zeka sistemlerini güvence altına almaktı. Ancak bir yıl geçmeden bu ekip dağıldı.
OpenAI, Bloomberg’e yaptığı açıklamada, bu grubun şirketin güvenlik hedeflerine ulaşmasına yardımcı olmak için daha derin araştırma çabalarına entegre edildiğini belirtti. Ancak, ekibin liderlerinden biri olan Jan Leike’nin ayrılmasıyla ilgili attığı bir dizi tweet, güvenlik ekibi ile şirketin geri kalanı arasında iç gerilimlerin olduğunu ortaya koydu. Leike, Cuma günü X platformunda yaptığı açıklamada, Süper Uyumlaştırma ekibinin araştırma yapabilmek için kaynaklarla mücadele ettiğini söyledi.
Leike, insan zekâsını aşan makineler yapmanın doğası gereği tehlikeli bir girişim olduğunu yazdı. OpenAI’ın tüm insanlık adına büyük bir sorumluluk üstlendiğini belirtti. Ancak son yıllarda, güvenlik kültürü ve süreçlerinin parlayan ürünlerin arkasında kaldığını ifade etti.
Leike’nin ayrılması, OpenAI baş bilimcisi Ilya Sutskevar’ın şirketten ayrıldığını açıklamasından birkaç saat sonra gerçekleşti. Sutskevar, yalnızca Süper Uyumlaştırma ekibinin liderlerinden biri değildi, aynı zamanda şirketin kurucularındandı. Altı ay önce, CEO Sam Altman’ı görevden almak için yönetim kuruluyla olan anlaşmazlığı sonrası Altman’ı görevden alma kararında yer aldı.
Altman’ın kısa süreli görevden alınması, şirket içinde büyük bir iç isyan başlattı. Neredeyse 800 çalışan, Altman geri getirilmezse istifa edeceklerini belirten bir mektup imzaladı. Beş gün sonra, Sutskevar’ın pişmanlık belirten bir mektup imzalamasıyla Altman, OpenAI’nin CEO’su olarak geri döndü.
Süper Uyumlaştırma ekibinin oluşturulduğu zamanlarda OpenAI, gelecekteki güçlü yapay zekâ sistemlerini kontrol etme sorununu çözmek için önümüzdeki dört yıl boyunca bilgisayar gücünün yüzde 20’sini tahsis edeceğini duyurmuştu. O dönemde şirket, “Bu sorunu çözmek misyonumuzu gerçekleştirmek için kritik öneme sahiptir” diye yazmıştı. Leike, X platformunda yaptığı paylaşımda, ekibinin bilgi işlem gücü için mücadele ettiğini ve yapay zeka güvenliği üzerine önemli araştırmalar yapmanın giderek zorlaştığını belirtti.
Leike, son birkaç ay içinde ekibinin rüzgara karşı yelken açtığını ve OpenAI liderliği ile şirketin temel öncelikleri konusunda anlaşmazlıklar yaşadığını ifade etti. Bu anlaşmazlıklar Leike’nin bir “kırılma noktasına” ulaştığını belirttiği bir sürece yol açtı. Son birkaç ay içinde Süper Uyumlaştırma ekibinden daha fazla ayrılık yaşandı.
Nisan ayında OpenAI, Leopold Aschenbrenner ve Pavel Izmailov adlı iki araştırmacıyı, bilgi sızdırdıkları iddiasıyla işten çıkardı. Şirket, Bloomberg’e yaptığı açıklamada, gelecekteki güvenlik çabalarının büyük dil modelleri üzerine araştırma yapan bir diğer kurucu ortak olan John Schulman tarafından yönetileceğini belirtti. Schulman’ın yanı sıra GPT-4’ün geliştirilmesini yöneten bir direktör olan Jakub Pachocki, Sutskevar’ın yerine baş bilimci olarak geçecek.
Süper Uyumlaştırma ekibi, OpenAI’de yapay zekâ güvenliği üzerine odaklanan tek ekip değildi. Geçtiğimiz ekim ayında şirket, muhtemel “felaket riskleri”ni önlemek amacıyla yeni bir “hazırlık” ekibi kurdu. Bu ekip, siber güvenlik sorunları ve kimyasal, nükleer ve biyolojik tehditleri içeren risklere karşı çalışacak.
OpenAI’ın iç çatışmalar ve kaynak sorunları nedeniyle Süper Uyumlaştırma ekibini kaybetmesi, şirketin güvenlik hedeflerini nasıl sürdüreceği konusunda önemli soruları gündeme getiriyor. Şirketin, güçlü yapay zeka sistemlerini güvenli bir şekilde geliştirme taahhüdü, bu tür zorluklarla nasıl başa çıkacağını belirleyecek.