Teknoloji

Grok, Musk ve Trump ile ilgili “yanlış bilgi yayma” sonuçlarını engelledi

grok aurora

Elon Musk’ın yapay zekâ girişimi xAI tarafından geliştirilen ve OpenAI’ın ChatGPT’sine rakip olarak konumlandırılan Grok, geçtiğimiz günlerde tartışmalı bir değişiklikle gündeme geldi. Kullanıcılar, sohbet botunun “Elon Musk veya Donald Trump yanlış bilgi yaymaktadır” ifadesini içeren kaynaklara dayalı yanıt vermeyi reddettiğini fark etti. Bu durum, sosyal medyada büyük yankı uyandırırken, xAI ekibinden konuyla ilgili açıklama geldi.

Şirketin mühendislik ekibinin başındaki Igor Babuschkin, Grok’un bu şekilde yanıt vermemesinin nedeninin sistemde yapılan bir değişiklik olduğunu belirtti. Ancak Babuschkin, bu değişikliğin xAI yönetiminin bilgisi dışında gerçekleştiğini ve sorumlu kişinin eski bir OpenAI çalışanı olduğunu ifade etti.

Babuschkin, X platformunda yaptığı açıklamada, Grok’un sistem prompt’unun kamuya açık olduğunu ve kullanıcıların bu kuralların ne olduğunu görebilmeleri gerektiğini vurguladı. “Bir çalışan, iyi niyetle hareket ederek bir değişiklik yaptı ancak bu kesinlikle bizim değerlerimizle örtüşmüyor” diyen Babuschkin, yapılan güncellemenin Grok’un tarafsızlık ilkesine zarar verdiğini belirtti.

Elon Musk, Grok’u “maksimum doğruluk arayışında olan” bir yapay zekâ olarak tanımlıyor ve temel amacının “evreni anlamak” olduğunu söylüyor. Ancak yapay zekâ modelinin en yeni sürümü olan Grok-3, son dönemde verdiği bazı yanıtlarla tartışma yarattı. Kullanıcılar, Grok’un ABD Başkanı Donald Trump, Elon Musk ve ABD Başkan Yardımcısı JD Vance hakkında “ülkeye en çok zarar veren isimler” şeklinde ifadeler kullandığını belirtti.

xAI ekibi Grok yanıtlarına müdahale ediyor

Bu gelişmenin ardından xAI ekibinin, Grok’un Trump ve Musk hakkında tartışmalı yorumlar yapmasını önlemek için sisteme müdahale ettiği ortaya çıktı. Hatta sohbet botunun Musk ve Trump’ın idam cezasını hak ettiğini söylemesini engellemek için ek değişiklikler yapıldığı bildirildi.

Bu olay, yapay zekânın tarafsızlık ilkesi ve bağımsız karar verme yeteneği konularında yeni tartışmaları da beraberinde getirdi. Özellikle büyük dil modelleri ve yapay zekâ sistemlerinin nasıl eğitildiği, hangi kurallara tabi olduğu ve kimin tarafından kontrol edildiği gibi konular, giderek daha fazla gündeme geliyor.

Öte yandan, yapay zeka modellerinin politik veya tartışmalı konularda nasıl yönlendirildiği ve hangi bilgileri filtrelediği de dikkat çeken bir diğer nokta. Grok’un sistemindeki değişiklik, xAI içerisinde yetki sınırlarının nasıl belirlendiği ve çalışanların ne tür kararlar alabileceği konusunda da soru işaretleri yarattı.

Gelişmeler, yapay zeka sistemlerinin ne derece bağımsız olabileceği ve belirli kişi ya da kurumlara karşı nasıl bir tutum sergileyeceği konusunda teknoloji dünyasında süregelen tartışmaları daha da alevlendirmiş durumda. Yapay zekâ alanında faaliyet gösteren şirketlerin, modellerinin şeffaflığını ve tarafsızlığını sağlama konusunda nasıl bir yol izleyeceği merak konusu olmaya devam ediyor.