Google DeepMind CEO’su Demis Hassabis, CBS’in 60 Minutes programında yapay zekânın bugünü ve geleceği hakkında dikkat çeken açıklamalarda bulundu. Sohbetin odak noktasında, şirketin üzerinde çalıştığı Gemini projesi, AGI yani genel yapay zekâ hedefi ve makinelerde özfarkındalık olasılığı yer aldı. Hassabis’in sözleri, yapay zekânın yalnızca bilgi sağlayan bir araçtan, aktif biçimde karar alıp uygulama yapabilen bir yapıya dönüşeceğini düşündürüyor.
Program sırasında, şu anda yalnızca güvenilir test kullanıcılarının erişimine açık olan Project Astra uygulamasından yeni görüntüler de paylaşıldı. Uygulama, kullanıcıyı ismiyle selamlayan bir girişle açılıyor; bu, sistemin kişiselleştirme kabiliyetine dair ipuçları veriyor. Gemini Live’da henüz bulunmayan bu özellik, Astra’nın daha gelişmiş bir hafıza sistemiyle çalıştığını ortaya koyuyor.
Google DeepMind, Gemini’nin eyleme geçmesini istiyor
Astra, konuşmaları yaklaşık 10 dakikalık bir zaman dilimi boyunca hatırlayabiliyor. Bu kısa vadeli hafıza, diyaloğun bütünlüğünü korurken, daha insani ve bağlamsal tepkiler üretmeye yardımcı oluyor. Hassabis’e göre bu tür gelişmiş yeteneklerin zamanla Gemini Live platformuna da entegre edilmesi planlanıyor.
Bunun yanı sıra Astra’nın, akıllı gözlüklerle entegre bir versiyonu da kısaca gösterildi. Görüntülerde, kullanıcının çevresini algılayabilen ve görsel içeriklere tepki verebilen bir sistem yer alıyor. Görsel tanıma yeteneğiyle donatılmış bu versiyon, günlük hayatla daha derin bir etkileşim kurma potansiyeli taşıyor. Bu yapı, yapay zekânın sadece metinle değil, fiziksel dünyayla da bağlantı kurabileceğini gösteriyor.
Google DeepMind, Gemini modelini yalnızca bilgi sunmakla yetinmeyen, eyleme geçebilen bir yapı haline getirmek istiyor. Hassabis, bu sistemin bilet satın almak, çevrim içi alışveriş yapmak gibi doğrudan kullanıcıya hizmet eden işlemleri yerine getirebileceğini söylüyor. Bu açıklamalar, daha önce duyurulan Project Mariner ile örtüşüyor. Pichai’nin daha önce bu projenin 2025 yılı içinde Gemini ile entegre edileceğini söylediği de hatırlanıyor.
Hassabis’e göre AGI yani genel yapay zekâ, 5 ila 10 yıl arasında geliştirilebilecek bir hedef olarak önlerinde duruyor. 2030 yılına kadar, çevresini detaylı ve çok katmanlı biçimde anlayabilen sistemlerin yaşamın her alanına entegre olabileceğini ifade ediyor. Bu sistemlerin yalnızca veri değil, bağlamı ve duyguyu da analiz edebilmesi bekleniyor. Yani insanın düşünme biçimini taklit eden değil, ona benzer şekilde işleyen bir yapıdan söz ediliyor.
Röportajda en çok dikkat çeken sorulardan biri ise “öz farkındalık” oldu. Hassabis, mevcut sistemlerin kendisinde bilinç ya da farkındalık hissi uyandırmadığını açıkça dile getirdi. Her bireyin bu konuda kendi değerlendirmesini yapması gerektiğini, ancak teorik olarak böyle bir özelliğin zamanla gelişebileceğini düşündüğünü belirtti. Ona göre bu sistemler, zamanla hem kullanıcıyı hem de kendilerini anlayabilir hâle gelebilir.
Hassabis, “Öz farkındalık sizin hedefiniz mi?” sorusuna ise net bir “hayır” yanıtı vermedi. Bu özelliğin bilinçli olarak tasarlanmadığını, fakat sistemlerin gelişimi sırasında kendiliğinden oluşabileceğini söyledi. İnsanlarda bilinç hissinin kaynağı olarak, davranış benzerliği ve biyolojik altyapının ortaklığına işaret etti. Ne var ki makineler karbon temelli olmadığı için, benzer davranışlar gösterse de aynı bilinç deneyimine sahip olmayabilirler.