Teknoloji

Google yapay zekâ ilkelerinden silah ve gözetim kısıtlamalarını çıkardı

google

Google, 2018 yılında yayımladığı yapay zekâ ilkelerinde önemli bir değişiklik yaparak, yapay zekânın silah ve gözetim teknolojilerinde kullanımını yasaklayan taahhütleri kaldırdı. Şirketin internet sitesinde güncellenen belgede, daha önce “peşine düşmeyeceğimiz uygulamalar” başlığı altında yer alan ve yapay zekânın silah sistemlerinde veya gözetim araçlarında kullanılmayacağına dair ifadeler artık bulunmuyor. Bunun yerine yeni ilkeler “sorumlu geliştirme ve uygulama” başlığı altında daha geniş ve genel ifadelerle yeniden şekillendirildi.

Güncellenen yapay zekâ ilkelerinde, Google’ın teknoloji geliştirme sürecinde “uygun insan denetimi, durum tespiti ve geri bildirim mekanizmalarını” uygulayarak, yapay zekâyı “kullanıcı hedefleri, toplumsal sorumluluk ve uluslararası hukuk ile insan haklarının genel kabul görmüş ilkeleriyle uyumlu” hale getireceği belirtiliyor. Ancak bu yeni yaklaşım, önceki spesifik taahhütlerin ortadan kalktığı anlamına geliyor.

Önceki versiyonlarda Google, yapay zekâyı “insanlara zarar vermeyi amaçlayan veya doğrudan kolaylaştıran silah sistemlerinde” kullanmayacağını ve “uluslararası kabul görmüş normları ihlal eden gözetim teknolojileri” geliştirmeyeceğini açıkça ifade etmişti. Ancak yeni ilkelerde bu tür kesin yasaklara yer verilmediği görülüyor.

Google sözcüsü, The Washington Post’a yaptığı açıklamada, bu değişikliğin, yapay zekânın “genel amaçlı bir teknoloji” olarak ortaya çıkması nedeniyle gerekli hale geldiğini belirtti. Şirketin yapay zeka araştırma laboratuvarı DeepMind’ın CEO’su Demis Hassabis ve Google’ın araştırma, teknoloji ve toplumdan sorumlu kıdemli başkan yardımcısı James Manyika, yapay zekânın gelişimiyle ilgili olarak bir blog yazısında, “Demokrasilerin özgürlük, eşitlik ve insan haklarına saygı gibi temel değerler rehberliğinde yapay zekâ geliştirmede liderlik etmesi gerektiğine inanıyoruz” ifadelerini kullandı.

İkili, açıklamalarında ayrıca, şirketlerin, hükümetlerin ve yapay zekâ teknolojisini etik prensipler çerçevesinde geliştirmek isteyen kuruluşların birlikte çalışması gerektiğini vurguladı. “Google olarak, yapay zekâ araştırma ve uygulamalarımızın misyonumuz, bilimsel odağımız ve uzmanlık alanlarımızla uyumlu olmasını sağlamaya devam edeceğiz” ifadeleriyle, teknolojinin sorumlu kullanımı konusunda kararlılık mesajı verdiler.

Google, 2018 yılında yapay zeka ilkelerini yayımladığında, bu kararın ardında büyük tartışmalara neden olan Project Maven projesi bulunuyordu. ABD Savunma Bakanlığı ile yürütülen bu proje kapsamında, drone görüntülerinin analiz edilmesi için yapay zekâ yazılımı geliştirilmesi öngörülüyordu. Ancak proje, Google çalışanları arasında büyük tepki çekti. Onlarca çalışan istifa ederken, binlerce kişi projeye karşı bir dilekçe imzaladı. Gelen baskılar sonucunda Google, Project Maven’dan çekildi ve CEO Sundar Pichai, yayımlanan yeni yapay zekâ ilkelerinin “zamanın testinden geçeceğini” ifade etti.

Google 2021’den beri askeri projelere yeniden ilgi gösteriyor

Ancak 2021 yılı itibarıyla Google, askeri projelere yeniden ilgi göstermeye başladı. Şirket, Pentagon’un Ortak Savaş Bulutu Kabiliyeti (Joint Warfighting Cloud Capability) sözleşmesi için agresif bir teklif sundu. Bunun yanı sıra, 2024 yılı başlarında The Washington Post, Google çalışanlarının İsrail Savunma Bakanlığı ile birçok kez iş birliği yaparak hükümetin yapay zekâ araçlarını kullanımını genişletmek için çalıştığını bildirdi.