Samsung, şirket içi ağlarında ve çalışanların kullandığı sahip olduğu cihazlarda, güvenlik riski oluşturabilecek hassas bilgilerin yüklenmesi nedeniyle ChatGPT gibi yapay zeka tabanlı sohbet uygulamalarının kullanımını yasakladı. Bloomberg News’e göre, şirket, “güvenli bir ortam yaratma” çalışmaları süresince bu kısıtlamanın geçici olacağını belirten bir memo ile çalışanlarına bu kararı iletti.
Güney Koreli şirket, şirket içi ağlarında ve cihazlarında, hassas bilgilerin bu tür platformlara yüklenmesinin güvenlik riski oluşturduğu endişesiyle ChatGPT gibi yapay zeka tabanlı sohbet uygulamalarının kullanımını yasakladı. Şirket, bu yasağın, yapay zeka araçlarını güvenle kullanabilecekleri güvenli bir ortam yaratma çalışmaları süresince geçici olduğunu belirten bir memo ile çalışanlarına bu kararı iletti.
En büyük risk faktörü, sadece eğlence amaçlı kullanılmakla kalmayıp, ciddi işlerde de yardımcı olabilen OpenAI’ın sohbet robotu ChatGPT’dir. Kullanıcılar, bu sistemi raporları özetlemek veya e-postalara yanıtlar oluşturmak için kullanabilir. Ancak bu, hassas bilgilerin OpenAI tarafından erişilebilir olabileceği anlamına gelir.
Samsung, çalışanlarının bu araçla oynarken potansiyel bir güvenlik riski olduğunu fark etmemelerinden endişe duyuyor. Bloomberg’e göre, şirketin iç yazışmasında, “Merkez, çalışanların verimlilik ve etkinliğini artırmak için üretici yapay zeka kullanımını güvenle sağlayabilecek güvenli bir ortam yaratmak amacıyla güvenlik önlemlerini gözden geçiriyor” denildi. “Ancak bu önlemler hazır olana kadar, üretici yapay zeka kullanımını geçici olarak kısıtlıyoruz.”
Samsung, şirket bilgisayarlarında, telefonlarında ve tabletlerinde üretici yapay zeka kullanımını kısıtlamanın yanı sıra, çalışanlarına kişisel makineleri üzerinden hassas iş bilgilerini yüklememeleri konusunda da uyarıda bulunuyor.
Samsung’un gönderdiği bildirimde, “Güvenlik yönergelerimize dikkatlice uymamanız durumunda, şirket bilgilerinin ihlali veya tehlikeye girmesi ve istihdamın feshine kadar varabilecek disiplin işlemleri uygulanabilir” ifadelerine yer verildi. Güney Koreli teknoloji devi, bildirimin doğruluğunu Bloomberg’e doğruladı.
Yasağın ortaya çıkması, Samsung’un bazı çalışanlarının “ChatGPT’ye yükleyerek iç kaynak kodunu sızdırdığı” şeklindeki Bloomberg haberinin ardından geldi. AI sağlayıcıları tarafından işletilen harici sunuculara hassas şirket bilgilerini yüklemek, bunları kamuya açıklama riskini taşıyor ve Samsung’un bu bilgileri daha sonra silme yeteneğini sınırlıyor. ChatGPT’nin bazı sohbet geçmişlerini ve potansiyel olarak ödeme bilgilerini diğer kullanıcılara geçici olarak maruz bırakan bir hata yaşadığı haberinin üzerinden bir aydan biraz fazla zaman geçti.
Samsung, JPMorgan, Bank of America, Citigroup, Deutsche Bank, Goldman Sachs ve Wells Fargo gibi generative AI araçlarının kullanımını yasaklayan veya kısıtlayan diğer şirketlere ve kurumlara katılıyor. New York City okulları, ChatGPT’yi hile ve yanlış bilgi endişeleri nedeniyle yasakladı, İtalya’da ise veri koruma ve çocuk güvenliği endişeleri nedeniyle geçici olarak yasaklandı.
Samsung’un, çalışanlarının AI araçlarını kullanma planları olduğu bildirildi, ancak şirket, kendi içinde geliştirilecek çözümleri bekliyor gibi görünüyor. Bloomberg’e göre, Samsung, çeviri, belge özetleme ve yazılım geliştirme konularında yardımcı olacak araçlar üzerinde çalışıyor.
Üretici yapay zeka kısıtlamaları, şirketin piyasada satmakta olduğu tüketici cihazlarını kapsamıyor.