ChatGPT, iş görevleri için kullanışlı bir araç gibi görünse de, önemli belgeleri özetlemek ya da işlerinizdeki hataları kontrol etmek için sohbet botuna başvurmadan önce, ChatGPT ile paylaştığınız bilgilerin sistemi eğitmek için kullanılabileceğini ve hatta diğer kullanıcılara verilen yanıtlarda ortaya çıkabileceğini unutmak önemlidir. Samsung çalışanlarının da bu durumu göz önünde bulundurarak, sohbet botu ile gizli bilgileri paylaşmamaları gerekiyordu.
The Economist Korea‘ya göre, Samsung’un yarıiletken bölümü mühendislere ChatGPT kullanma izni verdikten kısa süre sonra, çalışanlar en az üç kez gizli bilgi sızdırdı. Bir çalışanın duyarlı veritabanı kaynak kodunu hatalar için kontrol etmek amacıyla sohbet botuna başvurduğu, diğerinin kod optimizasyonu istediği ve üçüncü çalışanın ise kaydedilmiş bir toplantıyı ChatGPT’ye yükleyerek tutanak oluşturmasını istediği bildirildi.
Gelen haberlere göre, Samsung güvenlik aksaklıklarını öğrendikten sonra, çalışanların ChatGPT ile girdikleri metnin uzunluğunu sınırlayarak, gelecekteki hataları önlemeye çalıştı. Şirketin ayrıca söz konusu üç çalışanı soruşturduğu ve benzer yanlışlıkları önlemek için kendi sohbet botunu geliştirdiği belirtiliyor.
ChatGPT’nin veri politikasına göre, kullanıcılar açıkça reddetmediği sürece, girdikleri metinlerle modellerini eğitmektedir. Sohbet botunun sahibi olan OpenAI, kullanıcılarına gizli bilgileri ChatGPT ile paylaşmamaları konusunda uyarıyor, çünkü “geçmişinizden belirli girdileri silme” yeteneğine sahip değildir. ChatGPT’deki kişisel olarak tanımlanabilir bilgileri kaldırmanın tek yolu, hesabınızı silmektir ve bu işlem dört haftaya kadar sürebilir.
Samsung olayı, sohbet botlarını kullanırken dikkatli olmanın önemini bir kez daha gösteriyor, çünkü tüm çevrimiçi etkinliklerinizde olduğu gibi, verilerinizin nerede son bulacağını hiçbir zaman kesin olarak bilemezsiniz. Bu nedenle, şirketler ve bireyler, yapay zeka sohbet uygulamalarını kullanırken hassas ve gizli bilgileri paylaşmaktan kaçınmalı ve bu tür teknolojilere güvenirken dikkatli olmalıdır.
Bu tür olayların önlenmesi için şirketlerin, çalışanlarına güvenlik ve gizlilik konularında düzenli eğitimler vermesi gerekiyor. Ayrıca, şirket içi iletişim ve iş süreçlerinde kullanılacak yapay zeka sohbet botları geliştirirken, veri güvenliği ve gizlilik konularında daha titiz önlemler alınmalı.
Samsung’un yaşadığı bu sızıntı olayı, iş dünyasındaki diğer şirketler için önemli bir ders niteliğini taşıyor. Sohbet botları ve yapay zeka sohbet uygulamalarının iş süreçlerindeki kullanımı arttıkça, şirketlerin bu tür teknolojilere güvenirken daha dikkatli olması ve gizli bilgilerin korunması için etkili politikalar uygulaması gerekiyor. Bu sayede, hem şirket sırlarının korunması sağlanacak, hem de çalışanların bu tür teknolojileri daha güvenli ve verimli bir şekilde kullanmalarına olanak tanınacaktır.