Çevrimiçi yayıncı Medium, ChatGPT gibi yapay zekâ (AI) tabanlı yazma araçlarının kullanıldığının açık biçimde ifşa edilmesi durumunda, bu tür makaleleri yayınlayabileceğini söylüyor. Bazı özel içerikler için üyelik tabanlı erişim satarken diğer yandan herkesin kendi blogunu oluşturmasına olanak tanıyan blog platformu, yapay zekâ tarafından oluşturulan metin için temel kurallar belirleyen en son kuruluş oluyor. Medium’un içerikten sorumlu Başkan Yardımcısı Scott Lamb, yeni politikayı bir blog yazısında paylaştı.
Lamb, söz konusu yazıda, “Yapay zeka destekli teknolojinin Medium’da sorumlu bir şekilde kullanılmasını memnuniyetle karşılıyoruz. Şeffaflığı teşvik etmek ve okuyucu beklentilerini belirlemeye yardımcı olmak için, yapay zeka yardımıyla oluşturulan tüm yazıların bu şekilde açıkça etiketlenmesini şart koşuyoruz.” dedi. Bunun sadece bir “ilk yaklaşım” olduğunu ve teknoloji değiştikçe şirketin politikasının değişebileceğini vurguladı.
Medium yöneticisi “Ortak bir iyi vatandaşlık beklentisinin yapay zekâ tarafından üretilen içeriğin ifşa edilmesi olduğu bir açıklama kültürü oluşturmanın okuyucuları güçlendirdiğine inanıyoruz.” diye yazdı. “Bu tür çalışmalara yönelik kendi tepkilerini ve katılımlarını belirlemelerine ve bir yazının makine tarafından mı yoksa insanlar tarafından mı yazıldığını açıkça anlamalarına olanak tanıyor.” ifadelerini de kullandı.
Şirket, yapay zekâ tarafından üretildiğine inandığı ve ifşa edilmemiş yazılar bulduğunda, bu yazıları kaldırılmayacağını, ancak bunların Medium’un çeşitli öneri özellikleri aracılığıyla daha geniş kitlelere tanıtılmayacağını söylüyor. Yani bunlar, ana sayfada “Sizin İçin” bölümünü içerir bölümünde veya “Medium Digest” adlı e-posta haber bülteni içinde olmayacak.
Medium’u kullanan bir dizi yazar ve yayın, yapay zekâ tabanlı yazma araçlarının kullanımını zaten yasaklamıştı. Örneğin, sitenin en çok takip edilen ikinci blogu olan Towards Data Science, “yalnızca insan yazarların çalışmalarını yayınlamayı taahhüt ettiğini” ve yalnızca açıkça etiketlenip örnek olarak kullanıldığında yapay zekâ tarafından oluşturulan metne izin vereceğini söylüyor.
Medium, yapay zekâ tarafından oluşturulan metinleri saptamak amacıyla yayınlanmış yazıları proaktif olarak tarayacağını söylemiyor. Bir dizi yapay zekâ metin algılayıcı mevcut, ancak bunlar AI tarafından oluşturulan ve düzenlenmemiş metni güvenilir bir şekilde tespit edebilseler de, insan yazarlar bu algılamayı önlemek için yapay zekânın çıktılarını özelleştirme yoluna gidebiliyor.
AI tabanlı yazı yazma araçlarının kolaylıkla intihal yapabilmesi de dahil olmak üzere, bu tür araçların yayıncılarla ilgili başka sorunları da bulunuyor. Substack’te yayın yapan bir teknoloji gazetecisi olan Alex Kantrowitz, yakın tarihli bir yazısında, başka bir Substack kullanıcısının gönderilerinden birini kopyalamak, başka kelimelerle ifade etmek ve yeniden yayınlamak için yapay zekâ kullandığını yazdı. Bu yazı viral oldu, ancak o zamandan beri siteden kaldırıldı. Yazarı, yazının okunabilirliğini artırmak için yapay zekâ araçlarının kullanıldığını itiraf etti.
Kantrowitz, “Yapay zekanın Financial Times’ın günün en çok okunan on haberini veya The Information’ın risk sermayesi bölümündeki haberleri yeniden düzenlediğini ve haberleri ödeme engeli olmadan erişilebilir hâle getirdiğini hayal edin.” diye yazıyor.
Son zamanlarda dizi dijital yayıncı, yapay zekâ tabanlı yazma araçlarının kullanımıyla ilgili denemeler yapmaya başladı. BuzzFeed perşembe günü, teknolojiyi okuyucular için içeriği kişiselleştirmek ve geliştirmek için yapay zekâyı kullanacağını duyururken, CNET’in de kısa süre önce AI teknolojisi makalelerinde kullandığı ortaya çıkmıştı. Ancak yayın organı, bu teknolojinin düzgün bir şekilde ifşa edilmediği ve makalelerde çok sayıda hata bulunduğu şikayetlerinin ardından makaleler oluşturmak için AI kullanmayı bıraktı.