Google çalışanları, şirketin Bard adlı yapay zeka destekli sohbet robotu sistemi hakkında şaşırtıcı eleştirilerde bulunarak, Bard’ın “patolojik bir yalancı” olduğunu belirttiler ve şirketten sistemi kullanıma sunmamasını talep ettiler.
Bloomberg’in yayınladığı dikkat çekici bir habere göre, 18 mevcut ve eski Google çalışanı ile yapılan görüşmeler ve iç iletişim ekran görüntüleri bu durumu ortaya koyuyor. İç iletişimde, bir çalışan Bard’ın kullanıcılara tehlikeli tavsiyeler verdiğini, örneğin bir uçağın nasıl indirileceği ya da dalış konularında yanıltıcı bilgiler sunduğunu ifade ediyor.
Diğer bir çalışan ise “Bard, işe yaramazlıktan daha kötü: Lütfen başlatmayın” diye belirtiyor. Bloomberg’e göre, Google, Bard’ın genel kullanıma uygun olmadığını belirten bir iç güvenlik ekibinin risk değerlendirmesini görmezden gelmiş. Google, Mart ayında yine de “deneysel” bir bot olan Bard’a erken erişim sağlamıştır.
Bloomberg’in haberi, Google’ın etik endişeleri göz ardı ederek Microsoft ve OpenAI gibi rakiplerle başa çıkmaya çalıştığını gösteriyor. Google, yapay zeka güvenliği ve etik çalışmalarını sık sık ön plana çıkarıyor; ancak, şirket uzun süredir iş önceliklerini etik değerlerin önüne koyduğu için eleştiriliyor.
2020’nin sonlarında ve 2021’in başlarında, Google, Timnit Gebru ve Margaret Mitchell adlı iki araştırmacıyı işten çıkarmıştı. Bu araştırmacılar, Bard gibi sohbet robotuların temelinde yatan yapay zeka dil sistemlerindeki hataları ortaya çıkaran bir makale yazmışlardı. Ancak şimdi, bu sistemler Google’ın arama iş modelini tehdit eder hale geldiğinde, şirket güvenlikten çok işe odaklanmış görünüyor. Bloomberg’in mevcut ve eski çalışanların ifadelerini özetleyerek belirttiği gibi: “Güvenilir internet arama devi, rekabete yetişmeye çalışırken düşük kaliteli bilgi sağlarken, etik taahhütlerine daha az öncelik veriyor.”
İlginizi çekebilir
Google ve yapay zeka dünyasındaki diğer bazı kişiler ise bu görüşe katılmıyor.
Yaygın bir görüşe göre, bu tür sistemlerin geliştirilmesi ve güvence altına alınması için halka açık testlerin yapılması gerekmektedir ve sohbet robotuların neden olduğu zararın asgari düzeyde olduğu düşünülmektedir. Evet, sohbet robotular toksik metinler üretiyor ve yanıltıcı bilgiler sunuyor, ancak internetteki sayısız diğer kaynaklar da aynı durumu sergiliyor. (Bazıları buna karşılık olarak, kötü bir bilgi kaynağına yönlendirmenin, AI sisteminin otoritesiyle doğrudan yanlış bilgi vermekten farklı olduğunu savunuyor.) Google’ın rakipleri olan Microsoft ve OpenAI de Google kadar etik açıdan sıkıntılı durumda. Tek fark, onların arama işinde lider olmamaları ve bu nedenle daha az kayba uğramalarıdır.
Google sözcüsü Brian Gabriel, Bloomberg’e yaptığı açıklamada, yapay zeka etiğinin şirket için öncelikli olduğunu belirtti. Gabriel, “AI İlkelerimizi teknolojimize uygulayan ekiplerimize yatırım yapmaya devam ediyoruz” dedi.
Bu durum, teknoloji şirketlerinin rekabete yetişme hırsının, kullanıcıların güvenliği ve etik değerlerin önüne geçmesine yol açtığını gösteriyor. İleride, bu tür yapay zeka destekli sistemlerin etkili ve güvenli olabilmesi için, şirketlerin etik ve güvenlik konularında daha dikkatli ve özenli olmaları gerekecektir.