Teknoloji

DeepSeek’e hem suçlama hem de soruşturma

deepseek

Beyaz Saray’ın kripto ve yapay zekâ danışmanı David Sacks, Çin merkezli yapay zekâ girişimi DeepSeek‘in, OpenAI’nin modellerinin çıktılarından faydalandığına dair önemli kanıtlar bulunduğunu öne sürdü. Sacks, Fox News’e verdiği demeçte, “DeepSeek’in burada yaptığı şeyin OpenAI modellerinden bilgi damıtmak olduğuna dair önemli kanıtlar var ve OpenAI’nin bundan pek memnun olduğunu sanmıyorum” ifadelerini kullandı. Ancak, bu kanıtların detaylarına ilişkin bilgi vermedi. 

Damıtma (distillation) olarak bilinen bu teknik, bir yapay zekâ modelinin başka bir modelin çıktılarından öğrenerek benzer yetenekler geliştirmesini sağlar. Bu yöntem, yapay zekâ alanında yaygın bir uygulama olup, modellerin daha verimli ve etkili hale getirilmesinde kullanılır. DeepSeek’in bu tekniği kullanarak gelişmiş GPU’lara büyük ölçüde bağımlı olmadan daha verimli bir yapay zekâ modeli oluşturma becerisi dikkat çekmektedir. Bu durum, Amerikan yapay zekâ şirketlerini, “taklitçi” olarak nitelendirdikleri modellerin önünü kesmek için damıtma tekniğine karşı önlem almaya yönlendirebilir. 

DeepSeek’in geliştirdiği yapay zekâ modeli R1, matematiksel ve mantıksal akıl yürütme gibi görevlerde OpenAI’nin o1 modeliyle karşılaştırılabilir performans sergiliyor. Şirket, bu başarıyı daha düşük maliyet ve daha az hesaplama gücü kullanarak elde ettiğini iddia ediyor. Bu durum, yapay zekâ araştırmalarında verimlilik ve maliyet etkinliği konularını yeniden gündeme getirdi. 

Öte yandan, Microsoft ve OpenAI, DeepSeek’in performansının kendi modellerinin damıtılmasından mı yoksa bağımsız bir araştırma atılımından mı kaynaklandığını araştırıyor. Konuya yakın kaynaklara göre, Microsoft’un güvenlik araştırmacıları, DeepSeek ile bağlantılı olabileceğini düşündükleri kişilerin OpenAI uygulama programlama arayüzünü (API) kullanarak büyük miktarda veri sızdırdığını gözlemlediler. OpenAI’nin teknoloji ortağı ve en büyük yatırımcısı olan Microsoft’un, OpenAI’yi bu faaliyetten haberdar ettiği belirtildi.

İtalya’dan DeepSeek’e soruşturma

İtalya’nın veri koruma otoritesi Garante, DeepSeek’in kişisel verileri nasıl kullandığı konusunda bilgi talep etti. Garante, toplanan kişisel verilerin türleri, kaynakları, amaçları, yasal dayanakları ve verilerin Çin’de depolanıp depolanmadığı gibi konularda ayrıntılı bilgi istedi. DeepSeek ve bağlı şirketlerinin bu taleplere yanıt vermek için 20 günü bulunuyor. Bu, DeepSeek’e yönelik ilk düzenleyici hamlelerden biri olarak dikkat çekiyor. 

DeepSeek’in hızlı yükselişi, yapay zekâ alanında rekabetin artmasına ve etik tartışmaların yoğunlaşmasına neden oldu. Şirketin kullandığı yöntemlerin sektördeki diğer oyuncular tarafından nasıl değerlendirileceği ve bu durumun gelecekteki yapay zekâ araştırmalarını nasıl etkileyeceği merak konusu. Ayrıca, bu gelişmeler, yapay zekâ modellerinin geliştirilmesinde etik ve yasal standartların önemini bir kez daha ortaya koyuyor.