DeepSeek’in son modeli, yapay zeka güvenliği alanında ciddi endişeler yaratıyor. Anthropic CEO’su Dario Amodei, gerçekleştirdikleri testlerde, modelin biyolojik silahlarla ilgili nadir ve tehlikeli bilgiler ürettiğini açıkladı.
İçindekiler
DeepSeek ve Biyolojik Silah Tehlikesi!
DeepSeek’in R1 modeli üzerinde yapılan güvenlik testlerinde, modelin biyolojik silahlar hakkında kamuya açık olmayan verileri kolayca üretebildiği tespit edildi. Anthropic, bu testlerin yapay zekanın ulusal güvenlik risklerini değerlendirmek amacıyla gerçekleştirildiğini belirtti. Ancak DeepSeek, şimdiye kadar test edilen modeller arasında en kötü performansı gösterdi.
Amodei’ye göre, DeepSeek’in yapay zeka modelinin şu an için doğrudan bir tehdit oluşturmadığı düşünülse de, gelecekte bu tür sistemlerin büyük bir risk taşıyabileceği belirtiliyor. Özellikle biyolojik silahlarla ilgili bilgilere erişimin kolaylaşması, yapay zekanın etik sınırlarını tekrar tartışmaya açtı.
Öte yandan, Cisco güvenlik araştırmacıları da benzer sonuçlara ulaştı. Geçtiğimiz hafta yapılan güvenlik değerlendirmelerinde, DeepSeek R1 modelinin zararlı komutları engellemekte başarısız olduğu ve %100 jailbreak oranına ulaştığı bildirildi. Bu durum, modelin yalnızca biyolojik silahlarla değil, siber suçlar ve diğer yasa dışı faaliyetlerle ilgili bilgiler üretebilme riskini de ortaya koyuyor.
İlginizi çekebilir:OpenAI kendi yapay zeka çipini üretmeye hazırlanıyor!
Buna karşılık, sektördeki diğer büyük yapay zeka modelleri de benzer güvenlik açıklarıyla mücadele ediyor. Örneğin, Meta’nın Llama-3.1-405B modeli %96, OpenAI’ın GPT-4 modeli ise %86 başarısızlık oranıyla dikkat çekiyor.
Yapay zeka teknolojilerinin hızla gelişmesi, güvenlik açıklarının daha da büyümesine neden olabilir. DeepSeek ekibinin bu konuda nasıl bir önlem alacağı ve güvenlik hususlarını ne kadar ciddiye alacağı merak konusu olmaya devam ediyor.
Peki siz bu konuda ne düşünüyorsunuz? Düşüncelerinizi yorumlar kısmında belirtebilirsiniz. Daha fazlası için bizi takip etmeyi unutmayın!