Teknoloji dünyası ve güvenlik güçleri, yapay zeka sohbet botlarının potansiyel tehlikeleri ve denetimi üzerine yeni bir tartışmanın ortasında kaldı. Kanada’nın British Columbia eyaletinde gerçekleşen trajik okul saldırısının failinin, olaydan aylar önce yapay zeka ile şiddet içerikli diyaloglara girdiği belirlendi. Peki, OpenAI çalışanlarının uyarılarına rağmen yetkililer neden zamanında bilgilendirilmedi ve bu süreçte ChatGPT nasıl bir rol oynadı?
İçindekiler
Saldırganın ChatGPT geçmişi endişe yarattı
Ortaya çıkan raporlara göre saldırgan Jesse Van Rootselaar, eylemi gerçekleştirmeden aylar önce ChatGPT ile silahlı şiddet senaryoları üzerine detaylı sohbetler gerçekleştirdi. Bu konuşmaların, şirketin otomatik inceleme sistemlerine takıldığı ve hatta bazı çalışanların dikkatini çektiği belirtiliyor. Şirket içi yazışmalarda, bu ifadelerin gerçek dünyada bir şiddet eyleminin habercisi olabileceğine dair endişeler dile getirilmiş ve Yapay Zeka devinin yöneticilerine durumu yetkililere bildirmeleri tavsiye edilmişti.

OpenAI sözcüsü Kayla Wood tarafından yapılan açıklamada, söz konusu hesabın kolluk kuvvetlerine bildirilmesinin değerlendirildiği ancak riskin "yakın ve inandırıcı" bulunmadığı ifade edildi. Kayıtlarda aktif veya anlık bir şiddet planlamasına dair kesin kanıt görülmediği için şirket, sadece ChatGPT hesabını kapatmakla yetindi. Ancak bu karar, 10 Şubat tarihinde gerçekleşen ve dokuz kişinin hayatını kaybettiği olay sonrası büyük tepki çekti.
Güvenlik ve gizlilik dengesi tartışılıyor
Tumbler Ridge Lisesi’nde meydana gelen olay, 2020 yılından bu yana Kanada’da yaşanan en ölümcül toplu saldırı olarak kayıtlara geçti. OpenAI, kullanıcı güvenliği ile gizlilik arasında bir denge kurmayı hedeflediğini ve kolluk kuvvetlerine yapılan bildirimlerin aşırı geniş kapsamlı olmasından kaçındıklarını savunuyor. Wood, trajediden etkilenenlerin yanında olduklarını ve soruşturma kapsamında Kanada Kraliyet Atlı Polisi ile proaktif bir şekilde iletişim kurduklarını belirtti.

Geriye dönüp bakıldığında kolluk kuvvetlerine haber verilmemesi hatalı bir karar gibi görünse de, teknoloji şirketleri bu tür durumlarda ince bir çizgide yürüyor. ChatGPT gibi modellerin şiddet içeren içerikleri tespit etme yeteneği gelişse de, insan müdahalesinin ve karar alma mekanizmalarının ne kadar kritik olduğu bir kez daha ortaya çıktı. Bu olay, gelecekte benzer platformların güvenlik protokollerini nasıl şekillendireceği konusunda belirleyici olabilir.
İlginizi Çekebilir: OpenAI yeni bir ürün üzerinde çalışıyor! ChatGPT hoparlör geliyor!
Peki siz bu konuda ne düşünüyorsunuz? Yapay zeka şirketleri şüpheli durumlarda yetkililere daha hızlı haber vermeli mi yoksa gizlilik ön planda mı tutulmalı? Düşüncelerinizi yorumlar kısmında belirtebilirsiniz. Daha fazlası için bizi takip etmeyi unutmayın!






