Güney Koreli teknoloji devi Samsung‘un bir yapay zeka sohbet robotu olan ChatGPT‘yi yakın zamanda çalışanlarına tanıtması, süreçleri kolaylaştırmayı ve çip işini artırmayı amaçlıyordu. Bununla birlikte, yalnızca üç hafta sonra, bildirildiğine göre, veri güvenliği ve gizlilik ihlalleri hakkında endişelere neden olan üç gizli yarı iletken bilgi sızıntısı meydana geldi.
Sızıntılar, Samsung çalışanları yarı iletken ekipman ölçüm verileri ve kaynak kodu gibi hassas bilgileri ChatGPT’ye girdiğinde meydana geldi. Bu bilgi yalnızca Samsung’un değil, ChatGPT kullanan herkesin erişebileceği yapay zekanın öğrenme veritabanının bir parçası haline geldi.
İlk sızıntı, Yarı İletken ve Cihaz Çözümleri departmanındaki bir çalışanın, bir soruna hızlı bir çözüm bulmak için yarı iletken ekipman ölçüm veritabanıyla ilgili kaynak kodunu ChatGPT’ye girmesiyle gerçekleşti. İkinci sızıntı, başka bir çalışan verim ve optimizasyonla ilgili bir kod girdiğinde ve üçüncü sızıntı, bir çalışan ChatGPT’den toplantı tutanakları oluşturmasını istediğinde gerçekleşti.
İlginizi Çekebilir: ChatGPT Yasaklanmaya Başlandı! Korktular!
Samsung, daha fazla sızıntıyı önlemek için, çalışanların ChatGPT ile paylaştıkları veriler konusunda dikkatli olmaları talimatını vermek ve her girişin kapasitesini maksimum 1.024 bayt ile sınırlamak gibi önlemler aldı. Şirket ayrıca, AI chatbot’a bilgi beslendikten sonra, kurtarılamayacağı veya kaldırılamayacağı harici sunuculara iletildiğini de açıkladı.
Bu olay, veri güvenliğinin önemini ve şirketlerin iş yerlerine AI chatbot’ları sokmanın potansiyel risklerini ve faydalarını dikkatlice değerlendirmeleri gerektiğini vurguluyor. Yapay zeka sohbet robotları verimliliği artırabilir ve süreçleri düzene sokabilirken, hassas bilgilerin gizliliğini ve güvenliğini sağlamak için uygun önlemlere ve eğitime ihtiyaç duyarlar.