The Economist Korea’ya göre, Samsung’un yarı iletken bölümü mühendislerin ChatGPT’yi kullanmasına izin vermeye başladıktan kısa bir süre sonra, çalışanlar en az üç kez gizli bilgileri bu bölüme sızdırdı. Bir çalışanın, chatbot’tan hassas veritabanı kaynak kodunu hatalara karşı kontrol etmesini istediği, başka bir kod optimizasyonu talep ettiği ve üçüncü bir çalışanın kayıtlı bir toplantıyı ChatGPT’ye aktarıp notlar oluşturmasını istediği bildirildi. Samsung ChatGPT kullanımı için henüz bir karar almadı.
Raporlar, güvenlik hatalarını öğrendikten sonra Samsung’un, çalışanların ChatGPT istemlerinin uzunluğunu bir kilobayt veya 1024 karakterlik metinle sınırlayarak gelecekteki açıkların kapsamını sınırlamaya çalıştığını gösteriyor. Şirketin ayrıca söz konusu üç çalışanı araştırdığı ve benzer aksilikleri önlemek için kendi chatbot’unu oluşturduğu söyleniyor.
Yapay zeka tarafından sızdırılan veriler arasında yarı iletken iş biriminden alınan ekipman ölçümü ve verim verileri gibi önemli bilgiler bulunuyor. Olay, bir çalışanın yarı iletken veri tabanı indirme programının tüm sorunlu kaynak kodunu ChatGPT’ye girerek çözüm aramasıyla gerçekleşti. Ardından Samsung çalışanlarına şu maili gönderdi;
“Acil durum bilgi koruma önlemleri alındıktan sonra bile benzer bir kaza meydana gelirse, şirket ağında ChatGPT’ye erişim engellenebilir.”
Diğer yandan pek çok şirket uygulamanın son derece sakıncalı yönlerinin olduğunu düşünüyor.
Öyle ki Cyberhaven Labs tarafından yapılan bir araştırma, çeşitli sektörlerdeki şirketlerde 1,6 milyon çalışan tarafından ChatGPT kullanımını ortaya çıkardı. Analiz, ChatGPT kullanımı çalışma alanında ciddi bir sorun haline geldiğini söylüyor. Uygulama, potansiyel olarak hassas ve gizli verilerin sızmasına neden oluyor.