ChatGPT bir dizi iş için yararlı olabilecek bir araç gibi görünebilir. Ancak, chatbot’tan önemli notları özetlemesini veya çalışmanızı hatalara karşı kontrol etmesini istemeden önce, ChatGPT ile paylaştığınız her şeyin sistemi eğitmek için kullanılabileceğini ve hatta belki de diğer kullanıcılara verilen yanıtlarda ortaya çıkabileceğini hatırlamakta fayda var. Bu, birkaç Samsung çalışanının da gizli bilgileri chatbot ile paylaşmadan önce muhtemelen farkında olması gereken bir şeydi.
The Economist Korea’ya göre, Samsung’un yarı iletken bölümü mühendislerin ChatGPT’yi kullanmasına izin vermeye başladıktan kısa bir süre sonra, çalışanlar en az üç kez gizli bilgileri bu bölüme sızdırdı. Bir çalışanın, chatbot’tan hassas veritabanı kaynak kodunu hatalara karşı kontrol etmesini istediği, başkasının bir kod optimizasyonu talep ettiği ve üçüncü bir çalışanın kayıtlı bir toplantıyı ChatGPT’ye yükleyip ondan toplantı tutanakları oluşturmasını istediği bildirildi.
Büyük skandal! Samsung’un verileri ChatGPT’ye sızdırıldı!
Raporlar, güvenlik hatalarını öğrendikten sonra Samsung’un, çalışanların ChatGPT istemlerinin uzunluğunu bir kilobayt veya 1024 karakterlik metinle sınırlayarak gelecekteki gafların kapsamını sınırlamaya çalıştığını gösteriyor. Şirketin ayrıca söz konusu üç çalışanı araştırdığı ve benzer aksilikleri önlemek için kendi chatbot’unu oluşturduğu söyleniyor.
ChatGPT’nin veri politikası, kullanıcılar açıkça devre dışı bırakmadıkça, modellerini eğitmek için istemlerini kullandığını belirtiyor. Chatbot’un sahibi OpenAI, “geçmişinizden belirli istemleri silemediği” için, kullanıcıları sohbetlerde ChatGPT ile gizli bilgileri paylaşmamaya teşvik ediyor. ChatGPT’de kişisel olarak tanımlayıcı bilgilerden kurtulmanın tek yolu, dört haftaya kadar sürebilen bir işlem olan, hesabınızı silmek.
Bir yanıt bırakın