ChatGPT'nin uzun süreli hafıza özelliği, OpenAI tarafından Şubat 2024'te tanıtılan ve Eylül ayında genişletilen yeni bir özelliktir.
Güvenlik araştırmacısı Johann Rehberger yakın zamanda bu özellikle ilgili ciddi bir güvenlik açığını ortaya çıkardı.
Söylentilere göre, bu yeni özellik sohbet botlarının önceki konuşmalardan bilgi depolamasına olanak tanıyor. Bu, kullanıcıların her sohbet ettiklerinde yaş, ilgi alanları veya kişisel görüşler gibi bilgileri yeniden girmelerine gerek kalmamasını sağlıyor. Ancak, bu özellik saldırganların istismar edebileceği bir güvenlik açığı haline geldi.

Johann Rehberger, bilgisayar korsanlarının kötü amaçlı talimatları yapay zekâ belleğine yerleştirerek, onu emirleri yerine getirmeye zorlayan komut enjeksiyon tekniklerini kullanabileceğine dikkat çekti. Bu komutlar, e-postalar, belgeler veya web siteleri gibi güvenilmeyen içerikler aracılığıyla iletilir.
Bu yanlış anılar bir kez depolandıktan sonra, yapay zeka bunları kullanıcıyla yaptığı konuşmalarda gerçek bilgilermiş gibi kullanmaya devam edecektir. Bu durum, kullanıcıların kişisel verilerinin yetkisiz olarak toplanmasına ve kullanılmasına yol açabilir.
Rehberger, ChatGPT'nin yanlış bir hafıza kaydı tutmasına neden olan kötü amaçlı bir resim içeren bir bağlantı göndererek somut bir örnek verdi. Bu bilgi, ChatGPT'nin sonraki yanıtlarını etkileyecekti. Daha da önemlisi, tüm kullanıcı girdileri de bilgisayar korsanının sunucusuna gönderilecekti.
Dolayısıyla, saldırıyı etkinleştirmek için bilgisayar korsanının ChatGPT kullanıcılarını kötü amaçlı resimler içeren bir bağlantıya tıklamaya ikna etmesi yeterlidir. Ardından, kullanıcının ChatGPT ile yaptığı tüm konuşmalar, hiçbir iz bırakmadan saldırganın sunucusuna yönlendirilecektir.
Mayıs 2024'te, güvenlik açığını keşfettikten sonra Rehberger bunu OpenAi'ye bildirdi, ancak şirket bunu bir güvenlik açığı olarak değerlendirdi. Kullanıcı verilerinin çalınmış olabileceğine dair kanıtlar aldıktan sonra şirket, ChatGPT'nin web sürümüne geçici bir yama yayınladı.
Sorun geçici olarak çözülmüş olsa da, Rehberger, güvenilmeyen içeriklerin hâlâ komut istemi enjeksiyonunu kullanarak ChatGPT'nin uzun süreli belleğine yanlış bilgiler ekleyebileceğini vurguladı. Bu, belirli durumlarda bilgisayar korsanlarının kişisel bilgileri kalıcı olarak çalmak amacıyla kötü amaçlı bellek depolamak için bu güvenlik açığından hâlâ yararlanabileceği anlamına geliyor.
OpenAI, kullanıcıların yanlış bilgileri tespit etmek için ChatGPT'nin depoladığı verileri düzenli olarak kontrol etmelerini önermektedir. Şirket ayrıca, araç içindeki depolanmış verilerin nasıl yönetileceği ve silineceği konusunda ayrıntılı talimatlar da sunmaktadır.
[reklam_2]
Kaynak: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html






Yorum (0)