ChatGPT'nin uzun süreli hafıza özelliği, OpenAI tarafından Şubat 2024'te tanıtılan ve Eylül ayında genişletilen yeni bir özelliktir.
Güvenlik araştırmacısı Johann Rehberger, yakın zamanda bu özellikle ilgili ciddi bir güvenlik açığını ortaya çıkardı.
Bu yeni özelliğin, sohbet robotlarının önceki konuşmalardan bilgi depolamasına yardımcı olduğu biliniyor. Bu sayede kullanıcılar her sohbette yaş, ilgi alanları veya kişisel görüşleri gibi bilgileri tekrar girmek zorunda kalmıyor. Ancak bu, saldırganların yararlanabileceği bir zayıflık haline geldi.

Johann Rehberger, bilgisayar korsanlarının "hızlı enjeksiyon" adı verilen bir teknik kullanabileceklerini gösterdi: Hafızaya kötü amaçlı talimatlar yerleştirerek yapay zekayı bu talimatlara uymaya zorluyorlar. Bu komutlar, e-postalar, belgeler veya web siteleri gibi güvenilmeyen içerikler aracılığıyla iletilir.
Bu sahte anılar depolandıktan sonra, yapay zeka bunları kullanıcılarla yapılan konuşmalarda gerçek mesajlar olarak kullanmaya devam edecek ve bu da kullanıcıların kişisel verilerinin toplanmasına ve kötüye kullanılmasına yol açabilir.
Rehberger, ChatGPT'nin sahte bir bellek depolamasına neden olan kötü amaçlı bir resim içeren bir bağlantı göndererek somut bir örnek sundu. Bu bilgi, ChatGPT'nin gelecekteki yanıtlarını etkileyecekti. Özellikle, kullanıcının girdiği tüm bilgiler bilgisayar korsanının sunucusuna da gönderilecekti.
Buna göre, saldırıyı başlatmak için saldırganın tek yapması gereken, ChatGPT kullanıcılarını kötü amaçlı bir görsel içeren bir bağlantıya tıklamaya ikna etmek. Ardından, kullanıcının ChatGPT ile yaptığı tüm sohbetler, hiçbir iz bırakmadan saldırganın sunucusuna yönlendirilecek.
Rehberger, hatayı Mayıs 2024'te OpenAi'ye bildirdi, ancak şirket bunu yalnızca bir güvenlik sorunu olarak değerlendirdi. Kullanıcı verilerinin çalınabileceğine dair kanıt aldıktan sonra şirket, ChatGPT'nin web sürümü için geçici bir yama yayınladı.
Sorun geçici olarak giderilmiş olsa da Rehberger, güvenilmeyen içeriklerin hâlâ Prompt Injection özelliğini kullanarak ChatGPT'nin uzun süreli belleğine sahte bilgiler ekleyebileceğini belirtiyor. Bu, bazı durumlarda bilgisayar korsanlarının bu güvenlik açığından yararlanarak kötü amaçlı anıları uzun süreli kişisel bilgileri çalmak için depolayabileceği anlamına geliyor.
OpenAI, kullanıcıların ChatGPT'nin depolanan anılarını düzenli olarak yanlış pozitifler açısından kontrol etmelerini öneriyor ve şirket ayrıca depolanan anıları nasıl yöneteceğiniz ve sileceğiniz konusunda ayrıntılı talimatlar da sağlıyor.
[reklam_2]
Kaynak: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html

![[Fotoğraf] Başbakan Pham Minh Chinh, yolsuzluk, israf ve olumsuzlukla mücadele ve bunların önlenmesi konulu 5. Ulusal Basın Ödülleri Töreni'ne katıldı.](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)


![[Fotoğraf] Da Nang: Su yavaş yavaş çekiliyor, yerel yetkililer temizlikten faydalanıyor](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761897188943_ndo_tr_2-jpg.webp)









































































Yorum (0)