Immagina di chiedere a ChatGPT di scriverti una lettera d’amore o di aiutarti con un documento delicato di lavoro. Tutto fila liscio, le parole scorrono veloci, le risposte arrivano senza attese. Questo è possibile grazie a un trucco chiamato KV-cache, una sorta di memoria a breve termine che conserva informazioni sui token già elaborati, così il modello non deve rifare tutti i calcoli ogni volta che genera una nuova parola. È come se il modello tenesse aperto un taccuino con gli appunti della conversazione per consultarlo al volo. Ma come tutti i taccuini lasciati aperti, qualcuno potrebbe sbirciarci dentro. È proprio qui che entra in scena il lavoro dei ricercatori Zhifan Luo, Shuo Shao, Su Zhang, Lijing Zhou, Yuke Hu, Chenxu Zhao, Zhihao Liu e Zhan Qin, che hanno analizzato i rischi nascosti in questa cache temporanea. Hanno scoperto che, se non protetta, la KV-cache può diventare una fonte di dati sensibili: non solo frammenti di testo che avete inserito, ma anche informazioni deri...
Notizie e Analisi sulla Sicurezza Informatica