Passa ai contenuti principali

Post

Visualizzazione dei post con l'etichetta Intelligenza Artificiale

KV-cache, il lato oscuro della memoria veloce nei modelli AI

Immagina di chiedere a ChatGPT di scriverti una lettera d’amore o di aiutarti con un documento delicato di lavoro. Tutto fila liscio, le parole scorrono veloci, le risposte arrivano senza attese. Questo è possibile grazie a un trucco chiamato KV-cache, una sorta di memoria a breve termine che conserva informazioni sui token già elaborati, così il modello non deve rifare tutti i calcoli ogni volta che genera una nuova parola. È come se il modello tenesse aperto un taccuino con gli appunti della conversazione per consultarlo al volo. Ma come tutti i taccuini lasciati aperti, qualcuno potrebbe sbirciarci dentro. È proprio qui che entra in scena il lavoro dei ricercatori Zhifan Luo, Shuo Shao, Su Zhang, Lijing Zhou, Yuke Hu, Chenxu Zhao, Zhihao Liu e Zhan Qin, che hanno analizzato i rischi nascosti in questa cache temporanea. Hanno scoperto che, se non protetta, la KV-cache può diventare una fonte di dati sensibili: non solo frammenti di testo che avete inserito, ma anche informazioni deri...

Il modello ranDecepter, rilevare e bloccare il ransomware in tempo reale è (quasi) realtà

Negli ultimi anni, l'evoluzione delle minacce ransomware ha seguito una traiettoria prevedibile quanto allarmante: da attacchi opportunistici a colpi chirurgici, mirati, capaci di bloccare intere infrastrutture critiche in pochi minuti. A questa corsa all’armamento offensivo non è seguita un’adeguata accelerazione sul fronte della difesa in tempo reale, perché identificare un attacco ransomware nel momento esatto in cui si innesca, e fermarlo prima che abbia criptato anche solo un decimo dei dati, è ancora un’impresa per pochi. Il lavoro presentato nel paper "ranDecepter: Real-time Identification and Deterrence of Ransomware Attacks", pubblicato il 1° agosto 2025 su arXiv, propone un approccio tecnico concreto e, soprattutto, scalabile, per affrontare questo problema alla radice: riconoscere l’attacco mentre è in atto e rispondere con una deterrenza immediata, attiva, ma non distruttiva. La logica di ranDecepter si distanzia dai soliti sistemi di detection ex post, che no...

Quelle chat non sono sparite, sono solo altrove

Chi ha mai condiviso una conversazione su ChatGPT con il link “share” pensando che sarebbe rimasta effimera, ha sbagliato. E non di poco. A inizio 2024, migliaia di utenti hanno reso pubblici dialoghi con ChatGPT tramite l’apposita funzione di condivisione. Quel link generava una pagina raggiungibile da chiunque, indicizzata da Google. Il problema? Nessuno sembrava preoccuparsene davvero. Fino a oggi. Un’indagine pubblicata su Digital Digging ha mostrato che OpenAI ha recentemente chiesto a Google la rimozione di circa 50.000 di queste pagine dai risultati di ricerca. Ma anche se Google le ha tolte, non sono sparite affatto. Il Web ha memoria lunga, e l’Internet Archive ancora più della media: oltre 110.000 chat condivise risultano archiviate lì, consultabili liberamente da chiunque abbia voglia (o malizia) di frugarci dentro. Parliamo di contenuti di ogni tipo: confessioni personali, tentativi di frode accademica, richieste legali eticamente discutibili, strategie aziendali borderlin...

Attacchi ai modelli linguistici? La risposta arriva dalla teoria dei giochi (DataSentinel - Prompt injection)

Immagina di avere un assistente virtuale super intelligente, capace di rispondere a qualsiasi domanda, scrivere testi, analizzare dati e addirittura aiutarti con il codice. Ora immagina che qualcuno riesca a fargli fare cose che non dovrebbe, semplicemente... parlando con lui. Questo è il rischio degli attacchi chiamati prompt injection. I modelli linguistici come ChatGPT, Gemini o Claude funzionano “a comando”: gli scrivi una richiesta (chiamata prompt) e loro rispondono. Ma se l’attaccante nasconde un’istruzione maliziosa dentro un messaggio apparentemente innocuo, il modello potrebbe eseguire quel comando, senza rendersene conto. È come se una parola magica nascosta dentro un’email riuscisse a ipnotizzare l’assistente. Questa tecnica, che può sembrare fantascienza, è reale e già sfruttata. Si può usare per rubare dati, aggirare filtri, diffondere disinformazione o sabotare un’app che si affida a un modello linguistico. È un rischio concreto per tutti i sistemi che usano l’intelligen...

Stallman e l’illusione dell’intelligenza artificiale

Ho appena finito di guardare un intervento di Richard Stallman in cui parla di OpenAI e dell’intelligenza artificiale. Il titolo è già tutto un programma: “L’AI di OpenAI non è AI”. E come spesso succede quando ascolto Stallman, ho avuto un mix di emozione e lucidità. Perché da una parte sono totalmente d’accordo con quello che dice — e non solo su questo — dall’altra riconosco quanto sia difficile seguirlo fino in fondo, specialmente nel mondo pratico e imperfetto in cui ci muoviamo ogni giorno. Il cuore del suo discorso è semplice, ma denso: quello che oggi chiamiamo “AI” non è affatto intelligenza. Stallman spiega che il termine stesso è fuorviante, perché attribuisce una forma di coscienza o ragionamento a dei sistemi che invece non capiscono nulla. Non fanno altro che generare parole basandosi sulla probabilità che una parola segua l’altra. Non c’è comprensione, né intenzione, né conoscenza del significato. Dice, testualmente: “These systems don’t understand anything. They just im...

Mafie e Intelligenza Artificiale, l’allarme di Gratteri al WMF 2025

Durante il We Make Future 2025 di Bologna, il procuratore Nicola Gratteri ha parlato dell’evoluzione delle mafie e del loro crescente uso della tecnologia, in particolare dell’intelligenza artificiale. Gratteri ha spiegato che le organizzazioni mafiose stanno usando i social, come TikTok, per costruire un’immagine attraente soprattutto per i più giovani. I contenuti vengono studiati per far apparire questi gruppi come modelli di potere e successo, quasi fossero aziende che si promuovono. Un altro punto toccato è l’utilizzo del dark web per traffici illeciti e per lo scambio di criptovalute. Secondo Gratteri, mentre le mafie adottano strumenti sempre più avanzati, lo Stato spesso continua a utilizzare metodi datati, come i pedinamenti, che da soli non bastano più. Il suo intervento mette in evidenza un tema importante: la criminalità organizzata si sta adattando rapidamente ai nuovi strumenti digitali. E questo richiede una risposta altrettanto aggiornata, sia da parte delle istituzioni...

Quando l’IA scopre le falle del kernel, il caso Linux e la nuova frontiera della sicurezza

In un mondo dove le minacce digitali sono sempre più sofisticate, la scoperta di una vulnerabilità zero-day nel kernel Linux non è una novità. Ma che a scoprirla sia stata un’intelligenza artificiale – questa sì, è una svolta che fa riflettere. Parliamo della CVE-2025-37899, un bug critico individuato nel modulo ksmbd del kernel Linux, responsabile dell’implementazione del protocollo SMB, usato per la condivisione di file in rete. Ma qui non è solo il bug a fare notizia: è come è stato scoperto. O3, l’IA di OpenAI che guarda dentro il codice Il ricercatore Sean Heelan ha utilizzato o3 , uno dei modelli di frontiera sviluppati da OpenAI, per analizzare circa 12.000 righe di codice del modulo. E no, non parliamo di una semplice scansione automatica. Parliamo di ragionamento avanzato , quello che normalmente richiederebbe giorni di lavoro a un team di esperti. L’IA ha seguito il flusso logico del codice, ha riconosciuto pattern sospetti e ha puntato il dito proprio lì dove il gestore...

Grave vulnerabilità nell'app DeepSeek. Trasmissione di dati sensibili senza crittografia

Recenti analisi hanno messo in luce gravi vulnerabilità nell'applicazione DeepSeek per iOS, in particolare la trasmissione di dati sensibili degli utenti su Internet senza alcuna crittografia. Questo rende i dati vulnerabili a intercettazioni e manipolazioni. I principali problemi riscontrati L'audit condotto da NowSecure ha rivelato che l'app non segue le migliori pratiche di sicurezza, raccogliendo una quantità significativa di informazioni sull'utente e sul dispositivo. Inoltre, l'app impiega algoritmi di crittografia deboli, come il 3DES , utilizza chiavi di crittografia hard-coded e riutilizza vettori di inizializzazione. Questi fattori contribuiscono a un aumento significativo dei rischi per la sicurezza. Trasmissione dei dati a server non sicuri I dati vengono inviati a server gestiti da Volcano Engine , una piattaforma di cloud computing e storage di proprietà di ByteDance , la stessa azienda che possiede TikTok . Questo ha alimentato ulteriori preoccupazio...