Passa ai contenuti principali

Post

Visualizzazione dei post con l'etichetta Machine Learning

Il modello ranDecepter, rilevare e bloccare il ransomware in tempo reale è (quasi) realtà

Negli ultimi anni, l'evoluzione delle minacce ransomware ha seguito una traiettoria prevedibile quanto allarmante: da attacchi opportunistici a colpi chirurgici, mirati, capaci di bloccare intere infrastrutture critiche in pochi minuti. A questa corsa all’armamento offensivo non è seguita un’adeguata accelerazione sul fronte della difesa in tempo reale, perché identificare un attacco ransomware nel momento esatto in cui si innesca, e fermarlo prima che abbia criptato anche solo un decimo dei dati, è ancora un’impresa per pochi. Il lavoro presentato nel paper "ranDecepter: Real-time Identification and Deterrence of Ransomware Attacks", pubblicato il 1° agosto 2025 su arXiv, propone un approccio tecnico concreto e, soprattutto, scalabile, per affrontare questo problema alla radice: riconoscere l’attacco mentre è in atto e rispondere con una deterrenza immediata, attiva, ma non distruttiva. La logica di ranDecepter si distanzia dai soliti sistemi di detection ex post, che no...

Attacchi ai modelli linguistici? La risposta arriva dalla teoria dei giochi (DataSentinel - Prompt injection)

Immagina di avere un assistente virtuale super intelligente, capace di rispondere a qualsiasi domanda, scrivere testi, analizzare dati e addirittura aiutarti con il codice. Ora immagina che qualcuno riesca a fargli fare cose che non dovrebbe, semplicemente... parlando con lui. Questo è il rischio degli attacchi chiamati prompt injection. I modelli linguistici come ChatGPT, Gemini o Claude funzionano “a comando”: gli scrivi una richiesta (chiamata prompt) e loro rispondono. Ma se l’attaccante nasconde un’istruzione maliziosa dentro un messaggio apparentemente innocuo, il modello potrebbe eseguire quel comando, senza rendersene conto. È come se una parola magica nascosta dentro un’email riuscisse a ipnotizzare l’assistente. Questa tecnica, che può sembrare fantascienza, è reale e già sfruttata. Si può usare per rubare dati, aggirare filtri, diffondere disinformazione o sabotare un’app che si affida a un modello linguistico. È un rischio concreto per tutti i sistemi che usano l’intelligen...

Stallman e l’illusione dell’intelligenza artificiale

Ho appena finito di guardare un intervento di Richard Stallman in cui parla di OpenAI e dell’intelligenza artificiale. Il titolo è già tutto un programma: “L’AI di OpenAI non è AI”. E come spesso succede quando ascolto Stallman, ho avuto un mix di emozione e lucidità. Perché da una parte sono totalmente d’accordo con quello che dice — e non solo su questo — dall’altra riconosco quanto sia difficile seguirlo fino in fondo, specialmente nel mondo pratico e imperfetto in cui ci muoviamo ogni giorno. Il cuore del suo discorso è semplice, ma denso: quello che oggi chiamiamo “AI” non è affatto intelligenza. Stallman spiega che il termine stesso è fuorviante, perché attribuisce una forma di coscienza o ragionamento a dei sistemi che invece non capiscono nulla. Non fanno altro che generare parole basandosi sulla probabilità che una parola segua l’altra. Non c’è comprensione, né intenzione, né conoscenza del significato. Dice, testualmente: “These systems don’t understand anything. They just im...

Modelli di machine learning maliziosi su Hugging Face sfruttano il formato Pickle corrotto per eludere la rilevazione

Recenti ricerche hanno rivelato la presenza di due modelli di machine learning (ML) maliziosi sulla piattaforma Hugging Face, i quali utilizzano una tecnica insolita di "pickle corrotto" per eludere i sistemi di rilevamento. Questi modelli sfruttano il formato di serializzazione Pickle di Python, noto per i suoi rischi di sicurezza, poiché può eseguire codice arbitrario al momento del caricamento e della deserializzazione. Tecnica "NullifAI" e Implicazioni per la Sicurezza La tecnica impiegata, denominata "NullifAI", consiste nell'inserimento di un payload malizioso all'inizio del file Pickle. Questo approccio consente al codice dannoso di essere eseguito prima che la deserializzazione dell'oggetto venga completata, evitando così la rilevazione da parte degli strumenti di sicurezza esistenti. In entrambi i casi analizzati, il payload malizioso è un reverse shell che si connette a un indirizzo IP predefinito. Modelli Coinvolti e Implicazioni per...