In un mondo dove le minacce digitali sono sempre più sofisticate, la scoperta di una vulnerabilità zero-day nel kernel Linux non è una novità. Ma che a scoprirla sia stata un’intelligenza artificiale – questa sì, è una svolta che fa riflettere.
Parliamo della CVE-2025-37899, un bug critico individuato nel modulo ksmbd del kernel Linux, responsabile dell’implementazione del protocollo SMB, usato per la condivisione di file in rete. Ma qui non è solo il bug a fare notizia: è come è stato scoperto.
O3, l’IA di OpenAI che guarda dentro il codice
Il ricercatore Sean Heelan ha utilizzato o3, uno dei modelli di frontiera sviluppati da OpenAI, per analizzare circa 12.000 righe di codice del modulo. E no, non parliamo di una semplice scansione automatica. Parliamo di ragionamento avanzato, quello che normalmente richiederebbe giorni di lavoro a un team di esperti. L’IA ha seguito il flusso logico del codice, ha riconosciuto pattern sospetti e ha puntato il dito proprio lì dove il gestore del comando SMB “logoff” nascondeva una condizione use-after-free — la porta perfetta per eseguire codice arbitrario da remoto, senza nemmeno autenticarsi.
Non è solo una scoperta tecnica: è un cambio di paradigma
Questo evento è uno spartiacque. Non solo perché una macchina ha trovato una falla critica in uno dei sistemi più diffusi al mondo, ma perché ci dice che l’intelligenza artificiale può diventare protagonista attiva della sicurezza — non più solo un supporto, ma un vero e proprio analista.
E se oggi l’ha fatto un ricercatore con accesso a un modello come o3, domani? Cosa succede quando questi strumenti saranno alla portata anche di chi ha intenzioni meno nobili?
Tra promessa e pericolo
Siamo di fronte a un’arma a doppio taglio. Da un lato, l’uso etico e consapevole dell’IA può rivoluzionare il vulnerability management. Un’analisi di migliaia di righe di codice in pochi minuti, con una capacità di astrazione che ricorda – se non supera – quella umana.
Dall’altro lato, il rischio è che anche attori malevoli inizino a usare modelli avanzati per fare bug hunting offensivo, magari più rapidamente di quanto i team di sicurezza riescano a patchare. La corsa si sposta ancora una volta: non è più solo tra hacker e sysadmin, ma tra chi controlla modelli IA e chi no.
Cosa possiamo imparare da questo caso?
-
Il codice open-source va difeso attivamente – Anche i progetti più solidi, come il kernel Linux, non sono immuni da errori critici.
-
L’intelligenza artificiale va abbracciata, ma con attenzione – Va usata come acceleratore di competenze, non come sostituto cieco.
-
La sicurezza è sempre più una questione di tempo e strumenti – Chi ha gli strumenti giusti prima degli altri… vince.
Non è più tempo di chiederci “se” l’IA entrerà nei processi di sicurezza informatica. È già dentro. La domanda è: la useremo per anticipare gli attacchi, o arriveremo sempre secondi?
Nel frattempo, se amministrate sistemi Linux, aggiornate subito. Il patch per la CVE-2025-37899 è disponibile. E tenete d’occhio chi sa parlare sia il linguaggio delle macchine che quello del codice. Perché sarà lì che si giocherà la prossima grande partita della cybersecurity.
Commenti
Posta un commento