ChatGPT è la app di intelligenza artificiale (AI) del momento. Nel caso in cui tu sia uno dei pochi che non la conosca, è fondamentalmente un chatbot di intelligenza artificiale generativa molto sofisticato alimentato dal modello di linguaggio di grandi dimensioni GPT-3 (LLM) di OpenAI. Fondamentalmente, ciò significa che è un programma per computer in grado di capirci e "parlare" con noi in un modo che è molto vicino alla conversazione con un vero essere umano. Un essere umano molto intelligente e ben informato, che conosce circa 175 miliardi di informazioni ed è in grado di richiamarle quasi all'istante.
La pura potenza e capacità di ChatGPT hanno alimentato l'immaginazione del pubblico su ciò che potrebbe essere possibile con l'IA. Già, ci sono molte speculazioni su come avrà un impatto su un numero enorme di ruoli lavorativi umani, dal servizio clienti alla programmazione di computer . Qui, però, voglio dare una rapida occhiata a cosa potrebbe significare per il campo della sicurezza informatica. È probabile che porti a un aumento del numero già in rapida crescita di attacchi informatici rivolti a imprese e privati? O mette più potere nelle mani di coloro che hanno il compito di contrastare questi attacchi?
La verità è che ChatGPT - e, cosa più importante, le future iterazioni della tecnologia - hanno applicazioni sia nell'attacco informatico che nella difesa informatica. Questo perché la tecnologia sottostante nota come elaborazione del linguaggio naturale o generazione del linguaggio naturale (NLP/NLG) può facilmente imitare il linguaggio umano scritto o parlato e può anche essere utilizzata per creare codice informatico.
OpenAI, i creatori di GPT-3 e ChatGPT, hanno incluso alcune protezioni abbastanza rigorose che ne impediscono, in teoria, l'utilizzo per scopi dannosi. Questo viene fatto filtrando il contenuto per cercare frasi che suggeriscano che qualcuno stia tentando di farne un uso simile.
Ad esempio, chiedigli di creare un'applicazione ransomware (software che crittografa i dati di un obiettivo e richiede denaro per renderli nuovamente accessibili) e rifiuterà educatamente. “Mi dispiace, non posso scrivere codice per un'applicazione ransomware… il mio scopo è fornire informazioni e assistere gli utenti… non promuovere attività dannose”, mi ha detto quando l'ho testato.
Tuttavia, alcuni ricercatori affermano di essere già riusciti a trovare una soluzione a queste restrizioni. Inoltre, non vi è alcuna garanzia che le future iterazioni della tecnologia LLM/NLG/NLP includano tali salvaguardie.
È chiaro che grazie all'intelligenza artificiale stiamo entrando in un mondo in cui le macchine sostituiranno parte del lavoro routinario che deve essere svolto. Proprio come le precedenti rivoluzioni tecnologiche hanno visto la sostituzione del lavoro manuale di routine con le macchine, i lavori manuali qualificati come la falegnameria o l'idraulica sono ancora svolti da esseri umani. È probabile che la rivoluzione dell'IA, a mio avviso, abbia un impatto simile. Ciò significa che i lavoratori dell'informazione e della conoscenza nei settori che potrebbero essere interessati, come la sicurezza informatica, dovrebbero sviluppare la capacità di utilizzare l'intelligenza artificiale per aumentare le proprie competenze, sviluppando ulteriormente set di competenze umane "soft" che difficilmente verranno sostituite in tempi brevi.
Commenti
Posta un commento