Intelligenza artificiale e cybersecurity

Intelligenza artificiale e cybersecurity

Intelligenza artificiale e cybersecurity: come l’AI sta contribuendo ad una miglior sicurezza in ambito informatico

La continua evoluzione delle minacce cyber ha reso la sicurezza informatica ancora più complessa. Secondo le stime effettuate nell’ultimo anno da diverse aziende attive nel panorama cyber a livello mondiale, il numero di attacchi al secondo a livello globale è raddoppiato, passando da circa 550 a quasi 1.300.

Gestire un volume così alto di minacce cyber sta spingendo da tempo i maggiori player mondiali a ricorrere all’automazione dei processi, all’impiego dell’intelligenza artificiale e alla collaborazione tra esperti in sicurezza informatica, per aumentare le competenze, le tecnologie condivise e la velocità nelle risposte ad attacchi sempre più complessi.

Anche l’utilizzo dell’AI per scopi illeciti è però sempre più diffuso, non solo per il numero crescente di attacchi informatici ma per la generazione di una gamma di minacce sofisticate e inedite. L’obiettivo è quindi quello di affrontare queste nuove sfide ricorrendo anche all’intelligenza artificiale.

Cybersecurity e AI

L’AI come preziosa alleata della sicurezza informatica

I professionisti della sicurezza informatica possono contare oggi su un alleato molto efficace nella lotta alla criminalità informatica e grazie all’utilizzo di queste nuove tecnologie, le strategie di cyber security basate su Managed Detection and Response (MDR) hanno riscontrato una rapida evoluzione, passando ad una posizione in cui è possibile anticipare gli eventi grazie a processi di apprendimento e analisi di comportamenti sospetti.

Le aziende stanno migliorando in maniera considerevole la loro capacità in termini di difesa del perimetro IT aziendale per far fronte alle nuove minacce emergenti. Oggi i principali vendor hanno fornito ai team di cybersecurity la possibilità di sfruttare l’intelligenza artificiale per analizzare i dati, osservare i trend, progettare strategie di sicurezza e best practices, realizzando report ancora più accurati e automatizzando al massimo le operazioni a basso valore aggiunto.
La previsione è che grazie all’automatizzazione dei processi sarà possibile rendere più efficiente il lavoro e ridurre i tempi di risposta agli incidenti informatici.

Sei interessato ad una consulenza sulla Cyber Security?

ChatGPT e sicurezza informatica: utilizzi malevoli da parte degli hacker

ChatGPT è semplicemente uno strumento. Le intenzioni dell’utente determinano come viene utilizzato e sebbene un tool così potente possa aiutare la cybersecurity, allo stesso tempo può ridurre la difficoltà per un cybercriminale.

ChatGPT e furto di dati

Il rischio che ChatGPT possa semplificare la vita ad un criminale informatico è concreto. La capacità di ChatGPT di impersonare altri soggetti, scrivere testi senza errori e creare codici può essere utilizzata da chiunque abbia intenzioni malevoli. Gli attaccanti utilizzano vari strumenti e tecniche sempre nuove per rubare dati.

Sviluppo di malware

Uno dei sistemi più semplici che permettono di individuare un’e-mail di phishing è rilevare eventuali errori di ortografia e grammatica. Una mail autentica inviata dalla propria banca, ad esempio, probabilmente non verrà scritta in modo approssimativo. La preoccupazione legittima è che gli hacker possano utilizzare ChatGPT per scrivere e-mail di phishing che sembrino scritte da un professionista in carne ed ossa.

Furto d’identità e personificazione

In pochi secondi, ChatGPT è stato in grado di produrre un testo scritto simulando in modo accurato, come se fosse scritto da una persona reale e con il suo stile. Famoso è il caso dell’e-mail realizzata da ChatGPT e scambiata per una mail autentica redatta da Bill Gates, ed è sbalorditivo come ChatGPT riesca a realizzare tweet o post convincenti nello stile di personaggi famosi del calibro di Elon Musk.

La capacità di ChatGPT di impersonare celebrità e personaggi famosi potrebbe portare ad una più massiccia diffusione di truffe, mentre l’abilità nel simulare dirigenti di alto livello all’interno di un’azienda potrebbe aumentare il numero di attacchi di whale phishing.

Il rischio etico nell’utilizzo di ChatGPT

La diffusione di chatbot alimentati da intelligenza artificiale sta facendo sorgere dubbi di natura etica, ad esempio tra le persone che utilizzano strumenti come ChatGPT per prendersi il merito di contenuti che non hanno scritto personalmente.

Ransomware

La capacità di un ransomware è quella di impossessarsi del sistema informatico del destinatario chiedendo un riscatto per sbloccare il sistema stesso, ed ha contribuito in numerosi casi a far guadagnare ingenti somme di denaro agli estorsori.

Molti attaccanti però non scrivono personalmente il codice, ma lo acquistano su piattaforme presenti nel Dark Web. Grazie a ChatGPT potrebbero non dover più affidarsi a piattaforme di terze parti e pericolose da raggiungere, ma produrre in autonomia un codice maligno talmente efficace da causare un’infezione ransomware in grado di crittografare l’intero sistema.

Disinformazione e clickbait

Nell’era giornalistica del clickbait e dell’ascesa dei social media, si rivela sempre più difficile distinguere notizie vere da storie false. Individuare le fake news è di fondamentale importanza dal momento che non solo le informazioni non corrette possono essere veri e propri tentativi di propaganda ma anche condurre a pagine web dannose.

Ad esempio, notizie false su eventi naturali catastrofici possono ingannare utenti inesperti ad effettuare donazioni ai truffatori. ChatGPT può inoltre essere utilizzata per diffondere informazioni errate anche tramite l’imitazione della voce di celebrità e personaggi noti.

Attacchi BEC (Business Email Compromise)

La Business Email Compromise (BEC) è una tipologia di attacco informatico basato sull’ingegneria sociale, grazie al quale un malintenzionato può sfruttare la posta elettronica per indurre il destinatario dell’attacco a condividere informazioni riservate o ad inviare somme di denaro.

Nonostante le tecnologie di cybersecurity possano essere in grado di rilevare gli attacchi BEC identificando determinati schemi, un attacco BEC alimentato da ChatGPT potrebbe riuscire a eludere i filtri di sicurezza.

ChatGPT e cybersecurity: gli utilizzi del bot

Fortunatamente ChatGPT può essere addestrato per identificare le minacce informatiche e per mitigare i rischi di attacco da botnet in congiunzione ad altre tecnologie, che vediamo di seguito.

Ridurre il knowledge gap

La formazione sul tema della sicurezza informatica è una procedura fondamentale per tutte le aziende interessate a ridurre il rischio di attacchi di phishing, whaling e di altri attacchi che sfruttano il social engineering.

Dipendenti e collaboratori adeguatamente formati hanno una probabilità minore di aprire link o siti web malevoli che possono infettare i sistemi IT aziendali con ransomware, trojan e spyware.

ChatGPT può aiutare a colmare il gap di conoscenza in termini di sicurezza informatica offrendo spunti e suggerimenti per le misure preventive da mettere in atto, come un vero e proprio assistente personale. Può inoltre fornire rapidamente consigli, ad esempio, su come impostare password forti, reimpostare le password e molto altro ancora.

Effettuare attività di debug

Se da un lato gli attaccanti possono utilizzare ChatGPT per scrivere codice malevolo, i professionisti di cyber security possono usare ChatGPT per rilevare le vulnerabilità di sicurezza all’interno di un software. Diventa quindi di fondamentale importanza risolvere le falle di sicurezza prima che vengano sfruttate dagli hacker.

Potenziare i tool di Managed Detection and Response (MDR)

Le aziende possono continuare ad investire in tecnologie MDR per contrastare gli attacchi e sfruttare le soluzioni MDR basate sull’intelligenza artificiale e sul machine learning per rilevare schemi di attacco e prevenire accessi non autorizzati.

Test sul campo: ChatGPT può aiutare a smascherare gli attacchi phishing?

Un team di ricercatori ha messo alla prova ChatGPT fornendo al sistema un campione di URL malevoli, al fine di testarne la capacità di riconoscimento. L’intento era quello di verificare l’idoneità dei link in esame.
Il team ha sottoposto a GPT-3.5 turbo, il motore alla base di ChatGPT, migliaia di URL che altri software utilizzati dal team avevano precedentemente identificato come phishing.

L’utilizzo di un API ha consentito di esaminare un gran numero di link e ottenere le singole risposte, una per volta, in tempi relativamente brevi. Il workflow si è rivelato quindi semplice e veloce.
Tuttavia, a fronte dei risultati ottenuti da oltre 6000 scansioni, i ricercatori hanno riscontrato oltre il 23% di falsi positivi.
Il tasso di errore è stato giudicato ancora troppo elevato per essere ritenuto affidabile dal team.

Il test ha quindi dimostrato che uno strumento di questo tipo può essere utilizzato per aiutare gli utenti a identificare un tentativo di phishing, anche se non ancora ad uso professionale (a causa dei numerosi falsi positivi riscontrati), ma viene considerato ottimo per un utente consumer con difficoltà nel fare una valutazione manuale.

Le piattaforme di rilevamento delle minacce informatiche specializzate in cybersecurity sono quindi state giudicate al momento insostituibili.
Nella seconda parte del test a ChatGPT è stato chiesto di effettuare una classificazione dei collegamenti. Questa volta, invece di chiedere se un link portasse ad una pagina di phishing, è stato chiesto se si trattasse di un link sicuro.

Purtroppo, l’esito del secondo test di intelligenza artificiale è stato ancora più deludente rispetto al primo: i ricercatori hanno infatti ottenuto un tasso di rilevamento delle minacce del 93,8% ma con un numero di falsi positivi pari al 64,3%. Un risultato distante dalle aspettative che non promuove ad oggi ChatGPT come un valido strumento di cybersecurity.

Scopri BeeCyber, Business Unit Infor specializzata in sicurezza informatica

BeeCyber è la nostra Business Unit specializzata in servizi di sicurezza informatica che supporta le aziende nell’identificare e classificare il livello di rischio. Le aiuta nel processo di mitigazione continuativa, identificando il giusto punto di equilibrio tra investimento tecnologico e approccio consulenziale rispondendo alle reali esigenze di business.

Sei interessato ad una consulenza sulla Cyber Security e ad avere ulteriori informazioni sulle possibilità dell’intelligenza artificiale in relazione alla cybersecurity?

Vuoi restare aggiornato sulle ultime novità dal mondo della Cyber Security?
ISCRIVITI ALLA NEWSLETTER