L'intelligenza artificiale e le tecnologie di apprendimento automatico potrebbero essere utilizzate dai criminali per creare attacchi di phishing sempre più sofisticati e realistici, mettendo a rischio la sicurezza informatica a livello globale.

È sempre più evidente che l'intelligenza artificiale (IA) e il machine learning stanno rivoluzionando numerosi settori, tra cui la cybersecurity. Tuttavia, queste stesse tecnologie potrebbero essere utilizzate dai criminali per creare attacchi di phishing sempre più sofisticati e realistici, mettendo a rischio la sicurezza informatica a livello globale. Armorblox, azienda specializzata nella sicurezza delle email, ha recentemente discusso al RSA Conference di come il machine learning potrebbe essere utilizzato nei futuri attacchi di phishing. Fino ad ora, i criminali dovevano creare manualmente ogni dettaglio di questi attacchi, dal testo delle email alle false identità online. Tuttavia, l'avvento di tecnologie come OpenAI's GPT e Dall-E sta semplificando notevolmente questo processo, consentendo di generare testi e immagini false con poche righe di codice. Secondo Prashanth Arun, responsabile della scienza dei dati di Armorblox, questa evoluzione potrebbe portare a attacchi di phishing estremamente convincenti, basati su false identità con una presenza online dettagliata e realistica. Inoltre, la crescente capacità delle tecnologie di generazione di testo di mantenere il filo del discorso per interi paragrafi o pagine rende ancora più difficile distinguere i contenuti generati dall'IA da quelli reali. Se da un lato l'IA e il machine learning offrono enormi vantaggi in termini di efficienza e innovazione, è fondamentale essere consapevoli dei possibili rischi per la sicurezza informatica. Nel futuro, la lotta contro i cybercriminali richiederà sempre più competenze e tecnologie avanzate per proteggere i dati e la privacy degli utenti.