Impronte Digitali
  • Meet the Team
  • Privacy Policy
Archivio
  • Ottobre 2025
  • Settembre 2025
  • Luglio 2025
  • Giugno 2025
  • Maggio 2025
  • Aprile 2025
  • Marzo 2025
  • Febbraio 2025
  • Gennaio 2025
  • Dicembre 2024
  • Novembre 2024
  • Ottobre 2024
  • Settembre 2024
  • Luglio 2024
  • Giugno 2024
  • Maggio 2024
  • Aprile 2024
Categorie
  • AI
  • cultura della sicurezza
  • cybercrime
  • cybersecurity
  • Data Center
  • deepfake
  • Digitale
  • educazione digitale
  • Generale
  • HPC
  • Industry 4.0
  • Phishing
  • Supercalcolo
  • Privacy Policy
Impronte Digitali
Impronte Digitali
  • Meet the Team
  • AI
  • cultura della sicurezza
  • cybersecurity
  • deepfake
  • Phishing

Quando l’Intelligenza Artificiale diventa un’arma

  • 13 Ottobre 2025
  • Alessio Merlo
Total
0
Shares
0
0
0

L’Intelligenza Artificiale (AI) è la “buzzword” del momento. La nostra quotidianità è pervasa dall’AI: dai suggerimenti che riceviamo sulle piattaforme di streaming, agli assistenti vocali che ci aiutano a casa, fino ai sistemi che supportano medici e aziende.

Le minacce dell’IA. Come ogni tecnologia “disruptive”, anche l’AI ha un “lato oscuro”: può diventare uno strumento potente nelle mani dei criminali informatici. E questo pone nuove sfide alla cybersecurity, ovvero alla protezione di dati, dispositivi, infrastrutture digitali e utenti.

Un esempio è il phishing intelligente: fino a poco tempo fa, riconoscere una truffa via e-mail era piuttosto semplice: errori di grammatica, testi confusi, loghi falsi. Oggi, con l’AI, i cybercriminali possono creare velocemente messaggi perfetti, personalizzati e credibili.  Un dipendente può ricevere una mail scritta in modo impeccabile, magari firmata dal “direttore” (ma in realtà finta), che lo convince a cliccare su un link o trasferire denaro. Questo attacco, già storicamente molto potente, diventa ancora più sofisticato e, purtroppo, molto più efficace e difficile da individuare, sia per l’utente che per i sistemi di riconoscimento automatico.

Se da un lato l’AI ha reso attacchi noti più intelligenti, dall’altra ne ha creato di nuovi. Un esempio è il deepfake: video, foto o audio creati con l’AI, che imitano persone reali. Immaginiamo una telefonata in cui sembra di sentire la voce del nostro capo che ci chiede una password urgente, o un video di un politico che “dice” qualcosa che non ha mai detto. Capire se è vero o falso diventa sempre più complicato, con conseguenze potenzialmente enormi, dal furto d’identità alla disinformazione di massa.

Oltre alle persone, l’AI può attaccare sé stessa. Esistono tecniche che modificano un’immagine o un dato, in modo impercettibile per noi, ma con effetti sul funzionamento dell’AI. Così un software che dovrebbe riconoscere un semaforo rosso potrebbe “vederlo” verde, con conseguenze più o meno dirette anche sulla sicurezza fisica delle persone. Inoltre, la manipolazione può portare ad “avvelenare” anche la fase di apprendimento dell’AI, tramite dati falsi, che portano la stessa ad imparare cose sbagliate. È un po’ come se a scuola ci dessero libri pieni di errori: cresceremmo con conoscenze distorte.

Le conseguenze. L’automatizzazione e semplificazione degli attacchi informatici tramite AI hanno portato ad un fenomeno noto come democratizzazione del cybecrime: l’AI permette a cybercriminali – anche con poche conoscenze tecniche – di lanciare truffe sofisticate velocemente e con poco sforzo. Tale democratizzazione è resa possibile da servizi sviluppati ad hoc e disponibili sul dark web, che prendono il nome di “Cybercrime as a Service”, eche permettono di creare anche attacchi completi e mirati verso un certo target dietro corresponsione di un pagamento, spesso tramite cryptovalute.

Ma chi sono i cybercriminali e i target? Normalmente si pensa a singoli utenti che cercano di truffarne altri. Tuttavia, l’AI può diventare un’arma nelle mani di governi o gruppi criminali per semplificare gli attacchi ad infrastrutture critiche quali ospedali, reti elettriche, sistemi bancari. In scenari estremi, potrebbero nascere vere e proprie “guerre digitali” (cyberwarfare), capaci di paralizzare intere città senza sparare un colpo.

Infine, man mano che affideremo all’AI decisioni importanti – come un prestito in banca, una diagnosi medica o una sentenza – diventerà cruciale poterci fidare. In questo senso, i già discussi attacchi di manipolazione dell’AI che avvelenano un sistema rischiano di minare la fiducia degli utenti verso questa tecnologia.

Le difese. Ad ogni modo, occorre non disperare: non è tutto così tragico. L’AI non è solo uno strumento di attacco: può essere anche la nostra migliore alleata. Gli stessi algoritmi che oggi creano attacchi possono servire a proteggere reti e dispositivi, analizzando miliardi di dati in tempo reale, riconoscendo e bloccando gli attacchi sul nascere. In futuro potremmo assistere a veri duelli tra macchine, con intelligenze artificiali “attaccanti” e altre “difensori”, impegnate in una continua partita a scacchi digitale. Insomma, assisteremo all’eterna lotta alla base della cybersecurity tra i buoni ed i cattivi, solo ad un livello di complessità, professionalità e velocità più elevate.

Tuttavia, la “partita” della cybersecurity non dipende solo dalla tecnologia. Una priorità sarà rendere l’AI più trasparente e comprensibile: per poterci fidare delle sue decisioni, dobbiamo poter capire come vengono prese. Allo stesso tempo serviranno regole comuni a livello internazionale, perché i cybercriminali non conoscono confini.

Alla base, però, resta centrale la componente umana. La prima difesa è sempre l’utente, che deve imparare a riconoscere i segnali di una truffa e usare gli strumenti digitali con maggiore consapevolezza. L’educazione digitale, insieme a cooperazione e innovazione, sarà il vero pilastro della sicurezza del futuro. Infatti, nessun sistema automatico potrà mai sostituire del tutto il buon senso e la consapevolezza di chi usa gli strumenti digitali. Occorre pertanto insistere su investimenti atti alla formazione digitale, poiché solo con utenti più attenti e preparati si può davvero ridurre l’efficacia degli attacchi basati sull’AI.

E quindi? In definitiva, l’IA è già oggi sia scudo che spada, promessa e minaccia. Molto dipenderà da come sapremo governarla, da quanto saremo capaci di bilanciare tecnologia, regole e consapevolezza delle persone.

Resta però una domanda intrigante: chi vi ha raccontato questa storia, un professore universitario di cybersecurity… o un’IA che, con un pizzico di ironia, vi ha mostrato di cosa è capace?!? Difficile rispondere con cognizione di causa, vero? Però “nell’impossibilità di vederci chiaro, almeno cerchiamo di vedere chiaramente le oscurità”.

Alessio Merlo

Direttore del Dipartimento Accademico del Centro Alti Studi Difesa / Scuola Superiore Universitaria

Total
0
Shares
Share 0
Tweet 0
Pin it 0
Related Topics
  • ai
  • cybercrime
  • cybersecurity
  • phishing
Articolo Precedente
Illustration of abstract stream
  • AI
  • cultura della sicurezza
  • cybersecurity
  • Digitale
  • educazione digitale
  • Phishing

Oltre il codice: il viaggio per un futuro co-pilotato dall’AI

  • 19 Settembre 2025
  • Rossella Gargano
Visualizza Post
You May Also Like
Illustration of abstract stream
Visualizza Post
  • 4 min
  • AI
  • cultura della sicurezza
  • cybersecurity
  • Digitale
  • educazione digitale
  • Phishing

Oltre il codice: il viaggio per un futuro co-pilotato dall’AI

  • Rossella Gargano
  • 19 Settembre 2025
Visualizza Post
  • 3 min
  • AI
  • cybersecurity
  • Data Center
  • HPC
  • Supercalcolo

IT4LIA AI Factory: l’eccellenza italiana dell’innovazione

  • Daniele Cesarini
  • 16 Luglio 2025
Visualizza Post
  • 4 min
  • AI
  • cybersecurity
  • Data Center
  • Digitale

Cloud e sovranità digitale: una sfida per la P. A.

  • Francesco D'Angelo
  • 18 Giugno 2025
Visualizza Post
  • 4 min
  • cybersecurity
  • Digitale
  • Industry 4.0

Smart Factory & Cyber Protection

  • Alberto Maldino
  • 13 Maggio 2025
Visualizza Post
  • 4 min
  • cybercrime
  • cybersecurity

Dark Web: la fabbrica dei malware

  • Carlo Bozzoli
  • 17 Marzo 2025
Visualizza Post
  • 4 min
  • AI

Oltre l’incertezza

  • Claudio Becchetti
  • 16 Settembre 2024
Visualizza Post
  • 4 min
  • cybercrime
  • cybersecurity

Evoluzione della criminalità informatica, possibili scenari futuri

  • Ivano Gabrielli
  • 16 Luglio 2024
Visualizza Post
  • 3 min
  • AI

AI ACT

  • Carola Frediani
  • 15 Giugno 2024

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

L’intero contenuto del blog Impronte Digitali è distribuito sotto licenza CC BY-NC-SA 4.0

About

Lasciando impronte tracciamo il futuro

Questo blog è un’idea nata dall’iniziativa di un team di appassionati di tecnologia, che quotidianamente si confrontano sui temi connessi con l’innovazione e il progresso tecnologico, con lo sguardo rivolto ai principali top trend e ai rischi delle minacce cyber in continua evoluzione. Il nostro scopo è quello di tracciare il futuro lasciando impronte per diffondere la cultura digitale mediante la creazione di una rubrica semplice e intuitiva con il contributo di una rete di esperti e professionisti del settore, in grado di fornire un punto di vista qualificato e privilegiato che consenta di affrontare le sfide di domani con consapevolezza e lungimiranza.
Impronte Digitali
  • Privacy Policy

Inserisci la chiave di ricerca e premi invio.