Impronte Digitali
  • Meet the Team
  • Privacy Policy
Archivio
  • Luglio 2025
  • Giugno 2025
  • Maggio 2025
  • Aprile 2025
  • Marzo 2025
  • Febbraio 2025
  • Gennaio 2025
  • Dicembre 2024
  • Novembre 2024
  • Ottobre 2024
  • Settembre 2024
  • Luglio 2024
  • Giugno 2024
  • Maggio 2024
  • Aprile 2024
Categorie
  • AI
  • cybercrime
  • cybersecurity
  • Data Center
  • Digitale
  • Generale
  • HPC
  • Industry 4.0
  • Supercalcolo
  • Privacy Policy
Impronte Digitali
Impronte Digitali
  • Meet the Team
  • AI

AI ACT

  • 15 Giugno 2024
  • Carola Frediani
Side view of head of female humanoid robot with white glowing plastic skin, blue eyes and illuminated circuitry in her skull against dark background with copy space. 3D Illustration
Total
0
Shares
0
0
0

L’Unione europea ha la sua legge sull’intelligenza artificiale

Il 13 marzo il Parlamento europeo ha approvato l’AI Act, il regolamento europeo sull’intelligenza artificiale, e a maggio è arrivata anche l’approvazione definitiva del Consiglio dell’Unione Europea. In estrema sintesi e lasciando a margine vari dettagli ecco quello che c’è da sapere.

Le sue disposizioni inizieranno a entrare in vigore per gradi:

  • 6 mesi dopo: i Paesi saranno tenuti a proibire i sistemi di AI vietati;
  • 1 anno dopo: inizieranno ad applicarsi le regole per i sistemi di intelligenza artificiale di uso generale;
  • 2 anni dopo: il resto della legge sull’AI sarà applicabile;
  • 36 mesi dopo: gli obblighi per i sistemi ad alto rischio.

Le sanzioni in caso di non conformità possono arrivare fino a 35 milioni di euro o al 7% del fatturato annuo mondiale.

Saranno vietate/i:

  • Sfruttamento delle vulnerabilità di persone o gruppi in base all’età, alla disabilità o allo status socio-economico;
  • Le pratiche manipolatorie e ingannevoli, sistemi che usino tecniche subliminali per distorcere materialmente la capacità decisionale di una persona;
  • Categorizzazione biometrica ovvero la classificazione di individui sulla base di dati biometrici per dedurre informazioni sensibili come razza, opinioni politiche o orientamento sessuale (eccezioni per le attività di contrasto);
  • Punteggio sociale (valutazione di individui o gruppi nel tempo in base al loro comportamento sociale o a caratteristiche personali);
  • Creazione di database di riconoscimento facciale attraverso lo scraping non mirato di immagini da internet o da filmati di telecamere a circuito chiuso;
  • Inferenza delle emozioni nei luoghi di lavoro e nelle istituzioni educative (eccezioni per motivi medici o di sicurezza);
  • Le pratiche di valutazione del rischio di commettere un reato basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona.

Non è del tutto vietata bensì limitata l’identificazione biometrica in tempo reale in spazi accessibili al pubblico – sulla base di circostanze definite (gli usi ammessi includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico) che richiedono un’approvazione giudiziaria o di un’autorità indipendente.
L’identificazione biometrica a posteriori è considerata ad alto rischio. Per questo, per potervi fare ricorso, l’autorizzazione giudiziaria dovrà essere collegata a un reato.

Seguono gli ambiti che non sono vietati ma sono considerati “ad alto rischio” e che dunque saranno valutati prima di essere immessi sul mercato e anche durante il loro ciclo di vita e su cui i cittadini potranno presentare reclami alle autorità nazionali.
Includono non solo le infrastrutture critiche o le componenti di sicurezza ma anche la formazione scolastica (per determinare l’accesso o l’ammissione, per assegnare persone agli istituti o ai programmi di istruzione e formazione professionale a tutti i livelli, per valutare i risultati dell’apprendimento delle persone, per valutare il livello di istruzione adeguato per una persona e influenzare il livello di istruzione a cui potrà avere accesso, per monitorare e rilevare comportamenti vietati degli studenti durante le prove); la gestione dei lavoratori (per l’assunzione e la selezione delle persone, per l’adozione di decisioni riguardanti le condizioni del rapporto di lavoro, la promozione e la cessazione dei rapporti contrattuali, per l’assegnazione dei compiti sulla base dei comportamenti individuali, dei tratti o delle caratteristiche personali e per il monitoraggio o la valutazione delle persone); servizi essenziali inclusi i servizi sanitari, le prestazioni di sicurezza sociale, servizi sociali, ma anche l’affidabilità creditizia; l’amministrazione della giustizia (inclusi gli organismi di risoluzione alternativa delle controversie); la gestione della migrazione e delle frontiere (come l’esame delle domande di asilo, di visto e di permesso di soggiorno e dei relativi reclami).

I sistemi di AI per finalità generali e i modelli su cui si basano (inclusi i grandi modelli di AI generativa) dovranno rispettare una serie di requisiti di trasparenza come: divulgare che il contenuto è stato generato dall’AI; fare in modo che i modelli non generino contenuti illegali; pubblicare le sintesi dei dati protetti da copyright utilizzati per l’addestramento. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti.

I Paesi dell’UE dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (in inglese sandbox), in modo che PMI e start-up possano sviluppare sistemi di AI prima di immetterli sul mercato.

Tratto dalla newsletter Guerre di Rete (www.guerredirete.it).

Carola Frediani

Da giornalista e appassionata seguo da anni temi digitali, soprattutto relativi a cybersicurezza, privacy, sorveglianza, diritti digitali e cybercrimine.

Ho cominciato la mia carriera da giornalista digitale e su temi tech alla Totem, guidata da Franco Carlini, che tra i primi in Italia ha scritto dell’impatto della Rete sulla società. Ho poi fondato insieme ad altri colleghi l’agenzia giornalistica Effecinque e successivamente ho lavorato a La Stampa prima occupandomi di social media e poi nel team inchieste. Nel mentre ho scritto di cybersicurezza, privacy, sorveglianza e diritti digitali per varie testate nazionali e internazionali, tra cui Wired, La Stampa, L’Espresso, Agi, Vice.

Dal 2018 ho iniziato a lavorare nella cybersecurity, prima come cybersecurity awareness manager per una azienda internazionale di ecommerce, YNAP. Poi nel team di security globale del segretariato di Amnesty International, Ora lavoro come infosec technologist nel team di sicurezza informatica globale di Human Rights Watch, ong che si occupa di diritti umani. In contemporanea, proprio nell’estate 2018, mentre decidevo dopo 18 anni di lasciare il giornalismo come professione, lanciavo la newsletter Guerre di Rete. Che nel 2022, unendo le forze con un gruppetto di amici e con l’associazione no profit Cyber Saiyan, diventava anche un sito, Guerredirete.it.

I miei ultimi libri sono i saggi Guerre di Rete(Laterza), da cui ha preso il nome la newsletter e il progetto editoriale Guerredirete.it, e #Cybercrime (Hoepli) che nel 2020 è stato finalista al premio Galileo per la divulgazione scientifica. Ho scritto anche un thriller a sfondo digitale Fuori Controllo (Venipedia).

Ho una formazione da umanista, liceo classico statale, una (lontana) laurea in lettere con tesi in storia moderna (sui diari di donne italiane deportate nei lager, una cui riduzione è stata pubblicata dalla rivista Storia Contemporanea de Il Mulino). Ma dal 2001 non ho mai smesso di occuparmi del mondo digitale, con un forte interesse per le sue implicazioni sociali e politiche.

Dopo due anni di newsletter, insieme ad altri che vogliono contribuire al progetto di fare informazione e divulgazione su questi temi, abbiamo creato l’associazione Guerre di Rete, un’associazione culturale senza scopo di lucro, il cui obiettivo è promuovere la cultura e l’informazione sui temi digitali, in particolare con l’omonima newsletter, ma anche con altre iniziative per la diffusione del sapere digitale.

Total
0
Shares
Share 0
Tweet 0
Pin it 0
Related Topics
  • ai
  • artificial intelligence
  • law
Articolo Precedente
  • cybersecurity

Dalla saggezza delle nonne: una “Guida galattica for dummies”

  • 6 Maggio 2024
  • Alessandro Manfredini
Visualizza Post
Articolo Successivo
  • cybercrime
  • cybersecurity

Evoluzione della criminalità informatica, possibili scenari futuri

  • 16 Luglio 2024
  • Ivano Gabrielli
Visualizza Post
You May Also Like
Visualizza Post
  • 3 min
  • AI
  • cybersecurity
  • Data Center
  • HPC
  • Supercalcolo

IT4LIA AI Factory: l’eccellenza italiana dell’innovazione

  • Daniele Cesarini
  • 16 Luglio 2025
Visualizza Post
  • 4 min
  • AI
  • cybersecurity
  • Data Center
  • Digitale

Cloud e sovranità digitale: una sfida per la P. A.

  • Francesco D'Angelo
  • 18 Giugno 2025
Visualizza Post
  • 4 min
  • AI

Oltre l’incertezza

  • Claudio Becchetti
  • 16 Settembre 2024

L’intero contenuto del blog Impronte Digitali è distribuito sotto licenza CC BY-NC-SA 4.0

About

Lasciando impronte tracciamo il futuro

Questo blog è un’idea nata dall’iniziativa di un team di appassionati di tecnologia, che quotidianamente si confrontano sui temi connessi con l’innovazione e il progresso tecnologico, con lo sguardo rivolto ai principali top trend e ai rischi delle minacce cyber in continua evoluzione. Il nostro scopo è quello di tracciare il futuro lasciando impronte per diffondere la cultura digitale mediante la creazione di una rubrica semplice e intuitiva con il contributo di una rete di esperti e professionisti del settore, in grado di fornire un punto di vista qualificato e privilegiato che consenta di affrontare le sfide di domani con consapevolezza e lungimiranza.
Impronte Digitali
  • Privacy Policy

Inserisci la chiave di ricerca e premi invio.