NEWSLETTER - IL CAFFE' DIGITALE
Adeguamento AI Act: cosa sapere e cosa fare

 

Il 21 Maggio 2024 il Consiglio Europeo ha formalmente approvato l’EU AI Act, il regolamento europeo sull’Intelligenza Artificiale, che rappresenta un fondamentale precedente normativo, non solo in Europa ma anche a livello globale, nella regolamentazione delle tecnologie basate sull’AI.

L’EU AI Act ha come obiettivo quello di assicurare lo sviluppo, l’uso e l’adozione di soluzioni tecnologiche di Intelligenza Artificiale che possano attivare il potenziale di trasformazione digitale in tutte le regioni dell’Unione ma, allo stesso tempo, possano essere considerate sicure, affidabili, trasparenti, etiche e antropocentriche, in grado di garantire la protezione di interessi pubblici come la salute, la sicurezza e la tutela dei diritti fondamentali come democrazia, Stato di diritto e protezione dell’ambiente.

L’EU AI Act fa parte di un ampio framework regolatorio europeo, come GDPR, NIS2 Directive, Digital Services Act e Digital Markets Act, caratterizzati da un comune approccio risk-based. In questa breve trattazione, proveremo a ripercorrere insieme le tappe fondamentali nell’approvazione della normativa, a descriverne i punti chiave e a delinearne gli impatti operativi sulla governance e sul business delle aziende di oggi e di domani.

EU AI Act: iter approvativo e applicazione

L’EU AI Act o Regolamento 1689/2024 è stato proposto per la prima volta nell’aprile 2021. Una lunga serie di confronti negoziali ha portato al raggiungimento di un accordo politico sul testo nel dicembre del 2023. Il 13 marzo 2024 il Parlamento europeo ha approvato in via definitiva il Regolamento Europeo sull’Intelligenza Artificiale, mentre 21 maggio 2024 l’EU AI Act è stato formalmente approvato dal Consiglio d’Europa, che ne ha sancito l’adozione ufficiale.

Il 12 luglio 2024 il testo finale dell’EU AI Act è stato pubblicato sull’Ufficial Journal dell’Unione Europea ed è entrato in vigore 20 giorni dopo la sua pubblicazione, quindi il 1° agosto 2024. L’applicazione della normativa avverrà a partire dal 2 agosto 2026: nel frattempo verrà adottato un approccio “a fasi”: da evidenziare, ad esempio, che il divieto di adozione di soluzioni basate AI che comportino rischi “inaccettabili” sarà applicato già 6 mesi dopo l’entrata in vigore della normativa, quindi dal 2 febbraio 2025.

Sistema sanzionatorio

Il sistema sanzionatorio previsto dall’EU AI Act è piuttosto severo: la non conformità al divieto delle pratiche di AI (articolo 5) prevede sanzioni amministrative pecuniarie fino a 35.000.000 di euro o, se l’autore del reato è un’impresa, fino al 7% del fatturato mondiale totale annuo dell’esercizio precedente, mentre la non conformità alle disposizioni diverse da quanto riportato all’articolo 5 prevedono sanzioni amministrative pecuniarie fino a 15.000.000 di euro o, se l’autore del reato è un’impresa, fino al 3% del fatturato mondiale totale annuo dell’esercizio precedente.

Un po’ di terminologia

Secondo l’AI Act, un “AI system” può essere definito come “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”; in questa definizione rientrano tecniche chiaramente riconducibili all’AI, come deep learning, machine learning, computer vision, natural language processing, reti neurali etc. Va sottolineato che AI Act non si focalizza su sistemi che si basano su software tradizionale, il cui comportamento è fondato sull’applicazione di regole, o genericamente su automatismi per il “decision making” (così come già specificato dal GDPR): il fattore differenziante tra AI e qualunque altra tecnologia è la “capacità inferenziale”, cioè riferita al processo di ottenimento degli output e alla capacità dei sistemi di AI di ricavare modelli o algoritmi, o entrambi, da input o dati.

Va inoltre tenuta in considerazione la distinzione tra la definizione di un sistema AI e quella di modello. I modelli, infatti, sono considerati dal Regolamento come componenti essenziali dei sistemi AI ma non possono isolatamente generare output ed essere di per sé considerati come sistemi AI. L’EU AI Act fornisce, comunque, la definizione di modello general-purpose come riferita alla presenza della “generalità e capacità di svolgere con competenza un’ampia gamma di compiti distinti”.

A chi si applica l’EU AI Act

L’EU AI Act si applica ai seguenti operatori nella value chain dell’AI:

Fornitori. Rientrano nell’ambito di applicabilità dell’EU AI Act i fornitori che hanno sviluppato un sistema AI o un modello general-purpose (o lo hanno fatto sviluppare), o lo hanno messo in servizio con il proprio nome o marchio. Tali fornitori sono stabiliti sul territorio dell’Unione o in un paese terzo ma con output dell’AI reso disponibile nell’Unione Europea.

Deployer. I deployer sono persone fisiche o giuridiche, compresi un’autorità pubblica, un’agenzia o un altro organismo, che utilizzano un sistema di AI sotto la propria autorità, ad eccezione del caso in cui il sistema di AI sia utilizzato nel corso di un’attività personale non professionale. I deployer possono avere il loro stabilimento o essere situati all’interno dell’Unione ma sono comunque in scope anche se gli output prodotti dai loro sistemi sono resi disponibili nell’Unione Europea. Gli utilizzatori individuali di sistemi AI, in una logica business-to-consumer, non sono considerati come deployers.

Importatori. Gli importatori hanno il loro stabilimento o sono situati nell’Unione Europea ma mettono sul mercato dell’UE sistemi di intelligenza artificiale che recano il nome o il marchio di persone fisiche o giuridiche con sede in paesi terzi.

Distributori. Questi soggetti rendono i sistemi AI disponibili all’interno dell’Unione Europea come azione successiva all’importazione.

Produttori. I produttori immettono sul mercato o mettono in servizio un sistema di AI insieme al loro prodotto e con il loro nome o marchio.

Rappresentanti autorizzati. I rappresentanti autorizzati sono stabiliti nell’Unione Europea in rappresentanza di fornitori che sono stabiliti fuori dal territorio europeo.

Un approccio centrato sul rischio

Come si è detto, l’AI Act è basato su un approccio “risk-based” che ritroviamo in molte altre normative, in primis nel GDPR: maggiore è il rischio associato ad una determinata soluzione basata sull’adozione di AI, più rilevanti saranno, ovviamente, le responsabilità in carico agli sviluppatori e agli utilizzatori di quella soluzione. L’AI Act identifica diversi tipi di AI a seconda dei livelli di rischio che ciascuno presenta, in particolare:

  • Sistemi AI proibiti, in quanto, per loro natura, presentano un livello di rischio inaccettabile
  • Sistemi AI ad alto rischio
  • Sistemi AI che presentano rischi relativi alla trasparenza
  • Modelli AI che presentano rischi sistemici
  • Altri tipi di AI che non rientrano nelle precedenti categorie

Sistemi AI vietati

L’articolo 5 della normativa elenca in modo esauriente le pratiche AI considerate inaccettabili in quanto possono costituire una minaccia per i diritti dei cittadini europei, tra cui:

  • sistemi utilizzati per social scoring o basate su tecniche subliminali
  • sistemi utilizzati per fini investigativi che prevedano la colpevolezza, o la probabilità che un reato venga commesso, esclusivamente basandosi sulla profilazione fisica o psicologica di un soggetto
  • sistemi utilizzati per la raccolta non mirata di immagini facciali da Internet o da filmati CCTV per creare o ampliare database di riconoscimento facciale
  • sistemi di riconoscimento delle emozioni sul posto di lavoro e nelle scuole
  • sistemi di classificazione biometrica per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale;
  • sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico, ad eccezione del caso in cui vengano utilizzati dalle forze dell’ordine nel corso di specifiche attività investigative o per perseguire reati di particolare gravità che mettano a repentaglio l’incolumità di singoli individui o della collettività.

Sistemi ad alto rischio

I sistemi AI ad alto rischio costituiscono il focus principale del Regolamento. Perché’ un sistema AI venga classificato ad alto rischio secondo l’AI Act, questo dovrà:

  • essere utilizzato come componente di sicurezza di un prodotto o essere esso stesso un prodotto, soggetto quindi a una valutazione della conformità da parte di terzi ai fini dell’immissione sul mercato o della messa in servizio

oppure

  • essere menzionato nell’Annex III, che include i sistemi biometrici, i sistemi utilizzati nel settore delle infrastrutture critiche, dell’istruzione e formazione professionale, della gestione dei lavoratori e per l’accesso al lavoro autonomo, dell’accesso a servizi e a prestazioni pubblici o privati essenziali, dell’attività di contrasto al crimine, della migrazione, asilo e gestione del controllo delle frontiere, dell’amministrazione della giustizia e dei processi democratici.

Eccezioni a queste due condizioni sono contenute nell’articolo 6 (3). La normativa prevede che il provider di una soluzione di AI adotti un sistema per la gestione dei rischi durante il ciclo di vita dell’AI, che offra garanzie di trasparenza, di adeguata qualità dei dati, di robustezza del sistema in termini di protezione da violazioni e minacce cyber e che produca documentazione tecnica in grado di fornire tutte le informazioni necessarie alle autorità per valutare la conformità dei sistemi di AI a tali requisiti. I deployer dovranno essere informati e formati sull’uso del sistema.

Sistemi che presentano rischi relativi alla trasparenza

L’articolo 50 stabilisce obblighi per fornitori e deployer di sistemi il cui utilizzo può comportare rischi in termini di trasparenza, come i sistemi AI che interagiscono direttamente con gli utenti fisici o i sistemi AI che generano contenuti audio, immagine, video o testuali sintetici: in questa categoria rientrano anche i sistemi di riconoscimento delle emozioni, di categorizzazione biometrica (utilizzati per accertare, prevenire o indagare reati), di generazione o manipolazione di immagini o contenuti audio o video che costituiscono un «deep fake», e, infine, di generazione o manipolazione di testo pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico. In tutti questi casi i sistemi devono essere sviluppati in modo da informare gli utilizzatori del fatto che stanno interagendo o stanno venendo in contatto con contenuti prodotti da AI.

Modelli AI per finalità generali e modelli con rischi sistemici

Questi due tipi di modelli sono descritti nel capitolo V del Regolamento. Un sistema AI per finalità generali (“general purpose”) è caratterizzato dall’essere fondato su modelli AI per finalità generali, cioè in grado di servire a vari scopi (direttamente o integrati in altri sistemi AI). Tali modelli sono solitamente addestrati su grandi quantità di dati con diversi metodi, come l’apprendimento auto-supervisionato, non supervisionato o per rinforzo. Un addestramento basato su una grande quantità di dati, con la presenza di almeno un miliardo di parametri, viene considerato come criterio che definisce un modello per finalità generali.

Un sottoinsieme dei modelli AI per finalità generali è costituito dai modelli con rischio sistemico, nel caso in cui questi presentino impatto elevato (o sulla base di una decisione presa dalla Commissione “ex officio” o a seguito di una segnalazione di un gruppo di esperti scientifici). Si intende che un modello di AI per finalità generali abbia capacità di impatto elevato quando la quantità cumulativa di calcolo utilizzata per il suo addestramento, misurata in operazioni in virgola mobile, è superiore a 1025. In questo caso i fornitori dovranno anche effettuare valutazioni atte ad individuare e attenuare il rischio sistemico, documentare e notificare incidenti gravi e garantire elevati standard di cybersicurezza sul modello e sulla sua infrastruttura.

Uno dei principali aspetti operativi che l’azienda dovrà gestire per intraprendere il percorso di adeguamento all’EU AI Act sarà proprio la sistematica classificazione dei sistemi AI sviluppati e/o messi in esercizio, in modo da garantire l’appropriata gestione dei rischi correlati e l’implementazione delle misure tecniche e organizzative necessarie per la mitigazione degli stessi. Qui di seguito forniamo, inoltre, un esempio di supporto operativo all’adeguamento all’AI Act pubblicato dall’IAPP (International Association of Privacy Professionals) basato sulla classificazione dei sistemi AI appena descritta: https://iapp.org/media/pdf/resource_center/eu_ai_act_compliance_matrix_at_a_glance.pdf

La necessaria Governance dell’AI

Le soluzioni basate su Intelligenza Artificiale sono destinate a diffondersi in maniera sempre più integrata e pervasiva nel business delle aziende, così come sempre più acceso si sta facendo il dibattito normativo e regolamentare a livello mondiale su questo tema.

Si rende quindi necessaria una Governance dell’AI, cioè un sistema di regole, pratiche, processi e strumenti tecnologici usati in modo da assicurare che l’adozione di tecnologie di AI sia aderente alle strategie, agli obiettivi e ai valori dell’organizzazione e, allo stesso tempo, tali da garantire un utilizzo dell’AI etico, responsabile, preciso, affidabile.

Gestione del rischio e data governance

A fronte dello sviluppo velocissimo dell’AI e dei nuovi rischi posti da questa tecnologia, l’adozione di un approccio risk-centrico nella gestione dello sviluppo e dell’utilizzo dell’AI diventa cruciale, in particolare in termini di visione integrata del rischio nelle aree maggiormente investite dall’introduzione di soluzioni basate su AI: marketing, legal/privacy, IT, procurement, IT, R&D, BI.

L’adozione di soluzioni basate su AI all’interno dell’organizzazione esige necessariamente una rivalutazione dell’efficienza dei processi di gestione del rischio già presenti, o la loro introduzione, nel caso fossero addirittura assenti. I rischi, ad esempio, di output non corretti, divergenti rispetto agli obiettivi aziendali, influenzati da bias o discriminatori, non trasparenti/non intelligibili (per fare solo alcuni esempi), in aggiunta ai molteplici rischi tradizionalmente associati al trattamento massivo di grandi quantità di dati personali (data breach, cyber attacks) ma con specifiche declinazioni per gli ambienti AI, solo per limitarci all’ambito Compliance o Cybersecurity, dovranno essere identificati, valutati e monitorati in maniera rigorosa: una gestione responsabile ed efficace del rischio, infatti, costituisce prova evidente dell’accountability nell’utilizzo e sviluppo di soluzioni AI da parte di una organizzazione e nello stabilire un rapporto di fiducia con autorità, fornitori, clienti, partner commerciali e consumatori finali.

Inoltre, una efficace gestione del rischio non può prescindere da una Data Governance in grado di garantire il controllo dei dati aziendali in termini di compliance legale, aderenza agli standard e alle policy interne, nel rispetto di ben identificati ruoli e responsabilità. Una scarsa qualità dei dati o una scarsa visibilità della relazione tra dati e algoritmi può condurre a risultati distorti o inattendibili, con serie ripercussioni sul corretto sviluppo delle soluzioni AI in azienda.

Principi minimi per lo sviluppo o l’utilizzo di sistemi basati su AI

Di seguito riportiamo brevemente alcuni tra i principi minimi fondamentali per lo sviluppo e l’utilizzo di soluzioni AI etico, sicuro e compliant a normative rigorose come l’AI Act:

  • Trasparenza e tracciabilità: le logiche che sottendono la produzione di un output devono essere note ad utenti e soggetti coinvolti nello sviluppo, implementazione e utilizzo dell’AI. Il trattamento dei dati personali deve essere chiaro agli utenti, così come i rischi relativi a possibili inaccuratezze. La tracciabilità degli output, in particolare del modo in cui sono stati generati, è fondamentale per garantire agli utenti la possibilità di ricostruire l’esito dei processi di decision making e per finalità di audit.
  • Fairness e accuratezza dell’output: i dati prodotti dall’AI devono essere corretti, affidabili, non affetti da bias, in modo da prevenire effetti discriminatori o comunque impatti negativi sui diritti e le libertà dei soggetti. Il controllo accurato sui dati utilizzati per il training dei sistemi AI è fondamentale per garantire questo principio.
  • Accountability: le organizzazioni che operano in ambito AI devono garantire una precisa attribuzione di responsabilità per azioni, decisioni e outcome prodotti dai sistemi AI.
  • Data minimization: principio di base della privacy sempre valido, finalizzato a garantire che i dati raccolti e trattati dall’AI siano ridotti allo stretto necessario per gli scopi dichiarati nell’erogazione del servizio e in accordo ai consensi rilasciati.
  • Privacy & security by design: rigorosi controlli di sicurezza e privacy devono essere previsti sin dalle primissime fasi di design di una soluzione basata su AI.
  • Supply chain: opportune clausole contrattuali dovranno essere previste con i fornitori di soluzioni AI che garantiscano, tra l’altro, la presenza di un processo di gestione dei rischi da parte del fornitore e l’adozione di adeguate misure per la cybersicurezza, e assicurino accuratezza e affidabilità dei modelli forniti.
  • Formazione: formazione e informazione sono necessarie per tutti i soggetti coinvolti nell’ecosistema AI (dagli sviluppatori di sistemi AI agli utilizzatori). All’interno di ogni organizzazione che utilizzi soluzioni AI per migliorare l’operatività aziendale, ad esempio, dovranno essere condotte opportune attività di training in modo da consentire un utilizzo dell’AI responsabile e consapevole dei rischi che queste tecnologie possono comportare per i dati aziendali (dai dati personali alla proprietà intellettuale).

Suggeriamo, come utile lettura, tra i moltissimi framework, self-assessment e documentazione disponibili in rete, l’assessment ALTAI (Assessment List for Trustworthy Artificial Intelligence – ALTAI), che propone una possibile metodologia per verificare l’aderenza della propria soluzione AI ai principi generali per una AI affidabile, secondo le linee guida dell’European Commission: https://digital-strategy.ec.europa.eu/it/node/806.

Modelli di Governance dell’AI

Non esiste un unico approccio per implementare una Governance dell’AI in maniera efficace, che consenta alle organizzazioni di garantire la propria compliance all’EU AI Act, e, in linea generale, di assicurare uno sviluppo sano e profittevole del proprio business avvalendosi o fornendo tecnologie basate su AI. È possibile, ad esempio, creare una struttura di Governance specifica per l’AI, oppure modificare le strutture già presenti in modo che possano integrare la gestione dei rischi e dei controlli necessari per governare le tecnologie AI. In ogni caso, è necessario considerare che l’introduzione di tecnologie basate su AI implica la necessità di intervenire non solo sulle strutture organizzative, ma conseguentemente anche su processi, policy, procedure, contratti, informative, consensi, audit interni, assessment di sicurezza, compliance e privacy ecc., in maniera trasversale all’organizzazione.

La costituzione di un comitato costituito dal management e dai professionisti delle tecnologie, dell’area legale, privacy, security, R&D, che collabori in maniera sinergica con le unità di business, può rappresentare un approccio operativamente efficace per la gestione armonica, efficace e non frammentata del complesso ecosistema che si genera attorno all’AI. Va sottolineato, infine, quanto la scelta di adottare una soluzione basata su AI non si riduca semplicemente ad una decisione di carattere tecnologico o di business: l’AI necessariamente sollecita le aziende di oggi, e sempre di più quelle del futuro, a stabilire e a mantenere allineati i propri obiettivi di business con un uso eticamente sostenibile di questa potente tecnologia, nel rispetto dei diritti fondamentali degli individui e in compliance con le normative emergenti, di cui l’AI EU Act è uno dei più autorevoli esempi.

 

 

ULTIMO NUMERO
ARCHIVIO
LE RUBRICHE
COME NASCE IL CAFFÈ DIGITALE
REGISTRATI
Iscriviti alla Newsletter mensile!
Ricevi gli articoli degli analisti di The Innovation Group e resta aggiornato sui temi del mercato digitale in Italia!