BLOG Notizie dal mondo dell'automazione e della robotica

images/2021/BLOG_POSIZIONAMENTO_2021/20211109-TEA-ART14-regolamento-commissione-europea-intelligenza-artificiale.png

Il Regolamento sull’Intelligenza Artificiale della Commissione Europea

Il 21 aprile 2021 la Commissione Europea ha pubblicato il Regolamento sull’Intelligenza Europea. Si tratta di un testo complesso, che riguarda tutta la “vita” dei sistemi di AI, dalla valutazione di conformità all’immissione in commercio, fino al regolare monitoraggio. 

I sistemi di AI sono classificati in rischio basso, medio o elevato. Il Regolamento si focalizza sui sistemi ad alto rischio, trascurando l’utilizzo più comune e diffuso dell’AI, ovvero tutti quei contenuti, previsioni, decisioni o raccomandazioni a cui siamo già abituati. 

La finalità del documento e lo spirito che ha portato alla sua stesura sono comunque palesi. L’Unione Europea vuole regolamentare in maniera sistematica l’utilizzo dell’Intelligenza Artificiale. Il Regolamento, quindi, rappresenta il primo paradigma a livello globale per la regolamentazione dell’AI. 

Chi, come noi, si occupa di automazione industriale non può che guardare con la massima curiosità a un documento del genere. Di fatto, si tratta di una prima matrice per l’introduzione e lo sviluppo dell’AI su larga scala

Eccetto che per finalità esclusivamente militari, tutti gli utilizzi dell’Intelligenza Artificiale sono subordinati al Regolamento. Inoltre, anche i fornitori di sistemi di AI extra UE che collaborano con l’UE o con uno stato membro saranno soggetti al Regolamento. 

 

Gli obiettivi del Regolamento e gli obblighi di trasparenza

L’intento del Regolamento si sviluppa su due binari: da un lato lo sviluppo tecnologico, dall’altro la tutela del cittadino e dei diritti condivisi dall’UE. La regolamentazione europea mira a promuovere l’Intelligenza Artificiale nei più svariati campi, ma sempre nel pieno rispetto dei diritti fondamentali e dei valori europei. 

Il vantaggio è doppio. L’UE rafforza la leadership tecnologica, mentre il singolo cittadino può beneficiare delle tecnologie più innovative e performanti senza però mettere a rischio la propria privacy né alcuno dei suoi diritti. 

Indipendentemente dal livello di rischio, tutti i sistemi di AI devono sottostare a specifici obblighi di trasparenza. In parole povere, l’utente deve essere informato delle modalità tecnologiche con cui si sta interagendo

Alcuni dei sistemi di AI, ad esempio, riescono a riconoscere le emozioni (digital signage) e a manipolare video e immagini (deep fake). L’utilizzo di questo tipo di tecnologie deve essere esplicitamente dichiarato. 

 

La regolamentazione dei sistemi di AI ad alto rischio

Il Regolamento li definisce come sistemi che “creano un rischio alto per la salute e la sicurezza o per i diritti fondamentali delle persone fisiche”. Si tratta di:

  • Componenti di sicurezza di prodotti soggetti a valutazione della conformità ex ante da parte di terzi (parti di dispositivi medici, apparecchiature, ascensori, ecc.)
  • Sistemi indipendenti che presentano implicazioni sui diritti (sistemi di AI per la polizia predittiva, per selezionare il personale, per valutare la solvibilità, ecc.)

Il Regolamento prevede regole specifiche per questi sistemi. I fornitori devono creare e mantenere attivo un tool di risk management e monitorare e documentare il progetto, lo sviluppo e il funzionamento di questi sistemi. Fondamentale anche la possibilità di supervisione da parte di persone fisiche.

Inoltre, questi sistemi prevedono specifici obblighi di trasparenza verso gli utenti per garantire attendibilità e sicurezza.

 

Gli usi vietati dell’AI

Per proteggere i cittadini europeo dal potenziale pericolo insito nelle tecnologie di Intelligenza Artificiale, il Regolamento impedisce:

  • Le tecniche subliminali: manipolando il comportamento di una persona potrebbero causare danni fisici o psichici.
  • Lo sfruttamento delle vulnerabilità: alcuni gruppi – per età o disabilità – sono facilmente plagiabili. Vietato far leva sulle loro debolezze.
  • La profilazione di massa, anche da parte delle autorità pubbliche. 
  • L’identificazionebiometrica da remoto in luoghi pubblici, anche per finalità di repressione dei reati. 

 

Le misure di controllo della Commissione Europea

Al fine di rendere la tecnologia AI più facile e più fruibile e di regolamentarne l’utilizzo, la Commissione Europea ha stilato una lista di punti chiave. Come è già successo per l’automazione industriale, l'obiettivo è la standardizzazione e la semplificazione dei processi. 

Regulatory sandboxes

Il Regolamento favorisce la creazione di regulatory sandboxes per sviluppare servizi di AIlegal by design sotto la guida delle autorità competenti.

Un’attenzione particolare viene rivolta alle startup, che godranno di un accesso preferenziale alle sandboxes e di tariffe ridotte per delle procedure di conformity assessment. In questo modo, la Commissione crea un terreno fertile per la crescita di tecnologie innovative.

Marcatura CE

Prima dell’immissione sul mercato, tutti i sistemi di AI devono essere dichiarati conformi. A seconda del tipo di sistema, le procedure di valutazione della conformità saranno a carico del produttore oppure di un organismo esterno.

Anche il sistema di conformity assessmentdeve essere razionale e funzionale per accelerare il processo d’introduzione dell’AI. Per questo sono stati adottati standard di riferimento da parte degli enti di normazione quali ISO e CEN.

Una volta che il sistema ha superato la procedura di valutazione della conformità, viene marcato CE e registrato in un apposito database. Come accade per gli altri prodotti, il marchio CE sta a rappresentare il rispetto della normativa europea ed è, in un certo senso, una garanzia di qualità. 

Comitato Europeo per l’Intelligenza Artificiale

Il Regolamento prevede la creazione di un Comitato europeo per l’Intelligenza Artificiale. Il suo compito sarà quello di sorvegliare la corretta applicazione del Regolamento nei vari stati membri e di elaborare linee guida in materia.

Monitoraggio e sanzioni

I fornitori sono responsabili per tutto il ciclo di vita dei sistemi di AI. Devono monitorare il loro uso e segnalare eventuali malfunzionamenti e irregolarità. In caso di violazione del Regolamento, le autorità competenti potranno imporre sanzioni amministrative fino a 30.000.000 euro o il 6% del fatturato annuo.

 

Come abbiamo visto, il Regolamento contiene tutte le linee guida sui sistemi di AI. Capire il percorso che ci ha portati fin qui è essenziale per gli sviluppi futuri. L’automazione industriale ha dato il via a una serie di cambiamenti epocali, che ci porteranno in un mondo più automatizzato e funzionale, senza sprechi né inefficienze.