Persona, diritti personalità - Riservatezza, privacy -  Gabriele Gentilini - 12/04/2020

Libro bianco sull’intelligenza artificiale emanato dalla commissione UE, comunicato il 19 febbraio 2020

Come viene espresso nella comunicazione di cui al https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1582551099377&uri=CELEX:52020DC0066, circa una strategia europea sui dati, “Nel corso degli ultimi anni le tecnologie digitali hanno trasformato l'economia e la società, influenzando ogni settore di attività e la vita quotidiana di tutti i cittadini europei. I dati sono un elemento centrale di tale trasformazione, che non fa che cominciare. L'innovazione guidata dai dati genererà benefici enormi per i cittadini, ad esempio tramite il miglioramento della medicina personalizzata, le nuove soluzioni di mobilità e il suo contributo al Green Deal europeo. In una società in cui è in costante aumento la quantità di dati generati dai singoli cittadini, la metodologia di raccolta e utilizzo di tali dati deve porre al primo posto gli interessi delle persone, conformemente ai valori, ai diritti fondamentali e alle norme europei. I cittadini daranno fiducia alle innovazioni basate sui dati e le faranno proprie solo se saranno convinti che la condivisione dei dati personali nell'UE sarà soggetta in ogni caso alla piena conformità alle rigide norme dell'Unione in materia di protezione dei dati. Nel contempo, il volume crescente di dati industriali non personali e di dati pubblici in Europa, unito ai cambiamenti tecnologici riguardanti le modalità di conservazione ed elaborazione dei dati, costituirà una potenziale fonte di crescita e innovazione che è opportuno sfruttare.”.
Trattasi della comunicazione è stata presentata contemporaneamente alla comunicazione della Commissione "Plasmare il futuro digitale dell'Europa" e a un libro bianco sull'intelligenza artificiale che illustra le modalità tramite cui la Commissione sosterrà e promuoverà lo sviluppo e l'adozione dell'intelligenza artificiale nell'UE.
Ricorda che “I dati sono la linfa vitale dello sviluppo economico: sono la base di molti nuovi prodotti e servizi e generano guadagni in termini di produttività ed efficienza delle risorse in tutti i settori economici, rendendo possibili prodotti e servizi più personalizzati, un miglioramento del processo di elaborazione delle politiche e un potenziamento dei servizi pubblici. Sono inoltre una risorsa essenziale per le start-up e le piccole e medie imprese (PMI) per quanto concerne lo sviluppo di prodotti e servizi. La disponibilità di dati è essenziale per l'allenamento dei sistemi di intelligenza artificiale, con prodotti e servizi in rapida evoluzione, da riconoscimento morfologico e insight generation a tecniche di previsione più sofisticate e, di conseguenza, decisioni migliori.”.
Nella suddetta comunicazione viene ricordato che “Disponibilità dei dati: il valore dei dati risiede nel loro utilizzo e riutilizzo. I dati attualmente disponibili non sono sufficienti per un riutilizzo innovativo, ad esempio per lo sviluppo dell'intelligenza artificiale. Le problematiche, che possono essere raggruppate in base all'identità del titolare dei dati e a quella del loro utilizzatore, dipendono tuttavia anche dalla natura dei dati interessati (dati personali, dati non personali o set di dati misti che comprendono entrambe le tipologie), e numerose sono quelle che riguardano la disponibilità dei dati a vantaggio del bene pubblico. “.
Che sussistono “Squilibri in termini di potere di mercato: oltre all'elevata concentrazione nella fornitura di servizi cloud e infrastrutture di dati, si registrano squilibri di mercato anche in relazione all'accesso ai dati e al loro utilizzo…”.
Che “l'interoperabilità e la qualità dei dati, al pari della loro struttura, autenticità e integrità, sono fondamentali per lo sfruttamento del valore dei dati, in particolare nel contesto della diffusione dell'IA…”.

Che
“la trasformazione digitale dell'economia dell'UE dipende dalla disponibilità e dall'adozione di capacità di elaborazione dati sicure, efficienti dal punto di vista energetico, a costi contenuti e di elevata qualità, come quelle offerte da infrastrutture e servizi cloud sia nei centri di dati sia ai margini della rete … “.

Viene inoltre posto in evidenza, si legge  che  “l'adozione del cloud in Europa è limitata (1 impresa su 4, solo 1 su 5 tra le PMI) e vi sono significative differenze nell'uso del cloud tra gli Stati membri (la quota di imprese che utilizzano il cloud varia da meno del 10 % fino al 65 %);
l'adozione del cloud è limitata, in particolare, nel settore pubblico europeo; ciò può comportare una minore efficienza dei servizi pubblici digitali, non solo a causa del potenziale evidente in termini di riduzione dei costi informatici garantito dall'adozione del cloud, ma anche a causa del fatto che le pubbliche amministrazioni necessitano della scalabilità del cloud computing per la diffusione di tecnologie quali l'intelligenza artificiale;
la visibilità sul mercato dei fornitori più piccoli, spesso europei, di servizi cloud innovativi è sovente insufficiente;
le imprese europee incontrano spesso problemi con l'interoperabilità multicloud, in particolare con la portabilità dei dati.”.
Viene inoltre esplicata la situazione dei consumatori ovvero che “le persone apprezzano l'elevato livello di protezione garantito dal RGPD e dalla normativa sull'ePrivacy, pur risentendo dell'assenza di norme e strumenti tecnici che rendano l'esercizio dei loro diritti più semplice e non eccessivamente oneroso.”.
Che
“Big Data e analisi figurano attualmente in cima all'elenco delle carenze in termini di competenze fondamentali. I posti vacanti nel settore dei Big Data e dell'analisi nell'UE a 27 erano circa 496 000 nel 2017. Inoltre, il livello generale di alfabetizzazione ai dati della forza lavoro e della popolazione è relativamente basso ed esistono vuoti di partecipazione (ad esempio tra le persone anziane).”.
Viene precisato che “nel settore della cibersicurezza l'Europa ha sviluppato un quadro già esaustivo, a sostegno degli Stati membri, delle imprese e dei cittadini, per far fronte alle minacce e agli attacchi alla cibersicurezza e continuerà a sviluppare e migliorare i propri meccanismi di protezione dei suoi dati e dei servizi basati su tali dati. Norme più elevate in materia di cibersicurezza saranno altresì indispensabili per un utilizzo sicuro e diffuso di prodotti e servizi alimentati dai dati.”

Tralasciando un momento il sopra esposto documento di comunicazione, riportiamo alcuni importanti passaggi che in una precedente comunicazione (del 8 aprile 2019 n. 168) della commissione al parlamento europeo, al consiglio, al comitato economico e sociale e al comitato delle regioni sul tema come creare fiducia nell’intelligenza artificiale, reperibile sul https://op.europa.eu/it/publication-detail/-/publication/4e87dc94-59da-11e9-a8ed-01aa75ed71a1/language-it/format-PDF/source-search.
In particolare sembra focale la dichiarazione di seguito riprodotta dalla citata comunicazione:

“              2.2. Requisiti fondamentali per un'IA affidabile
La Commissione appoggia i requisiti fondamentali per un'IA affidabile di seguito descritti, che si basano su valori europei. Incoraggia i portatori di interessi ad applicarli e a testare la lista di controllo che li inserisce in un processo operativo al fine di instaurare il giusto ambiente di fiducia per uno sviluppo e un utilizzo efficaci dell'IA. La Commissione auspica un riscontro dei portatori di interessi per valutare se la lista di controllo fornita con gli orientamenti debba essere ulteriormente adeguata.

I. ntervento e sorveglianza umani
I sistemi di IA dovrebbero aiutare le persone a compiere scelte migliori e più consapevoli nel perseguimento dei loro obiettivi. Dovrebbero promuovere lo sviluppo di una società fiorente ed equa sostenendo l'intervento umano e i diritti fondamentali e non ridurre, limitare o fuorviare l'autonomia umana. Il generale benessere dell'utente dovrebbe essere al centro della funzionalità del sistema.
La sorveglianza umana contribuisce a garantire che i sistemi di IA non mettano in pericolo l'autonomia umana o provochino altri effetti negativi. A seconda dello specifico sistema basato sull'IA e del relativo settore di applicazione si dovrebbero prevedere misure di controllo di livello adeguato, comprese l'adattabilità, l'accuratezza e la spiegabilità di tali sistemi. La sorveglianza può essere effettuata mediante meccanismi di governance che garantiscano l'adozione di un approccio con intervento umano ("human-in-the-loop"), con supervisione umana ("human-on-the-loop") o con controllo umano ("human-in-command"). Deve essere garantito che le autorità pubbliche siano in grado di esercitare una sorveglianza in linea con il loro mandato. A parità di altre condizioni, meno il sistema di IA è sorvegliato dall'uomo più devono essere dettagliati i test e rigorosa la governance.

II. Robustezza tecnica e sicurezza
Perché l'IA sia affidabile è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita del sistema di IA, oltre che adeguatamente capaci di gestire risultati sbagliati. I sistemi di IA devono essere affidabili, sufficientemente sicuri da essere resilienti sia agli attacchi palesi sia a tentativi più subdoli di manipolazione dei dati o degli algoritmi, e devono garantire l'esistenza di un piano di emergenza in caso di problemi. Le loro decisioni devono essere accurate, o almeno rispecchiare correttamente il loro livello di accuratezza, e i loro risultati devono essere riproducibili.
I sistemi di IA dovrebbero inoltre contenere meccanismi di sicurezza fin dalla progettazione, per garantire che siano sicuri in modo verificabile in ogni fase, considerando soprattutto la sicurezza fisica e mentale di tutte le persone coinvolte. Ciò comprende anche la possibilità di ridurre al minimo e, ove possibile, rendere reversibili gli effetti involontari o gli errori del funzionamento del sistema. È opportuno prevedere processi in grado di chiarire e valutare i potenziali rischi associati all'uso dei sistemi di IA nei vari settori di applicazione.

III. Riservatezza e governance dei dati
La tutela della riservatezza e la protezione dei dati devono essere garantite in tutte le fasi del ciclo di vita del sistema di IA. Le registrazioni digitali del comportamento umano possono consentire ai sistemi di IA di dedurre non solo le preferenze, l'età e il genere dei singoli, ma anche il loro orientamento sessuale e il loro credo religioso o politico. Per far sì che le persone abbiano fiducia nel trattamento dei dati occorre garantire loro il pieno controllo dei dati personali e assicurare che i dati che li riguardano non saranno utilizzati per arrecare danno o discriminarli.
Oltre alla salvaguardia della riservatezza e dei dati personali, devono essere soddisfatti i requisiti necessari per garantire che i sistemi di IA siano di qualità elevata. La qualità dei set di dati utilizzati è fondamentale per le prestazioni dei sistemi di IA. Quando si raccolgono dati, questi possono riflettere condizionamenti di tipo sociale o contenere inesattezze, errori e vizi materiali. Questo aspetto deve essere risolto prima di utilizzare una qualsiasi set di dati per addestrare un sistema di IA. Deve essere inoltre garantita l'integrità dei dati. I processi e i set di dati utilizzati devono essere testati e documentati in ogni fase, come la pianificazione, l'addestramento, i test e la diffusione. Ciò dovrebbe valere anche per i sistemi di IA che non sono stati sviluppati internamente ma acquisiti altrove. Deve essere infine adeguatamente disciplinato e controllato l'accesso ai dati.

IV. Trasparenza
La tracciabilità dei sistemi di IA dovrebbe essere garantita: è importante registrare e documentare sia le decisioni adottate dai sistemi sia l'intero processo che ha prodotto le decisioni, comprese una descrizione della raccolta e dell'etichettatura dei dati e una descrizione dell'algoritmo utilizzato. In questo contesto dovrebbe essere prevista, per quanto possibile, la spiegabilità del processo decisionale degli algoritmi, adattata alle persone coinvolte. È opportuno proseguire la ricerca in corso volta a sviluppare meccanismi di spiegabilità. Dovrebbero anche essere disponibili spiegazioni sulla misura in cui un sistema di IA influenza e definisce il processo decisionale organizzativo, le scelte di progettazione del sistema e la logica alla base della sua diffusione, in modo da garantire la trasparenza non solo dei dati e dei sistemi, ma anche dei modelli di business.
Infine, è importante comunicare, opportunamente e in modo adeguato al caso in esame, le capacità e i limiti del sistema di IA ai diversi portatori di interessi coinvolti. I sistemi di IA dovrebbero inoltre essere identificabili come tali, così che gli utenti sappiano che stanno interagendo con un sistema di IA e possano individuare le persone che ne sono responsabili.

V. Diversità, non discriminazione ed equità
I set di dati utilizzati dai sistemi di IA (sia per l'addestramento sia per il funzionamento) possono essere inficiati da condizionamenti storici involontari, incompletezza e modelli di governance inadatti. Se mantenuti, tali condizionamenti potrebbero portare a discriminazioni (in)dirette. Un danno può derivare anche dallo sfruttamento intenzionale dei condizionamenti (dei consumatori) o da una concorrenza sleale. Può inoltre essere inficiato da condizionamenti anche il modo in cui sono sviluppati i sistemi di IA, ad esempio il modo in cui è scritto il codice di programmazione di un algoritmo. Tali preoccupazioni dovrebbero essere affrontate già dalle prime fasi dello sviluppo del sistema.
Per superarle possono essere utili anche la creazione di gruppi di progettazione diversificati e l'istituzione di meccanismi per garantire la partecipazione, in particolare dei cittadini, allo sviluppo dell'IA. È consigliabile consultare i portatori di interessi che possono essere direttamente o indirettamente interessati dal sistema durante il suo ciclo di vita. I sistemi di IA dovrebbero tenere in considerazione l'intera gamma delle capacità, delle competenze e dei bisogni umani e garantire l'accessibilità attraverso un approccio di progettazione universale che si sforzi di ottenere la parità di accesso per le persone con disabilità.

VI. Benessere sociale e ambientale
Per ottenere un'IA affidabile si dovrebbe tenere conto del suo impatto sull'ambiente e sugli altri esseri senzienti. Idealmente tutti gli esseri umani, comprese le generazioni future, devono poter beneficiare della biodiversità e di un ambiente abitabile. La sostenibilità e la responsabilità ecologica dei sistemi di IA dovrebbero pertanto essere incoraggiate. Lo stesso vale per le soluzioni di IA che rispondono a criticità di portata mondiale, come ad esempio gli obiettivi di sviluppo sostenibile delle Nazioni Unite.
L'impatto dei sistemi di IA dovrebbe inoltre essere considerato non solo da una prospettiva individuale, ma anche dal punto di vista della società nel suo complesso. Andrebbe prestata particolare attenzione all'uso dei sistemi di IA soprattutto nelle situazioni che riguardano il processo democratico, compresi la formazione di opinioni, i processi decisionali politici o i contesti elettorali. Va inoltre tenuto in considerazione l'impatto sociale dell'IA. I sistemi di IA possono essere utilizzati per migliorare le competenze sociali, ma possono anche contribuire al loro deterioramento.

VII. Accountability.
Dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l'accountability dei sistemi di IA e dei loro risultati, sia prima che dopo la loro attuazione. La verificabilità dei sistemi di IA è fondamentale in questo contesto, in quanto la valutazione dei sistemi di IA da parte di revisori interni ed esterni e la disponibilità di tali relazioni di valutazione contribuiscono fortemente all'affidabilità della tecnologia. La verificabilità esterna dovrebbe essere garantita soprattutto per le applicazioni che incidono sui diritti fondamentali, comprese quelle critiche per la sicurezza.
I potenziali impatti negativi dei sistemi di IA dovrebbero essere individuati, valutati, documentati e ridotti al minimo. Questo processo è facilitato dall'impiego delle valutazioni d'impatto, che dovrebbero essere proporzionate all'entità dei rischi che i sistemi di IA comportano. Le contrapposizioni tra i requisiti, che spesso sono inevitabili, dovrebbero essere affrontate in modo razionale e metodologico e se ne dovrebbe tenere conto. Infine, in caso di ingiusto impatto negativo, dovrebbero essere previsti meccanismi accessibili in grado di garantire adeguati mezzi di riparazione.    “

A fronte di tali premesse la commissione ha tracciato i seguenti profili operativi, così ripresi dal documento e di seguito esposti:
“  2.3. Prossime tappe: una fase pilota che coinvolga il più ampiamente possibile i portatori di interessi
Raggiungere un consenso su questi requisiti fondamentali per i sistemi di IA è una prima tappa importante verso la definizione di orientamenti per un'IA etica. Come prossimo passo, la Commissione garantirà che tali orientamenti possano essere testati e attuati nella pratica.
A tal fine, la Commissione avvierà presto una fase pilota mirata che servirà a raccogliere un feedback strutturato dai portatori di interessi. Questo esercizio si concentrerà in particolare sulla lista di controllo che il gruppo di esperti ad alto livello ha elaborato per ciascuno dei requisiti fondamentali.
Questo esercizio si articolerà in due parti: i) una fase pilota per gli orientamenti che coinvolge i portatori di interessi che sviluppano o utilizzano l'IA, comprese le amministrazioni pubbliche, e ii) una consultazione continua dei portatori di interessi e un processo di sensibilizzazione in tutti gli Stati membri e per i diversi gruppi di portatori di interessi, compresi i settori dell'industria e dei servizi:
I) a partire dal giugno 2019 tutti portatori di interessi e tutti i cittadini saranno invitati a testare la lista di controllo e a fornire un feedback su come migliorarla. Il gruppo di esperti ad alto livello sull'IA avvierà inoltre un riesame approfondito con i portatori di interessi del settore pubblico e privato per raccogliere un feedback più dettagliato su come attuare gli orientamenti in un'ampia gamma di settori di applicazione. Il feedback ricevuto sulla praticabilità e sulla fattibilità degli orientamenti sarà valutato entro la fine del 2019;
ii) parallelamente la Commissione organizzerà ulteriori attività di comunicazione che daranno ai rappresentanti del gruppo di esperti ad alto livello sull'IA l'opportunità di presentare gli orientamenti ai portatori di interessi degli Stati membri, compresi i settori dell'industria e dei servizi, e di fornire loro un'ulteriore opportunità di formulare osservazioni in merito agli orientamenti sull'IA e contribuire agli stessi.
La Commissione terrà conto del lavoro del gruppo di esperti sull'etica per quanto riguarda la guida connessa e automatizzata e opererà in collaborazione con progetti di ricerca finanziati dall'UE nel campo dell'IA e con i pertinenti partenariati pubblico-privato per l'attuazione dei requisiti fondamentali. Ad esempio la Commissione sosterrà, in coordinamento con gli Stati membri, lo sviluppo di una banca dati comune di immagini medicali, inizialmente dedicata alle forme più comuni di tumore, che consentirà di addestrare gli algoritmi a diagnosticare i sintomi con una precisione molto elevata. Analogamente, la collaborazione tra la Commissione e gli Stati membri permetterà di realizzare un numero sempre maggiore di corridoi transfrontalieri per le prove dei veicoli connessi e automatizzati. Gli orientamenti dovrebbero essere applicati e testati in questi progetti e i risultati saranno integrati nel processo di valutazione.
Per la fase pilota e la consultazione dei portatori di interessi si potrà contare sul contributo dell'Alleanza europea per l'IA e di AI4EU, la piattaforma di IA "on demand". Il progetto AI4EU, avviato nel gennaio 2019, riunisce algoritmi, strumenti, set di dati e servizi per aiutare le organizzazioni, in particolare le piccole e medie imprese, ad attuare soluzioni di IA. L'Alleanza europea per l'IA, insieme a AI4EU, continuerà a mobilitare l'ecosistema dell'IA in tutta Europa, anche nel contesto della fase pilota degli orientamenti etici sull'IA e per promuovere il rispetto per un'IA antropocentrica.
All'inizio del 2020, sulla base della valutazione del feedback ricevuto durante la fase pilota, il gruppo di esperti ad alto livello sull'IA riesaminerà e aggiornerà gli orientamenti. Analizzati il riesame e l'esperienza acquisita, la Commissione valuterà i risultati e proporrà eventuali passi successivi.
L'IA etica è una proposta vantaggiosa per tutti. Garantire il rispetto dei valori e dei diritti fondamentali non solo è un elemento essenziale di per sé, ma facilita anche l'accettazione da parte del pubblico e aumenta il vantaggio competitivo delle imprese europee attive nel campo dell'IA creando un'IA antropocentrica e affidabile, nota per i suoi prodotti etici e sicuri e, più in generale, forte della solida reputazione delle imprese europee nel fornire prodotti sicuri e di alta qualità. La fase pilota contribuirà a garantire che i prodotti dell'IA mantengano tale promessa.  “.

In questo quadro di formazione normativa si ricorda la risoluzione del Parlamento europeo del 14 marzo 2017 sulle implicazioni dei Big Data per i diritti fondamentali: privacy, protezione dei dati, non discriminazione, sicurezza e attività di contrasto di cui https://www.europarl.europa.eu/doceo/document/TA-8-2017-0076_IT.pdf.
Inoltre essenziale è il riferimento alla   risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica           https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_IT.pdf.

Nel rispetto delle conclusioni riportate nella comunicazione 168/2019, si specifica che comunicazione del  19.2.2020 COM(2020) 65 final la commissione ha diffuso il Libro bianco  sull'intelligenza artificiale - Un approccio europeo all'eccellenza e alla fiducia di cui al  https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf.
Documento che vuol rilanciare un’impostazione regolamentare per le parti statuali.
Dunque tramite il documento rilasciato a Bruxelles, 19.2.2020 COM(2020) 65 final quale “LIBRO BIANCO sull'intelligenza artificiale - Un approccio europeo all'eccellenza e alla fiducia”
https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf che si allega.
“La Commissione invita a formulare osservazioni sulle proposte presentate nel libro bianco mediante una consultazione pubblica aperta …  Sarà possibile formulare osservazioni nel quadro della consultazione fino al 19 maggio 2020.”.