Responsabilità civile  -  Redazione P&D  -  09/12/2023

Intelligenza artificiale, accordo UE sulla prima legge al mondo basata sui livelli di rischio

MA I TEMPI DI ATTUAZIONE SONO TROPPO LUNGHI

-------------

L'accordo prevede che la Legge si applichi due anni dopo la sua entrata in vigore.

-----

Dopo una maratona di negoziati durata tre giorni, il Consiglio Ue e il Parlamento europeo hanno raggiunto un accordo sulla proposta di norme armonizzate sull'intelligenza artificiale (Ia). Il regolamento - il primo del genere al mondo - vuole garantire che i sistemi di intelligenza artificiale immessi sul mercato europeo e utilizzati nell'Ue siano sicuri e rispettino i diritti fondamentali e i valori dell'Ue. E, allo stesso tempo, stimolare gli investimenti e l'innovazione nell'Ia in Europa. L'idea principale e' di regolamentare l'intelligenza artificiale in base alla capacita' di quest'ultima di causare danni alla società seguendo un approccio «basato sul rischio»: si va dal rischio minimo a quello inaccettabile; maggiore è il rischio, più severe sono le regole.

---

La stragrande maggioranza dei sistemi di intelligenza artificiale rientra nella categoria del rischio minimo e beneficeranno di un free-pass. I sistemi di intelligenza artificiale identificati come ad alto rischio saranno tenuti invece a rispettare requisiti rigorosi, tra cui sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un alto livello di robustezza, accuratezza e sicurezza informatica. Le sandbox normative faciliteranno l'innovazione responsabile e lo sviluppo di sistemi aI conformi.

---

Esempi di sistemi di intelligenza artificiale ad alto rischio includono alcune infrastrutture critiche, ad esempio nei settori dell'acqua, del gas e dell'elettricita'; dispositivi medici; sistemi per determinare l'accesso alle istituzioni educative o per reclutare persone; o alcuni sistemi utilizzati nei settori delle forze dell'ordine, del controllo delle frontiere, dell'amministrazione della giustizia e dei processi democratici. Inoltre, anche i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni sono considerati ad alto rischio.

-----

Il rischio inaccettabile riguarda i sistemi di intelligenza artificiale considerati una chiara minaccia ai diritti fondamentali delle persone e saranno vietati. Questa blacklist include sistemi o applicazioni di intelligenza artificiale che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti, come giocattoli che utilizzano l'assistenza vocale che incoraggiano comportamenti pericolosi dei minori o sistemi che consentono il «punteggio sociale» da parte di governi o aziende e alcune applicazioni di polizia predittiva. Inoltre, alcuni usi dei sistemi biometrici saranno vietati, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o il riconoscimento facciale in tempo reale ai fini delle forze dell'ordine in spazi accessibili al pubblico (con eccezioni ristrette). L'accordo raggiunto chiarisce gli obiettivi in cui tale uso è strettamente necessario ai fini dell'applicazione della legge e per i quali le autorità incaricate dell'applicazione della legge dovrebbero quindi essere eccezionalmente autorizzate a utilizzare tali sistemi.

----

L'accordo prevede ulteriori garanzie e limita queste eccezioni ai casi di vittime di determinati reati, alla prevenzione di minacce reali, presenti o prevedibili, come gli attacchi terroristici e alla ricerca di persone sospettate dei crimini più gravi. Vi è poi la categoria dei rischi specifici, quali le ormai famose chatbot. Quando le utilizzano, gli utenti dovrebbero essere consapevoli che stanno interagendo con una macchina. I deepfake e altri contenuti generati dall'Ia dovranno essere etichettati come tali e gli utenti devono essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo che i contenuti audio, video, testo e immagini sintetici siano contrassegnati in un formato leggibile dalla macchina e rilevabili come generati o manipolati artificialmente. Il regolamento non si applica a settori al di fuori del campo di applicazione del diritto dell'Ue e non dovrebbe, in ogni caso, pregiudicare le competenze degli Stati membri in materia di sicurezza nazionale o qualsiasi entità incaricata di compiti in questo settore. Inoltre, la legge sull'Ia non si applichera' ai sistemi utilizzati esclusivamente per scopi militari o di difesa. Allo stesso modo, l'accordo prevede che il regolamento non si applichi ai sistemi di intelligenza artificiale utilizzati al solo scopo di ricerca e innovazione, o alle persone che utilizzano l'intelligenza artificiale per motivi non professionali.




Autore

immagine A3M

Visite, contatti P&D

Nel mese di Marzo 2022, Persona&Danno ha servito oltre 214.000 pagine.

Libri

Convegni

Video & Film