Raggiunta l’intesa sull’AI ACT

Dopo una maratona di ben 36 ore, lo scorso 8 dicembre la Commissione, il Consiglio e il Parlamento europeo hanno raggiunto un’intesa sull’Artificial Intelligence Act, meglio noto come AI Act, prima regolamentazione al mondo sull’intelligenza artificiale. Sarà ora compito dei tecnici procedere con la stesura definitiva del regolamento, che dovrà poi essere approvato dal Parlamento e dal Consiglio europeo e sperabilmente entrare in vigore nei 27 paesi UE entro due anni. Secondo i più esperti, è ragionevole ritenere che un primo testo del regolamento circolerà entro l’estate 2024.

L’obiettivo generale dell’AI Act è quello di favorire lo sviluppo e l’uso dei sistemi di intelligenza artificiale nell’UE, facendo dell’Europa leader nel settore ma garantendo allo stesso tempo che tali sistemi siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente.

Le norme stabiliscono obblighi per l’AI in base ai suoi rischi potenziali e al livello di impatto.

Di seguito, in sintesi, i principi concordati dal Trilogo UE.

Applicazioni vietate

Sono stati anzitutto vietati:

  • i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza);

  • la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale;

  • il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni scolastiche;

  • la classificazione sociale basata sul comportamento sociale o sulle caratteristiche personali;

  • i sistemi di Ai che manipolano il comportamento umano per eludere il loro libero arbitrio;

  • l’AI utilizzata per sfruttare le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale o economica).

Esenzioni per le forze dell’ordine

Uno dei temi più dibattuti ha riguardato le esenzioni per le forze dell’ordine. I negoziatori hanno concordato una serie di salvaguardie ed eccezioni ristrette per l’uso dei sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico, previa autorizzazione giudiziaria e per liste di reati rigorosamente definite. L’RBI c.d. “post-remoto” verrebbe utilizzato esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave.

L'RBI c.d. “in tempo reale” è ammesso solo in presenza di rigide condizioni e il suo uso è limitato nel tempo e nel luogo, ai fini di:

  • ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale);

  • prevenzione di una minaccia terroristica specifica e attuale;

  • localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (ad esempio, terrorismo, traffico di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un'organizzazione criminale, reati ambientali).

Obblighi per i sistemi ad alto rischio

Per i sistemi di AI classificati come ad alto rischio, a causa del loro potenziale danno significativo alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo stato di diritto, sono stati concordati obblighi chiari, fra cui una valutazione obbligatoria dell’impatto sui diritti fondamentali, applicabile anche ai settori assicurativo e bancario. Anche i sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori sono classificati come ad alto rischio. I cittadini avranno il diritto di presentare reclami sui sistemi di AI e di ricevere spiegazioni sulle decisioni basate sui sistemi di AI ad alto rischio che hanno un impatto sui loro diritti.

Guardrail per i sistemi di intelligenza artificiale generale

Per tenere conto dell’ampia gamma di compiti che i sistemi di intelligenza artificiale possono svolgere e della rapida espansione delle loro capacità, è stato deciso che i sistemi di intelligenza artificiale generica (GPAI) e i modelli GPAI su cui si basano dovranno aderire ai requisiti di trasparenza inizialmente proposti dal Parlamento, compresa la stesura di una documentazione tecnica, il rispetto della legge sul copyright dell’UE e la diffusione di sintesi dettagliate sui contenuti utilizzati per la formazione.

 

Per i modelli GPAI ad alto impatto con rischio sistemico, i negoziatori del Parlamento sono riusciti a ottenere obblighi più stringenti. Se questi modelli soddisfano determinati criteri, dovranno condurre valutazioni del modello, valutare e mitigare i rischi sistemici, condurre test avversari, riferire alla Commissione su incidenti gravi, garantire la sicurezza informatica e riferire sulla loro efficienza energetica. Fino alla pubblicazione di standard UE armonizzati, le GPAI con rischio sistemico possono affidarsi a codici di pratica per conformarsi al regolamento.

Misure a sostegno dell'innovazione e delle PMI

L’accordo promuove le cosiddette “regulatory sandboxes e real-world-testing”, istituite dalle autorità nazionali per sviluppare e addestrare l'AI innovativa prima dell’immissione sul mercato. Questo al fine di garantire che le imprese, soprattutto le PMI, possano sviluppare soluzioni di AI senza subire pressioni indebite da parte dei giganti del settore che controllano la catena del valore.

Sanzioni

Il mancato rispetto delle norme può portare a multe che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda.

Per maggiori informazioni, visitate qui.

Indietro
Indietro

L’UIBM riconosce tutela di marchio rinomato a “EXCELLENCE” di Lindt

Avanti
Avanti

La Cassazione sulla Vespa Piaggio: no al marchio 3D, sì al diritto d’autore (anche se non avesse valore artistico?)