Skip to main content

Schede informative

Riprendiamo la rubrica di schede informative sulle attività dell'Unione europea, che sono state molto apprezzate, con riferimenti giuridici ma anche con riferimenti legati al dibattito politico e culturale, relative a temi di grande rilevanza sociale su cui l’Europa sta adottando scelte e scrivendo norme che delineeranno un orizzonte di scelte di standard che l‘ Europa auspica possano diventare di riferimento globale. Se volete ulteriori approfondimenti scrivetemi a: 

AI Act - Le prime norme al mondo sull’Intelligenza Artificiale

Il 14 giungo al Parlamento europeo è stato approvato un fondamentale Regolamento sull'intelligenza artificiale.

Fondamentale perché costituisce il primo tentativo AL MONDO di creare un impianto normativo per l'attività e lo sviluppo del digitale nella sua più avanzata applicazione: l'intelligenza artificiale.

Da tempo l'Europa costruisce pilastri di questa architettura (il Data Governance Act, il Data Act, il Digital Market Act e il Digital Service Act), ma ora siamo al “tetto” o alle “fondamenta” dell'edificio con le norme sull'intelligenza artificiale.

ai

L'ambizione europea è che queste norme possano costituire uno standard globale e siano perciò osservate non solo sul nostro continente, ma arrivino ad essere significative anche sul mercato asiatico e americano.

L'Europa non ha timore di porre regole e anche divieti escludendo la possibilità di utilizzare le applicazioni più rischiose e l’Europa interviene anche, con tempestività, sulle applicazioni dell'intelligenza generativa, le Chat GPT 4 e altre recentissime applicazioni.

LIVELLI DI RISCHIO

Vengono identificati i livelli di rischio delle applicazioni dell’AI:

  • le più “rischiose” hanno una specie di bollino rosso, cioè un divieto perché considerate inaccettabili e dunque sono vietate (ad esempio le identificazioni biometriche in tempo reale e post, i sistemi di riconoscimento delle emozioni, le categorizzazioni biometriche e l'estrapolazione di dati biometrici da filmati o Internet).
  • Sistemi a livello di alto rischio che determinano conseguenze negative sociali o ambientali e danno per la sicurezza delle persone e per i loro diritti, nonché sull’ambiente.
  • A questo livello è stata inserita l’AI generativa come Chat GPT.
  • A queste recentissime applicazioni andrà obbligatoriamente chiesto di rendere note quali basi di dati sono utilizzate, e quali contenuti sono prodotti proprio dall’AI.

Tutto ciò in nome della trasparenza e dei suoi obblighi.

  • Infine, dovrà essere reso pubblico anche l'elenco dei dati utilizzati per addestrare Chat GPT.

Tra questi rientrano anche i sistemi che possono influenzare o manipolare gli elettori e la notifica dei contenuti utilizzati, se coperti da diritto d’autore.

  • Seguono i sistemi a rischio limitato che producono contenuti di immagini, audio e video.

Questi sistemi dovranno rispettare le regole basilari della trasparenza e il rispetto delle norme come il “consenso informato” secondo Gdpr.

Tra i requisiti da avere ci sono le condizioni per valutare l'eventuale danno per la salute, per la sicurezza e l'ambiente.

Seguono poi le apposite sanzioni, per:

  • il mancato rispetto dei requisiti,
  • violazione dei divieti
  • o il mancato rispetto di alcuni obblighi previsti.

Tra gli obblighi importanti e da segnalare vi è quello di informare le persone allorché siano soggette ad un sistema di AI.

Anche la tutela della democrazia è entrata nel Regolamento e ne possiamo tutti comprendere l’importanza, viste e considerate le manipolazioni informative digitali nelle elezioni.

I fornitori di sistemi di AI ad alto rischio, prima di immetterli sul mercato, devono soddisfare un requisito di “valutazione del rischio” con particolare attenzione ai rischi per gruppi vulnerabili, come i minori, le persone con disabilità, etc.

Per garantire il buon funzionamento del Regolamento, il rispetto delle norme, il monitoraggio e il controllo viene dato molto spazio al sistema di governance:

  • dalla novità dell'UFFICIO AI a livello EU (con personalità giuridica indipendente),
  • alle Autorità nazionali,
  • agli alti organi e soggetti del sistema.

Sono previste anche “indagini comuni” nel caso di infrazioni in più Stati per evitare che i soggetti interessati trovino nella disomogeneità applicativa nazionale delle “zone grigie” dove inserirsi.

Osservazione politica

Va sottolineato con soddisfazione che nell’ambito dell’esame in Parlamento le priorità del gruppo S&D sono state garantite.

In particolare:

  • l’estensione del numero di sistemi di IA e di usi da vietare;
  • l’assicurazione della protezione sul luogo di lavoro;
  • la valutazione di impatto dei diritti fondamentali;
  • l’obbligo di garantire una corretta e completa alfabetizzazione in materia di IA;
  • la responsabilizzazione delle persone con l’obbligo di essere informati, se soggetti alle applicazioni di IA;
  • l’obbligo per le imprese di impostare il proprio sistema di IA con capacità di registrazione per monitorare il consumo di energia e per calcolare l’impatto ambientale.

Queste priorità del gruppo S&D sono senza dubbio parti che arricchiscono e rendono democratico e fair per i cittadini il Regolamento di IA e i suoi sistemi applicativi, compresi i più recenti che sono definiti sistemi di intelligenza generativa.

  • Creato il .