L’AI Act pone le basi della regolamentazione dell’intelligenza artificiale nell’Unione Europea. Proposto dalla Commissione Europea, questo regolamento mira a stabilire un quadro normativo chiaro e armonizzato per l’uso dell’intelligenza artificiale, promuovendo l’innovazione e garantendo al contempo la sicurezza e la tutela dei diritti fondamentali dei cittadini.
L’AI Act si propone di affrontare i rischi associati all’IA attraverso una classificazione basata sul livello di rischio, introducendo requisiti specifici per i sistemi ad alto rischio e vietando quelli considerati inaccettabili. Scopriamo cosa cambierà con l’AI Act, le sue implicazioni per i diversi settori e le misure adottate per garantire un uso responsabile ed etico dell’intelligenza artificiale.
AI Act: significato e funzionamento
L’AI Act è una proposta di regolamento introdotta dalla Commissione Europea il 21 aprile 2021, che mira a garantire che i sistemi di intelligenza artificiale utilizzati nell’Unione Europea rispettino pienamente i diritti e i valori fondamentali dell’UE, tra cui il controllo umano, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale.
Le applicazioni dell’intelligenza artificiale stanno rapidamente evolvendo verso capacità di analisi in tempo reale e capacità decisionali basate sui dati disponibili. È proprio questa capacità di prendere decisioni e apprendere che rende essenziali le valutazioni etiche menzionate all’inizio dell’articolo. Chi sarà ritenuto responsabile se un’applicazione AI prende una decisione errata, privilegia ingiustamente o danneggia un individuo? Questo interrogativo ha spinto l’Unione Europea a sviluppare il primo regolamento al mondo sull’intelligenza artificiale, visto il crescente impatto di questa tecnologia.
L’elaborazione di normative per l’uso delle tecnologie deve bilanciare la protezione della privacy e della sicurezza dei cittadini con la necessità di permettere lo sviluppo e l’innovazione delle applicazioni AI. Si tratta di un compito complesso e cruciale che richiede un approccio equilibrato per garantire che le norme regolatorie sostengano il progresso tecnologico senza compromettere la sicurezza e i diritti fondamentali dei cittadini europei.
AI Act 2024: quali sono gli obiettivi del regolamento?
Attualmente, la legislazione sull’intelligenza artificiale rappresenta il più avanzato sistema normativo globale in materia. Il suo fondamento giuridico è principalmente economico, focalizzato sull’utilizzo dei sistemi di identificazione biometrica.
A prima vista, le norme appaiono chiare e bilanciate rispetto ai diritti dei cittadini. Inoltre, la decisione di istituire una commissione speciale è congruente con la politica dell’Unione Europea sulla protezione dei dati personali.
Gli obiettivi principali della legislazione sull’IA includono:
- stabilire normative nazionali per garantire lo sviluppo e l’uso sicuro dell’IA nel rispetto dei diritti umani fondamentali;
- assicurare il corretto funzionamento del mercato interno attraverso regolamenti armonizzati;
- facilitare lo sviluppo, l’introduzione e l’adozione di prodotti e servizi basati sull’IA nel mercato dell’UE.
Tuttavia, permangono ancora significativi dubbi in merito.
L’impiego dei sistemi di riconoscimento facciale a distanza negli spazi pubblici è particolarmente problematico e intrusivo. Autorizzarne l’utilizzo in circostanze eccezionali presenta diverse criticità:
- l’utilizzo per finalità antiterrorismo e l’esecuzione di ordini di cattura europei comportano il rischio di errori giudiziari;
- l’ampliamento indiscriminato delle intercettazioni telefoniche aumenta il rischio di compromettere la privacy personale;
- l’uso dei sistemi di riconoscimento facciale AI nei procedimenti giudiziari non è ancora chiaro in termini di normative applicabili;
- vi è la preoccupazione che la biometria e il riconoscimento facciale a distanza possano essere utilizzati indiscriminatamente nei confronti di migranti, sia legali che illegali.
Questi punti sollevano interrogativi significativi e richiedono un approfondimento approfondito per bilanciare l’efficacia delle misure di sicurezza con la salvaguardia dei diritti fondamentali dei cittadini all’interno dell’Unione Europea.
AI Act: i campi di applicazione
L’AI Act non si applica a settori che esulano dal campo di applicazione del diritto dell’Unione Europea e non dovrebbe, in alcun caso, interferire con le competenze degli Stati membri in materia di sicurezza nazionale. Infatti, il regolamento non si applicherà ai sistemi utilizzati esclusivamente per scopi militari o di difesa. Analogamente, l’accordo stabilisce che il regolamento non si applichi ai sistemi di intelligenza artificiale (IA) utilizzati esclusivamente per scopi di ricerca e innovazione o alle persone che utilizzano l’IA per fini non professionali.
L’accordo stabilisce un livello orizzontale di protezione, che include una classificazione ad alto rischio, al fine di garantire che non siano inclusi i sistemi di IA che non comportano il rischio di gravi violazioni dei diritti fondamentali o altri rischi significativi.
I sistemi di IA che presentano solo un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, come ad esempio l’obbligo di informare che il contenuto è stato generato dall’IA, permettendo così agli utenti di prendere decisioni informate riguardo al loro utilizzo.
Un’ampia gamma di sistemi di IA ad alto rischio sarà autorizzata, ma soggetta a una serie di requisiti e obblighi per poter accedere al mercato dell’UE. Questi requisiti sono stati chiariti e adattati dai colegislatori per renderli tecnicamente più realizzabili e meno onerosi per gli interessati, ad esempio riguardo alla qualità dei dati o alla documentazione tecnica che le piccole e medie imprese devono redigere per dimostrare la conformità dei loro sistemi ad alto rischio ai requisiti.
Per alcuni usi dell’IA, il rischio è considerato inaccettabile e, di conseguenza, tali sistemi saranno vietati nell’UE. Ad esempio, l’accordo proibisce la manipolazione comportamentale cognitiva, lo scraping indiscriminato di immagini facciali da Internet o da filmati di telecamere a circuito chiuso, il riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, il punteggio sociale, la categorizzazione biometrica per dedurre dati sensibili come l’orientamento sessuale o le convinzioni religiose, e alcune applicazioni di polizia predittiva.
Master II livello in intelligenza artificiale e blockchain: la proposta Unicusano
L’Università Telematica Niccolò Cusano, con il Master in intelligenza artificiale e blockchain, offre un percorso formativo post-laurea professionalizzante che approfondisce aspetti tecno-giuridici ed economici, con applicazioni in ambito medico e industriale. Il master fornisce conoscenze e competenze sull’utilizzo di software basati sull’intelligenza artificiale e sull’uso della tecnologia blockchain nei settori medico, giuridico e del business. Il corso ha una durata di 1500 ore e si conclude con un esame.
Durante il percorso vengono trattate le tematiche legate all’IA, dalle origini alle applicazioni pratiche, introdotta la tecnologia blockchain e analizzati gli aspetti legali e fiscali. Sono inoltre affrontati molteplici casi di studio. Si studiano anche le tematiche legate alla privacy e il bilanciamento dei diritti in relazione alla gestione dei dati tramite software e database, con particolare attenzione al rispetto del GDPR.
Al termine del corso, il professionista sarà in grado di applicare soluzioni di IA e blockchain, con particolare riferimento alla valutazione dei requisiti, al rapporto costi-benefici e alle attività di rilascio e deployment dei progetti.
Credits: vitaliy_sokol/DepositPhotos.com