Comunicazione

AI Act: tra innovazione e diritti umani

L’articolo affronta la presenza massiva dell’Intelligenza Artificiale nella società odierna soffermandosi sulla necessità sempre più impellente di un assetto normativo che garantisca la tutela dei diritti umani. Una volta fornita un’analisi approfondita dell’approccio europeo, soffermandosi con particolare attenzione sull’AI Act (la prima legge al mondo a disciplinare in modo globale questa tecnologia), viene proposto un confronto con il modello statunitense e cinese.

Intelligenza Artificiale: opportunità e rischi

La crescita esponenziale dell’IA negli ultimi anni, evidente in applicazioni come Chat GPT, il riconoscimento facciale oppure ancora i deepfake, ha portato alla necessità di un quadro normativo che bilanci innovazione e tutela dei diritti. Questo genere di modernizzazione, infatti, può portare sia numerosi vantaggi che conseguenze negative per quanto riguarda molti aspetti della nostra vita quotidiana e della società in cui viviamo, quali ad esempio sicurezza, occupazione e democrazia.

Tra i benefici più evidenti attribuibili all’IA è possibile menzionare dei giovamenti nell’assistenza sanitaria, la creazione di prodotti e servizi su misura, una maggiore facilità nell’accesso all’informazione e all’istruzione, oppure ancora la garanzia di una migliore sicurezza in alcuni ambienti di lavoro.

Dall’altro lato della medaglia, tuttavia, se non programmata correttamente, l’IA potrebbe condurre a serie minacce sotto diversi aspetti, come ad esempio: una protezione dei dati compromessa; un’influenza negativa per l’informazione (basti pensare al fenomeno delle “filter bubbles”, che grazie a sistemi algoritmici in grado di filtrare le informazioni a disposizione degli utenti porta a una condizione di isolamento intellettuale invece di creare ambienti digitali aperti e inclusivi); la possibilità di fini ingannevoli, quali truffe, grazie alla sua capacità di creare immagini, video e audio falsi ma estremamente realistici.

In uno scenario come quello appena descritto, l’UE si presenta come pioniera nel tentativo di promuovere un’Intelligenza Artificiale affidabile per cittadini e imprese, spingendo verso un uso responsabile di quest’ultima, per evitare sia abusi che reticenza nel suo utilizzo.

Approccio normativo europeo

Il 21 aprile 2021 la Commissione Europea ha proposto quello che viene considerato il primo quadro giuridico globale in materia di IA, entrato ufficialmente in vigore il 1° agosto 2024 (con alcune disposizioni che saranno applicate gradualmente nei 6-36 mesi successivi), e che prende il nome di “Artificial Intelligence Act”. L’AI act ha come obiettivo principale quello di garantire che i sistemi di IA siano sicuri e rispettino i diritti fondamentali dell’UE e si propone di migliorare il funzionamento del mercato interno, promuovendo la diffusione di un’intelligenza artificiale antropocentrica e affidabile. Il regolamento stabilisce un sistema sanzionatorio per garantire il rispetto delle norme, secondo il quale le sanzioni amministrative pecuniarie possono variare a seconda della gravità della violazione. L’approccio attraverso il quale questa legge stabilisce le regole da applicarsi ai sistemi di IA è basato sulla classificazione di questi ultimi secondo il livello di rischio attribuitogli: inaccettabile, alto, limitato, basso o minimo.

Rischio inaccettabile

Tutti i sistemi di IA considerati una seria minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone rientrano in questa categoria e non possono essere immessi sul mercato o utilizzati nell’UE. Alcuni esempi sono: la manipolazione cognitiva dei bambini o delle persone vulnerabili, la sorveglianza biometrica di massa e il social scoring.

Rischio alto

Sono considerati ad alto rischio i casi d’uso che possono comportare gravi rischi per la salute, la sicurezza o i diritti fondamentali, come ad esempio: l’applicazione dell’IA nella chirurgia assistita da robot oppure l’uso di software di selezione dei CV durante le procedure di assunzione. Per questi sistemi sono previsti requisiti di trasparenza, tracciabilità, supervisione umana e valutazione della conformità.

Rischio limitato

I sistemi di IA che fanno parte di questo gruppo non sono né vietati né soggetti a requisiti rigorosi, tuttavia, l’AI Act impone specifici obblighi di trasparenza. I due casi più noti di sistemi a rischio limitato sono gli assistenti virtuali (come i Chatbot) e l’Intelligenza Artificiale generativa.

Rischio basso o minimo

La maggior parte dei sistemi di IA attualmente utilizzati nell’UE rientra in questa divisione, per la quale la legge sull’IA non ha introdotto norme: ne sono un chiaro esempio videogiochi abilitati all’intelligenza artificiale o filtri antispam.

Dal momento in cui l’IA è in grado di modificare il proprio comportamento adattandosi autonomamente, una delle sfide principali in Europa nell’ambito della sua adozione è proprio la questione della fiducia: la sfida in fronte alla quale siamo posti riguarda infatti la possibilità di imparare a fidarci di tecnologie non completamente prevedibili e parzialmente autonome. In risposta a questa esigenza è stato adottato il cosiddetto approccio “Human-in-the-Loop” il quale promuove un costante coinvolgimento dell’uomo nei processi decisionali chiave, facendo si che la fiducia venga costruita direttamente nella fase di progettazione del sistema. Un esempio concreto che possa aiutare a comprendere questo metodo operativo, in cui l’Intelligenza Artificiale deve essere usata come un supporto e non come un rimpiazzo, sono i sistemi di diagnostica medica basati su IA, in cui l’algoritmo può analizzare grandi quantità di dati clinici e proporre una diagnosi, lasciando comunque la decisione finale ad un medico in carne ed ossa.

Europa, America e Cina a confronto

Sfortunatamente il tentativo di rendere più “a prova d’uomo” il progresso tecnologico non è nell’interesse di tutti i paesi e governi ed è proprio in questa direzione che l’Europa si distingue da altre nazioni. A differenza dell’Europa, che propone un approccio basato sulla salvaguardia e protezione dei diritti fondamentali, i modelli adottati dagli USA e dalla Cina prediligono rispettivamente l’innovazione e il controllo statale.

Europa

Come esposto in precedenza, nel contesto europeo viene conferita massima importanza ai diritti fondamentali e alla non discriminazione, attraverso una regolamentazione basata sul rischio e che agisce per mezzo di un approccio orizzontale e precauzionale. Dovendo scegliere un aggettivo il clima d’azione potrebbe dunque venire definito “riflessivo” e non unicamente mirato allo sviluppo.

Stati Uniti

Diversamente dall’Europa, negli Stati Uniti d’America non esiste una legge federale unificata, ma piuttosto delle linee guida volontarie (come l’IA Bill of Rights del 2022). Con un approccio decentrato e settoriale, che tenta di evitare un disciplinamento eccessivo, gli USA si sono fissati come obiettivo principale quello dell’innovazione. L’atmosfera che si è man mano andata a creare in questi ultimi anni risulta quindi dinamica, sperimentale e improntata ad un’etica di mercato che sovrasta ogni interesse sociale in nome della competitività. Le protagoniste di questa spinta allo sviluppo sono grandi aziende tecnologiche come Google e Microsoft.

Cina

Caratterizzato da regolamenti mirati per specifiche applicazione dell’IA, l’ambiente in Cina si presenta come molto centralizzato e basato su un approccio verticale il cui scopo primario è mantenere il controllo sociale. Lo Stato è la figura di spicco di questo sistema e l’Intelligenza Artificiale rappresenta solo uno strumento di potere, usato per finalità quali rafforzare la sicurezza interna o monitorare il comportamento dei cittadini.

Conclusione

Quello dell’Intelligenza Artificiale è uno sviluppo continuo, dovuto alla forte adattabilità che la contraddistingue, e per la quale è fondamentale la presenza di una regolamentazione altrettanto attiva. Una continua evoluzione come quella esaminata fino ad ora richiede però, oltre ad una risposta veloce ai cambiamenti tecnologici, anche una cooperazione internazionale che impedisca alle diverse normative nazionali di differire eccessivamente l’una dall’altra e che assicuri il rispetto globale dei diritti fondamentali dell’uomo. Una regolamentazione giuridica che permetta lo sviluppo economico ma che tuteli allo stesso tempo i valori fondamentali della società dovrebbe essere vista dunque come una garanzia etica e di protezione, anziché come un ostacolo al progresso o un limite per l’innovazione.

Una questione ancora più profonda riguarda invece il rapporto tra innovazione e umanità: com’è possibile sfruttare le capacità offerte dall’IA senza che questa prenda completamente il nostro posto? In un’epoca dominata da valori quali efficienza, competizione e dinamismo sembriamo esserci dimenticati che seppur da un lato l’Intelligenza Artificiale possa amplificare le nostre capacità e migliorare la qualità delle nostre prestazioni, dall’altro la posta in palio è la perdita della capacità di pensare, agire, di scegliere che per natura ci contraddistingue. Rincorrere incessantemente il progresso senza guidarlo seguendo un codice morale ci renderà passivi spettatori di un panorama disumanizzato ideale per un mondo ed una società che si costruiranno progressivamente senza di noi. A questo proposito l’AI Act rappresenta un primo passo verso l’idea di un’IA che serva all’uomo come un supporto senza sostituirlo, perché la vera innovazione non risiede nel potenziale delle macchine, ma nella nostra capacità di mantenerne il controllo.

Bibliografia  

European Commission. (n.d.). Regulatory framework proposal on artificial intelligence. European Commission – Digital Strategy. Retrieved April 16, 2025.

Savino, M. (2021, aprile 20). AI, così l’Europa può tornare in partita con USA e Cina. Agenda Digitale.

Middleton, S. E., Letouzé, E., Hossaini, A., & Chapman, A. (2022). Trust, Regulation, and Human-in-the-Loop AI within the European Region. Communications of the ACM, 65(4), 64–66.

Parlamento Europeo. (2020). Quali sono i rischi e i vantaggi dell’intelligenza artificiale? Direzione Generale della Comunicazione.

 

NESSUN COMMENTO

Lascia un Commento

This site uses Akismet to reduce spam. Learn how your comment data is processed.