{"id":11727,"date":"2025-05-06T12:30:19","date_gmt":"2025-05-06T10:30:19","guid":{"rendered":"https:\/\/www.economiaediritto.it\/?p=11727"},"modified":"2025-05-06T12:30:19","modified_gmt":"2025-05-06T10:30:19","slug":"ai-act-tra-innovazione-e-diritti-umani","status":"publish","type":"post","link":"https:\/\/www.economiaediritto.it\/es\/ai-act-tra-innovazione-e-diritti-umani\/","title":{"rendered":"AI Act: tra innovazione e diritti umani"},"content":{"rendered":"<p style=\"text-align: justify;\"><em>L\u2019articolo affronta la presenza massiva dell\u2019Intelligenza Artificiale nella societ\u00e0 odierna soffermandosi sulla necessit\u00e0 sempre pi\u00f9 impellente di un assetto normativo che garantisca la tutela dei diritti umani. Una volta fornita un\u2019analisi approfondita dell\u2019approccio europeo, soffermandosi con particolare attenzione sull\u2019AI Act (la prima legge al mondo a disciplinare in modo globale questa tecnologia), viene proposto un confronto con il modello statunitense e cinese.<\/em><\/p>\n<p style=\"text-align: justify;\"><strong>Intelligenza Artificiale: opportunit\u00e0 e rischi <\/strong><\/p>\n<p style=\"text-align: justify;\">La crescita esponenziale dell\u2019<strong>IA<\/strong> negli ultimi anni, evidente in applicazioni come <em>Chat GPT<\/em>, il riconoscimento facciale oppure ancora i <em>deepfake<\/em>, ha portato alla necessit\u00e0 di un quadro normativo che bilanci <strong>innovazione<\/strong> e <strong>tutela dei diritti<\/strong>. Questo genere di modernizzazione, infatti, pu\u00f2 portare sia numerosi vantaggi che conseguenze negative per quanto riguarda molti aspetti della nostra vita quotidiana e della societ\u00e0 in cui viviamo, quali ad esempio sicurezza, occupazione e democrazia.<\/p>\n<p style=\"text-align: justify;\">Tra i <strong>benefici<\/strong> pi\u00f9 evidenti attribuibili all\u2019IA \u00e8 possibile menzionare dei giovamenti nell\u2019assistenza sanitaria, la creazione di prodotti e servizi su misura, una maggiore facilit\u00e0 nell\u2019accesso all\u2019informazione e all\u2019istruzione, oppure ancora la garanzia di una migliore sicurezza in alcuni ambienti di lavoro.<\/p>\n<p style=\"text-align: justify;\">Dall\u2019altro lato della medaglia, tuttavia, se non programmata correttamente, l\u2019IA potrebbe condurre a serie <strong>minacce<\/strong> sotto diversi aspetti, come ad esempio: una protezione dei dati compromessa; un\u2019influenza negativa per l\u2019informazione (basti pensare al fenomeno delle \u201c<em>filter bubbles<\/em>\u201d, che grazie a sistemi algoritmici in grado di filtrare le informazioni a disposizione degli utenti porta a una condizione di isolamento intellettuale invece di creare ambienti digitali aperti e inclusivi); la possibilit\u00e0 di fini ingannevoli, quali truffe, grazie alla sua capacit\u00e0 di creare immagini, video e audio falsi ma estremamente realistici.<\/p>\n<p style=\"text-align: justify;\">In uno scenario come quello appena descritto, l\u2019UE si presenta come pioniera nel tentativo di promuovere un\u2019Intelligenza Artificiale affidabile per cittadini e imprese, spingendo verso un uso responsabile di quest\u2019ultima, per evitare sia abusi che reticenza nel suo utilizzo.<\/p>\n<p style=\"text-align: justify;\"><strong>Approccio normativo europeo <\/strong><\/p>\n<p style=\"text-align: justify;\">Il 21 aprile 2021 la Commissione Europea ha proposto quello che viene considerato il primo quadro giuridico globale in materia di IA, entrato ufficialmente in vigore il 1\u00b0 agosto 2024 (con alcune disposizioni che saranno applicate gradualmente nei 6-36 mesi successivi), e che prende il nome di \u201c<em>Artificial Intelligence Act<\/em>\u201d. L\u2019AI act ha come obiettivo principale quello di garantire che i sistemi di IA siano sicuri e rispettino i diritti fondamentali dell\u2019UE e si propone di migliorare il funzionamento del mercato interno, promuovendo la diffusione di un&#8217;intelligenza artificiale <strong>antropocentrica<\/strong> e <strong>affidabile<\/strong>. Il regolamento stabilisce un sistema sanzionatorio per garantire il rispetto delle norme, secondo il quale le sanzioni amministrative pecuniarie possono variare a seconda della gravit\u00e0 della violazione. L\u2019approccio attraverso il quale questa legge stabilisce le regole da applicarsi ai sistemi di IA \u00e8 basato sulla classificazione di questi ultimi secondo il <strong>livello di rischio<\/strong> attribuitogli: inaccettabile, alto, limitato, basso o minimo.<\/p>\n<p style=\"text-align: justify;\"><em>Rischio inaccettabile<\/em><\/p>\n<p style=\"text-align: justify;\">Tutti i sistemi di IA considerati una seria minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone rientrano in questa categoria e non possono essere immessi sul mercato o utilizzati nell\u2019UE. Alcuni esempi sono: la manipolazione cognitiva dei bambini o delle persone vulnerabili, la sorveglianza biometrica di massa e il social scoring.<\/p>\n<p style=\"text-align: justify;\"><em>Rischio alto<\/em><\/p>\n<p style=\"text-align: justify;\">Sono considerati ad alto rischio i casi d&#8217;uso che possono comportare gravi rischi per la salute, la sicurezza o i diritti fondamentali, come ad esempio: l\u2019applicazione dell&#8217;IA nella chirurgia assistita da robot oppure l\u2019uso di software di selezione dei CV durante le procedure di assunzione. Per questi sistemi sono previsti requisiti di trasparenza, tracciabilit\u00e0, supervisione umana e valutazione della conformit\u00e0.<\/p>\n<p style=\"text-align: justify;\"><em>Rischio limitato<\/em><\/p>\n<p style=\"text-align: justify;\">I sistemi di IA che fanno parte di questo gruppo non sono n\u00e9 vietati n\u00e9 soggetti a requisiti rigorosi, tuttavia, l&#8217;AI Act impone specifici obblighi di trasparenza. I due casi pi\u00f9 noti di sistemi a rischio limitato sono gli assistenti virtuali (come i <em>Chatbot<\/em>) e l\u2019Intelligenza Artificiale generativa.<\/p>\n<p style=\"text-align: justify;\"><em>Rischio basso o minimo<\/em><\/p>\n<p style=\"text-align: justify;\">La maggior parte dei sistemi di IA attualmente utilizzati nell&#8217;UE rientra in questa divisione, per la quale la legge sull\u2019IA non ha introdotto norme: ne sono un chiaro esempio videogiochi abilitati all&#8217;intelligenza artificiale o filtri antispam.<\/p>\n<p style=\"text-align: justify;\">Dal momento in cui l\u2019IA \u00e8 in grado di modificare il proprio comportamento adattandosi autonomamente, una delle sfide principali in Europa nell\u2019ambito della sua adozione \u00e8 proprio la questione della fiducia: la sfida in fronte alla quale siamo posti riguarda infatti la possibilit\u00e0 di imparare a fidarci di tecnologie non completamente prevedibili e parzialmente autonome. In risposta a questa esigenza \u00e8 stato adottato il cosiddetto approccio <em>\u201cHuman-in-the-Loop\u201d <\/em>il quale promuove un costante coinvolgimento dell\u2019uomo nei processi decisionali chiave, facendo si che la fiducia venga costruita direttamente nella fase di progettazione del sistema. Un esempio concreto che possa aiutare a comprendere questo metodo operativo, in cui l\u2019Intelligenza Artificiale deve essere usata come un supporto e non come un rimpiazzo, sono i sistemi di diagnostica medica basati su IA, in cui l\u2019algoritmo pu\u00f2 analizzare grandi quantit\u00e0 di dati clinici e proporre una diagnosi, lasciando comunque la decisione finale ad un medico in carne ed ossa.<\/p>\n<p style=\"text-align: justify;\"><strong>Europa, America e Cina a confronto <\/strong><\/p>\n<p style=\"text-align: justify;\">Sfortunatamente il tentativo di rendere pi\u00f9 \u201c<em>a prova d\u2019uomo<\/em>\u201d il progresso tecnologico non \u00e8 nell&#8217;interesse di tutti i paesi e governi ed \u00e8 proprio in questa direzione che l\u2019Europa si distingue da altre nazioni. A differenza dell\u2019Europa, che propone un approccio basato sulla salvaguardia e protezione dei diritti fondamentali, i modelli adottati dagli <strong>USA<\/strong> e dalla <strong>Cina<\/strong> prediligono rispettivamente l\u2019innovazione e il controllo statale.<\/p>\n<p style=\"text-align: justify;\"><strong>Europa<\/strong><\/p>\n<p style=\"text-align: justify;\">Come esposto in precedenza, nel contesto europeo viene conferita massima importanza ai diritti fondamentali e alla non discriminazione, attraverso una regolamentazione basata sul rischio e che agisce per mezzo di un approccio orizzontale e precauzionale. Dovendo scegliere un aggettivo il clima d\u2019azione potrebbe dunque venire definito \u201c<em>riflessivo<\/em>\u201d e non unicamente mirato allo sviluppo.<\/p>\n<p style=\"text-align: justify;\"><strong>Stati Uniti<\/strong><\/p>\n<p style=\"text-align: justify;\">Diversamente dall\u2019Europa, negli Stati Uniti d\u2019America non esiste una legge federale unificata, ma piuttosto delle linee guida volontarie (come l\u2019<em>IA Bill of Rights <\/em>del 2022). Con un approccio decentrato e settoriale, che tenta di evitare un disciplinamento eccessivo, gli USA si sono fissati come obiettivo principale quello dell\u2019innovazione. L\u2019atmosfera che si \u00e8 man mano andata a creare in questi ultimi anni risulta quindi dinamica, sperimentale e improntata ad un\u2019etica di mercato che sovrasta ogni interesse sociale in nome della competitivit\u00e0. Le protagoniste di questa spinta allo sviluppo sono grandi aziende tecnologiche come <em>Google<\/em> e <em>Microsoft<\/em>.<\/p>\n<p style=\"text-align: justify;\"><strong>Cina<\/strong><\/p>\n<p style=\"text-align: justify;\">Caratterizzato da regolamenti mirati per specifiche applicazione dell\u2019IA, l\u2019ambiente in Cina si presenta come molto centralizzato e basato su un approccio verticale il cui scopo primario \u00e8 mantenere il controllo sociale. Lo Stato \u00e8 la figura di spicco di questo sistema e l\u2019Intelligenza Artificiale rappresenta solo uno strumento di potere, usato per finalit\u00e0 quali rafforzare la sicurezza interna o monitorare il comportamento dei cittadini.<\/p>\n<p style=\"text-align: justify;\"><strong>Conclusione <\/strong><\/p>\n<p style=\"text-align: justify;\">Quello dell\u2019Intelligenza Artificiale \u00e8 uno <strong>sviluppo continuo<\/strong>, dovuto alla forte <strong>adattabilit\u00e0<\/strong> che la contraddistingue, e per la quale \u00e8 fondamentale la presenza di una regolamentazione altrettanto attiva. Una continua evoluzione come quella esaminata fino ad ora richiede per\u00f2, oltre ad una risposta veloce ai cambiamenti tecnologici, anche una <strong>cooperazione internazionale<\/strong> che impedisca alle diverse normative nazionali di differire eccessivamente l\u2019una dall\u2019altra e che assicuri il rispetto globale dei diritti fondamentali dell\u2019uomo. Una regolamentazione giuridica che permetta lo sviluppo economico ma che tuteli allo stesso tempo i valori fondamentali della societ\u00e0 dovrebbe essere vista dunque come una garanzia etica e di protezione, anzich\u00e9 come un ostacolo al progresso o un limite per l\u2019innovazione.<\/p>\n<p style=\"text-align: justify;\">Una questione ancora pi\u00f9 profonda riguarda invece il rapporto tra innovazione e umanit\u00e0: com\u2019\u00e8 possibile sfruttare le capacit\u00e0 offerte dall\u2019IA senza che questa prenda completamente il nostro posto? In un\u2019epoca dominata da valori quali efficienza, competizione e dinamismo sembriamo esserci dimenticati che seppur da un lato l\u2019Intelligenza Artificiale possa amplificare le nostre capacit\u00e0 e migliorare la qualit\u00e0 delle nostre prestazioni, dall\u2019altro la posta in palio \u00e8 la perdita della capacit\u00e0 di pensare, agire, di scegliere che per natura ci contraddistingue. Rincorrere incessantemente il progresso senza guidarlo seguendo un codice morale ci render\u00e0 <strong>passivi spettatori<\/strong> di un <strong>panorama disumanizzato<\/strong> ideale per un mondo ed una societ\u00e0 che si costruiranno progressivamente senza di noi. A questo proposito l\u2019AI Act rappresenta un primo passo verso l\u2019idea di un\u2019IA che serva all\u2019uomo come un <strong>supporto<\/strong> senza sostituirlo, perch\u00e9 la vera innovazione non risiede nel potenziale delle macchine, ma nella nostra capacit\u00e0 di mantenerne il controllo.<\/p>\n<p style=\"text-align: justify;\"><strong>Bibliografia \u00a0<\/strong><\/p>\n<p style=\"text-align: justify;\">European Commission. (n.d.). <em>Regulatory framework proposal on artificial intelligence<\/em>. European Commission \u2013 Digital Strategy. Retrieved April 16, 2025.<\/p>\n<p style=\"text-align: justify;\">Savino, M. (2021, aprile 20). <em>AI, cos\u00ec l\u2019Europa pu\u00f2 tornare in partita con USA e Cina<\/em>. Agenda Digitale.<\/p>\n<p style=\"text-align: justify;\">Middleton, S. E., Letouz\u00e9, E., Hossaini, A., &amp; Chapman, A. (2022). <em>Trust, Regulation, and Human-in-the-Loop AI within the European Region<\/em>. Communications of the ACM, <em>65<\/em>(4), 64\u201366.<\/p>\n<p style=\"text-align: justify;\">Parlamento Europeo. (2020). <em>Quali sono i rischi e i vantaggi dell&#8217;intelligenza artificiale?<\/em> Direzione Generale della Comunicazione.<\/p>\n<p style=\"text-align: justify;\"><strong>\u00a0<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>L\u2019articolo affronta la presenza massiva dell\u2019Intelligenza Artificiale nella societ\u00e0 odierna soffermandosi sulla necessit\u00e0 sempre pi\u00f9 impellente di un assetto normativo che garantisca la tutela dei diritti umani. Una volta fornita <\/p>\n","protected":false},"author":6074,"featured_media":11729,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_bbp_topic_count":0,"_bbp_reply_count":0,"_bbp_total_topic_count":0,"_bbp_total_reply_count":0,"_bbp_voice_count":0,"_bbp_anonymous_reply_count":0,"_bbp_topic_count_hidden":0,"_bbp_reply_count_hidden":0,"_bbp_forum_subforum_count":0,"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[2680,11,30,5,2691,1,2652,782,2671,2399],"tags":[],"class_list":["post-11727","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-comunicazione","category-rubriche-giuridiche","category-diritto-del-web","category-fascicoli","category-n-142-05-2025","category-news","category-progresso","category-ricerca-sviluppo","category-sociologia","category-tecnologia"],"translation":{"provider":"WPGlobus","version":"3.0.2","language":"es","enabled_languages":["it","en","es"],"languages":{"it":{"title":true,"content":true,"excerpt":false},"en":{"title":false,"content":false,"excerpt":false},"es":{"title":false,"content":false,"excerpt":false}}},"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/www.economiaediritto.it\/wp-content\/uploads\/2025\/05\/m-scaled.jpg?fit=2560%2C1707&ssl=1","jetpack_sharing_enabled":true,"jetpack_shortlink":"https:\/\/wp.me\/p9CRXF-339","jetpack_likes_enabled":true,"jetpack-related-posts":[],"_links":{"self":[{"href":"https:\/\/www.economiaediritto.it\/es\/wp-json\/wp\/v2\/posts\/11727","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.economiaediritto.it\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.economiaediritto.it\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.economiaediritto.it\/es\/wp-json\/wp\/v2\/users\/6074"}],"replies":[{"embeddable":true,"href":"https:\/\/www.economiaediritto.it\/es\/wp-json\/wp\/v2\/comments?post=11727"}],"version-history":[{"count":3,"href":"https:\/\/www.economiaediritto.it\/es\/wp-json\/wp\/v2\/posts\/11727\/revisions"}],"predecessor-version":[{"id":11731,"href":"https:\/\/www.economiaediritto.it\/es\/wp-json\/wp\/v2\/posts\/11727\/revisions\/11731"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.economiaediritto.it\/es\/wp-json\/wp\/v2\/media\/11729"}],"wp:attachment":[{"href":"https:\/\/www.economiaediritto.it\/es\/wp-json\/wp\/v2\/media?parent=11727"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.economiaediritto.it\/es\/wp-json\/wp\/v2\/categories?post=11727"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.economiaediritto.it\/es\/wp-json\/wp\/v2\/tags?post=11727"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}