Ruben Razzante
Ruben Razzante

Criticità mutevoli/ Le regole sull'IA che rischiano di essere superate

di Ruben Razzante
3 Minuti di Lettura
Domenica 10 Dicembre 2023, 00:10 - Ultimo aggiornamento: 09:36

L’innovazione tecnologica è la leva del progresso e della crescita delle persone, delle comunità e degli Stati, ma deve sempre mantenere un saldo ancoraggio etico e coniugare la libertà con la responsabilità, senza lasciare indietro nessuno e promuovendo il benessere individuale e collettivo. Questo concetto lo avevano ben presente i negoziatori europei che hanno finalmente trovato l’accordo sulle nuove regole dell’Intelligenza Artificiale (AI). 

Le trattative fiume tra gli organi dell’Ue (il cosiddetto trilogo Parlamento-Commissione-Consiglio) hanno partorito una versione di intesa che rappresenta un buon compromesso tra le legittime aspirazioni degli Stati di tutelare sufficientemente le iniziative imprenditoriali delle start up tecnologiche e le comprensibili preoccupazioni di quanti temono che i molteplici impieghi dell’AI possano compromettere il rispetto dei diritti fondamentali degli individui.

Un traguardo prezioso, che conferma il primato dell’Europa digitale sul piano regolatorio, visto che l’AI Act nel panorama mondiale rappresenta il primo tentativo di disciplinare l’Intelligenza Artificiale. Si tratta di uno snodo fondamentale per il futuro dell’umanità, destinato ad incidere significativamente sul delicato rapporto tra tecnologia e persona. L’obiettivo dell’AI Act è di fissare un confine ragionevole tra la libertà delle imprese di sviluppare conoscenze e applicazioni in ambito AI e il loro dovere di proteggere l’identità digitale degli utenti, esposti a rischi e insidie di ogni tipo, dalle violazioni della privacy alle discriminazioni nell’accesso alle opportunità offerte dalle nuove frontiere dell’innovazione tecnologica.

L’AI Act mira a garantire che l’Intelligenza Artificiale sia sicura, etica e responsabile, rispetti i diritti fondamentali, la democrazia e lo Stato di diritto, proteggendo i cittadini da possibili abusi. Per farlo ha stabilito tutta una serie di paletti che riguardano soprattutto il riconoscimento biometrico, la polizia predittiva e la tutela del diritto d’autore.

Nei dettagli, l’utilizzo dei software di identificazione da parte della polizia e dei governi sarà possibile solo in casi limitati, ad esempio per ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica, localizzazione o identificazione di una persona sospettata di aver commesso un reato grave (terrorismo, traffico di esseri umani, omicidio, stupro). L’accordo finale sul testo di legge prevede anche che i sistemi di Intelligenza Artificiale di uso generale (GPAI) rispettino gli obblighi di trasparenza prima di essere immessi sul mercato. Bisognerà poi trattare con estrema cautela i dati sensibili come le convinzioni politiche, religiose o l’etnia e le emozioni sul posto di lavoro e nelle scuole.

L’AI Act contiene anche alcuni strumenti per rafforzare la tutela del copyright e introduce meccanismi di trasparenza sui contenuti generati dagli algoritmi. Ora il testo dovrà essere limato dai tecnici, dopo di che gli Stati avranno due anni di tempo per attuarlo nella sua interezza e solo sei mesi per proibire gli usi vietati. L’AI Pact, vale a dire il sistema di conformità volontaria da parte delle aziende ai contenuti dell’AI Act, partirà subito e consentirà un adeguamento anticipato alle nuove disposizioni Ue. L’apparato sanzionatorio appare sufficientemente robusto. Le multe per chi violerà l’AI Act vanno da 35 milioni di euro o il 7% del fatturato globale, a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e dell’azienda. Tuttavia, sul cammino di questa novità legislativa di portata epocale pesa come un macigno l’incognita della sua adeguatezza a un quadro tecnologico in rapidissima evoluzione. I confini definiti con l’AI Act saranno in grado di promuovere uno sviluppo “umanocentrico” dell’Intelligenza Artificiale o il galoppante progresso tecnologico spiazzerà ancora una volta gli operatori e le autorità regolatorie, ponendo loro nuove e imprevedibili criticità?

© RIPRODUZIONE RISERVATA