Skip to main content
#sanremo #studionews #askanews #ciaousa #altrosanremo

Braccio di ferro e pressioni Usa su attuazione regolamento IA

Braccio di ferro e pressioni Usa su attuazione regolamento IARoma, 29 mar. (askanews) – È in corso un braccio di ferro attorno ad alcune misure di esecuzione, ancora in corso di definizione nei dettagli, del pionieristico regolamento dell’Ue sull’Intelligenza artificiale (IA), con il sospetto che vi sia una pesante influenza delle potenti multinazionali Big Tech statunitensi per indebolire o eliminare del tutto le garanzie a tutela dei diritti fondamentali e della democrazia, dei diritti d’autore e della trasparenza per favore degli utilizzatori.



Pur essendo stato approvato definitivamente nel maggio 2024 ed entrato in vigore nell’agosto scorso, il regolamento (“AI Act”) ha lasciato aperti diversi elementi per l’attuazione delle nuove norme, da definire successivamente con atti delegati o atti di esecuzione (“implementig act”). Il più importante di questi atti è l’elaborazione di un “Codice di buone pratiche” (articolo 56 del Regolamento) che dovrebbe essere applicato in particolare dai fornitori di IA per finalità generali che presentano “rischi sistemici”, come GPT-4. L’elaborazione del Codice di buone pratiche è stata affidata a un gruppo di esperti, chiamato “AI Office” (Ufficio per l’IA), che si riunisce regolarmente e che ha prodotto già tre bozze, sottoposte poi regolarmente a larga consultazione delle parti interessate. L’obiettivo prescritto dal regolamento è di arrivare a un testo definitivo entro inizio maggio. Se l’Ufficio per l’IA non riuscirà a produrre un testo definitivo, o se non lo riterrà soddisfacente, la Commissione europea potrà prescrivere entro inizio agosto delle norme comuni, attraverso un atto di esecuzione, per l’attuazione degli obblighi prescritti ai fornitori di modelli di IA per finalità generali con rischio sistemico.


Abbiamo chiesto al relatore dell’Ai Act per il Parlamento europeo, Brando Benifei, del Pd (gruppo dei Socialisti e Democratici, S&D) di spiegare i punti controversi nell’ultima bozza del Codice di buone pratiche prodotta dall’Ufficio per l’IA, che hanno già provocato proteste, in particolare, del Parlamento europeo e dalle organizzazioni dell’industria culturale e creativa, degli autori e dei creatori di contenuti. “Il codice di buone pratiche – ha ricordato Benifei – si applica solo ai sistemi generativi che usano i modelli più potenti di IA. Riguarda un pezzo importante del regolamento europeo sulla IA (“AI Act”) che è stato lasciato volutamente aperto perché è un terreno più avanzato in rapida evoluzione. Si tratterebbe di una sorta di manuale di istruzioni su come rispettare l’AI Act per quanto riguarda la cyber sicurezza, la trasparenza delle informazioni nei riguardi degli utilizzatori, i dati usati per l’addestramento dei modelli, il rispetto del copyright, e anche la verifica di tutti gli elementi di rischio sistemico riguardo alla libertà di informazione, alla democrazia e ai diritti fondamentali”.


“Il Codice – ha continuato Benifei – è oggetto del lavoro di gruppi di esperti provenienti anche da paesi non Ue, accademici, sviluppatori, Pmi, organismi della società civile. Siamo alla terza stesura e dovrebbero essercene altre due o tre prima del testo definitivo. Ci sono – ha rilevato il relatore dell’AI Act – tre aspetti problematici nell’ultima bozza: il primo riguarda la tutela dei diritti fondamentali e la verifica dei rischi sistemici, che avrebbero carattere solo volontario e opzionale, invece che vincolante. D’accordo sulla critica a questo punto c’è una maggioranza molto forte nel Parlamento europeo, che è la stessa che ha approvato l’AI Act”, ovvero Ppe, Socialisti e Democratici, Liberali di Renew e Verdi. Questa posizione critica è stata espressa chiaramente in una lettera inviata alla vicepresidente esecutiva della Commissione europea responsabile per la Sovranità tecnologica, Henna Virkkunen, e firmata dallo stesso Benifei e da tutti i relatori ombra dei quattro gruppi politici della maggioranza favorevole, più la ex segretaria di Stato spagnola alla Digitalizzazione e l’Intelligenza artificiale, Carme Artigas, che nel 2023 aveva condotto i negoziati sull’AI Act come rappresentante della presidenza di turno spagnola del Consiglio Ue. “Le scriviamo – si legge nella lettera – con grande preoccupazione riguardo al Codice di buone pratiche dell’AI Act, in cui la valutazione e la mitigazione di vari rischi per i diritti fondamentali e la democrazia sono ora improvvisamente del tutto volontarie per i fornitori di modelli di IA a finalità generali con rischi sistemici. Noi, i co-legislatori che hanno negoziato l’AI Act, sottolineiamo: questa non è mai stata l’intenzione dell’accordo” nel negoziato a tre (trilogo) tra Parlamento europeo, Consiglio Ue e Commissione. “I rischi per i diritti fondamentali e la democrazia sono rischi sistemici che i fornitori di IA più impattanti devono valutare e mitigare. È pericoloso, antidemocratico e crea incertezza giuridica reinterpretare completamente un testo legale e restringere la sua portata, tramite un Codice di buone pratiche, dopo che è stato concordato dai co-legislatori”, rileva ancora la lettera.


E non è tutto. “Io ritengo – ci ha spiegato Benifei – che ci siano anche altri due elementi critici nella bozza del Codice, di cui non si parla della lettera a Virkkunen, perché in questo caso i quattro gruppi politici non hanno le stesse posizioni. Il primo riguarda le disposizioni insoddisfacenti per garantire il rispetto dei diritti d’autore, ovvero le regole sull’uso delle informazioni per addestrare i modelli di IA, volte a tutelare gli autori e i creatori di contenuti. Su questa critica sono d’accordo il Ppe e i Socialisti, mentre sono più freddi i Verdi, e contrari i Liberali”. “L’altro elemento critico – ha aggiunto il relatore dell’AI Act – riguarda le disposizioni sulla trasparenza, sulla condivisione con gli utilizzatori, ovvero con le imprese che acquistano e usano i modelli di IA, delle informazioni di sicurezza, delle caratteristiche tecniche e dei rischi esistenti. Questo punto è importante soprattutto per la tutela delle imprese più piccole. In questo caso a essere d’accordo con la critica sono i Socialisti e i Verdi; il Ppe è più freddo mentre i Liberali, anche qui, sono contrari. Noi vogliamo più trasparenza, altrimenti si fa un grosso favore alle Big Tech statunitensi; vogliamo aumentare, per gli europei che comprano i modelli di IA americani e cinesi, la capacità di sapere che cosa hanno in mano”. “La Commissione Europea non può ignorare i co-legislatori. La Commissione non ha interesse a uno scontro frontale con il Parlamento europeo”, ha rilevato Benifei, secondo il quale, anche se non possono intervenire nell’approvazione dell’atto di esecuzione per il Codice, gli eurodeputati potrebbero minacciare di opporsi alla definizione di altri aspetti ancora in sospeso del regolamento, per i quali è previsto che l’Assemblea di Strasburgo dia il suo via libera. “Io penso che sul primo punto controverso”, quello sulla verifica obbligatoria dei rischi sistemici per i diritti fondamentali e la democrazia, “il testo definitivo del Codice di buone pratiche verrà migliorato”, perché c’è una forte pressione unitaria in questo senso da parte dei gruppi europarlamentari, ha notato il relatore dell’Ai Act, che appare meno fiducioso invece sul fatto che sugli altri due punti possano esserci miglioramenti sostanziali. “Noi temiamo che possa esserci un cedimento alla linea politica degli Stati Uniti. In generale, per ora l’Ue sta tenendo sulla difesa del proprio apparato di leggi riguardo al sistema digitale dagli attacchi americani. Ma c’è il dubbio che la Commissione europea sia sensibile alle pressioni degli Stati Uniti per una semplificazione della regolamentazione in questo settore”, ha concluso Benifei. Di Lorenzo Consoli e Alberto Ferrarese