Skip to main content
#sanremo #studionews #askanews #ciaousa #altrosanremo

IA, ecco i divieti chiave delle nuove regole Ue (AI Act)

| Redazione StudioNews |

IA, ecco i divieti chiave delle nuove regole Ue (AI Act)Roma, 4 feb. (askanews) – La Commissione europea ha emanato, oggi a Bruxelles, le linee guida per l’attuazione dei divieti d’uso previsti nel nuovo quadro normativo comunitario sull’intelligenza artificiale, battezzato “AI Act”. Queste norme specifiche del regolamento sono entrate in vigore lo scorso 2 febbraio, tuttavia la loro effettiva messa a terra potrebbe richiedere ancora del tempo, dato che i vari Paesi membri devono procedere a indicare quale sia l’autorità di vigilanza di mercato competente sul settore.



Ad ogni modo le nuove regole Ue – che scattano in una situazione di crescente interesse e aperta competizione internazionale su questi sistemi, in particolare tra Stati Uniti e Cina – prevedono quattro livelli fondamentali di normative. Il primo e più drastico sono i divieti veri e propri, previsti per pratiche come la registrazione di massa di dati biometrici o l’elaborazione di “punteggi” sugli individui (social scoring), su cui le linee guida di oggi cercano di dare alcuni chiarimenti. Un secondo insieme di regole prevede dei requisiti rafforzati per attività di intelligenza artificiale ritenute ad alto rischio, come durante le procedure di assunzione o per l’uso di dispositivi medici e sanitari. Un terzo livello più blando impone trasparenza sull’utilizzo di intelligenza artificiale in ambiti come i sistemi di risposta automatizzati (chatbot) che si presentino con apparenti caratteristiche umane. Infine, non vengono previste regole per attività con rischi giudicati minimi, come videogiochi o filtri antispam.


Le linee guida di oggi si focalizzano sui divieti riguardanti le attività ritenute più a rischio e, secondo i documenti diffusi dalla Commissione europea, puntano a fornire “certezza del diritto per imprese, organizzazioni, e autorità di vigilanza coinvolte, tramite chiarimenti degli ambiti di applicazione e dei concetti chiave”. Il documento resta aperto ad aggiornamenti e integrazioni futuri, e prevede una serie di esempi su casi concreti per cercare di chiarirne ulteriormente l’ambito.


Un primo esempio delle pratiche che ricadono in un drastico divieto da parte dell’AI Act della Ue è quello delle “manipolazioni dannose o ingannevoli” e “utilizzo di tecniche subliminali”, nascosti dentro interfacce o servizi che, per esempio, “illudono o forzano gli utenti a sottoscrivere impegni finanziari che possano causare danni rilevanti nel corso del tempo” . Vietate anche le tecniche basate sulla IA che sfruttano “le vulnerabilità dovute a età, disabilità e situazione socioeconomica”, ad esempio giocattoli dotati di intelligenza artificiale programmati per interagire con i bambini con l’obiettivo di mantenere il loro interesse e incoraggiarli a completare sfide ritenute rischiose o che possano determinare danni fisici rilevanti.


Vietati, prosegue la documentazione diffusa dalla Commissione Ue, i sistemi di valutazione del punteggio sociale da parte di operatori pubblici e privati tramite dati scollegati dal contesto o con conseguenze dannose sproporzionate. Viene citato come esempio quello di una agenzia che eroghi prestazioni sociali, che usi l’intelligenza artificiale per valutare i rischi di frodi da parte dei beneficiari utilizzando dati non pertinenti, ad esempio su provenienza, razza o colore della pelle. Le regole Ue, poi, vietano le pratiche solitamente chiamate di “crimine predittivo” (meccanismi che furono al centro di un celebre film intitolato Minority Report) con cui, magari da parte delle forze di polizia, si cerca di effettuare una previsione sulla pericolosità sociale di un individuo basandosi sulle sue caratteristiche personali o sulla sua profilazione “unicamente in base a dati biometrici e senza una analisi di fatti verificabili direttamente correlati a attività criminali”. Vietato anche l’utilizzo in massa di immagini rastrellate da Internet o dai media per creare o espandere banche dati sul riconoscimento facciale. Vietato, prosegue la documentazione fornita dalla Ue, l’utilizzo della IA per sistemi di riconoscimento delle emozioni sul posto di lavoro o presso le istituzioni di educazione, salvo che vi siano “motivi medici o legati alla sicurezza”, precisa il documento. A titolo di esempio viene fatta l’ipotesi che un datore di lavoro utilizzi telecamere o sistemi di registrazione vocale per monitorare lo stato emozionale dei dipendenti, come la rabbia. Vietato l’uso di dati biometrici per catalogare le persone nell’ambito di categorie ritenute sensibili, come l’orientamento politico o quello sessuale. Vietato infine, è l’ultimo esempio fornito, l’identificazione biometrica a distanza per motivi di ordine pubblico su spazi pubblici “salvo limitate eccezioni e con salvaguardie stringenti”. Viene citato l’utilizzo di telecamere anche mobili collegate tramite sistemi di intelligenza artificiale per il riconoscimento facciale che monitorino continuamente individui in una strada commerciale, per identificare qualunque tipo di ricercato. I prossimi passi del quadro normativo europeo prevedono che per il 2 agosto gli Stati membri approntino dei regolamenti attuativi in merito a multe e sanzioni per le violazioni e, sempre gli Stati, nominino o indichino le autorità responsabili su vigilanza e ricezione di segnalazioni e notifiche su questo settore. Per parte sua, l’Ue dovrà lanciare entro l’estate di quest’anno un ente – l’AI Act Service Desk – che offrirà una piattaforma interattiva, con le informazioni relative a queste regole alla quale imprese e altre parti interessate potranno rivolgere i loro quesiti o richieste di chiarimenti.