di Antonio Facchin
Testo adv-free disponibile su VTV Magazine
Il 9 dicembre 2023 passerà alla storia dell’Unione europea come il giorno dell’AI Act: il disegno di legge che, primo al mondo, regola l’applicazione e la commercializzazione dell’intelligenza artificiale. Una regolamentazione che non interviene sul suo sviluppo, delegandone la responsabilità ai produttori che, almeno per ora, non operano nei paesi dell’Unione. Seguendo un percorso che, dopo il DSA (il Digital Service Act, varato a fine 2022, imponeva ai social&ecommerce-big-tech regole a tutela dei “consumatori”), ha subìto un’accelerazione perché l’accordo, all’indomani dell’extraeuropeo AI Safety Summit, potesse diventare legge entro il giugno 2024, termine della legislazione europea. Quando non solo si dovrà rieleggere Il Parlamento europeo, ma andranno alle urne più di 70 paesi tra cui Stati Uniti, Federazione Russa e Turchia. Mentre l’attenzione mondiale convergerà sulla Francia in occasione delle Olimpiadi, per le quali si sta già applicando l’intelligenza artificiale sui nuovi apparati di sicurezza.
L’AI Act, prima normativa sull’intelligenza artificiale
Trovato dunque l’accordo sul testo, il disegno di legge dovrà a questo punto essere discusso e approvato dai tre organi preposti (Consiglio europeo, Commissione e Parlamento). Una volta convertito in legge dovrà poi essere ratificato dagli Stati membri e applicato per gradi fino alla sua implementazione: quella serie di azioni che termina con la valutazione dell’efficacia di quanto messo in opera. Insomma, la velocità con cui l’intelligenza artificiale si sviluppa renderà tutto, sempre e comunque, “superato”. Ma vale la sfida di natura etica dell’AI Act: un “faro” per le iniziative globali future, su un forsennato work in progress.
I settori che richiedono una particolare attenzione
C’è tuttavia una grave lacuna: si è preferito non regolare l’opensource, quel canale cioè che rende possibile un’applicazione fraudolenta dell’intelligenza artificiale, sfuggendo alle sanzioni. Il disegno di legge definisce comunque i settori “sensibili”: quelli dei divieti, inerenti prima di tutto il social scoring e la polizia predittiva. I divieti sono quindi legati all’impiego dei sistemi di categorizzazione biometrica su caratteristiche “sensibili” (quali convinzioni politiche, religiose, filosofiche, l’orientamento sessuale e la razza di appartenenza) e alla costituzione di database derivanti dal riconoscimento facciale in tempo reale (sia in pubblico che in privato). Altri divieti riguardano il riconoscimento delle emozioni (sia sul luogo di lavoro che nelle istituzioni scolastiche), la classificazione sociale che lega il comportamento alle caratteristiche personali, la manipolazione del comportamento altrui, lo sfruttamento della vulnerabilità degli svantaggiati, a prescindere dalla categoria. Il disegno di legge prevede naturalmente sanzioni.
Le deroghe
Le deroghe varranno per le Forze dell’Ordine per casi come, ad esempio, l’evidente minaccia di attacco terroristico, e per circostanze specifiche da valutare all’occorrenza; e si applicheranno a enti e aziende coinvolte nella tutela della difesa e sicurezza nazionale. Nell’ambito della polizia predittiva un capitolo a parte riguarda il controllo del fenomeno dell’immigrazione: le agenzie di polizia preposte dovranno notificare l’eventuale applicazione della rilevazione biometrica in tempo reale a una sezione dedicata, soggetta a sua volta al controllo di un ente indipendente. Deroga che ha già messo in allarme alcune organizzazioni umanitarie.
Un forsennato work in progress
Ma la sfida più difficile sarà nell’affrontare i rischi sistemici legati allo sviluppo dei modelli fondativi o LLM (Large Language Model) e sul loro addestramento. Come ChatGPT, di cui vi abbiamo mostrato alcune potenzialità, interrogata su Harry Potter e sul “ritorno” di John Lennon; sui cui rischi da tempo si sono espressi anche gli sviluppatori d’oltreoceano. Tutto ciò senza penalizzare le aziende europee che stanno investendo massivamente in questo settore. Ma proprio ai colossi del settore spetterà un accurato rendiconto, sul modello di quanto previsto dal DSA.
Nel frattempo anche in Italia è sorto un movimento d’opinione guidato da Dino Pedreschi, direttore del master in Big Data Analytics e Social Mining dell’Università di Pisa. «L’autoregolamentazione non basta» ha dichiarato Pedreschi, «Le intelligenze artificiali generative hanno prestazioni sorprendenti, ma sono immature e hanno dimostrato i loro difetti: allucinazioni, pregiudizi, discorsi antisociali. Possono avere effetti straordinari ma anche generare rischi potenti. Una regolamentazione è necessaria per garantire che i prodotti escano sul mercato a un livello di sviluppo relativamente sicuro per gli utenti». E l’appello di Pedreschi è stato condiviso anche dall’AIxIA, l’Associazione Italiana per l’Intelligenza Artificiale e da CVPL, l’Associazione italiana per la ricerca in Computer Vision, Pattern recognition and Machine learning.
Come Wired riporta, “L’AI Act prevede anche strumenti per rafforzare il copyright e richiedere trasparenza sui contenuti generati dagli algoritmi. Ci saranno 24 mesi di tempo per il pieno dispiegamento delle sue funzioni, ma solo sei per proibire gli usi vietati. E ci sarà una conformità volontaria, il cosiddetto AI Pact, che permetterà alle aziende di adeguarsi all’AI Act prima che diventi pienamente operativo. È stato creato un ufficio europeo dedicato all’intelligenza artificiale, incardinato presso la direzione generale Connect della Commissione (preposta al digitale) per sovrintendere all’applicazione della legge. E sono previste eccezioni per le piccole e medie imprese e la creazione di ambienti di test esenti dalle regole (i cosiddetti regulatory sandbox) per favorire l’innovazione”.
La crescita esponenziale della misinformazione
E se solo 5 mesi fa Newsguard, la piattaforma che dal 2018 vigila sull’affidabilità dei siti web di tutto il mondo, individuava 49 siti newsbot (crasi di news e robot) che in 7 lingue diffondevano deliberatamente notizie false grazie all’impiego dell’intelligenza artificiale generativa, ora Newsguard ne rileva 583 e le lingue impiegate sono 15. Siti di cui naturalmente restano ignoti gli editori, i responsabili e sono naturalmente “fasulli” anche gli autori. E che dalle ripetizioni e refusi rivelano l’assenza di qualunque supervisione umana; individuabili talvolta da titoli click-bite creati al solo scopo di beneficiare dei vantaggi della pubblicità programmatica, non selettiva.
A questo scopo si è stilato un outline che aiuta a individuare le UAIN (Unrelaible AI-generated News), in altri termini “generatori di fake news“, che ne analizza i contenuti e la forma, ne rileva la supervisione umana o meno, e la loro incontestualità, nel migliore dei casi.