Intelligenza artificiale: l’urgenza di norme, la necessità di una concertazione sovranazionale

di Antonio Facchin

La sociologa Elena Esposito si domanda, in una disamina sull’Huffington Post, se quella prodotta dall’intelligenza artificiale possa dar luogo a un’autentica comunicazione artificiale “rivoluzionando” quella naturale (fermo restando che di naturale c’è ben poco visto che la comunicazione è forse il campo in cui le convenzioni umane si sono da sempre più esercitate). Nel frattempo, seguiamo con interesse il tour mondiale di Sam Altman, l’amministratore delegato di OpenAi che a Londra ha pubblicamente ammesso i rischi di disinformazione cui ci espone la sua famigerata ChatGPT, reclamando pure la necessità di non limitarne lo sviluppo applicandovi norme troppo restrittive.

E mentre sottoscriviamo appieno la rivendicazione di “un giornalismo davvero indipendente, figlio della politica dell’editore” quale unico antidoto al proliferare di fake news e di quella disinformazione che potrebbe addirittura finire per informare l’intelligenza artificiale stessa (condivisibile considerazione di Agenda digitale), Il Post traccia in un lungo articolo lo stato dell’arte delle normative sulle intelligenze artificiali non solo in Europa, ma nel resto del mondo.

Intelligenza artificiale e normativa europea

“A metà giugno – riporta il suddetto articolo – il Parlamento Europeo voterà l’Artificial Intelligence Act, una legge che ha lo scopo di introdurre un quadro normativo comune per l’intelligenza artificiale (auspicato anche da noi in Italia) all’interno dell’Unione Europea. Il provvedimento è in lavorazione da più di due anni, ma è tornato di stretta attualità negli ultimi mesi, dopo il rinnovato interesse verso le AI soprattutto in seguito alla diffusione di ChatGPT, il software che simula le conversazioni umane, e ad alcune dichiarazioni preoccupate da parte di esperti del settore. Gli stati europei saranno tra i primi ad avere una legge di questo tipo sulle intelligenze artificiali e, per questo, molti paesi da altre parti del mondo osservano con interesse, in attesa di produrre leggi simili per normare un settore in piena espansione, con le grandi opportunità e i rischi che si porta dietro.”

Allarme o puro allarmismo?

L’articolo del Post riferisce anche della lettera aperta del Center for AI Safety (sottoscritta da oltre 350 responsabili di settore tra cui i vertici di Google, Anthropic e OpenAi) che equipara i possibili effetti di un’intelligenza artificiale “incontrollata” a quelli di una pandemia se non addirittura di una guerra nucleare. Insomma, l’intelligenza artificiale da grande opportunità (soprattutto per le aziende che la sviluppano) potrebbe trasformarsi in una minaccia per l’umanità. Tuttavia Il Post sottolinea: “decidere le regole per le AI non è semplice, sia perché non tutti concordano su che cosa possa essere definito “intelligenza artificiale“ e cosa no (lo abbiamo spiegato estesamente qui), sia per la presenza di due approcci alla questione contrapposti. Da una parte ci sono osservatori, analisti e politici che chiedono regole rigide e vincolanti per tutelare i diritti delle persone e delle società, dall’altra i responsabili delle aziende che sviluppano le AI e i portatori d’interesse che sostengono la necessità di avere poche e chiare regole per non ostacolare la crescita e la ricerca nel settore”.

La prima legge ad “ampio spettro”


All’Europa – già all’opera dal 2018 – spetta quindi l’onere di conciliare queste posizioni nella prima, e forse unica, legge “ad ampio spettro” per scrivere la quale “la Commissione europea si è basata soprattutto sulle tecnologie esistenti e sui problemi che possono porre in termini di tutela della privacy e più in generale dei diritti della popolazione, considerando che a oggi non c’è un’intelligenza artificiale generale che sappia fare tutto, come quelle che troviamo spesso nei romanzi e nei film di fantascienza, e che soprattutto mostri di avere coscienza di sé”. Senza tuttavia cadere nel rischio di sottovalutarne la pervasività. Il Post dichiara infine che “per definire le regole, le istituzioni europee sono partite da una valutazione del rischio in vari settori a seconda delle funzionalità delle AI e delle loro probabili evoluzioni. Da questa analisi è emerso che gli ambiti più a rischio sono quelli dell’occupazione, dei servizi pubblici e delle attività legate ai diritti dei singoli cittadini”.

La delicata questione della tutela della privacy

Nonostante al nostro Garante della privacy spetti il primato nell’aver piegato ChatGPT al rispetto della normativa europea in vigore, la querelle tra intelligenze artificiali e tutela della privacy non è questione degli ultimi mesi. Come Il Post conferma “le commissioni del Parlamento europeo che se ne sono occupate hanno integrato la proposta della Commissione europea con alcuni emendamenti, il cui obiettivo è di vietare utilizzi invadenti e discriminatori delle AI. Il testo ora vieta l’impiego di sistemi in tempo reale per il riconoscimento delle persone negli spazi pubblici, ma sono comunque previste eccezioni per le analisi da svolgere in un secondo momento, solo nel caso in cui queste servano per attività di indagine”. Quanto a questioni più affini all’etica la legge in discussione prescrive inoltre “più trasparenza nel processo di sviluppo delle intelligenze artificiali. È per esempio richiesto agli sviluppatori di fornire indicazioni sulle grandi quantità di dati utilizzati per formare le loro AI e di dimostrare di avere applicato correzioni, filtri e altri accorgimenti per ridurre il rischio di pregiudizi da parte dei loro sistemi che potrebbero poi portare a discriminazioni”.

Intelligenza artificiale, informazione e tutela del diritto d’autore

Che le immagini di un Papa Bergoglio fashion victim e di un Donald Trump vittima di abusi ci avessero reso tangibile il potere dell’intelligenza artificiale applicata alla manipolazione delle immagini (nei due casi specifici grazie a Midjourney) è fuor di dubbio. Ma a tal proposito la normativa europea prevederà che “sistemi come DALL•E e Midjourney dovranno inserire nelle immagini che producono segni di riconoscimento per permettere di distinguere le loro elaborazioni dalle immagini reali, riducendo il rischio di un impiego di fotografie fasulle per diffondere false notizie o per scopi illeciti. Dovranno inoltre dimostrare di avere sistemi di controllo per evitare la produzione di immagini che mostrano abusi sui minori, messaggi d’odio o altri contenuti che potrebbero violare le leggi dell’Unione Europea”. Senza tuttavia trascurare la ancor più difficile tutela del diritto d’autore (di cui abbiamo già trattato).

Dall’Europa al resto del mondo

Ma negli Stati Uniti, culla dello sviluppo tecnologico in questione, come si sta affrontando il problema? Anche Il Post (come avevamo anticipato) conferma che “a inizio maggio alcuni dei più importanti CEO delle società tecnologiche del paese hanno partecipato a un incontro alla Casa Bianca su rischi e opportunità delle AI e la vicepresidente statunitense Kamala Harris ha detto che Google, Microsoft, OpenAI e gli altri hanno il «dovere morale» di fornire ai clienti prodotti sicuri. Ma gli Stati Uniti sono del resto storicamente poco disposti a introdurre leggi più di tanto vincolanti per le aziende, che devono rispondere in primo luogo ai loro clienti, agli azionisti e in generale al mercato. Per questo si ritiene che il settore delle AI sarà meno regolamentato rispetto all’Unione Europea”.

Quanto al resto del mondo, “poco più a nord, in Canada, si sta lavorando all’Artificial Intelligence & Data Act, una serie di norme per le intelligenze artificiali che fa parte del Digital Charter Implentation Act, una più ampia legge sul digitale che riguarda il modo in cui possono essere impiegati dati sensibili, la privacy dei cittadini e i loro diritti legati al digitale. Come la legge europea, anche quella canadese ha l’obiettivo di identificare gli ambiti a più alto rischio legati all’utilizzo delle AI, in modo da introdurre regole e limiti per gli sviluppatori”.

La necessità della condivisione e di una concertazione sovranazionale

E se la richiesta di condivisione dei rispettivi know-how da parte di competitor del maggior calibro auspicata da Kamala Harris suona come pura utopia, in qualche angolo del mondo l’esigenza di una concertazione sovranazionale ha già trovato espressione. Come Il Post infatti riferisce, “dal giugno del 2020 esiste inoltre la Global Partnership on Artificial Intelligence (GPAI), una iniziativa internazionale inizialmente proposta da Francia e Canada nel corso del G7 del 2018. È un sistema di cooperazione intergovernativa che comprende istituzioni, centri di ricerca, esperti del settore e rappresentanti della società civile per assicurare uno sviluppo delle AI nel rispetto dei diritti umani e dei principi democratici. Il GPAI funziona più o meno come il G7, con la rotazione dei presidenti tra i paesi partecipanti”.