di Antonio Facchin
Testo adv-free disponibile su VTV Magazine
L’AI Safety Summit, il primo convegno internazionale sui rischi dello sviluppo e impiego dell’intelligenza artificiale, ha chiamato alla firma di un accordo i vertici di Arabia Saudita, Australia, Brasile, Canada, Cile, Cina, Emirati Arabi, Francia, Filippine, Germania, Giappone, India, Indonesia, Irlanda, Israele, Italia, Kenya, Nigeria, Paesi Bassi, Regno Unito, Repubblica di Corea, Ruanda, Singapore, Spagna, Svizzera, Stati Uniti, Turchia, Ucraina e Unione Europea – paesi a vario titolo coinvolti nello sviluppo e applicazione dell’intelligenza artificiale – lo scorso 1° e 2 novembre.
In un luogo a dir poco simbolico: Bletchley Park, la località a 75 Km. da Londra, tra Oxford e Cambridge, dove durante la Seconda Guerra Mondiale Alan Turing e la sua squadra lavorarono alla decrittazione dei messaggi formulati dai nazisti in codice Enigma, contribuendo così alla vittoria degli Alleati – vicenda raccontata nel film The Imitation Game (2014) – grazie al primo calcolatore elettronico della storia, il precursore del nostro computer.
Scopo del summit è stato quello di sottoscrivere una dichiarazione tra le grandi nazioni e le aziende impegnate nello sviluppo dell’AI per assicurare ai governi il controllo – naturalmente esterno alle aziende committenti – dei nuovi modelli di intelligenza artificiale; sia prima, sia dopo il loro “rilascio” all’utenza.
Un settore di massima competitività
Questo dopo le difficoltà incontrate dalla Vice Presidente degli Stati Uniti Kamala Harris nel riunire le Big Tech per far sì che condividessero le loro scoperte in un settore in competizione crescente, poco prima che l’Unione Europea varasse il DSA (Digital Service Act), il primo pacchetto di norme al mondo sull’intelligenza artificiale. Si aggiunge quindi un nuovo tassello alla costruzione di un sistema che vede al suo centro anche la creazione in Gran Bretagna dell’Istituto per la sicurezza della AI, che si assumerà la responsabilità di testare gli sviluppi dell’intelligenza artificiale nell’ottica di individuarne i rischi a partire dalla disinformazione. Con l’obiettivo di mantenerne negli anni un controllo umano.
Il ruolo da pioniere dell’Unione Europea nella prevenzione dei rischi da AI
Il DSA (il Digital Service Act) varato dall’Unione europea a fine 2022 è un pacchetto di leggi che, prime nel mondo, regolano le grandi piattaforme digitali. Si rivolge quindi ai 19 principali colossi del web di Stati Uniti e Cina, da Facebook e Instagram, da Amazon a Tik Tok, da YouTube fino a Google, distinguendoli tra VLOP (Very Large Online Platform) e VLOSE (Very Large Online Search Engine), i motori di ricerca.
Chi non rispetta i 13 parametri, di cui queste aziende hanno dovuto fornire informazioni, incorre in sanzioni che possono raggiungere il 6% del fatturato globale, se non la temporanea interruzione dell’attività. Ciò per fissare una serie di paletti su trasparenza di algoritmi e pubblicità, lotta alla violenza online e disinformazione, protezione dei minori” e il tanto agognato stop alla profilazione.
La pubblicità è dunque il primo e uno degli aspetti più sensibili del DSA che impone di non mostrare annunci profilati su orientamento sessuale, religione, simpatie politiche o altri dati sensibili, consente di bloccare quelli personalizzati ai minori”, e di scoprire perché ci viene proposta una pubblicità e di sapere d’ora in poi chi la finanzia. Con l’obbligo di istituire un archivio delle inserzioni pubblicitarie.
La necessità di una “algoretica”
Altro punto critico che il DSA affronta è la trasparenza degli algoritmi. Perché un social network ci sta mostrando proprio quel post? O perché un ecommerce ci indirizza a quello specifico prodotto? Conoscere i meccanismi che regolano le funzioni di filtro, profilazione e di organizzazione dei contenuti è da sempre un obiettivo dell’Unione europea, che vuole restituire ai cittadini la libertà di stabilire in autonomia la rilevanza di un’informazione. Insomma, è ormai evidente la necessità di un’algoretica.
Il DSA impone infine una lotta senza quartiere a contenuti violenti, illegali e alle fake news. Per l’ecommerce, questo si traduce in una caccia a recensioni false e prodotti vietati o contraffatti, offrendo agli utenti la possibilità di segnalarli e chiarire i parametri in base ai quali rimuovono un contenuto. Anche se resta per il momento inadeguata, per la sua oggettiva difficoltà, la norma che dovrebbe stabilire il riconoscimento dei diritti d’autore di un’opera frutto di intelligenza artificiale; nodo insoluto che è diventato nel frattempo materia di giurisprudenza.
Il ministro dell’economia francese Bruno Le Maire, il vice cancelliere tedesco Robert Habeck, la presidente della Commissione europea Ursula von der Leyen, la vice Presidente degli Stati Uniti Kamala Harris, il primo ministro del Regno Unito Rishi Sunak, il primo ministro Giorgia Meloni, il segretario generale delle Nazioni Unite Antonio Guterres, il vice primo ministro australiano Richard Marles (in prima fila) sono alcuni dei partecipanti all’AI Safety Summit 2023 (©REUTERS/Toby Melville)