di Antonio Facchin
Come vi avevamo già anticipato, ChatGPT – la piattaforma capace di riprodurre perfettamente (o quasi) il linguaggio umano – è tornata online anche in Italia. Ne dà notizia Alessandro Longo su Il Sole 24 Ore. L’accesso all’ormai famigerato chatbot (crasi fra chat e robot a esprimerne la componente di intelligenza artificiale) di proprietà di OpenAI era stato infatti bloccato in Italia da Pasquale Stanzione, il giurista Garante della Privacy. Ciò ha permesso intanto a OpenAI di apportarvi un’importante modifica su scala mondiale: la possibilità di escludere le proprie conversazioni dal training dell’algoritmo (se non addirittura quella di venirne completamente rimossi su esplicita richiesta).
Questo ben prima dell’accordo italiano che, naturalmente prevede il rispetto delle norme sulla tutela della privacy che, sia ben chiaro, è già normativa europea (mentre da più parti si invoca un intervento europeo sul settore che gravita attorno all’impiego e sviluppo di tecnologie potenziate con AI). Quindi all’Italia va il primato di aver sollevato il problema, battendo la Germania sul tempo e dando dunque origine a una task-force europea a tutela dell’utilizzo dei dati personali. Che, non dimentichiamolo, si concentra sulla tutela dei minori che non avranno così facile accesso a ChatGPT.
L’intelligenza artificiale generativa aiuta la traduzione e l’insegnamento
Oltre al nostro Garante, a mettere in guardia sui rischi dell’intelligenza artificiale e in particolare quella generativa, capace cioè di produrre linguaggio e immagini, sono da qualche tempo soprattutto i suoi sviluppatori americani (e ne abbiamo già parlato). Le sue potenzialità sono infatti tali da far prevedere una rivoluzione culturale epocale, che si presume si esprimerà appieno solo nella prossima decade. Basti intanto considerare quanto la riproduzione del linguaggio umano ricorrendo all’intelligenza artificiale – che consente allo stesso sistema di auto correggersi – possa rivoluzionare il mondo della traduzione e dell’insegnamento. Ma rischi di manipolazione di una corretta informazione per mezzo dell’alterazione della realtà sono già evidenti. Problema che si acuisce quando l’intelligenza artificiale rielabora le immagini. Esempi eloquenti sono stati proprio quelli di un Papa Bergoglio “di lusso vestito” e di un Donald Trump “vittima” delle forze dell’ordine ben prima che dei giudici (di cui abbiamo già trattato).
Che poi, a un esame approfondito, ChatGPT rivelasse addirittura più di un limite (quello cioè di attingere a una banca dati incompleta e di non saper gestire questioni complesse) ce lo aveva già rivelato Salvatore Aranzulla, noto digital specialist, sul Messaggero.
Anthropic: la risposta antropocentrica a ChatGPT
Tra gli esperti che hanno contributo al successo di OpenAI, Dario e Daniela Amodei, due giovani ricercatori italo-americani di stanza a San Francisco, hanno da poco fondato in start-up il concorrente di ChatGPT, ottenendo il plauso (e un cospicuo finanziamento) di Google. Si chiama Anthropic ed è una Public Benefit Corporation che nasce dalla volontà di offrire un prodotto di intelligenza artificiale generativa sulla base di un nucleo “etico”, con occhi aperti sulle conseguenze di quanto propone.
Come espresso programmaticamente sulla Homepage di Anthropic, utilità, onestà e innocuità sono fra i suoi princìpi, la sicurezza il suo focus, la cooperazione globale sua aspirazione e metodo. Tutto ciò sulla base di un approccio che i fondatori definiscono senza mezzi termini empirico, e fondato su una consapevolezza: l’intelligenza artificiale che soverchia le competenze dei suoi creatori non è scienza esatta, e come tale, è imprevedibile. Che ciò sia solo l’inizio di un “nuovo” Umanesimo?