Newsbot: come l’intelligenza artificiale mina la verità dell’informazione

di Antonio Facchin

Newsguard, la piattaforma che dal 2018 vigila sull’affidabilità dei siti web di tutto il mondo, ha individuato 49 siti newsbot (definizione che è crasi di news e robot) che in ben 7 lingue (ceco, cinese, francese, inglese, portoghese, tagalog e thailandese) diffondono deliberatamente notizie false grazie all’impiego dell’intelligenza artificiale generativa. Siti di cui naturalmente restano ignoti gli editori, i responsabili e sono naturalmente “fasulli” anche gli autori. Il fenomeno non è una novità. Neanche il fatto che alla base vi sia l’intento di indurre il click dell’ignaro lettore che, sommato a tanti altri, massimizza introiti pubblicitari. Gli stessi che partecipano talvolta al bilancio di siti web già noti.

La novità sta tuttavia nel fatto che l’intelligenza artificiale permette di realizzare integralmente una quantità considerevole di articoli o qualcosa di simile, a giudicare dalla quantità di ripetizioni e refusi che si palesano però solo a un occhio allenato. Il tutto quasi istantaneamente e senza l’impiego di “capitale umano” – anzi, a suo insindacabile danno – per poi “lanciarli” scientemente nel web. Insomma, delle vere e proprie macchine da guerra mediatica con un’impareggiabile potenza di fuoco.

Il piano d’intervento americano

E se oltreoceano gli stessi sviluppatori dell’AI sono stati i primi a sollevare l’allarme sui rischi di uno sviluppo incontrollato di una tecnologia che potrebbe minare la sicurezza nazionale, sarà proprio Kamala Harris, vicepresidente degli Stati Uniti d’America, a gestire un autentico piano di intervento, riunendo prima di tutto attorno a un tavolo i quattro principali colossi. Parliamo di OpenAi, quello della famigerata ChatGPT, Microsoft, Google e Anthropic di Alphabet, di cui abbiamo già trattato sottolineandone il primato nell’impegno sul fronte etico.

E proprio l’etica sarà uno dei cardini di un piano che prevede la stipula di una Carta dei diritti dell’intelligenza artificiale, la creazione di un centro di ricerca nazionale e di sette istituti per la cui fondazione sarebbero stati stanziati ben 140 milioni di dollari. Oltre alla realizzazione di una guida pubblica sull’uso di questa “nuova” tecnologia, come riportato recentemente da Wired.

Ma la parte più ambiziosa del programma sarà proprio la richiesta ai quattro competitor di condividere il know-how e di rispondere della loro condotta etica. Un’ambizione che rasenta l’utopia, se solo consideriamo che il ricorso sistematico e mirato alle fake news – e quindi alla disinformazione – da parte di alcuni di loro c’era da ben prima dell’avvento dell’intelligenza artificiale. Con la differenza che prima, almeno, offriva occupazione.

La “forza” della verosimiglianza

Sarà dunque sempre più difficile distinguere il reale dal verosimile soprattutto per chi non è allenato alla lettura critica di un testo. O per chi basa la propria informazione personale sulla mera lettura di ciò che molti social network continuano a spacciare per “informazione alternativa”, senza ricorrere ad alcun mezzo di confronto. Insomma, se Tullio De Mauro ci ha messi in guardia dal rischio di analfabetismo funzionale – la perdita dell’abilità di piena comprensione ed elaborazione di un testo scritto – dobbiamo ormai fare i conti anche con l’analfabetismo digitale. E non sarà una facile impresa per la gran quantità di fake news e per la loro verosimiglianza sempre più accentuata.

error: Content is protected !!