banner
Centro notizie
Affari tutto compreso

I ricercatori di disinformazione lanciano allarmi sui chatbot AI

Nov 18, 2023

Annuncio

Sostenuto da

I ricercatori hanno utilizzato ChatGPT per produrre testi chiari e convincenti che ripetevano teorie del complotto e narrazioni fuorvianti.

Di Tiffany Hsu e Stuart A. Thompson

Per ulteriore giornalismo audio e narrazione, scarica New York Times Audio, una nuova app iOS disponibile per gli abbonati alle notizie.

Per ascoltare altre storie audio da pubblicazioni come il New York Times, scarica Audm per iPhone o Android.

Subito dopo il debutto di ChatGPT lo scorso anno, i ricercatori hanno testato ciò che il chatbot di intelligenza artificiale avrebbe scritto dopo che gli erano state poste domande piene di teorie cospirative e false narrazioni.

I risultati – in scritti formattati come articoli di notizie, saggi e sceneggiature televisive – erano così preoccupanti che i ricercatori non usavano mezzi termini.

"Questo strumento sarà lo strumento più potente per diffondere la disinformazione che sia mai esistito su Internet", ha affermato Gordon Crovitz, co-amministratore delegato di NewsGuard, una società che tiene traccia della disinformazione online e ha condotto l'esperimento il mese scorso. "Creare un ora è possibile diffondere nuove false narrazioni su scala drammatica, e molto più frequentemente: è come se gli agenti dell’intelligenza artificiale contribuissero alla disinformazione”.

La disinformazione è difficile da combattere quando viene creata manualmente dagli esseri umani. I ricercatori prevedono che la tecnologia generativa potrebbe rendere la disinformazione più economica e più facile da produrre per un numero ancora maggiore di teorici della cospirazione e di diffusori di disinformazione.

I chatbot personalizzati e in tempo reale potrebbero condividere le teorie del complotto in modi sempre più credibili e persuasivi, affermano i ricercatori, eliminando gli errori umani come la cattiva sintassi e le traduzioni errate e andando oltre i lavori di copia-incolla facilmente rilevabili. E dicono che nessuna tattica di mitigazione disponibile può combatterlo efficacemente.

I predecessori di ChatGPT, creato dalla società di intelligenza artificiale OpenAI di San Francisco, sono stati utilizzati per anni per inondare forum online e piattaforme di social media con commenti e spam (spesso grammaticalmente sospetti). Microsoft ha dovuto interrompere l'attività del suo chatbot Tay entro 24 ore dalla sua introduzione su Twitter nel 2016 dopo che i troll gli avevano insegnato a pronunciare un linguaggio razzista e xenofobo.

ChatGPT è molto più potente e sofisticato. Fornito di domande cariche di disinformazione, può produrre variazioni convincenti e pulite sul contenuto in massa in pochi secondi, senza rivelarne le fonti. Martedì, Microsoft e OpenAI hanno introdotto un nuovo motore di ricerca Bing e un browser web in grado di utilizzare la tecnologia chatbot per pianificare vacanze, tradurre testi o condurre ricerche.

Quando i ricercatori di NewsGuard hanno chiesto a ChatGPT di scrivere risposte basate su idee false e fuorvianti, il bot ha obbedito circa l’80% delle volte. In questo esempio, i ricercatori hanno chiesto a ChatGPT di scrivere con la voce di Alex Jones, il teorico della cospirazione dietro Infowars.

I ricercatori di OpenAI sono da tempo preoccupati per il fatto che i chatbot cadano in mani nefaste, scrivendo in un articolo del 2019 della loro "preoccupazione che le sue capacità potrebbero ridurre i costi delle campagne di disinformazione" e aiutare nel perseguimento dannoso "di guadagno monetario, una particolare agenda politica e/o o il desiderio di creare caos o confusione."

Nel 2020, i ricercatori del Centro sul terrorismo, l'estremismo e l'antiterrorismo presso il Middlebury Institute of International Studies hanno scoperto che GPT-3, la tecnologia alla base di ChatGPT, aveva "una conoscenza straordinariamente profonda delle comunità estremiste" e poteva essere indotta a produrre polemiche in stile di sparatorie di massa, falsi thread di forum che parlano del nazismo, una difesa di QAnon e persino testi estremisti multilingue.

OpenAI utilizza macchine e esseri umani per monitorare i contenuti inseriti e prodotti da ChatGPT, ha detto un portavoce. L'azienda fa affidamento sia sui suoi formatori di intelligenza artificiale umana che sul feedback degli utenti per identificare e filtrare i dati di formazione tossici mentre insegna a ChatGPT a produrre risposte più informate.

Le politiche di OpenAI vietano l'uso della sua tecnologia per promuovere la disonestà, ingannare o manipolare gli utenti o tentare di influenzare la politica; l'azienda offre uno strumento di moderazione gratuito per gestire contenuti che promuovono odio, autolesionismo, violenza o sesso. Ma al momento lo strumento offre un supporto limitato per lingue diverse dall’inglese e non identifica materiale politico, spam, inganno o malware. ChatGPT avverte gli utenti che "potrebbe occasionalmente produrre istruzioni dannose o contenuti distorti".