di Céline Camoin
Mai fidarsi troppo dell’intelligenza artificiale. È la lezione che ci insegna lo specialista camerunese in educazione ai media, Blaise Pascal Andzongo, a cui Bard, l’intelligenza artificiale di conversazione di Google, ha creato riferimenti bibliografici e glieli ha attribuiti.
Facendo un test sulla nuova perla dell’intelligenza artificiale, Andzongo ha chiesto a Bard di presentarlo. Curiosamente i tre articoli a lui attribuiti sono del tutto inesistenti.
Il robot ha inizialmente scritto un’eccellente descrizione dello specialista, rivelando anche il suo attaccamento al laboratorio di psicologia sociale dell’Università di Yaoundé 1. Ha descritto chiaramente gli orientamenti e le attività da lui svolte nel campo della formazione, delle sue consulenze e attività di sensibilizzazione e di promozione sui temi della disinformazione e dell’incitamento all’odio.
Tuttavia il problema si è posto per articoli che Bard gli ha attribuito: i tre riferimenti erano completamente falsi. Dopo aver effettuato lui stesso una ricerca inversa tra i titoli degli articoli e le riviste in cui sono stati pubblicati, non è venuta fuori alcun risultato, segno che forse questi articoli sono addirittura inventati.
Andzongo è autore di numerosi articoli scientifici pubblicati su riviste internazionali e presenti su Internet che non sono stati menzionati dal Conversational Robot.
“Sono rimasto sorpreso nel vedere che Bard mi ha attribuito articoli di cui non ero l’autore, e molto imbarazzato dal fatto che non abbia menzionato gli articoli scientifici che ho scritto e che sono disponibili su Internet da Google”, ha detto Andzongo a Camerun-info.net.
La stessa fonte ricorda che ChatGpt, l’altra potente IA generativa, è stata accusata più volte di aver fabbricato dati. L’esempio recente è quello dell’invenzione di una storia di molestie sessuali attribuita a un professore universitario americano sulla base di un articolo del Washington Post, inventato sempre dall’Ai.