Allucinazioni nelle ricerche: è letteralmente quello che è accaduto su Bing

Intelligenze artificiali hanno le allucinazioni: scandalo su Bing, cosa è successo e cosa farà l’azienda per rimediare.

Bing, motore di ricerca di Microsoft, ha fornito informazioni errate a causa di allucinazioni dell’intelligenza artificiale generativa che viene utilizzata per migliorare l’algoritmo. Per molte intelligenze artificiali, compresi chatbot come l’ormai noto CHatGPT di OpenAI, ma anche quello di Google, Bard e Bing Chat di Microsoft, la principale fonte di apprendimento e miglioramento sono dei database di dati disponibili sul web: alcuni di questi sono blog, articoli online, social media e siti web ufficiali.

bing allucinazioni
Bing ha le allucinazioni: informazioni errate (oltreradio.it)

Il problema è emerso alla superficie quando il giornalista Will Knight, autore di Wired, ha cercato alcuni approfondimenti sulla teoria dell’informazione ideata da Claude Shannon. Il motore di ricerca di Bing però includeva tra i vari articoli di ricerca uno studio dal nome “Una breve storia della ricerca”, descrivendolo come un lavoro di cruciale importanza nel campo dell’informatica, e che trattava dell’evoluzione degli algoritmi di ricerca del corso della storia.

Ricerche errate e allucinazioni su Bing

Il problema è che Claude Shannon non aveva mai scritto questo articolo: le citazioni e le informazioni date da Bing non erano altro che delle allucinazioni create dall’intelligenza artificiale atta a migliorare i risultati di ricerca.

ricerche online
Informazioni errate fornite dai motori di ricerca: come succede (oltreradio.it)

Ovviamente questo è stato un episodio che ha sollevato dubbi nei confronti della vera qualità delle informazioni che vengono fornite dai vari motori di ricerca che sono alimentati da intelligenze artificiali. Queste piattaforme hanno un ruolo di spicco nella diffusione di informazioni e soprattutto nella formazione dell’opinione del pubblico, quindi il problema è più inquietante di quanto sembri.

Come Bing intende procedere

Per di più, l’errore non è stato casuale: sembra che fosse stato uno sbaglio intenzionale, causato dal ricercatore Daniel Griffin, che ha di recente finito un dottorato che riguarda proprio la ricerca web all’Università della California. Il suo intento era quello di dimostrare come l’implementazione immediata di intelligenze artificiali, tipo ChatGPT, metterebbe in realtà in grosse difficoltà le aziende che si occupano di tecnologia, e non solo: quando tali sistemi poi falliscono, questi danneggiano servizi offerti e usati da milioni di persone ogni singolo giorno.

Caitlin Roulston, la direttrice delle comunicazioni presso Microsoft, di fronte a questo scandalo ha annunciato che la loro azienda avrebbe iniziato a prendere misure per fronteggiare questo problema. Sembra che abbiano aggiustato vari dettagli di Bing in modo da poter evitare la diffusione di informazioni false. Hanno inoltre messo in piedi un sistema per poter identificare questa tipologia di problemi in modo immediato. Per quanto l’azienda si sia messa subito sotto per poter risolvere il problema, questo spiacevole episodio pone tante domande sull’uso delle intelligenze artificiali.

Gestione cookie