Scegli di capire.

Gedi Smile Abbonati
Inserti
Ancora su HuffPost
Guest
Tutte le sezioni

GEDI Digital S.r.l. - Via Ernesto Lugaro 15, 10126 Torino - Partita IVA 06979891006

Ascolta
Life

AI review. La recensione "artificiale" è così verosimile che confonde pure il ristoratore. Provare per credere

C’erano una volta le brochure, oggi ci sono le recensioni. Quando nel 2000 Stephen Kaufer si trovò a chiedere alla sua agente di viaggio, una signora un po’ anziana, consigli per andare in Messico si trovò tra le mani solo qualche depliant patinato. “Avrei invece voluto parlare con la gente reale che era stata sul posto e aveva vissuto quell’esperienza”, raccontò tempo dopo Kaufer, parlando di come nacque l’idea di creare una piattaforma di viaggio che oggi conosciamo come Tripadvisor. Quell'intuizione ha portato le recensioni nella nostra quotidianità. Una sorta di democrazia diretta in cui chiunque, e ovunque, può votare ristoratori, albergatori, host di Airbnb o qualsiasi attività aperta al pubblico. In 25 anni di strada se ne è fatta, con i corollari di problematiche annesse: ci sono state le review false, quelle fatte su commissione per danneggiare o favorire un’attività. Ma le recensioni artificiali, quelle generate dall’AI, ancora non erano arrivate.

Balazs Kovacs, professore di organizational behavior alla Yale School of Management, si è chiesto cosa accadrebbe se le nostre scelte venissero condizionate dall'opinione asettica, prefabbricata, e soprattutto non effettivamente vissuta, di un computer. Per capirlo ha dato in pasto a ChatGPT un'ingente quantità di critiche pubblicate sul portale americano Yelp, una piattaforma per le aziende locali, chiedendogli di imitarle. Il risultato? Le persone alle quali sono stati poi sottoposti giudizi umani e non, non sono riuscite a distinguere le une dalle altre. Anzi, erano più propense a pensare che i feedback dell'intelligenza artificiale fossero veri. L’esperimento è stato pubblicato sul New York Times. E noi di Huffpost abbiamo provato a fare un tentativo simile.

Per prima cosa abbiamo individuato un ristorante che fosse da un po’ tempo sulla piattaforme, e che avesse un buon numero di stelle. La nostra scelta è caduta su SantoPalato. Il locale si trova a Roma e la chef si chiama Sarah Cicolini. È una trattoria romana, di nuova generazione, unisce i piatti della tradizione alle contaminazioni internazionali di cui i cuochi più giovani sono intrisi. Da quando ha aperto ha avuto un indubitabile successo per la formula innovativa e per la qualità del menù offerto. Il riconoscimento del pubblico e della stampa è culminato un paio di anni fa, quando Cicolini è stata chiamata dai mostri sacri di Masterchef a presentare un suo piatto in trasmissione, affinché venisse replicato.

Poi abbiamo creato un file con dieci recensioni, una parte era presa da Tripadvisor, alcune da Google. Alcune, invece, le abbiamo ideate con l’aiuto di ChatGpt. I prompt - le istruzioni da fornire a un modello di intelligenza artificiale (AI) per guidarne l'output - erano tutti piuttosto semplici basati sulle caratteristiche principali del posto. “Fammi una recensione da tre stelle stile Tripadvisor di SantoPalato”;  “Fai una recensione breve di Santopalato stile Google, 3 stelle. Ho mangiato piatti buoni. Ottimo il servizio. Lunghi i tempi di prenotazioni”;  “Finalmente sono andato da Santopalato. Ottimo. Fai una recensione stile Google”; “Recensione Breve di SantoPalato con titolo e numero di stelle”. La velocità e la qualità di risposta dell’AI lascia sempre stupiti. Intanto perché mentre Gemini, l’AI di Google, non era preparata a rispondere a nessuno di questi prompt, ChatGpt non solo era prontissima ma alla prima richiesta: “Fammi una recensione di SantoPalato”, ha risposto con un focus di 30 righe così dettagliato da sembrare una recensione pubblicabile su qualsiasi giornale che si occupa di food. Inoltre in circa 30 minuti minuti con quei prompt ha fornito una serie di recensioni davvero verosimili. Le abbiamo inserite - quelle reali e quelle generate dall'intelligenza artificiale - in un unico file e abbiamo chiesto alla chef Cicolini di dirci se fosse in grado di distinguere quelle vere da quelle generate dall’intelligenza artificiale. Ebbene tre recensioni l’hanno tratta in inganno: una sembrava falsa (o artificiale) ma invece era vera; e due sembravano vere ma erano false, o meglio artificiali. 

media_alt
media_alt

Va detto che molto dipende da come si utilizza l’AI, ma una persona neanche tanto esperta può in poco tempo fare un’operazione che confonde perfino chi quel locale lo ha fondato, come nel nostro caso. Sarah ci spiega, ammettendo di non conoscere il meccanismo di funzionamento dell’AI, di aver individuato delle caratteristiche comuni ma tutte erano molto simili: “Alcune non mi hanno ingannato perché sembrava ci fossero dei parametri ricorrenti, come il mio nome, e alcune parole: “tradizione”, “rivisitazione”, “coda alla vaccinara”, “carbonara”. Alcune mi sembravano vecchie. Una me la ricordavo. Ma tutte erano molto simili tra loro. Ma se avessi fatto questo giochetto a chi legge sempre le critiche forse avrebbero azzeccato tutte le risposte. Sono molto allenati anche perché cercano sempre quelle false. Certo ora la difficoltà aumenta perché dovranno misurarsi con quelle artificiali”.

Abbiamo scelto Sarah perché il suo ristorante ha tante recensioni, e non ha grandi problemi di reputazione. Ma se fosse stato un locale appena aperto alle prese con l’effetto amplificatore - in negativo o in positivo - dovuto agli algoritmi delle piattaforme? Quale potrebbe essere l’effetto? “Stiamo parlando di uno strumento che può essere molto utile per chi vuole avere consigli di prima mano. Ma sembra una difficoltà ulteriore, se consideriamo che noi ristoratori abbiamo già dovuto fronteggiare le recensioni false, le ricattatorie. È incredibile, sembra quasi che dobbiamo occuparci più di curare la reputazione che di cucinare. Vorrei far capire a tutti che la cosa ci sta sfuggendo di mano e che non può essere solo la recensione del cliente a guidare il consumatore”.

E in effetti anche il critico gastronomico Pete Wells, autore dell'articolo che riprende gli studi del professore di Yale, ha espresso le sue perplessità. Esattamente come Sarah. Il fenomeno, ha scritto, potrebbe essere capace di condizionare eccessivamente la media dei punteggi che un determinato locale totalizza su una qualsiasi piattaforma di recensioni, e può fare “la differenza tra il fare soldi e l'andare in rosso”. Basti pensare che, secondo uno studio del 2021 pubblicato da Tripadvisor, il 70% delle persone ritiene i feedback altrui “molto importanti” nella scelta di un locale. La ricerca comprendeva vari paesi, tra i quali anche l'Italia. “È un oceano di falsità, molto peggiore di quanto si pensi”, ha dichiarato al quotidiano newyorkese Kay Dean, avvocato che si occupa di ricerche sulle false recensioni online. “I consumatori vengono ingannati, le aziende oneste vengono danneggiate e la fiducia va erodendosi”.

Abbiamo chiesto a Sonia Ricci, giornalista e vice-caporedattrice del Gambero Rosso, rivista che le recensioni le fa per mestiere, di dirci cosa ne pensa. “È importante che ognuno possa consigliare o meno un ristorante, ma una recensione confezionata ad arte può da un lato ingannare i clienti, dall’altro può anche creare un danno enorme per una azienda, dai ristoranti di alta cucina alle trattorie che fanno molti numeri. Non sono contraria per principio all’introduzione di uno strumento così importante nell’ambito della ristorazione, ma tutto dipende da come viene utilizzata. Se l’AI genera un oceano di falsità - come lo ha definito il New York Times - apre una questione che le piattaforme dovranno risolvere. Tuttavia, va detto che l'AI può anche essere un'opportunità per scovare le recensioni false, diventando un vantaggio”. E in effetti di opportunità ne ha parlato anche Tripadvisor. Secondo il report sulla trasparenza delle recensioni 2023 di Tripadvisor, grazie all'intelligenza artificiale, nel 2022 sono state rimosse oltre 73 milioni di recensioni false, tra cui: 43,28% identificate e bloccate dal sistema AI prima della pubblicazione; 26,18% eliminate dai moderatori dopo la pubblicazione; 21,22% rimosse dopo la valutazione umana; 5,78% eliminate dagli stessi utenti. L'intelligenza artificiale si dimostra uno strumento prezioso nella lotta alle recensioni false, ma la sfida è in continua evoluzione. E l’obiettivo, dice Sonia Ricci, dovrebbe essere “tutelare la fiducia degli utenti garantendo recensioni autentiche e utili e, allo stesso tempo, proteggere la reputazione delle aziende oneste”. 

Come fare? Amazon che di recensioni ne ha fatto il suo core business ha fatto l'etichetta di "acquisto verificato". Ma c’è da chiedersi se piccoli aggiustamenti del genere possano bastare contro l’iperrealismo dell'intelligenza artificiale.

I commenti dei lettori

HuffPost crede nel valore del confronto tra diverse opinioni. Partecipa al dibattito con gli altri membri della community.

Suggerisci una correzione