L’evoluzione del Web ha portato ad una crescente decentralizzazione delle attività svolte sulla Rete. È in fondo il principio che sottende al Web 2.0, nel quale tutti sono fruitori e autori al tempo stesso, e le azioni dei singoli condizionano l’intero sistema.
I sistemi di reputation, nei quali gli utenti esprimono un giudizio relativo ad un servizio utilizzato, sono un esempio di questo paradigma.
Questi sistemi, per come sono concretamente realizzati, si basano spesso su un’ipotesi di comportamento onesto dei partecipanti, ipotesi che, tuttavia, non è in generale applicabile.
Siamo quindi in uno dei casi in cui il concetto di trust assume un ruolo centrale. Trust, nel senso di fiducia: possiamo fidarci sulle informazioni che il sistema di reputation ci fornisce?
TripAdvisor, il noto portale di recensioni turistiche americano, utilizzato diffusamente in tutto il mondo, è certamente uno di quei casi in cui l’affidabilità e la robustezza del sistema di reputazione possono svolgere un ruolo estremamente rilevante, visto l’impatto che le recensioni possono avere sul successo o insuccesso commerciale degli esercenti coinvolti.
Del resto proprio TripAdvisor è stato spesso al centro di polemiche, e talvolta di azioni legali, proprio legate al fenomeno delle fake review.
Come dicevamo, in ogni sistema di reputation che opera in ambienti aperti, non è possibile escludere la presenza di utenti, che, o per semplice vandalismo o divertimento, o, più facilmente, per trarne vantaggio, inquinano il sistema attraverso comportamenti malicious, che rappresentano veri e propri attacchi al sistema di reputation. Nel caso di TripAdvisor, l’informazione di reputation è la recensione redatta nei riguardi di un esercente (es un albergo o un ristorante) e i recensori sono utenti che, sperabilmente, si riferiscono ad un’esperienza vissuta presso quell’esercente.
Ma, al di là della capacità del singolo recensore di esprimere giudizi con adeguata competenza (expertise del revisore), vi sono quindi aspetti del sistema che vanno analizzati sotto il profilo della sicurezza, in quanto, come in generale accade nei sistemi di reputation, vi sono diversi attacchi che possono minare la validità di tali sistemi.
Le principali famiglie di attacchi da tenere in considerazione sono le seguenti:
- Self-Promoting Attack. Un attacco di Self-Promoting si verifica quando un attaccante manipola la propria reputazione falsamente al fine di aumentarla. In generale, un modo per contrastare attacchi di questo tipo è quello di prevedere solo feedback negativi, o di legare la presenza dei feedback a meccanismi di certificazione. Nel caso specifico di TripAdvisor, il self promoting si realizza attraverso l’immissione di falsi feedback positivi, prodotta da esercenti (anche attraverso terze persone) che hanno lo scopo di incrementare la loro reputation. Si noti che nel caso di TripAdvisor l’eliminazione dei feedback positivi appare inapplicabile per il fatto che i feedback positivi contengono informazioni significative dal punto di vista qualitativo, la cui eliminazione comprometterebbe drasticamente l’efficacia del sistema.
- Whitewashing Attack. In questa famiglia di attacchi, l’attaccante cerca di “ripulire” la sua reputation tipicamente attraverso un re-ingresso nel sistema. Questi attacchi sono spesso coincidenti con attacchi di tipo Re-Entry o Change Identity. Il contrasto degli attacchi di questo tipo è legato alla corretta gestione dell’identità degli utenti che partecipano al sistema di reputation. Questo attacco non trova applicazione nel dominio di TripAdvisor in quanto i potenziali attaccanti, e cioè gli esercenti, sono identificati in maniera certa nel sistema.
- Slandering Attack (o Unfair Rating). In questo caso l’avversario cerca di abbassare fittiziamente la reputation di altri utenti del sistema. In TripAdvisor, di nuovo, all’origine dell’attacco vi è sovente uno degli esercenti (o persona a lui collegata) che tenta di screditare a suo vantaggio un concorrente. Il modo per difendersi da questa tipologia di attacchi dipende ovviamente dal particolare modello di reputation considerato, ma può inquadrarsi in generale nelle strategie di contrasto alle fake review.
- Sybil Attack. I Sybil Attack consistono nell’immissione nel sistema di reputation di un numero elevato di identità false, che possono pertanto, ancorché attraverso comportamenti apparentemente leciti, invalidare in maniera malicious il sistema di reputazione. Anche in questo caso in generale è necessario una gestione corretta dell’identità digitale. Questo attacco è spesso preliminare ad altri attacchi, di tipo unfair rating o self promoting. In TripAdvisor questi attacchi sono possibili a causa della debole gestione della identità digitale.
Gli attacchi sopra analizzati possono essere attuati in una modalità che prevede la collusione massiccia di più utenti. Infatti, nel caso di TripAdvisor, c’è la possibilità di un mercato di recensioni: aziende che creano o hanno a disposizione account di TripAdvisor e sono disposti a scrivere recensioni (positive o negative) su esercenti. Un fenomeno analogo a quanto avvenuto in passato con i “televoti pilotati”: artisti che hanno affittato diversi call center per farsi televotare in una gara in cui le preferenze sono espresse attraverso telefonate.
Certamente TripAdvisor adotta strategie per arginare le anomalie sopra descritte, ma il òunto di vista di molti analisti è che esse non sono sufficientemente robuste. È da osservare anche che il problema assume rilevanza anche se si considera il caso delle singole fake review, in quanto, soprattutto nella prima fase di vita di un esercente nel sistema di TriAdvisor, anche poche review possono condizionarne la sua riuscita.
Proprio su questa consapevolezza si basa un progetto di ricerca svolto in collaborazione tra l’Università Mediterranea di Reggio Calabria (Francesco Buccafurri e Gianluca Lax) e l’Istituto di informatica e telematica del CNR di Pisa (Marinella Petrocchi e Michela Fazzolari), che parte da alcuni risultati preliminari pubblicati nel 2015 dal gruppo dell’Università Mediterranea di Reggio Calabria [1].
L’approccio mira a normalizzare i punteggi forniti dai recensori in accordo ad un livello di trust associato ad ogni recensione.
Il livello di trust della recensione è ottenuto combinando attraverso tecniche di machine learning il livello di trust dell’identità digitale del recensore con quello della veridicità della transazione. Si parte infatti dal presupposto che tipicamente le fake review sono associate a utenti fittizi e ad esperienze mai vissute presso l’esercente oggetto della review. Vengono tenute in considerazione diverse informazioni, legate all’uso dei social network per l’autenticazione al sistema, al profilo del recensore, alla coerenza tra testo scritto nella recensione e attributi dell’utente, alla presenza di immagini, alla veridicità delle immagini, al comportamento dell’esercente, al legame con altre recensioni, in modo tale che, attraverso una vera e propria attività di intelligence, si possa determinare un livello di trust complessivo della recensione, e normalizzarne lo score in modo tale che tanto più la recensione è affidabile tanto più lo score è in grado di discostarsi dallo score medio che fino a quel momento è stato ottenuto dall’esercente.
Il caso visto in questo breve articolo è solo un esempio di quanto il concetto di trust stia diventando importante negli scenari attuali in cui sulla Rete proliferano identità, notizie, informazioni, servizi, senza che essi possano ricondursi a organismi che ne certifichino la validità, e che possono anche fittiziamente condizionare le dinamiche della società. I meccanismi di trust rappresentano pertanto armi efficaci per il contrasto del fenomeno delle fake information su Internet, la cui affidabilità, nel senso più completo del termine, è divenuto un requisito fortemente auspicabile perché lo sviluppo della società passa anche attraverso la piena fiducia nel digitale, in tutte le sue declinazioni.