Twitter Vigilance: quando il monitoraggio delle conversazioni parte dalle allerte meteo

0

Lo scorso 13 novembre 2015 durante il convegno “Smart City & Big Data” è stato presentato il progetto Twitter Vigilance, la nuova piattaforma di monitoraggio delle conversazioni su Twitter sviluppata dal DISIT (Dipartimento di Ingegneria dell’Informazione dell’Università di Firenze). Valentina Grasso del LaMMA, partner del progetto, ci spiega il funzionamento e le novità di questa piattaforma.

Come è nato il progetto Twitter Vigilance?

Valentina Grasso

Valentina Grasso

Il progetto nasce da un’attività del laboratorio DISIT , coordinato dal Prof. Paolo Nesi, nell’ambito di alcuni progetti nazionali ed europei per monitorare le risposte dei cittadini su alcuni servizi della città come: Sii-Mobility, progetto Smart City nazionale (http://www.sii-mobility.org), RESOLUTE H2020 (http://www.resolute-eu.org), REPLICATE H2020.
Dato l’interesse del LaMMA sull’uso dei social media in caso di emergenze meteo si è avviata una collaborazione per quanto riguarda l’ambito Meteo/Clima, con l’obiettivo di lavorare insieme all’ottimizzazione della piattaforma e capirne meglio le potenzialità in questo ambito.

Quali obiettivi ha?

La piattaforma in sé si configura come uno strumento per monitorare i flussi di messaggi scambiati su Twitter relativamente a qualsivoglia argomento. L’obiettivo è di avere uno strumento potente che permetta di archiviare e analizzare questi flussi di messaggi.  Viene usato ad esempio per il monitoraggio della risposta sociale ad eventi critici, per comprendere l’opinione degli utenti su alcuni temi o per valutare i livelli di attenzione pubblica su certi argomenti. Tornando all’esempio dell’allerta meteo, che è il nostro ambito di interesse, Twitter può esserci utile per monitorare l’impatto di certi eventi sulla popolazione. In questo senso può essere immaginato come un “sensore sociale” alimentato dagli utenti che può essere usato per integrare le reti di osservazione meteorologica. In caso di eventi molto localizzati infatti l’informazione che una persona può postare su Twitter può essere preziosa e importante da recuperare specie se relativa ad un luogo dove magari non ci sono strumenti convenzionali. Infine, l’analisi dei messaggi può esserci utile per migliorare la comunicazione istituzionale su certi temi di interesse pubblico, di cui il meteo è solo un esempio. Ascoltare è il primo passo per poter ben comunicare.

Come sono raccolti i dati che analizzate?

Twitter Vigilance è uno strumento multiutente per l’analisi di “Canali Twitter”, dove per canale si intende un insieme di ricerche semplici e complesse effettuate sulla piattaforma Twitter. I più semplici canali di monitoraggio possono filtrare i Tweet corrispondenti ad un singolo utente, ad un singolo hashtag o ad una singola keyword. Canali complessi prevedono decine di query combinate fra loro con parametri diversi come keyword, utenti, hashtag, etc. La piattaforma Twitter Vigilance è in grado di monitorare e analizzare con la stessa efficacia e precisione eventi lenti, quelli da pochi tweet al giorno, ed eventi esplosivi, come quelli che generano diverse centinaia di migliaia di tweet in poche ore, milioni al giorno.

I dati sono analizzati solo a livello quantitativo o anche qualitativo e di sentiment?

Sono trattati entrambi gli aspetti. Per i diversi canali si possono visualizzare ad esempio grafici sull’andamento giornaliero dei tweet; analisi distinte per Tweet e Retweet (T/RT) per caratterizzare l’evento di comunicazione; le citazioni degli utenti per capire quali sono gli influencer, gli emergenti; gli hashtag utilizzati per capire quali sono i più forti o gli emergenti, o la risposta a quelli usati. Vi sono inoltre delle analisi che derivano dall’elaborazione del linguaggio naturale (Natural Language Processing) come l’analisi delle keyword, dei verbi, e degli aggettivi e dell’impatto positivo/negativo di questi, la cosiddetta sentiment analysis. Su questi ultimi punti si sta ancora lavorando sia per gli aspetti di presentazione del dato che di elaborazione.

Come trattate il rumore?

Dipende cosa si intende per rumore. Come abbiamo detto il sistema permette di avere canali molto selettivi, magari formati dalla ricerca dei messaggi che contengono un singolo hashtag, che canali creati tramite ricerche ampie e generiche. Quindi il criterio con cui si crea il canale influenza quanto “rumore” si potrà includere e/o gestire. Ma a volte un po’ di rumore può essere un prezzo adeguato da pagare. Ad esempio se faccio un canale dedicato unicamente all’hashtag #allertameteoTOS, ovviamente il rumore sarà basso, nel senso che si tratta di un hashtag codificato di protezione civile usato per segnalare alcuni tipi di eventi, i messaggi off topic saranno in genere pochi. Però in caso di un evento intenso che ha un impatto esteso sulla popolazione corro il rischio di perdere tutti quei messaggi spontanei inviati sull’evento ma che non includono quello specifico hashtag. Non ho rumore ma perdo informazione. Se faccio una query più ampia, usando ad esempio la parola “temporale” + “nome geografico” della località interessata dall’evento avrò più possibilità di recuperare un più vasto numero di messaggi, certo tra quei messaggi avrò anche del rumore. L’approccio deve essere quello di avere sia canali selettivi sia canali generici, in modo da poter confrontare il segnale più “sporco” con il segnale “pulito” e trattarlo in modo adeguato.

Come vengono utilizzati i dati raccolti?

In linea di massima la Twitter Vigilance può essere usata per analizzare la comunicazione di certi eventi e la risposta del pubblico; per analizzare l’impatto di certi fenomeni sulla popolazione; per sondare le opinioni dei cittadini sui servizi della città, o anche per recuperare informazioni su argomenti di interesse. A breve dovrebbe essere implementata una funzione che permette di estrarre i nomi geografici contenuti nel testo del tweet, in modo da individuare quali sono le località citate nella conversazione e fare una geo referenziazione basata sul testo. Questo può essere utile ad esempio per fare delle mappe di attività anche quando i tweet non sono geo riferiti. I dati sono accessibili per gli utenti che li usano per costruire modelli predittivi e di stima (presenze ad eventi pubblici, audience su eventi televisivi), di analisi (sentiment rispetto a prodotti, accadimenti e persone; qualità della comunicazione; di pre-allerta rapida (early detection), etc.disit_TV

Come sarà gestito questo tool? Sarà aperto anche all’uso di utenti?

La piattaforma è gestita dal Disit Lab dell’Università di Firenze in accordo con i diversi partner, tra i quali ci sono il LaMMA e il CNR Ibimet, ad esempio.  Gli utenti che hanno un accesso alla piattaforma possono gestire questi canali sia in creazione che in visualizzazione. Alcune analisi vengono pubblicate e sono visibili su http://www.disit.org/tv/ con i loro tracciati base. Altri Canali Twitter sono tenuti riservati dai ricercatori e analisti e degli enti che hanno organizzato la ricerca su Twitter Vigilance.

Puoi fare un esempio pratico?

Ad esempio su http://www.disit.org/tv/ si può vedere il canale dedicato all’allerta meteo in Toscana che raccoglie tutti i messaggi che da marzo ad oggi sono stati inviati usando l’hashtag codificato #allertameteoTOS. Si può vedere il grafico sull’andamento dei tweet, la percentuale di tweet originali e di retweet, che cresce in corrispondenza degli eventi intensi; si possono vedere quali sono gli utenti più attivi, anche nei diversi periodi di tempo. L’accesso ai singoli messaggi però non è disponibile per gli utenti non registrati. A breve di potranno ad esempio anche vedere quali sono le località più citate nei messaggi. Mentre alcune funzioni di sentiment analysis sono già attive su certi canali e su certi periodi dimostrativi anche per gli utenti pubblici. Agli utenti registrati sono accessibili molte altre informazioni, e potranno avere a breve anche uno strumento potente per l’analisi dei processi virali. Tutte queste informazioni ci premettono di valutare meglio che tipo di messaggi vengono scambiati e cosa dobbiamo migliorare nella comunicazione. E anche di valutare se questo hashtag codificato che in Toscana ormai è entrato in uso da oltre un anno riesce ad essere un veicolo informativo efficace per gli enti pubblici attivi sul territorio e se funziona davvero per fluidificare e diffondere l’informazione in caso di emergenza.

Per maggiori informazioni, per consultare i materiali del convegno “Smart City & Big Data” e rivedere i video degli interventi clicca qui.

Licenza Creative Commons
Cittadini di Twitter è distribuito con Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale.

About Author

CHIARA BIANCHINI

Blogger e social media manager. Laureata magistrale in scienze della comunicazione con un forte interesse per la comunicazione del rischio e dell’emergenza sui social media. Partecipante attiva a #SmemchatIT (venite a scoprire su Twitter di cosa si tratta!).

Leave A Reply


*