Social: Misinformation ed Effetto Cassa di Risonanza

filter-bubble

L’avvento dei social ha rimescolato un pò le carte in gioco nella vita quotidiana di ognuno, agendo in modo indiscutibile sugli usi e costumi della gente, cambiando il modo di relazionarsi l’uno con l’altro e di informarsi. Se nel 2011 l’80,9% degli italiani prediligeva il tg come principale mezzo d’informazione, oggi questo valore ha subito un drastico calo attestandosi al 63% in favore di Facebook che sale al 35,5% (dati Censis).

 

“Indiniamoci” con la Misinformation

In questo scenario tra disinformazione, bufale, contro-bufale e mezze verità romanzate si comprende bene il ruolo fondamentale che ognuno di noi riveste, come membro di una rete sociale, con il proprio senso critico. E bisogna munirsi di senso critico, mantenendolo sempre sveglio ed arzillo evitando d’impigrirlo altrimenti si rischia di rimanere incastrati, come una mosca nel miele, nella misinformation.

Così come afferma Il dottor Walter Quattrociocchi a capo del laboratorio di Sociologia Computazionale dell’Imt di Lucca, la misinformation non è la bufala di per se, ma l’uso strumentale dell’informazione che supporta una visione personalizzata del mondo. “Quando le persone cooperano per conseguire questa visione finiscono per acquisire altre informazioni strumentali.” In sostanza anche se una notizia contiene evidenti castronerie, se è coerente con l’idea che ci si è fatti, la si condivide.

Purtroppo è evidente che stiamo perdendo la battaglia con il nostro senso critico tanto da spingere i principali social network a munirsi di strumenti anti-bufale per arginare la misinformation. Mark Zuckerberg, fondatore di Facebook, in particolare ha deciso di adottare queste soluzioni spinto dai risultati elettorali che hanno portato all’elezione di Trump negli Stati Uniti, rendendosi forse conto che la sua creazione non è solo un transito per le notizie ma una vera e propria media company. La questione si fa ancora più delicata se consideriamo il fenomeno che viene definito di filter bubble o cassa di risonanza.

 

Sotto Cassa (di Risonanza)

Quando si naviga su internet, se si fa caso, i contenuti che vengono forniti sono filtrati da algoritmi in base alla propria navigazione abituale ed i propri gusti, proponendo prodotti che probabilmente desideriamo o viaggi che probabilmente vorremmo fare. Questo meccanismo, molto utile per quando si deve scegliere cosa comprare o dove andare durante il prossimo viaggio, è utilizzato anche dai social che al contrario degli esempi fatti prima, “filtrano” notizie, opinioni, idee.

C’è quindi il rischio concreto di restare prigionieri di una bolla confortevole nella quale si trovano solo fonti di informazione ideologicamente affini con l’utente e idee con le quali si è già d’accordo, correndo il pericolo di tagliare fuori dalla propria visione altri punti di vista, dati e fatti di altre cerchie, fomentando la sua radicalizzazione.

Se un’informazione è coerente con i “miei gusti” mi affeziono alle fonti che la confermano, mi circondo di persone che la pensano come me e tutti insieme allegramente condividiamo materiale che incorpora lo stesso pensiero.

Prendiamo come esempio il solito Facebook, che qualche anno fa assegnò a due dei suoi ricercatori, Eytan Bakshy e Solomon Messing, il compito di analizzare il comportamento di 10 milioni di utenti che hanno dichiarato esplicitamente le proprie simpatie in ambito politico. Per farla breve, i risultati ottenuti secondo Bakshy e Messing attestano che Facebook non guida o alimenta l’effetto cassa di risonanza, ma asseconda le libere scelte degli utenti consentendogli di fare agevolmente quello che farebbero in maniera autonoma, ovvero ricercare informazioni che confermano il loro punto di vista. Grazie Facebook sempre preziosissimo – se non fosse per il fatto che la ricerca è stata condotta considerando soltanto utenti con una visione del mondo abbastanza chiara da essere segnalata pubblicamente, che sa con chiarezza su cosa cliccare, al contrario per esempio di chi è alla ricerca di informazioni per farsi un’idea su chi votare alle prossime elezioni.

L’algoritmo si nutre e prospera a contatto con utenti incerti, non con quelli che hanno le idee chiare” come afferma il professor Christian Sandvig nel suo studio dal nome “Non è colpa nostra” in cui definisce lo studio “un modo elegante per mettersi al riparo da critiche”.

 

A parte tutto bisogna usare un pò di intelletto, rendersi conto che argomenti complessi necessitano di valutazioni esponenzialmente più complesse. Non si possono trarre conclusioni del tipo “è vero” o “è falso”, “è bianco” o “è nero”, ma possono esserci infinite sfumature di grigio.

Social: Misinformation ed Effetto Cassa di Risonanza ultima modifica: 2017-09-05T18:04:58+00:00 da Luca Scaccianoce
Share this Post

The author did not add any Information to his profile yet