L’elezione di Donald Trump ha segnato una sorta di spartiacque nell’uso dei social in generale e di Facebook in particolare, con fake-news sponsorizzate e pagine di incitamento all’odio favorite dall’algoritmo che blocca lo scambio di opinioni. Eppure difendersi da tutto questo è ancora possibile: vediamo come.
Chiamatelo #fakebook. Ecco come il social più usato al mondo sta cancellando la democrazia: Condividi il TweetFacebook è stato l’argomento di due corsi di formazione che ho tenuto la scorsa settimana.
In due enti mi è stato infatti chiesto di illustrare una panoramica sul social in blu.
Richieste come: creare post correttamente; i tool di gestione da usare; etc.
Non amo tenere corsi superiori alle due ore.
So che inevitabilmente l’attenzione cala già entro la prima mezz’ora.
Così dedico i secondi 60 minuti alle soluzioni delle richieste di cui sopra.
Durante la prima ora cerco piuttosto di dialogare con i corsisti aprendo loro la mente.
Con una ampia panoramica dello scenario che ci troviamo a vivere oggi sul web.
La mia presentazione (che invio sempre a tutti dopo ogni lezione) è semplicissima.
Rapida, molto visual e con testi di lunghezza media.
IL PROBLEMA NON E’ FACEBOOK, MA L’USO CHE NE FACCIAMO
Mi piace essere d’aiuto, far comprendere meglio cosa (ci) sta accadendo.
Fake-news, hate-speech, post-verità hanno tutti un comune denominatore.
Si tratta del modo in cui vengono usati i social.
In primis Facebook, dove le cose ci stanno sfuggendo di mano.
Quando lo racconto ai corsisti il loro stupore è sempre altissimo.
Perché non siamo abituati a riflettere sulle azioni compiute con in mano lo smartphone.
E chi usa comunque il cervello non può essere a conoscenza di tutti i risvolti.
Come quelli che ho letto qualche giorno fa su un articolo pubblicato da Il Post.
L’ERA DELLA POST-VERITÀ: TRUMP E L’ABUSO DEI SOCIAL
L’articolo riassume una lucidissima analisi del magazine statunitense The Atlantic.
A firma di Alexis Madrigal, uno dei più validi ed esperti giornalisti della testata.
Il titolo originale è “Ciò che Facebook ha fatto alla democrazia americana”.
Il sommario la dice lunga: “E perché era così difficile accorgersene”.
Madrigal infatti punta il dito sull’informazione, anche su sé stesso:
Le cose che pensavamo di comprendere – narrazioni, dati, software, eventi di notizie – dovevano essere reinterpretate alla luce della sorprendente vittoria di Donald Trump e delle continue domande sul ruolo che l’informazione e la disinformazione hanno svolto nella sua elezione. (Alexis Madrigal)
Secondo Madrigal i giornalisti USA hanno tentato di vedere oltre i propri orientamenti.
Monitorando tutte le componenti della caotica campagna digitale di Donald Trump.
Condotta targetizzando all’estremo il proprio elettorato per intercettare ogni tipo di malcontento.
Il tutto con l’ausilio di fake-news, abuso di hate-speech e campagne basate sulla post-verità.
Fattori che hanno permesso così alle opinioni di soverchiare i fatti: qualcosa di agghiacciante.
LE GABBIE DI FILTRI, IMPLOSIONI INVISIBILI DATATE 2011
Madrigal recita un “mea culpa” che ha un sapore amaro perché tardivo.
Nessun membro dell’informazione americana ha infatti collegato insieme tutti questi thread disparati.
Gli osservatori hanno escluso i problemi elettorali a pannaggio di altre questioni più ampie.
Come la privacy, la sorveglianza, l’ideologia tecnologica, l’industria dei media, la concorrenza o gli effetti psicologici dei social media.
Tutte problematiche per le quali occorre doverosamente tenere alta l’attenzione.
Ma che hanno sviato l’attenzione dalle operazioni di selettività che intanto l’algoritmo svolgeva.
Certo, le sorti delle elezioni di novembre 2016 forse non sarebbero cambiate.
Ma quanto meno si sarebbero salvati i fondamenti informativi della democrazia.
Che invece oggi sono profondamente (e forse definitivamente) erosi.
Uno scenario da cui Eli Pariser ci aveva già messo in guardia (ben sei anni fa!).
E che oggi è drammaticamente divenuto realtà quotidiana.
In un mio precedente articolo ho definito questi fattori le implosioni invisibili.
Il problema politico più grave proposto dalle bolle dei filtri è che rendono sempre più difficile avere un argomento pubblico. Dato che il numero di segmenti e messaggi differenti aumenta, diventa sempre più difficile per le campagne di monitorare chi sta dicendo cosa a chi. (Eli Pariser)
FACEBOOK NON E’ DEMOCRATICO PERCHÉ NON LO E’ IL MARKETING
Quanto sto per ribadire è qualcosa di risaputo e sotto gli occhi di tutti.
Ed è la verità, comprovata anche dallo stesso Madrigal:
L’abilità di Facebook è la sua capacità di darti ciò che vuoi. Per una pagina, vedi più post di quella pagina; per una storia, hai più storie come quella; se interagisci con una persona, ottieni maggiori aggiornamenti da essa. Il modo in cui Facebook determina la classifica del News Feed è la probabilità che ti piacerà, commenterai o condividerai una storia. Le condivisioni sono valide più dei commenti che a loro volta sono entrambi più validi dei mi piace ma, in tutti i casi, più probabilità hai di interagire con un post, più alto verrà visualizzato nel tuo feed di notizie. (Alexis Madrigal)
Eccolo il vero successo di Facebook: il loro algoritmo può prevedere che cosa ci piacerà.
Questo è il motivo per cui noi utenti trascorriamo in media più di 50 minuti al giorno sulla piattaforma di Zuckerberg.
Perché abbiamo ognuno una nostra verità, con l’illusione di decidere noi su ciò che riteniamo giusto o errato.
E disimparando totalmente a confrontarci in modo democratico tra persone civili.
Le idee politiche di mio cugino non mi piacciono? Lo escludo dal mio News Feed!
La mia collega d’ufficio mette le foto con la sua compagna? La oscuro dalle mie notizie!
E così via per le più disparate ragioni, dai gusti alimentari alle opinioni etnico-religiose.
Qui sta uno dei principi del marketing: ti do ciò che mi interessa darti, non ciò che ti servirebbe davvero.
E ti lascio credere che invece ti serva necessariamente: questa non è democrazia, ma circonvenzione di incapaci.
REAGIRE ALLA PERSONALIZZAZIONE USANDO IL CERVELLO
Per combattere la personalizzazione di Facebook non basta non farne uso.
Occorre innanzi tutto che gli utenti si affidino a comunicatori professionisti.
Questi potranno aiutarli a comprendere meglio la complessa realtà dietro il web.
E una volta fatto ciò si riuscirà ad attuare correttamente la soluzione del caso.
Una via che può funzionare solo se percorsa in maniera bilaterale.
Quando comunichiamo verso gli altri, dobbiamo farlo asetticamente, in modo trasparente.
Cancellando i pregiudizi e senza alterare la verità. Insomma, non facendo marketing.
Quando invece siamo noi a ricevere la comunicazione, dobbiamo aprire la mente.
Ipotizzo:
La mia fede politica è X e mi capita di visualizzare una notizia.
La notizia parla di Y che ha rilasciato una dichiarazione su un particolare argomento.
Come può essere, ad esempio, il problema dei senzatetto nella mia città.
Y chiede che ci si unisca tutti insieme per aiutarli con coperte e bevande calde e magari per non farli dormire all’addiaccio.
Umanamente e intimamente, so che Y ha ragione, ma mi rode che non sia stato X (il politico per cui voterei) a sollevare la questione.
Cosa faccio? Invece che attaccare con insulti Y, vado sulla sua pagina.
Cerco il post con la relativa dichiarazione e commento scrivendo che ha ragione.
Infine lo condivido sul mio profilo o pagina.
Perché algoritmi e bot di Facebook sono dotati di machine learning.
Dunque, se possono imparare dall’uomo, dobbiamo insegnare loro le cose giuste.
E ammettere quando un individuo che la pensa diversamente da noi abbia ragione è una cosa giusta.
A noi la scelta, il futuro dipende anche da questo: piaccia o no, ci crediate o meno.
Complimenti per l’articolo, molto interessante.
Grazie molte Paolo.