10 settembre 2016

Media, notizie e social: abbiamo un problema.

Sta suscitando scalpore la "censura" che Facebook ha messo in atto sulla foto della bimba vietnamita che corre piangendo, bruciata dalle bombe al Napalm lanciate dal corpo americano d'intervento in Indocina durante il conflitto. E non si capisce perché, visto che sono anni che la foto è sempre stata visibile ed è diventata uno dei simboli dell'atrocità di tutte le guerre girando spesso su tutti i vari social. Pare però che ci sia una spiegazione: con le politiche di privacy in continua attenzione all'evolversi degli eventi, non si possono più postare foto di bambini nudi. La cosa mi sembra giusta (ci mancherebbe!!), ma la domanda sorge spontanea: che c'entra quella foto con la lotta alla pedo-pornografia? 
Non è la prima volta che si notano delle incongruenze nelle regole di Zuckerberg o di chi per lui, nello scambiare fischi per fiaschi, nell'ignorare o meno contenuti. Quindi chiedo: quelli che decidono cosa far vedere e cosa no hanno una vaga idea di quello che fanno? 
Ebbene, la risposta è no. Non perché siano dei perfetti imbecilli, ma perché dietro a quella censura non ci sono persone ma...ALGORITMI, un'intelligenza artificiale! 
Dice che Facebook non è un sito d'informazione pertanto i giornalisti, che potrebbero partire da preconcetti umani, non sono necessari, mentre gli algoritmi, al contrario, si basano soltanto su parametri valutati dagli algoritmi stessi. E quali sono questi parametri? Le preferenze degli utenti, la loro posizione geografica e le loro interazioni con altri utenti e pagine. Quindi se il popolo di Facebook decide di dare importanza a una notizia più che ad un'altra, è chiaro che si sa più dell'una che dell'altra, ed è così che aumenta la "viralità" di una certa informazione a scapito di un'altra, magari più interessante o importante. Ecco così spiegata anche la storia delle "bufale" che, a volte, girano di più che quelle vere. Ed ecco spiegato anche il motivo della censura sulla foto della bambina vietnamita in base a regole dettate sì da una decisione "umana" ma applicate da un'intelligenza artificiale che non distingue la pedo-pornografia da un simbolo della violenza delle guerre. 
Non ci si può aspettare un risultato diverso se non si prevede l'intervento umano anche in coda a quello delle logiche algoritmiche. 
E non serve che Zuckerberg si ostini a definire il suo gioiello una piattaforma tecnologica e non una compagnia che produce informazione perché il ruolo che ha assunto (forse anche non volendo ma gli piace avere tanti utenti) con pochi altri nel settore dell'informazione chiama a responsabilità enormi, una delle quali è controllare cosa fanno gli algoritmi. 
Già si fa fatica ad accedere ad un'informazione veritiera e non controllata, se poi ci si mette anche un'intelligenza artificiale codificata in un ufficio della California a manipolare e mescolare, non ne usciamo più. 
Forse arriverà un momento in cui gli algoritmi daranno una mano a chi scrive le news e ad evitare contenuti pericolosi, ma devono ancora fare tanta esperienza per diventare affidabili.

2 commenti:

  1. queste tue osservazioni mi ricordano da vicino la strofa della poesia di Francesco Guccini " Lager" :
    Cos'è un lager?
    È una cosa sporca, cosa dei padroni,
    cosa vergognosa di certe nazioni
    noi ammazziamo solo per motivi buoni,
    quando sono buoni?
    Sta a noi giudicare.

    RispondiElimina
    Risposte
    1. Sta a noi giudicare....ma quanti di noi riescono a farlo senza condizionamenti?

      Elimina

Una tua opinione è sempre gradita...o anche un semplice saluto. ;)