Presentazione


Aggregatore d'analisi, opinioni, fatti e (non troppo di rado) musica.
Cerco

28/05/2017

Facebook: se i contenuti sono censurati da umani e intelligenza artificiale

In un articolo pubblicato dal The Guardian il 21 maggio e che ha raggiunto in poche ore migliaia di interazioni (Mi Piace, Commenti e Condivisioni), vengono rivelate alcune delle regolamentazioni interne di Facebook su cui si struttura l’operato dei moderatori del Social Network per l’approvazione o la rimozione di contenuti potenzialmente sensibili. Queste sono composte da diverse decine di documenti contenenti indicazioni e politiche aziendali riguardanti svariate tematiche, tra le quali: la sessualità esplicita, la violenza, il linguaggio, le immagini esplicite, il terrorismo e così via.

Fonti interne all’azienda di casa Zuckerberg e la stessa Monika Bickert, Head of Global policy Management di Facebook, affermano come la piattaforma sia effettivamente molto grande e cresciuta troppo in fretta per poter controllare manualmente tutti i contenuti condivisi.

A tale scopo esistono dei moderatori, figure professionali che in pochi secondi devono analizzare contenuti campione definendoli pubblicabili o meno e le cui decisioni vengono poi studiate da algoritmi in grado di auto-apprendere (machine learning) per poter analizzare la mole di dati che viene costantemente condivisa attraverso il social network a partire dall’emulazione del comportamento dei rater (NdA, anche in Google sono presenti tecnologie simili che sfruttano moderatori definiti “Quality Rater” il cui operato viene emulato e migliorato grazie all’algoritmo RankBrain).

In questo modo un contenuto può essere pubblicato o meno in base a delle decisioni precedentemente metabolizzate. Ma come avviene il processo decisionale dei moderatori prima che le macchine lo emulino?

Come mai alcuni contenuti riguardanti atti di violenza non vengono censurati ma al massimo viene avvisato il lettore della potenziale natura esplicita dei contenuti?

E’ ancora la Bickert a risponderci, parlando di “accettazione di alcuni contenuti espliciti al fine di stimolare un dibattito su questioni globali e non”, aggiungendo che “tali contenuti possono generare consapevolezza” citando come esempi gli abusi su minori, la violenza su animali e video e immagini recanti scene di guerra o altro.

Negli ultimi tempi anche la questione delle Fake News è entrata nel pieno del dibattito ed i Big hanno iniziato ad utilizzare contro-misure per mantenere il livello di credibilità della piattaforma agli occhi degli utenti, si veda l’introduzione ancora in via sperimentale del Fact Check di Google.

Non da meno si sta rivelando Facebook, lo stesso Zuckerberg ha infatti dichiarato che la piattaforma si sta muovendo nell’ottica di bloccare la diffusione di notizie false.

Il nodo che si apre è tutt’altro che esiguo: l’etica e la morale passano attraverso le società dei Big Data. Mediante la preferenza espressa da umani (in qualità di rater), algoritmi di Intelligenza Artificiale studieranno il prodotto dell’analisi umana e dalle interazioni sviluppate dai vari utenti per migliorarsi auto-apprendendo al fine di offrire una “migliore” esperienza utente, subordinando il processo alla necessità di mantenere un livello di gradimento della piattaforma elevato da parte di chi la utilizza. Questo processo rimane opaco agli utenti. Non vi è nessun controllo sul giudizio che i raters danno dei contenuti, eppure come tutti gli esseri umani avranno una soggettività che ne determina scelte e pregiudizi. Allo stesso modo, non vi è controllo nemmeno sull’azione dell’AI: da un lato il suo meccanismo è oscuro alla quasi totalità degli utenti di Facebook, dall’altro questo algoritmo impara dai raters umani acquisendone anche i pregiudizi. Difficile immaginare quali conseguenze potrà avere tutto ciò sul controllo delle informazioni visto che il social network blu è uno dei canali principali tramite cui si diffondono. Sicuramente lascia inquietanti ombre il fatto che ad avere un così grosso potere siano un manipolo di tecnici di un’azienda privata e le sue tecnologie coperte da segreti industriali.

Fonte

Nessun commento:

Posta un commento