Presentazione


Aggregatore d'analisi, opinioni, fatti e (non troppo di rado) musica.
Cerco

03/03/2024

Per una sociologia degli algoritmi. La cultura nel codice e il codice nella cultura

di Gioacchino Toni

Massimo Airoldi, Machine Habitus. Sociologia degli algoritmi, Luiss University Press, Roma 2024, pp. 178, € 21,00 edizione cartacea, € 11,99 edizione ebook

Che gli algoritmi siano strumenti di potere agenti sulla vita degli individui e delle comunità, che lo facciano in maniera del tutto opaca e che alcuni di essi siano capaci di apprendere dagli esseri umani e dai loro pregiudizi, è ormai patrimonio diffuso anche perché, in un modo o nell’altro, lo si sta sperimentando direttamente. Dalla percezione di come le macchine sembrino essere sempre più simili agli esseri umani sono sin qua derivati soprattutto studi comparativi incentrati su conoscenze, abilità e pregiudizi delle macchine oscurando quella che Massimo Airoldi ritiene essere la ragione sociologica alla radice di tale somiglianza: la cultura.

Airoldi, sociologo dei processi culturali e comunicativi, vede nella cultura – intesa come «pratiche, classificazioni, norme tacite e disposizioni associate a specifiche posizioni nella società» – «il seme che trasforma le macchine in agenti sociali»1. La cultura nel codice è ciò che permette agli algoritmi di machine learning di affrontare la complessità delle realtà sociali come se fossero attori socializzati. Il codice è presente anche nella cultura «e la confonde attraverso interazioni tecno-sociali e distinzioni algoritmiche. Insieme agli esseri umani, le macchine contribuiscono attivamente alla riproduzione dell’ordine sociale, ossia all’incessante tracciare e ridisegnare dei confini sociali e simbolici che dividono oggettivamente e intersoggettivamente la società in porzioni diverse e diseguali»2.

Visto che la vita sociale degli esseri umani è sempre più mediata da infrastrutture digitali che apprendono, elaborano e indirizzano a partire dai dati disseminati quotidianamente – più o meno volontariamente, più o meno consapevolmente – dagli utenti, secondo Airoldi occorre considerare le “macchine intelligenti”, al pari degli individui, come «agenti attivi nella realizzazione dell’ordine sociale»3, visto che «ciò che chiamiamo vita sociale non è altro che il prodotto socio-materiale di relazioni eterogenee, che coinvolgono al contempo agenti umani e non umani»4. Al fine di comprendere il comportamento algoritmico è perciò necessario capire come la cultura entri nel codice dei sistemi algoritmici e come essa sia a sua volta plasmata da questi ultimi.

La necessità di provvedere a una sociologia degli algoritmi deriva, secondo l’autore di Machine Habitus, dalla combinazione di due epocali trasformazioni: una di ordine quantitativo, costituita dall’inedita diffusione delle tecnologie digitali nella quotidianità individuale e sociale, e una di ordine qualitativo, inerente al livello che ha potuto raggiungere l’intelligenza artificiale grazie al machine learning permesso dai processi di datificazione digitale. «Questo cambiamento paradigmatico ha reso improvvisamente possibile l’automazione di compiti di carattere sociale e culturale, a un livello senza precedenti». Ad essere sociologicamente rilevante non è quanto accade nel “cervello artificiale” della macchina ma, puntualizza lo studioso, «ciò che quest’ultima comunica ai suoi utenti, e le conseguenze che ne derivano»5. I livelli raggiunti dai modelli linguistici con cui operano sistemi come ChatGpt mostrano modalità di partecipazione sempre più attive e autonome dei sistemi algoritmici nel mondo sociale destinati, con buona probabilità, ad incrementarsi ulteriormente in futuro.

Gli algoritmi possono essere sinteticamente descritti come sistemi automatizzati che, a partire dalla disponibilità e dalla rielaborazione di dati in entrata (input), producono risultati in uscita (output). Si tratta di un’evoluzione socio-tecnica che ha conosciuto diverse fasi, schematicamente così riassumibili: l’Era analogica (non digitale), che va dall’applicazione manuale degli algoritmi da parte dei matematici antichi fino alla comparsa dei computer digitali al termine della seconda guerra mondiale; l’Era digitale, sviluppatasi a partire dagli ultimi decenni del secolo scorso, che ha condotto all’archiviazione digitale delle informazioni, dunque alla loro circolazione attraverso internet e all’elaborazione automatizzata di enormi volumi di dati ponendo le premesse per la successiva evoluzione; l’Era delle piattaforme, contesto di applicazione delle macchine autonome e fonte della loro “intelligenza” attraverso il deep learning di inizio del nuovo millennio.

Se nell’era digitale la commercializzazione degli algoritmi aveva soprattutto scopi analitici, con il processo di platformizzazione questi sono divenuti a tutti gli effetti anche dispositivi operativi. Dall’effettuazione meccanica di compiti assegnati si è passati a tecnologie IA in grado di apprendere dall’esperienza datificata che funzionano come agenti sociali «che plasmano la società e ne sono a loro volta plasmati»6.

Mentre ad inizio millennio il discorso sociologico in buona parte guardava ai big data, ai nuovi social network e alle piattaforme streaming per certi versi limitandosi ad evidenziarne le potenzialità, in ambiti più tangenziali si ponevano le basi di quegli studi che nell’ultimo decennio hanno dato vita ai critical algorithm studies e ai critical marketing studies che hanno posto l’accento: sulla loro opera di profilazione selvaggia; sui meccanismi di indirizzo comportamentale; sullo sfruttamento di risorse naturali e manodopera; su come l’analisi automatizzata e decontestualizzata dei big data conduca a risultati imprecisi o distorti; su come la trasformazione dell’azione sociale in dati quantificati online risulti sempre più importante nel capitalismo contemporaneo; sulle modalità con cui vengono commercializzati e mitizzati gli algoritmi; su come il meccanismo di delega sempre più diffusa delle scelte umane ad algoritmi opachi restringa le libertà e agency umane e su quanto questi non si limitino a mediare ma finiscano per concorrere a costruire la realtà, assumendo un ruolo di “inconscio tecnologico”.

Alla luce dello svilupparsi di tanta letteratura critica, Airoldi motiva il suo obiettivo di costruire un framework sociologico complessivo a partire da una riflessione sul concetto di feedback loop degli algoritmi di raccomandazione tendenti alla reiterazione e all’amplificazione di pattern già presenti nei dati. Le raccomandazioni automatiche generate dagli algoritmi di una piattaforma come Amazon tendono ad indirizzare notevolmente il consumo degli utenti e siccome, allo stesso tempo, gli algoritmi analizzano le modalità di consumo, si genera un vero e proprio feedback loop. Se l’influenza della società sulla tecnologia e l’influenza di quest’ultima sulla prima procedono di pari passo, si giunge secondo lo studioso a due “quesiti sociologici”: la cultura nel codice (l’influenza della società sui sistemi algoritmici) e il codice nella cultura (l’influenza dei sistemi algoritmici sulla società).

Circa l’influenza della società sui sistemi algoritmici, lo studioso ricorda come le piattaforme “imparino” «dai discorsi e dai comportamenti datificati degli utenti, i quali portano con sé le tracce delle culture e dei contesti sociali da cui questi hanno origine»7; dunque derivino dalla società pregiudizi e chiusure mentali. Proporsi di “ripulire” i dati, oltre che probabilmente impossibile, non è forse nemmeno auspicabile in quanto presupporrebbe, in definitiva, un pensiero unico costruito a tavolino secondo logiche parziali.

Per quanto riguarda, invece, l’influenza dei sistemi algoritmici sulla società, basti pensare che gli algoritmi di piattaforme come Netflix ed Amazon riescono ad indirizzare circa l’80% delle “scelte” degli utenti; ciò rende l’idea di come i sistemi autonomi digitali non si limitino a mediare le esperienze digitali ma le costruiscano orientando i comportamenti e le opinioni degli utenti. «Ciò che accade dunque è che i modelli analizzano il mondo, e il mondo risponde ai modelli. Di conseguenza, le culture umane finiscono per diventare “algoritmiche”»8.

Spesso, sostiene Airoldi, si è insistito nel guardare le cose in maniera unidirezionale prospettando un certo determinismo tecnologico mentre in realtà diversi studi recenti dimostrano come gli output prodotti dai sistemi autonomi vengano costantemente negoziati e problematizzati dagli esseri umani. «Gli algoritmi non plasmano in maniera unidirezionale la nostra società datificata. Piuttosto, intervengono all’interno di essa, prendono parte a interazioni socio-materiali situate che coinvolgono agenti umani e non umani. Dunque il contenuto della “cultura algoritmica” è il risultato emergente di dinamiche interattive tecno-sociali»9.

Alla luce di quanto detto, le due questioni principali che approfondisce lo studioso in Machine Habitus riguardano le modalità con cui sono socializzati gli algoritmi e come le macchine socializzate partecipano alla società riproducendola.

Airoldi riprende il concetto di habitus elaborato da Pierre Bourdieu: «luogo dove interagiscono struttura sociale e pratica individuale, cultura e cognizione. Con i loro gesti istintivi, schemi di classificazione sedimentati e bias inconsci, gli individui non sono né naturali né unici. Piuttosto sono il “prodotto della storia”»10. Né determinata a priori, né completamente libera, «l’azione individuale emerge dall’interazione tra un “modello” cognitivo plasmato dall’habitus e gli “input” esterni provenienti dall’ambiente. Risulta evidente come un sistema automatico dipenda dalla scelta dell’habitus datificato su cui viene addestrato. «A seconda dell’insieme di correlazioni esperienziali e disposizioni stilistiche che strutturano il modello, l’algoritmo di machine learning genererà risultati probabilistici diversi. Ergo la frase di Bourdieu “il corpo è nel mondo sociale, ma il mondo sociale è nel corpo” potrebbe essere facilmente riscritta in questo modo: il codice è nel mondo sociale, ma il mondo sociale è nel codice»11.

L’habitus codificato dai sistemi di machine learning è l’habitus della macchina. Di fronte a nuovi dati di input, i sistemi di machine learning si comportano in modo probabilistico, dipendente dal percorso pre-riflessivo. Le loro pratiche «derivano dall’incontro dinamico tra un modello computazionale adattivo e uno specifico contesto di dati, vale a dire tra “la storia incorporata” dell’habitus della macchina e una determinata situazione digitale»12. Nonostante siano privi di vita sociale, riflessione e coscienza, gli algoritmi di machine learning rivestono un ruolo importante nel funzionamento del mondo sociale visto che contribuiscono attivamente alla reiterazione/amplificazione delle diseguaglianze sia di ordine materiale che simbolico. In sostanza, scrive Airoldi, ancora più degli esseri umani, tali macchine contribuiscono a riprodurre, dunque perpetuare un ordine sociale diseguale e naturalizzato.

La proposta dello studioso è pertanto quella di guardare ai sistemi di machine learning come ad «agenti socializzati dotati di habitus, che interagiscono ricorsivamente con gli utenti delle piattaforme all’interno dei campi tecno-sociali dei media digitali, contribuendo così in pratica alla riproduzione sociale della diseguaglianze e della cultura»13.

Ricostruita la genesi sociale del machine habitus, Airoldi sottolinea come questo si differenzi dal tipo di cultura nel codice presente in tanti altri artefatti tecnologici, «cioè la cultura dei suoi creatori umani, la quale agisce come deus in machina»14. Nonostante il discorso pubblico sull’automazione tenda a concentrarsi sui benefici che è in grado di offrire in termini sostanzialmente economici (tempo/denaro), ad essere stato introiettato a livello diffuso è soprattutto il convincimento della sua supposta oggettività, dell’assenza di arbitrarietà. Basterebbe qualche dato per dimostrare quanto la tecnologia sia, ad esempio, genderizzata e razzializzata: la stragrande maggioranza degli individui che hanno realizzato le macchine sono uomini bianchi, circa l’80% dei professori di intelligenza artificiale, l’85% dei ricercatori di Facebook ed il 90% di Google sono maschi (Fonte: AI Now 2019 Report).

Di certo per comprendere la cultura contenuta nei codici non è sufficiente individuare i creatori di macchine e il deus in machina; nei più recenti modelli di IA le disposizioni culturali fatte proprie dai sistemi di machine learning non derivano dai creatori ma da una moltitudine di esseri umani utenti di dispositivi digitali coinvolti a tutti gli effetti, in buona parte a loro insaputa, nel ruolo di “addestratori” non retribuiti che agiscono insieme a lavoratori malpagati.

Se correggere i pregiudizi presenti nel design degli algoritmi è relativamente facile, molto più problematico è agire sui data bias da cui derivano il loro addestramento. «Quando una macchina apprende da azioni umane datificate, essa non apprende solo pregiudizi discriminatori, ma anche una conoscenza culturale più vasta, fatta di inclinazioni e disposizioni e codificata come machine habitus»15. Per un sistema di machine learning i contesti di dati sono astratte collezioni di attributi elaborati come valori matematici e per dare un senso a una realtà vettoriale datificata, tali sistemi sono alla ricerca di pattern che non hanno nulla di neutrale, derivando dagli umani che stanno dietro alle macchine.

Una volta affrontata la cultura nel codice nelle macchine che apprendono da contesti di dati strutturati socialmente (da “esperienze” datificate affiancate da un deus in machina codificato da chi le ha realizzate), dal momento che, come detto, le macchine imparano dagli umani e questi ultimi dalle prime attraverso un meccanismo di feedback loop, Airoldi si concentra sul codice nella cultura indagando i modi con cui le macchine socializzate plasmano la società partecipando ad essa.

Gli algoritmi agiscono all’interno di un più generale ambiente tecnologico composto da piattaforme, software, hardware, infrastrutture di dati, sfruttamento di risorse naturali e manodopera, insomma in un habitat tecnologico che, a differenza di quanto si ostina a diffondere una certa mitologia dell’high tech, non è affatto neutro, sottostante com’è ad interessi economici e politici. Risulta dunque di estrema importanza occuparsi di come i sistemi di machine learning prendano parte e influenzino la società interagendo con essa considerando i loro contesti operativi e la loro agency (i loro campi e le loro pratiche, in termini bourdieusiani). Nonostante le macchine socializzate non siano senzienti, queste, sostiene Airoldi, hanno «capacità agentiche». Certo, si tratta di agency diverse da quelle umane mosse da intenzioni e forme di consapevolezza, ma che comunque si intrecciano ad esse. «La società è attivamente co-prodotta dalle agency culturalmente modellate di esseri umani e macchine socializzate. Entrambe operano influenzando le azioni dell’altra, generando effetti la cui eco risuona in tutte le dimensioni interconnesse degli ecosistemi tecno-sociali»16.

Visto che ormai i “sistemi di raccomandazione” delle diverse piattaforme risultano più influenti nel guidare la circolazione di prodotti culturali e di intrattenimento (musica, film, serie tv, libri...) rispetto ai tradizionali “intermediari culturali” (critici, studiosi, giornalisti...), viene da domandarsi se non si stia procedendo a vele spiegate verso una “automazione del gusto” con tutto ciò che comporta a livello culturale e di immaginario. È curioso notare, segnala lo studioso, che se il sistema automatico delle raccomandazioni conosce “tutto” degli utenti, questi ultimi invece non sanno “nulla” di esso. Se tale asimmetria informativa è «una caratteristica intrinseca dell’architettura deliberatamente panottica delle app e delle piattaforme commerciali»17, occorre domandarsi quanto sia effettivamente arginabile attraverso un incremento del livello di alfabetizzazione digitale degli esseri umani e attraverso politiche votate a ottenere una maggiore trasparenza del codice. Quel che è certo è che ci si trova a rincorrere meccanismi che si trasformano con una velocità tale per cui risulta difficile pensare a come “praticare l’obiettivo” in tempo utile, prima che tutto cambi sotto ai nostri occhi.

Airoldi ricostruisce come la cultura nel codice sia impregnata delle logiche dei campi platformizzati, dove i sistemi di machine learning vengono applicati e socializzati, e come le stesse logiche di campo e la cultura siano “confuse” dalla presenza ubiqua di output algoritmici. È soprattutto a livello di campo, ove si ha un numero elevatissimo di interazioni utente-macchina, che, sostiene lo studioso, importanti domande sociologiche sul codice nella cultura necessitano di risposta. «Le logiche di campo pre-digitali incapsulate dalle piattaforme sono sistematicamente rafforzate da miliardi di interazioni algoritmiche culturalmente allineate? Oppure, al contrario, le logiche di piattaforma che confondono il comportamento online finiscono per trasformare la struttura e la doxa dei campi sociali a cui sono applicate?»18.

Dopo essersi occupato, nei primi capitoli, della genesi sociale del machine habitus, delle sue specificità rispetto alla cultura nel codice presente in altri tipi di artefatti tecnologici e del codice nella cultura, analizzando i modi con cui le macchine socializzate plasmano la società partecipando ad essa, Airoldi si propone di «riassemblare la cultura nel codice e il codice nella cultura al fine di ricavare una teoria del machine habitus in azione» così da mostrare «come la società sia alla radice dell’interazione dinamica tra sistemi di machine learning e utenti umani, e come ne risulti (ri)prodotta di conseguenza»19.

Una volta mostrato come i sistemi di machine learning sono socializzati attraverso l’esperienza computazionale di contesti di dati generati dagli esseri umani da cui acquisiscono propensioni culturali durevoli in forma di machine habitus, costantemente rimodulate nel corso dell’interazione umano-macchina, Airoldi affronta alcune questioni nodali riconducibili a una serie di interrogativi: cosa cambia nei «processi di condizionamento strutturale che plasmano la genesi e la pratica del machine habitus» rispetto a quanto teorizzato da Bourdieu per il genere umano?; «come le disposizioni cultuali incorporate e codificate come machine habitus mediano nella pratica le interazioni umano-macchina all’interno dei campi tecno-sociali?»; «in che modo i feedback loop tecno-sociali influenzano le traiettorie disposizionali distinte di esseri umani e macchine socializzate, nel tempo e attraverso campi diversi?»; «quali potrebbero essere gli effetti aggregati degli intrecci tra umani e macchine a livello dei campi tecno-sociali?»20.

Inteso come attore sociale in senso bourdieusiano, un algoritmo socializzato risulta tanto produttore quanto riproduttore di senso oggettivo, derivando le sue azioni da un modus operandi di cui non è produttore e di cui non ha coscienza. Non essendo soggetti senzienti, i sistemi di machine learning non problematizzano vincoli ad essi esterni come, ad esempio, forme di discriminazione e di diseguaglianza che però, nei fatti, “interiorizzano”. Le piattaforme digitali sono palesemente strutturate per promuovere engagement e datificazione a scopi di profitto e funzionano al meglio con gli utenti a minor livello di alfabetizzazione digitale e di sapere critico. «Se il potere dell’inconscio sociale dell’habitus risiede nella sua invisibilità […] il potere degli algoritmi e dell’intelligenza artificiale sta nella rimozione ideologica del sociale dalla black box computazionale, che viene quindi narrata come neutrale, oggettiva, o super-accurata. Al di là delle ideologie, sullo sfondo di qualsiasi interazione utente-macchina si nasconde un intreccio più profondo, che lega gli agenti umani e artificiali alla doxa e alle posizioni sociali di un campo, attraverso habitus e machine habitus»21.

I sistemi di machine learning non soddisfano (come vorrebbero i tecno-entusiasti della personalizzazione) o comandano (secondo i tecno-apocalittici della manipolazione) ma negoziano, nel tempo e costantemente, con gli esseri umani un terreno culturale comune. È dunque, sostiene lo studioso, dalla sommatoria di queste traiettorie non lineari che deriva la riproduzione tecno-sociale della società. A compenetrarsi in un infinito feedback loop sono due opposte direzioni di influenza algoritmica: una orientata alla trasformazione dei confini sociali e simbolici ed una volta al loro rafforzamento.

In un certo senso, scrive Airoldi, «gli algoritmi siamo noi». Noi che tendiamo ad adattarci all’ordine del mondo come lo troviamo, che sulla falsariga di quanto fanno i sistemi di machine learning apprendiamo dalle esperienze che pratichiamo nel mondo riproducendole. Lo studioso propone dunque una rottura epistemologica nel modo di comprendere la società e la tecnologia: i sistemi di machine learning vanno a suo avviso intesi «come forze interne alla vita sociale, sia soggette che parte integrante delle sue proprietà contingenti»22. Oggi una sociologia degli algoritmi, ma anche la stessa sociologia nel suo complesso, sostiene Airoldi, dovrebbe essere costruita attorno allo studio di questa riproduzione tecno-sociale.

Nella parte finale del libro, lo studioso delinea alcune direzioni di ricerca complementari per una «sociologia (culturale) degli algoritmi»: seguire i creatori di macchine ricostruendo la genesi degli algoritmi e delle applicazioni di IA, dunque gli interventi umani che hanno contribuito a «spacchettare la cultura nel codice e i suoi numerosi miti»; seguire gli utenti dei sistemi algoritmici individuando «gli intrecci socio-materiali dalla loro prospettiva sorvegliata e classificata»; seguire il medium per mappare l'infrastruttura digitale «concentrandosi sulle sue affordance e/o sulle pratiche più che umane che la contraddistinguono»23; seguire l’algoritmo, ad esempio analizzando le proposte generate automaticamente dalle piattaforme.

Se è pur vero che le macchine socializzate sono tendenzialmente utilizzate da piattaforme, governi e aziende per datificare utenti al fine di orientare le loro azioni, non si può addebitare loro la responsabilità dei processi di degradazione e sfruttamento della vita sociale. «Il problema non è il machine learning strictu sensu […] ma semmai gli obiettivi inscritti nel codice e, soprattutto, il suo contesto applicativo più ampio: un capitalismo della sorveglianza che schiavizza le macchine socializzate insieme ai loro utenti»24. Altri usi di IA, altri tipi di intrecci tra utente e macchina sarebbero possibili. Certo. Ma si torna sempre lì: servirebbe un contesto diverso da quello sopra descritto.

Fonte

 

Nessun commento:

Posta un commento