piattaforme digitali – Carmilla on line https://www.carmillaonline.com letteratura, immaginario e cultura di opposizione Sat, 22 Feb 2025 21:00:49 +0000 it-IT hourly 1 https://wordpress.org/?v=4.9.26 Attenzione e potere nell’era della distrazione digitale di massa https://www.carmillaonline.com/2024/04/09/attenzione-e-potere-nellera-della-distrazione-digitale-di-massa/ Tue, 09 Apr 2024 20:00:51 +0000 https://www.carmillaonline.com/?p=81514 di Gioacchino Toni

Emanuele Bevilacqua, Attenzione e potere. Cultura, media e mercato nell’era della distrazione di massa, Luiss University Press, Roma 2024, pp. 221, € 17,00 edizione cartacea, € 9,99 edizione ebook

Attenzione e potere di Emanuele Bevilacqua offre una panoramica ragionata sul rapporto fra concentrazione umana e media digitali, mostrando come, paradossalmente, mentre da un lato l’universo digitale, con la sua frenesia di riversare “attrazioni” in quantità, tende a diminuire la soglia di attenzione degli utenti indirizzandoli ad una sorta di “superficialità di sopravvivenza”, dall’altro è costretto ad ottenerla, con ogni mezzo necessario, in quanto merce preziosa per i grandi [...]]]> di Gioacchino Toni

Emanuele Bevilacqua, Attenzione e potere. Cultura, media e mercato nell’era della distrazione di massa, Luiss University Press, Roma 2024, pp. 221, € 17,00 edizione cartacea, € 9,99 edizione ebook

Attenzione e potere di Emanuele Bevilacqua offre una panoramica ragionata sul rapporto fra concentrazione umana e media digitali, mostrando come, paradossalmente, mentre da un lato l’universo digitale, con la sua frenesia di riversare “attrazioni” in quantità, tende a diminuire la soglia di attenzione degli utenti indirizzandoli ad una sorta di “superficialità di sopravvivenza”, dall’altro è costretto ad ottenerla, con ogni mezzo necessario, in quanto merce preziosa per i grandi colossi come Google, Amazon e OpenAi, dunque per i media d’informazione, le inserzioni commerciali, i servizi online e, non ultima, la propaganda politica. Quella tratteggiata dal libro è una vera e propria battaglia per l’attenzione nell’economia e nella politica digitali.

Se da un lato, come ricorda Emanuele Trevi nella postfazione al volume di Bevilacqua, la lentezza rappresenta la più grande alleata dell’attenzione, è pur vero che quest’ultima rischia di non favorire la curiosità. Concentrare in maniera settoriale l’attenzione rischia di vincolare l’individuo all’interno di una “bolla” che lo isola da ciò che vi sta attorno impedendogli di “scoprire” ambiti e punti di vista non ancora esplorati.

Si pensi a come le piattaforme che ricorrono a sistemi algoritmici di raccomandazione automatica tendano a mantenere l’utente all’interno dell’ambito verso cui ha, appunto, concentrato la sua attenzione limitando, di fatto, la possibilità di aprirsi verso l’esterno di quella bolla che finisce per essere vissuta come comfort zone perpetuante i “suoi” convincimenti, interessi, punti di vista e, in definitiva, il suo immaginario sempre più “algoritmico”. Netflix ed Amazon, ad esempio, riescono a indirizzare circa l’80% delle “scelte” degli utenti, pur all’interno di un meccanismo di negoziazione, come spiega Massimo Airoldi1, attuato attraverso un feedback loop tra i sistemi di machine learnign e gli esseri umani.

Del deficit di attenzione con cui ci si rapporta al mondo digitale – il tempo medio di permanenza sui siti e sulle piattaforme spesso si misura nell’ordine dei secondi – si sono presto accorti gli analisti, i produttori di contenuti digitali e, soprattutto, gli inserzionisti pubblicitari che a fronte di numeri elevati di visitatori faticano ad ottenere quella soglia minima di attenzione per cui vale la pena “investire”.

I sofisticati sistemi di profilazione degli utenti digitali hanno mostrato agli operatore del settore dell’informazione – su cui concentra la sua attenzione Bevilacqua – come sia poco spendibile l’elevato numero di visitatori digitali se non si ottiene una soglia di attenzione – di cui il tempo di permanenza è condizione necessaria ma di certo non sufficiente – paragonabile all’esperienza pre-digitale. Quotidiani come il “Guardian” si sono pionieristicamente dotati di sistemi di monitoraggio in tempo reale che permettono ai giornalisti di seguire costantemente come i contenuti vengono presi in esame dagli utenti.

Gli snodi fondamentali che hanno sancito nel corso del primo decennio del nuovo millennio il repentino passaggio all’universo della comunicazione digitale contemporanea secondo lo studioso sono riconducibili: alla centralità assunta dal web nella vita quotidiana delle persone; all’avvio dei processi di datificazione operati dai grandi colossi del web; all’espansione online dei media tradizionali nella convinzione che la pubblicità li avrebbe “automaticamente” seguiti; alla crisi economica e alla bolla dei subprime che hanno toccato anche l’industria dei media determinando ristrutturazioni e ridimensionamenti; all’emergere delle app come alternativa ai siti web ed al massiccio spostamento verso gli smartphone. A modificare il panorama dell’informazione hanno contribuito in maniera rilevante i social che hanno decentrato l’informazione ampliando enormemente gli ambiti di produzione e diffusione delle notizie ponendo, inoltre, problematiche in ordine all’affidabilità delle fonti e delle notizie trasmesse.

Rivelatosi estremamente fragile, il sistema dei media si è trovato a dover fare i conti con il paradosso digitale che, a fronte di un numero esorbitante di utenti, vede però una scarsa propensione al pagamento dei contenuti online ed una superficialità di fruizione scarsamente profittevole se non per i grandi colossi del web.

A fronte di tale stato di crisi, la riduzione dei costi operata da tanti organi di informazione ha inevitabilmente condotto verso un abbassamento della qualità e dell’affidabilità dei contenuti. La transizione al digitale operata dai media è avvenuta in un contesto caratterizzato da: una sovrabbondanza di contenuti digitali di scarsa qualità; una difficoltà di misurazione dell’attenzione degli utenti; un’ossessiva ricerca di attenzione comportante un consumo sempre più superficiale; una personalizzazione logaritmica dell’offerta che ha condotto a una limitazione dell’esposizione diversificata di informazioni; una qualità dell’attenzione sempre più passiva e distratta.

Numerosi studi scientifici hanno dimostrato i limiti della lettura digitale rispetto a quella cartacea in termini di attenzione profonda, di comprensione del testo, dunque di apprendimento. Analisi dettagliate hanno mostrato come come la lettura digitale tenda a ridurre il tempo dedicato a processi come inferenza, analisi critica ed empatia, fondamentali per il processo di apprendimento. D’altra parte, gli studi di Daniel Kahneman e Amos Tversky hanno evidenziato come gli individui nel prendere decisioni – persino in ambito economico – siano sempre più indotti a ricorrere al “pensiero veloce” (Sistema 1), facilmente condizionabile dalle emozioni, che prevede scorciatoie mentali basate su un numero estremamente limitato di informazioni, anziché fare ricorso al “pensiero lento” (Sitema 2) che prevede regole logiche e la presa in esame di tutte le informazioni disponibili.

Al fine di ottenere lettori “più concentrati” sugli articoli, alcuni quotidiani – es. “Guardian”, “News UK”, “Times” e “Le Monde” – hanno deciso di ridurre la produzione online provando a sottoporre ai lettori una offerta meno dispersiva e più curata ottenendo maggiore attenzione, come dimostrano anche i tempi di permanenza sugli articoli decisamente più lunghi ed un incremento degli abbonamenti. Bevilacqua analizza anche le strategie messe in atto da alcune testate esclusivamente digitali – es. “Vox”, “Medium” e “Substrack” – al fine di conquistare una maggiore attenzione da parte degli utenti, inoltre si sofferma sul ricorso sempre più massiccio alle newsletter.

L’ultima parte di Attenzione e potere è dedicata al ruolo dell’intelligenza artificiale nel panorama editoriale contemporaneo ponendo l’accento su alcune questioni di particolare rilievo come il ricorso a sistemi di editing e correzioni automatizzati, l’affinamento della personalizzazione dell’offerta, l’autenticità, la responsabilità e la tendenziale omogeneità dei contenuti generati da IA e, non da ultimo, l’impatto occupazionale che l’introduzione massiccia di sistemi di intelligenza artificiale comporta.

Sebbene il volume di Bevilacqua sia incentrato sul problema dell’attenzione in relazione soprattutto all’ambito informativo-mediatico, offre non pochi spunti di riflessione validi anche per l’universo educativo-scolastico, ambito in cui la problematica dell’abbassamento della soglia di attenzione è quanto mai evidente e lo sarà a maggior ragione man mano che procedono i processi di digitalizzazione e di introduzione di IA generativa nella didattica.


  1. Massimo Airoldi, Machine Habitus. Sociologia degli algoritmi, Luiss University Press, Roma 2024. Si veda a tal proposito Gioacchino Toni, Per una sociologia degli algoritmi. La cultura nel codice e il codice nella cultura, in “Carmilla online”, 7 marzo 2024. 

]]>
Per una sociologia degli algoritmi. La cultura nel codice e il codice nella cultura https://www.carmillaonline.com/2024/03/01/per-una-sociologia-degli-algoritmi-la-cultura-nel-codice-e-il-codice-nella-cultura/ Fri, 01 Mar 2024 21:00:20 +0000 https://www.carmillaonline.com/?p=81400 di Gioacchino Toni

Massimo Airoldi, Machine Habitus. Sociologia degli algoritmi, Luiss University Press, Roma 2024, pp. 178, € 21,00 edizione cartacea, € 11,99 edizione ebook

Che gli algoritmi siano strumenti di potere agenti sulla vita degli individui e delle comunità, che lo facciano in maniera del tutto opaca e che alcuni di essi siano capaci di apprendere dagli esseri umani e dai loro pregiudizi, è ormai patrimonio diffuso anche perché, in un modo o nell’altro, lo si sta sperimentando direttamente. Dalla percezione di come le macchine sembrino essere sempre più simili agli esseri umani sono sin qua derivati soprattutto studi comparativi [...]]]> di Gioacchino Toni

Massimo Airoldi, Machine Habitus. Sociologia degli algoritmi, Luiss University Press, Roma 2024, pp. 178, € 21,00 edizione cartacea, € 11,99 edizione ebook

Che gli algoritmi siano strumenti di potere agenti sulla vita degli individui e delle comunità, che lo facciano in maniera del tutto opaca e che alcuni di essi siano capaci di apprendere dagli esseri umani e dai loro pregiudizi, è ormai patrimonio diffuso anche perché, in un modo o nell’altro, lo si sta sperimentando direttamente. Dalla percezione di come le macchine sembrino essere sempre più simili agli esseri umani sono sin qua derivati soprattutto studi comparativi incentrati su conoscenze, abilità e pregiudizi delle macchine oscurando quella che Massimo Airoldi ritiene essere la ragione sociologica alla radice di tale somiglianza: la cultura.

Airoldi, sociologo dei processi culturali e comunicativi, vede nella cultura – intesa come «pratiche, classificazioni, norme tacite e disposizioni associate a specifiche posizioni nella società» – «il seme che trasforma le macchine in agenti sociali»1. La cultura nel codice è ciò che permette agli algoritmi di machine learning di affrontare la complessità delle realtà sociali come se fossero attori socializzati. Il codice è presente anche nella cultura «e la confonde attraverso interazioni tecno-sociali e distinzioni algoritmiche. Insieme agli esseri umani, le macchine contribuiscono attivamente alla riproduzione dell’ordine sociale, ossia all’incessante tracciare e ridisegnare dei confini sociali e simbolici che dividono oggettivamente e intersoggettivamente la società in porzioni diverse e diseguali»2.

Visto che la vita sociale degli esseri umani è sempre più mediata da infrastrutture digitali che apprendono, elaborano e indirizzano a partire dai dati disseminati quotidianamente – più o meno volontariamente, più o meno consapevolmente – dagli utenti, secondo Airoldi occorre considerare le “macchine intelligenti”, al pari degli individui, come «agenti attivi nella realizzazione dell’ordine sociale»3, visto che «ciò che chiamiamo vita sociale non è altro che il prodotto socio-materiale di relazioni eterogenee, che coinvolgono al contempo agenti umani e non umani»4. Al fine di comprendere il comportamento algoritmico è perciò necessario capire come la cultura entri nel codice dei sistemi algoritmici e come essa sia a sua volta plasmata da questi ultimi.

La necessità di provvedere a una sociologia degli algoritmi deriva, secondo l’autore di Machine Habitus, dalla combinazione di due epocali trasformazioni: una di ordine quantitativo, costituita dall’inedita diffusione delle tecnologie digitali nella quotidianità individuale e sociale, e una di ordine qualitativo, inerente al livello che ha potuto raggiungere l’intelligenza artificiale grazie al machine learning permesso dai processi di datificazione digitale. «Questo cambiamento paradigmatico ha reso improvvisamente possibile l’automazione di compiti di carattere sociale e culturale, a un livello senza precedenti». Ad essere sociologicamente rilevante non è quanto accade nel “cervello artificiale” della macchina ma, puntualizza lo studioso, «ciò che quest’ultima comunica ai suoi utenti, e le conseguenze che ne derivano»5. I livelli raggiunti dai modelli linguistici con cui operano sistemi come ChatGpt mostrano modalità di partecipazione sempre più attive e autonome dei sistemi algoritmici nel mondo sociale destinati, con buona probabilità, ad incrementarsi ulteriormente in futuro.

Gli algoritmi possono essere sinteticamente descritti come sistemi automatizzati che, a partire dalla disponibilità e dalla rielaborazione di dati in entrata (input), producono risultati (output). Si tratta di un’evoluzione socio-tecnica che ha conosciuto diverse fasi, schematicamente così riassumibili: l’Era analogica (non digitale), che va dall’applicazione manuale degli algoritmi da parte dei matematici antichi fino alla comparsa dei computer digitali al termine della seconda guerra mondiale; l’Era digitale, sviluppatasi a partire dagli ultimi decenni del secolo scorso, che ha condotto all’archiviazione digitale delle informazioni, dunque alla loro circolazione attraverso internet e all’elaborazione automatizzata di enormi volumi di dati ponendo le premesse per la successiva evoluzione; l’Era delle piattaforme, contesto di applicazione delle macchine autonome e fonte della loro “intelligenza” attraverso il deep learning di inizio del nuovo millennio.

Se nell’era digitale la commercializzazione degli algoritmi aveva soprattutto scopi analitici, con il processo di platformizzazione questi sono divenuti a tutti gli effetti anche dispositivi operativi. Dall’effettuazione meccanica di compiti assegnati si è passati a tecnologie IA in grado di apprendere dall’esperienza datificata che funzionano come agenti sociali «che plasmano la società e ne sono a loro volta plasmati»6.

Mentre ad inizio millennio il discorso sociologico in buona parte guardava ai big data, ai nuovi social network e alle piattaforme streaming per certi versi limitandosi ad evidenziarne le potenzialità, in ambiti più tangenziali si ponevano le basi di quegli studi che nell’ultimo decennio hanno dato vita ai critical algorithm studies e ai critical marketing studies che hanno posto l’accento: sulla loro opera di profilazione selvaggia; sui meccanismi di indirizzo comportamentale; sullo sfruttamento di risorse naturali e manodopera; su come l’analisi automatizzata e decontestualizzata dei big data conduca a risultati imprecisi o distorti; su come la trasformazione dell’azione sociale in dati quantificati online risulti sempre più importante nel capitalismo contemporaneo; sulle modalità con cui vengono commercializzati e mitizzati gli algoritmi; su come il meccanismo di delega sempre più diffusa delle scelte umane ad algoritmi opachi restringa le libertà e agency umane e su quanto questi non si limitino a mediare ma finiscano per concorrere a costruire la realtà, assumendo un ruolo di “inconscio tecnologico”.

Alla luce dello svilupparsi di tanta letteratura critica, Airoldi motiva il suo obiettivo di costruire un framework sociologico complessivo a partire da una riflessione sul concetto di feedback loop degli algoritmi di raccomandazione tendenti alla reiterazione e all’amplificazione di pattern già presenti nei dati. Le raccomandazioni automatiche generate dagli algoritmi di una piattaforma come Amazon tendono ad indirizzare notevolmente il consumo degli utenti e siccome, allo stesso tempo, gli algoritmi analizzano le modalità di consumo, si genera un vero e proprio feedback loop. Se l’influenza della società sulla tecnologia e l’influenza di quest’ultima sulla prima procedono di pari passo, si giunge secondo lo studioso a due “quesiti sociologici”: la cultura nel codice (l’influenza della società sui sistemi algoritmici) e il codice nella cultura (l’influenza dei sistemi algoritmici sulla società).

Circa l’influenza della società sui sistemi algoritmici, lo studioso ricorda come le piattaforme “imparino” «dai discorsi e dai comportamenti datificati degli utenti, i quali portano con sé le tracce delle culture e dei contesti sociali da cui questi hanno origine»7; dunque derivino dalla società pregiudizi e chiusure mentali. Proporsi di “ripulire” i dati, oltre che probabilmente impossibile, non è forse nemmeno auspicabile in quanto presupporrebbe, in definitiva, un pensiero unico costruito a tavolino secondo logiche parziali.

Per quanto riguarda, invece, l’influenza dei sistemi algoritmici sulla società, basti pensare che gli algoritmi di piattaforme come Netflix ed Amazon riescono ad indirizzare circa l’80% delle “scelte” degli utenti; ciò rende l’idea di come i sistemi autonomi digitali non si limitino a mediare le esperienze digitali ma le costruiscano orientando i comportamenti e le opinioni degli utenti. «Ciò che accade dunque è che i modelli analizzano il mondo, e il mondo risponde ai modelli. Di conseguenza, le culture umane finiscono per diventare “algoritmiche”»8.

Spesso, sostiene Airoldi, si è insistito nel guardare le cose in maniera unidirezionale prospettando un certo determinismo tecnologico mentre in realtà diversi studi recenti dimostrano come gli output prodotti dai sistemi autonomi vengano costantemente negoziati e problematizzati dagli esseri umani. «Gli algoritmi non plasmano in maniera unidirezionale la nostra società datificata. Piuttosto, intervengono all’interno di essa, prendono parte a interazioni socio-materiali situate che coinvolgono agenti umani e non umani. Dunque il contenuto della “cultura algoritmica” è il risultato emergente di dinamiche interattive tecno-sociali»9.

Alla luce di quanto detto, le due questioni principali che approfondisce lo studioso in Machine Habitus riguardano le modalità con cui sono socializzati gli algoritmi e come le macchine socializzate partecipano alla società riproducendola.

Airoldi riprende il concetto di habitus elaborato da Pierre Bourdieu: «luogo dove interagiscono struttura sociale e pratica individuale, cultura e cognizione. Con i loro gesti istintivi, schemi di classificazione sedimentati e bias inconsci, gli individui non sono né naturali né unici. Piuttosto sono il “prodotto della storia”»10. Né determinata a priori, né completamente libera, «l’azione individuale emerge dall’interazione tra un “modello” cognitivo plasmato dall’habitus e gli “input” esterni provenienti dall’ambiente. Risulta evidente come un sistema automatico dipenda dalla scelta dell’habitus datificato su cui viene addestrato. «A seconda dell’insieme di correlazioni esperienziali e disposizioni stilistiche che strutturano il modello, l’algoritmo di machine learning genererà risultati probabilistici diversi. Ergo la frase di Bourdieu “il corpo è nel mondo sociale, ma il mondo sociale è nel corpo” potrebbe essere facilmente riscritta in questo modo: il codice è nel mondo sociale, ma il mondo sociale è nel codice»11.

L’habitus codificato dai sistemi di machine learning è l’habitus della macchina. Di fronte a nuovi dati di input, i sistemi di machine learning si comportano in modo probabilistico, dipendente dal percorso pre-riflessivo. Le loro pratiche «derivano dall’incontro dinamico tra un modello computazionale adattivo e uno specifico contesto di dati, vale a dire tra “la storia incorporata” dell’habitus della macchina e una determinata situazione digitale»12. Nonostante siano privi di vita sociale, riflessione e coscienza, gli algoritmi di machine learning rivestono un ruolo importante nel funzionamento del mondo sociale visto che contribuiscono attivamente alla reiterazione/amplificazione delle diseguaglianze sia di ordine materiale che simbolico. In sostanza, scrive Airoldi, ancora più degli esseri umani, tali macchine contribuiscono a riprodurre, dunque perpetuare un ordine sociale diseguale e naturalizzato.

La proposta dello studioso è pertanto quella di guardare ai sistemi di machine learning come ad «agenti socializzati dotati di habitus, che interagiscono ricorsivamente con gli utenti delle piattaforme all’interno dei campi tecno-sociali dei media digitali, contribuendo così in pratica alla riproduzione sociale della diseguaglianze e della cultura»13.

Ricostruita la genesi sociale del machine habitus, Airoldi sottolinea come questo si differenzi dal tipo di cultura nel codice presente in tanti altri artefatti tecnologici, «cioè la cultura dei suoi creatori umani, la quale agisce come deus in machina»14. Nonostante il discorso pubblico sull’automazione tenda a concentrarsi sui benefici che è in grado di offrire in termini sostanzialmente economici (tempo/denaro), ad essere stato introiettato a livello diffuso è soprattutto il convincimento della sua supposta oggettività, dell’assenza di arbitrarietà. Basterebbe qualche dato per dimostrare quanto la tecnologia sia, ad esempio, genderizzata e razzializzata: la stragrande maggioranza degli individui che hanno realizzato le macchine sono uomini bianchi, circa l’80% dei professori di intelligenza artificiale, l’85% dei ricercatori di Facebook ed il 90% di Google sono maschi (Fonte: AI Now 2019 Report).

Di certo per comprendere la cultura contenuta nei codici non è sufficiente individuare i creatori di macchine e il deus in machina; nei più recenti modelli di IA le disposizioni culturali fatte proprie dai sistemi di machine learning non derivano dai creatori ma da una moltitudine di esseri umani utenti di dispositivi digitali coinvolti a tutti gli effetti, in buona parte a loro insaputa, nel ruolo di “addestratori” non retribuiti che agiscono insieme a lavoratori malpagati.

Se correggere i pregiudizi presenti nel design degli algoritmi è relativamente facile, molto più problematico è agire sui data bias da cui derivano il loro addestramento. «Quando una macchina apprende da azioni umane datificate, essa non apprende solo pregiudizi discriminatori, ma anche una conoscenza culturale più vasta, fatta di inclinazioni e disposizioni e codificata come machine habitus»15. Per un sistema di machine learning i contesti di dati sono astratte collezioni di attributi elaborati come valori matematici e per dare un senso a una realtà vettoriale datificata, tali sistemi sono alla ricerca di pattern che non hanno nulla di neutrale, derivando dagli umani che stanno dietro le macchine.

Una volta affrontata la cultura nel codice nelle macchine che apprendono da contesti di dati strutturati socialmente (da “esperienze” datificate affiancate da un deus in machina codificato da chi le ha realizzate), dal momento che, come detto, le macchine imparano dagli umani e questi ultimi dalle prime attraverso un meccanismo di feedback loop, Airoldi si concentra sul codice nella cultura indagando i modi con cui le macchine socializzate plasmano la società partecipando ad essa.

Gli algoritmi agiscono all’interno di un più generale ambiente tecnologico composto da piattaforme, software, hardware, infrastrutture di dati, sfruttamento di risorse naturali e manodopera, insomma in un habitat tecnologico che, a differenza di quanto si ostina a diffondere una certa mitologia dell’high tech, non è affatto neutro, sottostante com’è ad interessi economici e politici. Risulta dunque di estrema importanza occuparsi di come i sistemi di machine learning prendano parte e influenzino la società interagendo con essa considerando i loro contesti operativi e la loro agency (i loro campi e le loro pratiche, in termini bourdieusiani). Nonostante le macchine socializzate non siano senzienti, queste, sostiene Airoldi, hanno «capacità agentiche». Certo, si tratta di agency diverse da quelle umane mosse da intenzioni e forme di consapevolezza, ma che comunque si intrecciano ad esse. «La società è attivamente co-prodotta dalle agency culturalmente modellate di esseri umani e macchine socializzate. Entrambe operano influenzando le azioni dell’altra, generando effetti la cui eco risuona in tutte le dimensioni interconnesse degli ecosistemi tecno-sociali»16.

Visto che ormai i “sistemi di raccomandazione” delle diverse piattaforme risultano più influenti nel guidare la circolazione di prodotti culturali e di intrattenimento (musica, film, serie tv, libri…) rispetto ai tradizionali “intermediari culturali” (critici, studiosi, giornalisti…), viene da domandarsi se non si stia procedendo a vele spiegate verso una “automazione del gusto” con tutto ciò che comporta a livello culturale e di immaginario. È curioso notare, segnala lo studioso, che se il sistema automatico delle raccomandazioni conosce “tutto” degli utenti, questi ultimi invece non sanno “nulla” di esso. Se tale asimmetria informativa è «una caratteristica intrinseca dell’architettura deliberatamente panottica delle app e delle piattaforme commerciali»17, occorre domandarsi quanto sia effettivamente arginabile attraverso un incremento del livello di alfabetizzazione digitale degli esseri umani e attraverso politiche votate a ottenere una maggiore trasparenza del codice. Quel che è certo è che ci si trova a rincorrere meccanismi che si trasformano con una velocità tale per cui risulta difficile pensare a come “praticare l’obiettivo” in tempo utile, prima che tutto cambi sotto ai nostri occhi.

Airoldi ricostruisce come la cultura nel codice sia impregnata delle logiche dei campi platformizzati, dove i sistemi di machine learning vengono applicati e socializzati, e come le stesse logiche di campo e la cultura siano “confuse” dalla presenza ubiqua di output algoritmici. È soprattutto a livello di campo, ove si ha un numero elevatissimo di interazioni utente-macchina, che, sostiene lo studioso, importanti domande sociologiche sul codice nella cultura necessitano di risposta. «Le logiche di campo pre-digitali incapsulate dalle piattaforme sono sistematicamente rafforzate da miliardi di interazioni algoritmiche culturalmente allineate? Oppure, al contrario, le logiche di piattaforma che confondono il comportamento online finiscono per trasformare la struttura e la doxa dei campi sociali a cui sono applicate?»18.

Dopo essersi occupato, nei primi capitoli, della genesi sociale del machine habitus, delle sue specificità rispetto alla cultura nel codice presente in altri tipi artefatti tecnologici e del codice nella cultura, analizzando i modi con cui le macchine socializzate plasmano la società partecipando ad essa, Airoldi si propone di «riassemblare la cultura nel codice e il codice nella cultura al fine di ricavare una teoria del machine habitus in azione» così da mostrare «come la società sia alla radice dell’interazione dinamica tra sistemi di machine learning e utenti umani, e come ne risulti (ri)prodotta di conseguenza»19.

Una volta mostrato come i sistemi di machine learning sono socializzati attraverso l’esperienza computazionale di contesti di dati generati dagli esseri umani da cui acquisiscono propensioni culturali durevoli in forma di machine habitus, costantemente rimodulate nel corso dell’interazione umano-macchina, Airoldi affronta alcune questioni nodali riconducibili a una serie di interrogativi: cosa cambia nei «processi di condizionamento strutturale che plasmano la genesi e la pratica del machine habitus» rispetto a quanto teorizzato da Bourdieu per il genere umano?; «come le disposizioni cultuali incorporate e codificate come machine habitus mediano nella pratica le interazioni umano-macchina all’interno dei campi tecno-sociali?»; «in che modo i feedback loop tecno-sociali influenzano le traiettorie disposizionali distinte di esseri umani e macchine socializzate, nel tempo e attraverso campi diversi?»; «quali potrebbero essere gli effetti aggregati degli intrecci tra umani e macchine a livello dei campi tecno-sociali?»20.

Inteso come attore sociale in senso bourdieusiano, un algoritmo socializzato risulta tanto produttore quanto riproduttore di senso oggettivo, derivando le sue azioni da un modus operandi di cui non è produttore e di cui non ha coscienza. Non essendo soggetti senzienti, i sistemi di machine learning non problematizzano vincoli ad essi esterni come, ad esempio, forme di discriminazione e di diseguaglianza che però, nei fatti, “interiorizzano”. Le piattaforme digitali sono palesemente strutturate per promuovere engagement e datificazione a scopi di profitto e funzionano al meglio con gli utenti a minor livello di alfabetizzazione digitale e di sapere critico. «Se il potere dell’inconscio sociale dell’habitus risiede nella sua invisibilità […] il potere degli algoritmi e dell’intelligenza artificiale sta nella rimozione ideologica del sociale dalla black box computazionale, che viene quindi narrata come neutrale, oggettiva, o super-accurata. Al di là delle ideologie, sullo sfondo di qualsiasi interazione utente-macchina si nasconde un intreccio più profondo, che lega gli agenti umani e artificiali alla doxa e alle posizioni sociali di un campo, attraverso habitus e machine habitus»21.

I sistemi di machine learning non soddisfano (come vorrebbero i tecno-entusiasti della personalizzazione) o comandano (secondo i tecno-apocalittici della manipolazione) ma negoziano, nel tempo e costantemente, con gli esseri umani un terreno culturale comune. È dunque, sostiene lo studioso, dalla sommatoria di queste traiettorie non lineari che deriva la riproduzione tecno-sociale della società. A compenetrarsi in un infinito feedback loop sono due opposte direzioni di influenza algoritmica: una orientata alla trasformazione dei confini sociali e simbolici ed una volta al loro rafforzamento.

In un certo senso, scrive Airoldi, «gli algoritmi siamo noi». Noi che tendiamo ad adattarci all’ordine del mondo come lo troviamo, che sulla falsariga di quanto fanno i sistemi di machine learning apprendiamo dalle esperienze che pratichiamo nel mondo riproducendole. Lo sudioso propone dunque una rottura epistemologica nel modo di comprendere la società e la tecnologia: i sistemi di machine learning vanno a suo avviso intesi «come forze interne alla vita sociale, sia soggette che parte integrante delle sue proprietà contingenti»22. Oggi una sociologia degli algoritmi, ma anche la stessa sociologia nel suo complesso, sostiene Airoldi, dovrebbe essere costruita attorno allo studio di questa riproduzione tecno-sociale.

Nella parte finale del libro, lo studioso delinea alcune direzioni di ricerca complementari per una «sociologia (culturale) degli algoritmi»: seguire i creatori di macchine ricostruendo la genesi degli algoritmi e delle applicazioni di IA, dunque gli interventi umani che hanno contribuito a «spacchettare la cultura nel codice e i suoi numerosi miti»; seguire gli utenti dei sistemi algoritmici individuando «gli intrecci socio-materiali dalla loro prospettiva sorvegliata e classificata»; seguire il medium per mappare la infrastruttura digitale «concentrandosi sulle sue affordance e/o sulle pratiche più che umane che la contraddistinguono»23; seguire l’algoritmo, ad esempio analizzando le proposte generate automaticamente dalle piattaforme.

Se è pur vero che le macchine socializzate sono tendenzialmente utilizzate da piattaforme, governi e aziende per datificare utenti al fine di orientare le loro azioni, non si può addebitare loro la responsabilità dei processi di degradazione e sfruttamento della vita sociale. «Il problema non è il machine learning strictu sensu […] ma semmai gli obiettivi inscritti nel codice e, soprattutto, il suo contesto applicativo più ampio: un capitalismo della sorveglianza che schiavizza le macchine socializzate insieme ai loro utenti»24. Altri usi di IA, altri tipi di intrecci tra utente e macchina sarebbero possibili. Certo. Ma si torna sempre lì: servirebbe un contesto diverso da quello sopra descritto.


  1. Massimo Airoldi, Machine Habitus. Sociologia degli algoritmi, Luiss University Press, Roma 2024, p. 10. 

  2. Ivi, p. 11. 

  3. Ivi, p. 13. 

  4. Ivi, p. 15. 

  5. Ivi, p. 17. 

  6. Ivi, p. 24. 

  7. Ivi, p. 28. 

  8. Ivi, p. 30. 

  9. Ibid

  10. Ivi, p. 33. 

  11. Ivi, p. 35. 

  12. Ivi, pp. 35-36. 

  13. Ivi, p. 37. 

  14. Ivi, p. 38. 

  15. Ivi, p. 52. 

  16. Ivi, p. 80. 

  17. Ivi, p. 90. 

  18. Ivi, p. 98. 

  19. Ivi, p. 107. 

  20. Ivi, p. 106. 

  21. Ivi, p. 116. 

  22. Ivi, p. 137. 

  23. Ivi, p. 142. 

  24. Ivi, p. 144. 

]]>
Il governo delle piattaforme digitali https://www.carmillaonline.com/2023/01/18/il-governo-delle-piattaforme-digitali/ Wed, 18 Jan 2023 21:00:16 +0000 https://www.carmillaonline.com/?p=75328 di Gioacchino Toni

Nei confronti della “Quarta rivoluzione industriale” – modellata da informatica, telematica, robotica, Intelligenza Artificiale ecc… –, con notevole semplificazione, si tendono a contrapporre una posizione cyber-apocalittica, propria di inguaribili nostalgici del mondo analogico inclini, almeno a parole, al rifiuto se non al luddismo digitale, e una cyber-integrata, riferita a quanti sono convinti che la tecnologia risolverà ogni tipo di problemi, compresi quelli scaturiti dal suo utilizzo. Trattandosi di una polarizzazione del tutto semplicistica, utile più per ritrarre in maniera stereotipata chi manifesta nei confronti delle tecnologie posizioni ritenute distanti dalle [...]]]> di Gioacchino Toni

Nei confronti della “Quarta rivoluzione industriale” – modellata da informatica, telematica, robotica, Intelligenza Artificiale ecc… –, con notevole semplificazione, si tendono a contrapporre una posizione cyber-apocalittica, propria di inguaribili nostalgici del mondo analogico inclini, almeno a parole, al rifiuto se non al luddismo digitale, e una cyber-integrata, riferita a quanti sono convinti che la tecnologia risolverà ogni tipo di problemi, compresi quelli scaturiti dal suo utilizzo. Trattandosi di una polarizzazione del tutto semplicistica, utile più per ritrarre in maniera stereotipata chi manifesta nei confronti delle tecnologie posizioni ritenute distanti dalle proprie, varrebbe la pena prendere in esame la percezione che i tanti utilizzatori di Internet e dei social hanno del contesto tecnologico con cui si rapportano quotidianamente.

In un panorama come quello italiano, in cui si stima che siano oltre l’ottanta per cento coloro che navigano su Internet e accedono ai social almeno una volta al giorno, a partire da alcune delle questioni più dibattute in ambito accademico e specialistico, il volume Il governo delle piattaforme. I media digitali visti dagli italiani (Meltemi, 2022) di Alex Buriani e Gabriele Giacomini ha approfondito, su un campione rappresentativo della popolazione, cosa pensa chi vive in questo Paese a proposito di «dieta mediale, nuove forme di intermediazione e di comunicazione, fake news, profilazione, personalizzazione dei contenuti, disinformazione, polarizzazione, raccolta dei dati personali, echo chambers, rapporto tra ICT [Tecnologie dell’Informazione e della Comunicazione] e democrazia, ruolo dello Stato nei confronti di Internet e delle piattaforme, legislazione, politiche pubbliche nei confronti delle ICT, educazione e formazione» (p. 22).

Dall’indagine demoscopica condotta dai due studiosi nel periodo compreso tra il 2020 e il 2021 emerge come nonostante si critichino spesso le piattaforme digitali, soprattutto i social, non si rinunci a ricorrervi quotidianamente, ci si informa soprattutto attraverso i social media ma si teme che tale informazione sia viziata da fake news, si caricano immagini, video e pensieri personali ma si vorrebbe al tempo stesso poterli cancellare a piacimento, si accetta di concedere i propri dati alle piattaforme online pur auspicando un maggior controllo su di essi, si permette la personalizzazione dei contenuti trovando persino utile la profilazione a fini commerciali ma si desidera un universo digitale maggiormente diversificato ove poter incontrare contenuti e utenti non in linea con le proprie posizioni, si è consapevoli che con la propria presenza online si concorre a incrementare i profitti delle big tech ma si vorrebbe almeno l’imposizione nei loro confronti di una tassazione più giusta.

Secondo gli autori del volume tali posizioni manifestano come a fianco di un convinto riconoscimento dell’imprescindibilità dell’universo Internet vi sia una ferma consapevolezza della necessità di un suo miglioramento. Insomma, dall’indagine emergerebbe, secondo Buriani e Giacomini, un’estesa e trasversale volontà “riformatrice” dell’universo mediatico digitale che però non torva uno sbocco politicamente organizzato e definito.

La maggior parte dei pareri emersi dal campione interpellato non è riconducibile né a posizioni cyber-apocalittiche, né a quelle cyber-integrate, ma sembra piuttosto collocarsi tra tali due estremi; una sorta di “terza via” in cui non si intende fare a meno delle Tecnologie dell’Informazione e della Comunicazione ma piuttosto le si vorrebbe migliorarle evitando di delegare alla tecnologia le soluzioni e rivendicando, piuttosto, il diritto di partecipare a indirizzare il cambiamento verso quanto desiderato.

Tali auspici, sostengono i due studiosi, non andrebbero sottostimati leggendoli come frutto di una sorta di “ingenuità popolare”; dopotutto, ricordano Buriani e Giacomini, tutte le rivoluzioni tecnologiche hanno necessitato di essere ripensate, riformate e ricalibrate anche in funzione dei desideri, dei valori e degli interessi degli individui e delle società in cui si sono manifestate.

Le tecnologie non si sviluppano meramente assecondando le architetture pianificate da qualche oscura centrale di potere dalle idee chiare; il loro percorso è costellato di ripensamenti, ripiegamenti e variazioni improvvise derivate non solo da interessi contrastanti all’interno del sistema politico ed economico ma anche da parte dei “fruitori” che si sono rivelati “attori”, forse inattesi, del mutamento.

Buriani e Giacomini sottolineano come molte questioni poste dal campione interpellato risultano dibattute a livello politico e legislativo soprattutto a livello di Unione Europea, forse perché, a differenza degli Stati Uniti, non ospita al proprio interno le GAFAM (Google, Apple, Facebook, Amazon, Microsoft).

La storia di Internet e delle tecnologie digitali ha vissuto una prima fase prevalentemente pubblica; le infrastrutture e il linguaggio di Internet sono nati negli Stati Uniti ove il settore ha goduto di una massiccia politica di investimenti pubblici diretti o di supporto indiretto, attraverso politiche fiscali, commerciali e tecnologiche a beneficio delle aziende. Una seconda fase digitale, coincidente con gli ultimi tre decenni, ha come protagoniste le GAFAM non a caso cresciute sul terreno fertile reso disponibile dalla precedente fase pubblica statunitense. Come da tradizione, del resto, ricordano i due studiosi, il capitale privato è disposto a investire e rischiare soltanto quando si palesano le possibilità di profitto.

La “capitalizzazione” privata degli investimenti pubblici nel settore digitale corrisponde, storicamente, all’ondata neoliberista […] caratterizzata da vari processi connessi tra loro: la globalizzazione della produzione, del commercio e dei servizi pubblici, la finanziarizzazione dell’economia. Soprattutto, i governi (da destra a sinistra, da Reagan a Thatcher a Clinton, Blair e Schröder), con l’obiettivo di rafforzare le imprese private, hanno perseguito una politica di deregolamentazione, ispirata dal settecentesco principio del laissez faire, secondo cui bisognerebbe abolire ogni vincolo all’attività economica e all’iniziativa privata. Di questo approccio ha beneficiato certamente il rampante settore digitale (pp. 258-259)

Ciò ha consentito agli Stati Uniti di generare le imprese delle Tecnologie dell’Informazione e della Comunicazione più potenti al mondo. L’imposizione fiscale di favore applicata al settore digitale e le responsabilità delle sue grande piattaforme sulla sfera pubblica e sui singoli individui in termini di controllo rappresentano, secondo i due studiosi, “effetti collaterali” della deregolamentazione. «Il punto è che deregolamentare un settore significa, di fatto, regolamentarlo a favore di un gruppo di attori (nel nostro caso, le grandi piattaforme digitali) che preferiscono essere liberi da vincoli esterni. Dal punto di vista politico, le istituzioni pubbliche, pur continuando a esercitare il lor ruolo legislativo e di governo in maniera formalmente legittima, “arretrano” effettivamente a favore di altre organizzazioni » (p. 260).

Il laissez faire libertario permesso alle piattaforme nella seconda fase della diffusione del digitale sembrerebbe trasformarsi nel suo opposto. Altro che fervore concorrenziale, le gradi piattaforme stanno sfruttando la libertà loro concessa a proprio unico interesse; d’altra parte agli apologeti della libera concorrenza i monopoli non sono affatto sgraditi, basta non siano di origine pubblica. «I presupposti del laissez faire, nell’attuale fase digitale, sembrano ribaltarsi nel loro contrario. [Il] capitalismo delle piattaforme, basato sulla registrazione dei dati, afferma una forma di vita che, sotto molti aspetti, appare più vicina alla pianificazione che al libertarismo» (p. 261)

L’eterogenesi dei fini del laissez faire, suggeriscono gli autori del volume riprendendo Marco Delmastro e Antonio Nicita, Big data. Come stanno cambiando il nostro mondo (Il Mulino, 2019), «potrebbe essere stata innescata da almeno due elementi principali, presenti nell’attuale assetto dell’Internet delle piattaforme: in primo luogo, dalla “privatizzazione della mano invisibile” (effetto della posizione di gatekeeping delle big tech), in secondo luogo, dal “sostegno tecnologico alla pianificazione”» (pp. 261-262).

Nonostante le apparenze, la rivoluzione digitale non sembra andare nella «direzione di potenziare la mano invisibile di Smith e la rivelazione delle informazioni di Hayek» (p. 262), vista l’asimmetria informativa imperante nell’universo digitale. La conoscenza dei gusti e degli interessi degli individui, derivati dall’elaborazione dei dati digitali che li riguardano, avvicinano il capitalismo delle piattaforme al paradigma della pianificazione. Una pianificazione in effetti sempre più tecnicamente praticabile e capace di scavalcare l’ideale del mercato concorrenziale e trasparente.

La conoscenza del mercato non sembra più essere un bene pubblico come ai tempi della “mano invisibile” teorizzata dai liberali classici (ad esempio attraverso il sistema dei prezzi), ma resta soprattutto al servizio di un’oligarchia di enormi piattaforme, dotate degli strumenti infrastrutturali e cognitivi necessari per gestire un tale genere di conoscenza e di valore. Così, la “mano invisibile” si “nasconde”, viene privatizzata e al tempo stesso è sempre più fattibile pianificare, dando linfa al potere degli neointermediari digitali. Il paradigma del mercato “libero da vincoli” viene sfidato dall’Internet delle piattaforme sia internamente, attraverso la privatizzazione della “mano invisibile”, sia esternamente, dalla novità della praticabilità della pianificazione (pp. 264-265).

Potrebbe dunque prospettarsi, sostengono Buriani e Giacomini, una terza era digitale contraddistinta dal superamento del laissez faire precedente, una nuova fase in cui le autorità pubbliche si propongono di temperare, attraverso un’opera di regolamentazione, il capitalismo delle piattaforme. E ciò parrebbe essere in linea con la richiesta diffusa, come testimonia l’indagine svolta sul campione italiano esaminato, di una maggiore attenzione a proposito dei diritti digitali e di una più decisa regolamentazione pubblica del settore.

Il futuro “governo di Internet”, però, dipenderà anche da come i desiderata della popolazione si tradurranno in “politica effettiva”. La spinta popolare, sostengono gli autori del volume, potrebbe essere interpretata in senso “liberale classico” (es. difesa della privacy e antitrust), in senso “repubblicano” (es. tassazione a fini ridistribuivi), “autoritario” (es. eliminazione del dissenso in nome della lotta alle fake news) e “conservatore” (nel senso stretto del termine, ad es. consentendo alle piattaforme di conservare, appunto, la loro propensione espansiva senza interventi pubblici).

Per chi non si accontenta delle opzioni sopraelencate non resta che interrogarsi, anche alla luce dello scemare degli “entusiasmi alternativi” della prima ora, circa la possibilità di pensare a un “governo di Internet” in termini radicalmente altri.

]]>
Pratiche e immaginari di sorveglianza digitale https://www.carmillaonline.com/2022/05/11/pratiche-e-immaginari-di-sorveglianza-digitale/ Wed, 11 May 2022 20:00:44 +0000 https://www.carmillaonline.com/?p=71738 di Gioacchino Toni

[Di seguito una breve presentazione del volume in uscita in questi giorni – Gioacchino Toni, Pratiche e immaginari di sorveglianza digitale, Prefazione di Sandro Moiso, Il Galeone, Roma, 2022, pp. 220, € 15.00 – Disponibile in pre ordine direttamente presso l’editore e presto in tutte le librerie on line e di fiducia – ght]

Ad un certo momento la finzione cessò di preoccuparsi di imitare la realtà mentre quest’ultima sembrò sempre più voler riprodurre la finzione, tanto che si iniziò ad avere la sensazione che le immagini si stessero sostituendo al reale. Ciò che abitualmente [...]]]> di Gioacchino Toni

[Di seguito una breve presentazione del volume in uscita in questi giorni – Gioacchino Toni, Pratiche e immaginari di sorveglianza digitale, Prefazione di Sandro Moiso, Il Galeone, Roma, 2022, pp. 220, € 15.00 – Disponibile in pre ordine direttamente presso l’editore e presto in tutte le librerie on line e di fiducia – ght]

Ad un certo momento la finzione cessò di preoccuparsi di imitare la realtà mentre quest’ultima sembrò sempre più voler riprodurre la finzione, tanto che si iniziò ad avere la sensazione che le immagini si stessero sostituendo al reale. Ciò che abitualmente si chiamava realtà, sembrò divenire una fantasia creata dai mass media, dai film, dalla televisione e dalla pubblicità. L’impressione era quella di vivere ormai all’interno di un grande racconto in cui i personaggi che popolavano la fiction hollywoodiana sembravano ormai più reali dei vicini di casa. La finzione giunse così ad affliggere la vita sociale, a contaminarla e a penetrarla al punto da far dubitare di essa, della sua realtà e del suo senso. La televisione continuava a raccontare la sua storia come si trattasse della storia di chi stava di fronte allo schermo; d’altra parte gli spettatori sembravano ormai da tempo vivere per e attraverso le sue immagini. Le stesse guerre smisero di essere viste per quello che erano e assunsero l’aspetto di un videogioco, così da risultare meglio sopportabili da chi ancora poteva viverle dal divano di casa.

I nuovi media digitali permisero agli esseri umani di farsi produttori e distributori di immagini, consentendo loro di costruirsi testimonianze di esistenza e così le metropoli iniziarono a essere attraversate da zombie dall’aspetto ben curato dotati di potenti attrezzature tecnologiche tascabili sempre più disinteressati della realtà che si trovavano di fronte intenti a immagazzinare senza sosta immagini da condividere sui social con comunità digitali composte da persone pressoché sconosciute. Il mondo, con i suoi parchi di divertimento, i club vacanze, le aree residenziali, le catene alberghiere, i centri commerciali riproducenti il medesimo ambiente, venne dunque organizzato per essere distrattamente filmato e condiviso, più ancora che visitato e vissuto.

La visione umana si era ormai assoggettata a una visione tecnologica capace di riscrivere le modalità di comprensione del mondo filtrandola attraverso schermi di computer, bancomat, smartphone e smart-tv che offrivano procedure operative già pronte, cui non restava che adeguarsi. Questa nuova visione guidava ormai i percorsi di soggettivazione, determinando le modalità con cui gli esseri umani si rapportavano nei confronti degli oggetti e degli altri individui fruiti quasi esclusivamente attraverso una visuale inorganica dell’occhio tecnologico.

Nei dibattiti, ormai svolti quasi esclusivamente attraverso sistemi digitali, raramente gli interlocutori entravano nel merito di ciò che commentavano, solitamente si limitavano a sfruttare l’occasione per ribadire fugacemente punti di vista e credenze già posseduti: l’importante era restare aggrappati alla bolla comunitaria in cui si era inseriti. La logica della spettacolarizzazione e dell’esibizione merceologica finì con l’estendersi dalle vetrine dei negozi agli individui obbligandoli a creare e gestire la propria identità al fine di catturare l’attenzione altrui adeguandosi agli standard di rappresentazione sociale prevalenti. I processi di digitalizzazione sembrarono disattendere le promesse di potenziare le capacità umane dispensando libertà, informazione e una generale propensione al bene comune per trasformarsi in amplificatori di fragilità, isolamento e alienazione sociale.

Le pratiche di sorveglianza raggiunsero livelli prima impensabili. Alcune corporation iniziano a tradurre l’esperienza privata umana in dati comportamentali da cui derivare previsioni su di loro. A molti tale trasformazione dell’esperienza umana in materia prima gratuita per le imprese commerciali, capace di rendere obsoleta qualsiasi distinzione tra mercato e società, tra mercato e persona, sembrò non procurare grandi fastidi. Si diceva che tutto ciò fosse potuto accadere anche grazie a una certa propensione alla servitù volontaria scambiata volentieri dagli individui con qualche servizio offerto dal Web e dai social, ma la carenza di rapporti sociali fuori dagli schermi e la dipendenza dalla Rete derivavano in buon parte dallo smantellamento delle comunità e dei rapporti sociali tradizionali operato da un sistema che aveva fatto dell’individualismo più cinico e spietato il suo filo conduttore e l’asservimento digitale sembrava piuttosto la logica conseguenza di quella ricerca spasmodica di nuovi ambiti di sfruttamento giunti a coinvolgere anche gli aspetti più privati dell’individuo.

Questo sistema economico fondato sulla sorveglianza iniziò a incidere sul reale attraverso le applicazioni, le piattaforme digitali e gli oggetti tecnologici utilizzati quotidianamente sfruttando i tempi ristretti imposti agli individui dalla società della prestazione, la propensione a ricorrere a comodi sistemi intuitivi e pronti all’uso, l’accesso selettivo alle informazioni utili a esigenze immediate di relazione, il desiderio di aderire a una visione certa di futuro pianificata a tavolino dagli elaboratori aziendali. Insomma ci si trovò di fronte al più sofisticato sistema di monitoraggio, predizione e incidenza comportamentale mai visto all’opera nella storia e tali pratiche di controllo e manipolazione sociale erano nelle mani di grandi corporation private che sembravano ormai divenute le nuove superpotenze.

Il confine tra fisico e non fisico, tra online e offline parve annullarsi: Internet divenne lo sfondo invisibile della vita quotidiana trasformando la connettività degli esseri umani da una modalità circoscritta all’uso degli schermi a una modalità diffusa nel quotidiano. Ci si ritrovò online anche senza volerlo o saperlo. Si diceva che tutto ciò serviva per migliorare la vita umana, ma molti di questi miglioramenti riguardavano i tempi e i fini imposti dalla società della prestazione, della mercificazione e del controllo.

La cultura della sorveglianza reciproca venne presto percepita come parte integrante di uno stile di vita, un modo naturale con cui rapportarsi al mondo e agli altri. A differenza delle ansiogene forme di sorveglianza tradizionali, deputate alla sicurezza nazionale e alle attività di polizia, le nuove seppero rendersi desiderabili e farsi percepire come poco invasive, inducendo così ad accettare con estrema disinvoltura di farsi contemporaneamente sorvegliati e sorveglianti. Si diffuse una vera e propria ossessione per la trasparenza e una propensione all’esibizionismo. In cambio di un rassicurante riconoscimento pubblico, sancito dal consenso digitale, si iniziò a mostrarsi e condividersi costruendosi identità adeguate agli standard graditi ai più.

In un tale panorama, invocare libertà impugnando un cellulare mossi dall’urgenza di postare al più presto sulle piattaforme social quel che restava del desiderio di libertà si scontrava con l’impossibilità di liberarsi da quei gratificanti intrattenimenti digitali di cui si continuava, nei fatti, a essere prigionieri nel timore di subire la morte sociale e perdere l’occasione di esprimere dissenso in un contesto che sembrava però ormai irrimediabilmente viziato.

Tutto ciò può sembrare la trama di una fiction distopica ma la realtà in cui viviamo non sembra essere molto diversa. Pratiche e immaginari di sorveglianza digitale intende dar conto di ciò tratteggiando le trasformazioni in atto senza alzare per forza bandiera bianca e lo fa riprendendo: l’idea di messa in finzione della realtà di Marc Augé; le riflessioni sul visuale contemporaneo di Horst Bredekamp, Nicholas Mirzoeff e Andrea Rabbito; il palesarsi di relazioni sempre più strette tra guerra, media e tecnologie del visibile messe in luce da Paul Virilio, Jean Baudrillard e Ruggero Eugeni; i rapporti tra l’universo videoludico e quello militare suggeriti da Matteo Bittanti; le annotazioni di André Gunthert sull’avvento dell’immagine fotografica digitale e sulla pratica della sua condivisione; il fenomeno della vetrinizzazione e del narcisismo digitale approfonditi rispettivamente da Vanni Codeluppi e Pablo Calzeroni; il capitalismo e le culture della sorveglianza ricostruiti da Shoshana Zuboff e David Lyon; l’affievolirsi della distinzione tra online e offline tratteggiata da Laura DeNardis e Stefano Za a partire dall’internet delle cose; la diffusione dell’intelligenza artificiale, della dittatura degli algoritmi e delle piattaforme digitali di cui si sono occupati Carlo Carboni, Massimo Chiariatti, Dunia Astrologo, Kate Crawford, Luca Balestrieri e il gruppo Ippolita; la privacy digitale e le pratiche di profilazione che coinvolgono gli individui sin da prima della nascita indagate da Veronica Barassi…

Questo volume è dedicato a Valerio Evangelisti

 

 

]]>
Culture e pratiche di sorveglianza. In balia dell’Incoscienza Artificiale e dell’algocrazia https://www.carmillaonline.com/2022/01/24/culture-e-pratiche-di-sorveglianza-in-balia-dellincoscienza-artificiale-e-dellalgocrazia/ Mon, 24 Jan 2022 21:00:22 +0000 https://www.carmillaonline.com/?p=70200 di Gioacchino Toni

«Il punto è che non esiste una protesi cerebrale artificiale che sia intelligente; il calcolo senza significato può al massimo esprimere l’ossimoro dell’“intelligenza incosciente” […] La perdita di conoscenza e di autonomia fanno parte di un processo iniziato nel Ventunesimo secolo, nel corso del quale stiamo invertendo il rapporto gerarchico tra noi e le macchine. Oggi siamo sempre più portati a mettere in dubbio la risposta a una nostra domanda dataci da una persona, oppure quella di un assistente virtuale?» Massimo Chiariatti

«gli algoritmi sono pur sempre progettati da esseri umani, sono opachi, ossia poco trasparenti, e perseguono [...]]]> di Gioacchino Toni

«Il punto è che non esiste una protesi cerebrale artificiale che sia intelligente; il calcolo senza significato può al massimo esprimere l’ossimoro dell’“intelligenza incosciente” […] La perdita di conoscenza e di autonomia fanno parte di un processo iniziato nel Ventunesimo secolo, nel corso del quale stiamo invertendo il rapporto gerarchico tra noi e le macchine. Oggi siamo sempre più portati a mettere in dubbio la risposta a una nostra domanda dataci da una persona, oppure quella di un assistente virtuale?» Massimo Chiariatti

«gli algoritmi sono pur sempre progettati da esseri umani, sono opachi, ossia poco trasparenti, e perseguono non solo obiettivi di efficienza, ma ancor più di profitto. Quando imparano dall’esperienza, poi, tendono a replicare i pregiudizi umani» Mauro Barberis

Nonostante si tenda a pensare all’Intelligenza Artificiale antropomorfizzandola, come se si trattasse di una macchina in grado di prendere “sue” decisioni ponderate, questa si “limita” a elaborare una mole di dati non governabile dagli esseri umani e a farlo con una velocità altrettanto al di sopra dalle loro possibilità. Per gestire le informazioni disponibili l’essere umano ha sempre teso a esternalizzare alcune funzioni del suo cervello estendendole nello spazio e nel tempo; sin dalla notte dei tempi l’umanità ha fatto ricorso a protesi tecnologiche per superare i suoi limiti fisici e cognitivi ma giunti alla digitalizzazione delle informazioni queste sono talmente aumentate che per la loro gestione si è resa necessaria una tecnologia sempre più sofisticata e performante soprattutto in termini di velocità di elaborazione.

La sempre più frenetica società della prestazione tende a vedere nella lentezza umana un limite a cui necessariamente sopperire attraverso la tecnologia ma occorre chiedersi se davvero questa lentezza debba per forza essere intesa come un limite dell’umano rispetto alla macchina o non piuttosto come un valore che lo distingue irriducibilmente da essa. Se la lentezza umana viene vista come il tempo della coscienza, della possibilità di porsi delle domande, allora la velocità di elaborazione della macchina non è per forza di cose un valore sminuente l’umano.

Anziché pensare all’intelligenza artificiale come a macchine “intelligenti” capaci di decidere al posto dell’essere umano, conviene prendere atto di come queste non siano altro che esecutrici di istruzioni e pregiudizi umani sotto forma di numeri e formule che lavorano sui dati loro forniti senza prendere in considerazione facoltà tipicamente umane come le emozioni, la responsabilità o l’immaginazione. Le macchine cosiddette intelligenti, infatti, si limitano ad “apprendere” in maniera decontestualizzata dai dati derivando da questi anche, come detto, i pregiudizi umani, dunque occorrerebbe una certa cautela nel permettere loro di prendere decisioni capaci di influire sulla nostra vita e quella del Pianeta.

Una macchina che sta imparando dai dati, si usa dire che “apprende” ma in realtà sarebbe meglio essere consapevoli che nell’elaborare dati in fin dei conti in maniera statistica questa “prende decisioni” che però non sono affatto “intelligenti”, tanto che è sempre più difficile comprendere i motivi da cui derivano particolari decisioni. Occorre inoltre tenere presente che i dati non vengono lasciati alle macchine in sé ma ai soggetti che le possiedono e che hanno precisi interessi.

È attorno a questioni di tale portata che riflette il volume di Massimo Chiariatti, Incoscienza artificiale. Come fanno le macchine a prevedere per noi (Luiss University Press, 2021), analizzando la natura dell’intelligenza artificiale e le implicazioni della sua interazione con l’essere umano.

Lo studioso ricorda come il concetto stesso di Intelligenza Artificiale – introdotto attorno alla metà degli anni Cinquanta del secolo scorso – sia sempre stato assai dibattuto all’interno della comunità scientifica; se già di per sé è difficile definire in maniera univoca il concetto di “intelligenza”, non di meno anche l’aggettivo “artificiale” crea qualche problema implicando che «a monte rispetto al lavoro delle macchine ci sono sempre operazioni umane, dunque basate sulla biologia», pertanto, suggerisce Chiariatti, sarebbe il caso di «sostituire “intelligenza”, che ha un’accezione positiva, con “incoscienza”, poiché gli algoritmi, eseguendo regole che imparano autonomamente dai dati, producono risultati senza alcuna comprensione e coscienza di ciò che stanno facendo»1.

Le macchine, anche le più sofisticate, possono certamente essere confrontate all’essere umano in termini di abilità, non certo di intelligenza se si ritiene che questa abbia a che fare con la comprensione e la coscienza di quanto si sta facendo. Ma, nota lo studioso, il sogno umano di «poter essere creatori si esplicita nel linguaggio quando si assegnano i nomi agli oggetti, come se, per esempio, il termine “apprendimento” (learning) in machine learning avesse lo stesso significato che ha per noi»2.

Nel relazionarsi con le macchine l’essere umano non ha a disposizione un vocabolario neutrale con cui descrivere i fenomeni artificiali. Se per gli umani apprendere significa «modificare perennemente la mappa neuronale del cervello, e nel caso del linguaggio, aggiungere un significato simbolico»3, per la macchina “apprendere” significa far ricorso all’inferenza statistica, «ossia prendendo dalle coppie di dati per cui la relazione dell’input e dell’output è conosciuta (es. gli animali con le strisce sono zebre). Dando continuamente in pasto alle macchine queste coppie (input e output) possiamo fare in modo che fornendo solo l’input (strisce) sia possibile ottenere dalla macchina l’output probabilmente corretto (zebre)»4. Probabilmente, appunto, in quanto si tratta pur sempre di un risultato di ordine statistico derivato dalla regola appresa dalla macchina “allenandosi” sulle coppie di dati forniti.

Mancando alla macchina la capacità astrattiva necessaria nella realizzazione di un processo analitico e inferenziale diventa difficile parlare davvero di apprendimento. Se il mero apprendimento dai dati si sostituisce a una programmazione esplicita, ossia al fornire all’elaboratore tutte le istruzioni relative al lavoro che deve compire, l’essere umano finisce per perdere il controllo sulle decisioni non essendo nemmeno in grado di comprendere come queste siano state prese dalla macchina: all’aumentare della complessità del mondo e al delegare alle macchine la costruzione di modelli corrisponde l’associare l’intelligenza alla mera ottimizzazione statistica che fa a meno del porsi domande.

Quello che è certo ora è che la nostra cultura ha generato la natura delle macchine, che diventa la loro “conoscenza innata artificiale”. In altre parole, tutto quello che noi abbiamo espresso manualmente, verbalmente e in forma scritta, e che abbiamo trascritto in database, è entrato nella formazione delle macchine. […] Cosa ha ereditato la macchina? I dati, comprensivi dei nostri pregiudizi. E cosa sta imparando? A fare previsioni, al posto nostro5.

Tutto ciò, sottolinea Chiariatti, deve indurre a riflettere circa le conseguenze in una società algoritmica sia a proposito delle modalità con cui le macchine, con la loro “Incoscienza Artificiale”, giungono alle loro conclusioni/decisioni che a come rapportarsi nei loro confronti.

Si è soliti tipizzare diversi livelli di IA. Nella IA Debole, che è il livello attuale dell’evoluzione informatica, in cui l’elaboratore è dotato di competenze specifiche ma non comprende le operazioni che compie: si tratta di una IA orientata agli obiettivi, progettata per apprendere o imparare a completare compiti specifici come il riconoscimento facciale o vocale, guidare un veicolo o svolgere una ricerca in Internet. Si tratta di un sistema che può operare in maniera reattiva, senza avvalersi di un’esperienza precedente, o sfruttando una memoria di archiviazione dati, per quanto limitata, in modo da poter ricorrere a dati storici per prendere decisioni. Occorre fornirgli regole e dati in quantità per simulare processi ma non vi è alcuna riproduzione del pensiero umano. Nella IA Forte si sfruttano invece strumenti come l’apprendimento profondo (deep learning) al fine di affrontare i compiti del cosiddetto Sistema 2 (ragionamento, pianificazione, comprensione della causalità). L’obiettivo in questo caso è avvicinarsi all’intelligenza umana simulando il ragionamento causa-effetto anche se resta l’incapacità della macchina di porsi dubbi e domande circa il suo operare. L’IA Generale, invece, resta la visione per così dire fantascientifica che pretende di trasferire il contenuto del cervello umano nella macchina così che questa possa comportarsi al pari dell’umano.

Sempre più industrie manifatturiere dipendono dalle piattaforme digitali affiancando all’inevitabile uso di Internet il ricorso all’intelligenza artificiale, tanto che colossi come Predix (General Electric) e MindSphere (Siemens) si contendono il monopolio delle piattaforme industriali indispensabili anche per lo sviluppo dell’IA.

A tal proposito, nel volume di Mauro Barberis, Ecologia della rete. Come usare internet e vivere felici (Mimesis, 2021), viene evidenziato come la pandemia abbia accelerato tali processi soprattutto nell’ambito della logistica e nella diffusione dello smart working che ha assunto sempre più le sembianze del lavoro a cottimo deregolamentato a vantaggio di “padroni impersonali”.

Secondo lo studioso il punto di passaggio fra Internet e IA potrebbe essere indicato nell’Internet delle cose (Internet of things, IoT) [su Carmilla 1 e 2], cioè nel momento in cui a comunicare fra loro in wireless sono oggetti identificati da protocolli Internet. Scrive a tal proposito Barberis:

Dagli oggetti che funzionano in assenza dei padroni di casa o che si accendono da soli al loro arrivo (domotica), agli edifici e alle città intelligenti (smart), dai robot, dispositivi non necessariamente somiglianti agli umani, che svolgono gran parte delle operazioni di montaggio e assemblaggio nell’industria manifatturiera, sino alle auto senza guidatore sperimentate dalle industrie californiane, le applicazioni dell’internet delle cose sono ormai tante e così invasive da aver prodotto anche reazioni di rifiuto. In effetti, tutte queste applicazioni dell’IA presentano due somiglianze importanti e anche inquietanti. La prima è essere collegate tramite internet a un server centrale, al quale cedono dati da analizzare e poi da usare su utenti e consumatori. […] La seconda somiglianza è che il funzionamento dell’internet delle cose, e più in generale dell’IA ristretta, limitata ad applicazioni come domotica e robotica, è regolato da algoritmi: modelli matematici tramite i quali i progettisti possono non solo regolare il funzionamento di elettrodomestici o macchine industriali, ma permettere loro di imparare dell’esperienza, autonomizzandosi. Dall’internet delle cose, d’altra parte, l’uso degli algoritmi si è presto esteso ad altri settori dell’IA che coprono ormai interi settori della vita umana6.

Se da un lato il ricorso ad algoritmi permette di potenziare la razionalità umana a livello decisionale grazie a modelli matematici apparentemente imparziali che dispongono di una maggiore conoscenza dei dati, dall’altro resta il fatto che gli algoritmi sono pur sempre progettati dagli esseri umani, sono poco trasparenti, e perseguono, replicando i pregiudizi umani, esclusivamente obiettivi di efficienza e, soprattutto, di profitto. Ragionare sull’IA, sostiene Barberis, porta a domandarsi

dove stia il criterio distintivo fra l’uomo e la macchina, e se per caso questo non consista – invece che nella razionalità strumentale, replicabile da computer o algoritmi – nella sensibilità, prima animale e poi umana. Questa sensibilità non s’esaurisce negli organi di senso, riproducibili anch’essi da sensori artificiali. […] Semmai, consiste nell’empatia: la capacità di provare compassione. Oppure, sta nel dubbio che a volte ci sfiora già oggi, e che ingegneri robotici chiamano uncanny valley: quelli che ci circondano sono ancora umani, oppure loro repliche imperfette?7.

Sempre a proposito di algoritmi, Chiariatti puntalizza come questi si limitino ad analizzare

le relazioni nei dati – non i valori o il significato che rappresentano. Perciò l’algoritmo non “predice” e non “pensa”, ma si limita a costruire modelli seguendo le nostre orme. In altri termini, l’algoritmo è un meccanismo produttivo che usa i nostri dati come materia prima: scova le correlazioni ed estrae le regole. L’IA è quindi una creatrice di regole, seguendo le quali costruisce una sua rappresentazione del mondo. Ma lo fa in modo irresponsabile. Tutto il lavoro di apprendimento culmina in un risultato che ha del misterioso8.

Se di per sé nell’atto di automatizzare non si può che vedere una forma di delega, nel contesto tecnologico contemporaneo ciò comporta problematiche quanto mai inquietanti alla luce del fatto che

in rete si diffondono fatti non spiegabili scientificamente, rilanciati da macchine autonome (bot) basate su algoritmi che prevedono il comportamento umano. Definiamo fake news queste notizie prive di alcuna valenza scientifica, come facilmente possiamo verificare provando a risalire alle loro fonti. Ma come faremmo a riconoscere le fonti, se a generarle fossero macchine autonome? Questa è un’altra ragione per cui non ci possiamo fidare della conoscenza empirica su quello che accade alla macchina, non è corretto parlare di Intelligenza Artificiale, perché si tratta solo di un poderoso calcolo numerico9.

A questo si aggiunga la faciloneria che domina su social e blog, da cui non di rado si alimenta la stessa “informazione orientata” ufficiale che, più che pianificata a tavolino da qualche diabolico stratega, pare frequentemente generarsi dalla superficialità imposta dai tempi ristretti dettati dalla società della prestazione in cui i momenti di necessaria riflessione risultano nella pratica banditi.

Mentre diviene impossibile comprendere come la macchina sia giunta a prendere decisioni, il business delle piattaforme online derivato proprio dal ricorso all’IA e da chi ha saputo utilizzarla in maniera profittevole, sembra avanzare in maniera inarrestabile. Sappiamo però, a volte anche per esperienza diretta, quanto le correlazioni ottenute dalle macchine possano essere del tutto casuali. Le macchine possono infatti individuare correlazioni tra fatti del tutto privi di cause comuni. La correlazione non implica causalità: una correlazione statistica, da sola, non dimostra un rapporto di causa-effetto; spiegare correlazioni richiede teorie e conoscenze approfondite del contesto sociale e culturale.

Grazie alle deleghe sempre maggiori che vi si accordano, i sistemi di IA stanno assumendo, una loro autonomia. «Quando un oggetto fa esperienza del mondo in autonomia e interagisce tramite il linguaggio, il divario che lo separa da un soggetto sta per colmarsi. La soggettivazione algoritmica non prevede più la dicotomia “noi o loro”»10. Mentre l’essere umano ricorre a un oggetto per potenziare la creatività, ora sembra proprio che l’oggetto utilizzi la creatività umana espressa nei dati in forma scritta, orale e visiva per potenziare le sue previsioni. Ed è proprio grazie alla capacità predittivia che prosperano e dominano le grandi piattaforme della Rete analizzate da Luca Balestrieri [su Carmilla].

Le piattaforme online si sono trasformate in soggetti che operano nella politica, dotati di micidiali armi economiche. Sono quasi diventati “Stati privati”, tanto grande è il loro potere. Ma come si sostentano? Con i dati, anzi, con i loro produttori. Cioè noi. Vediamo Stati che cooptano aziende per colpire altri Stati e aziende che si alleano tra loro controllando Stati interi. […] Sono entità che ricordano fortificazioni medievali e che definiamo più prosaicamente walled garden (“giardini recintati”), ossia piattaforme chiuse, ma la cui chiusura non ha lo scopo di ostacolare tanto l’accesso, quanto l’uscita […] All’interno di questi giardini non ci sono più cittadini eguali di fronte alla legge, ma sudditi che temono di essere esclusi dall’accesso alle informazioni, cosa che oggi equivale alla morte sociale. Questi muri non servono per difendersi, ma per evitare che i sudditi, i produttori di dati fuggano. I proprietari hanno già dalla loro parte milioni di persiane in giro per il mondo, evangelizzatori a titolo gratuito che professano la fede nei servizi free. Gli agognati virtual badge (come il badge blu per gli account di interesse pubblico su Twitter) sono i corrispettivi dei titoli nobiliari, perché danno sostanza a una gerarchizzazione in cui la posizione si basa sulla vittoria al gioco dei follower e sul rispetto delle regole del sistema11.

Questi “nuovi Stati”, sottolinea Chiariatti, pur essendo spersonalizzati e smaterializzati non sono affatto depoliticizzati, in quanto dotati di un potere che esercitano in tutto il mondo: «il loro non è un business model, ma uno State model, di successo e, al momento, a prova di futuro»12. Tali piattaforme potrebbero presto tentare di farsi anche banche centrali emettendo le loro forme di denaro e nel caso le loro valute globali e scalabili si sganciassero dai sistemi monetari classici, le piattaforme potrebbero davvero dirsi Stati a tutti gli effetti. Non si tratta più di cogliere la minaccia esercitata dal potere economico nei confronti della democrazia: «ora il rischio maggiore è un regime di omologazione algoritmica globale in cui i cittadini, non potendo più prendere decisioni, avranno perso il controllo sui loro dati, la loro attenzione e il loro denaro»13. Si potrà parlare in tale caso di “algocrazia”; ossia di un sistema in cui a decidere saranno gli algoritmi.

I sistemi di AI derivano buona parte dei dati di cui necessitano dagli smartphone e chi tra le grandi aziende saprà raccogliere più dati setacciando quelli di miglior qualità o produrre algoritmi più efficienti ed efficaci dominerà sulle altre e sugli individui. Si tratta di una guerra tra grandi corporation che coinvolge con le sue conseguenze gli esseri umani sin da prima di nascere, come ha spiegato fornendo esempi in quantià Veronica Barassi [su Carmilla 1 e 2].

Invocare libertà impugnando un cellulare con la preoccupazione di postare al più presto sulle piattaforme social tutta la sete di libertà posseduta tradisce l’impossibilità di liberarsi da quei graziosi walled garden di cui si continua, nei fatti, ad essere prigionieri nel timore non solo di essere altrimenti esclusi dall’accesso alle informazioni, cosa che, come detto, equivale di questi tempi alla morte sociale, ma anche dall’occasione di trasmetterne a propria volta in un contesto però, come visto, profondamente viziato. Un cortocircuito da cui è indubbiamente difficile difendersi.


Su Carmilla – Serie completa Culture e pratiche di sorveglianza


  1. Massimo Chiariatti, Incoscienza artificiale. Come fanno le macchine a prevedere per noi, Luiss University Press, Roma, 2021, p. 19. 

  2. Ivi, p. 21. 

  3. Ivi, p. 21. 

  4. Ivi, p. 22. 

  5. Ivi, p. 24-25. 

  6. Mauro Barberis, Ecologia della rete. Come usare internet e vivere felici, Mimesis, Milano-Udine, 2021, pp. 41. 

  7. Ivi, pp. 51-52. 

  8. Massimo Chiariatti, Incoscienza artificiale, op. cit, p. 57. 

  9. Ivi, p. 62. 

  10. Ivi, p. 81. 

  11. Ivi, pp. 84-85. 

  12. Ivi, p. 86. 

  13. Ivi, p. 87. 

]]>
Culture e pratiche di sorveglianza. Costruzione identitaria e privacy tra rassegnazione digitale e datificazione forzata https://www.carmillaonline.com/2021/12/03/culture-e-pratiche-di-sorveglianza-costruzione-identitaria-e-privacy-tra-rassegnazione-digitale-e-datificazione-forzata/ Fri, 03 Dec 2021 21:00:32 +0000 https://www.carmillaonline.com/?p=69431 di Gioacchino Toni

Riferendosi all’età contemporanea, le scienze sociali tendono ad assegnare una certa importanza al ruolo dei social media nella “costruzione del sé”, nella “costruzione antropologica della persona”. Nel recente volume di Veronica Barassi, I figli dell’algoritmo. Sorvegliati, tracciati, profilati dalla nascita (Luiss University Press, 2021) [su Carmilla], l’autrice evidenzia come, nell’era del capitalismo della sorveglianza, con la possibilità offerta dalle piattaforme digitali di raccontare storie personali negoziando la posizione che si occupa in società, sorgano alcune importanti questioni su cui vale la pena riflettere.

Innanzitutto si opera nell’impossibilità di controllare il contesto in cui le informazioni [...]]]> di Gioacchino Toni

Riferendosi all’età contemporanea, le scienze sociali tendono ad assegnare una certa importanza al ruolo dei social media nella “costruzione del sé”, nella “costruzione antropologica della persona”. Nel recente volume di Veronica Barassi, I figli dell’algoritmo. Sorvegliati, tracciati, profilati dalla nascita (Luiss University Press, 2021) [su Carmilla], l’autrice evidenzia come, nell’era del capitalismo della sorveglianza, con la possibilità offerta dalle piattaforme digitali di raccontare storie personali negoziando la posizione che si occupa in società, sorgano alcune importanti questioni su cui vale la pena riflettere.

Innanzitutto si opera nell’impossibilità di controllare il contesto in cui le informazioni personali vengono condivise e ciò, sottolinea la studiosa, determina il collasso dell’integrità contestuale, dunque la perdita di controllo nella costruzione del sé in quanto non si padroneggiano più le modalità con cui ci si presenta in pubblico. Si tenga presente che alla creazione dell’identità online concorrono tanto atti coscienti (materiali caricati volontariamente) che pratiche reattive (like lasciati, commenti ecc.) spesso in assenza di un’adeguata riflessione.

Nel costruire la propria identità online si concorre anche alla costruzione di quella altrui, come avviene nello sharenting, ove i genitori, insieme alla propria, concorrono a costruire l’identità online dei figli persino da prima della loro nascita. In generale si può affermare che manchi il pieno controllo sulla costruzione della propria (e altrui) identità online visto che si opera in un contesto in cui ogni traccia digitale può essere utilizzata da sistemi di intelligenza artificiale e di analisi predittiva per giudicare gli individui sin dall’infanzia.

Se a partire dalla fine degli anni Ottanta la Convenzione delle Nazioni Unite sui diritti dell’infanzia ha posto l’accento su come i bambini non debbano essere intesi come individui subordinati agli adulti e bisognosi di protezione ma piuttosto come soggetti autonomi dotati di specifici diritti, il capitalismo della sorveglianza [su Carmilla], evidenzia Barassi, li ha nei fatti privati della loro autonomia. Sia perché il “consenso dei genitori” diviene il grimaldello per trattare i loro dati che perché le loro tracce digitali sono prodotte, raccolte e condivise da altri soggetti ben al di là del consenso e del controllo genitoriale. Ciò avviene in svariati ambiti – istruzione, intrattenimento, salute… – e le tracce digitali dei bambini prodotte tanto da loro stessi quanto da altri [su Carmilla] vengono utilizzate per indagare i loro modelli comportamentali, per fare ipotesi circa le loro tendenze psicologiche e per costruire storie pubbliche relative alla loro identità.

Essendo che le tracce digitali hanno a che vedere con l’identità sociale, nell’era del capitalismo digitale, sostiene Barassi, i social media sono divenuti un terreno di conflitto e negoziazione per le famiglie. Insistere tuttavia quasi esclusivamente sulle responsabilità dei genitori smaniosi di condividere dati sui figli rischia di mettere in secondo piano le responsabilità delle multinazionali della raccolta-elaborazione dei dati. Piattaforme dedicate all’infanzia come Messanger Kids di Facebook condividono le informazioni raccolte con terzi e ciò avviene perché tutte le principali Big Tech stanno investendo parecchio nella profilazione dell’infanzia e lo stanno facendo davvero con ogni mezzo necessario aggirando facilmente le legislazioni in materia.

Sebbene a proposito dell’impatto dei social media sul benessere psicologico dei bambini vi siano posizioni differenti all’interno dell’ambito accademico, non è difficile immaginare come tali piattaforme possano perlomeno contribuire a rafforzare culture e stereotipi negativi. Alcuni studi hanno mostrato, ad esempio, come le bambine siano indotte a conformarsi a stereotipi sessualizzati al fine di essere accettate socialmente. Trattandosi di strumenti espressamente realizzati per facilitare la raccolta, il tracciamento e la cessione dei dati ad altri soggetti, non è difficile immaginare come tutto questo materiale raccolto ed elaborato possa incidere sulla vita degli individui.

In una società ad alto tasso di digitalizzazione sono molteplici le modalità con cui si raccolgono dati sui bambini. La studiosa mette in evidenza come dietro ad alcune pratiche, spesso fruite come del tutto innocue e non intrusive, si nascondano vere e proprie strategie di profilazione. Si pensi non solo ai dati raccolti sui bambini dalle piattaforme didattiche utilizzate nelle scuole, di cui non è affatto chiara la gestione da parte delle aziende fornitrici del “servizio”, al tracciamento facciale a cui sono sottoposti sin da piccoli negli aeroporti e persino all’ingresso di parchi giochi come Disneyland, ove vengono loro fotografati i volti all’ingresso motivando blandamente tale pratica, nei rarissimi casi in cui i genitori ne chiedano il motivo, come un’operazione volta alla sicurezza, come ad esempio facilitare il loro rinvenimento in caso di smarrimento. Sebbene cosa ne faccia il colosso Disney delle foto scattate ai volti dei bambini non è dato a sapere, certo è che si tratta di dati estremamente sensibili essendo la fotografia del volto a tutti gli effetti un dato biometrico unicamente riconducibile all’identità di un individuo al pari dell’impronta digitale e della voce.

Altri sistemi di profilazione con cui entrano in contatto facilmente i bambini sono i giochi scaricati sugli smartphone o su altri dispositivi – che in alcuni casi, nota la studiosa, questi continuano a carpire immagini tramite la la videocamera dell’apparecchio anche quando il gioco non è in funzione –, i dati raccolti da piattaforme di intrattenimento come Netflix che, non a caso, lavorano sulla creazione di profili ID univoci. Persino le ricerche effettuate dai genitori attraverso i motori di ricerca online a proposito di disturbi o malattie dei figli concorrono all’accumulo di dati sensibili utili alla costruzione della loro identità digitale sin da bambini.

Tutto ciò non può che porre importanti interrogativi circa il concetto di privacy tenendo presente come questo derivi da uno specifico contesto politico, sociale e culturale. Buona parte del dibattito attorno alla privacy rapportata alle nuove tecnologie ruota attorno all’idea di una necessaria e netta distinzione tra una sfera pubblica (visibile) e una privata (riservata). Se l’avvento dei social media, su cui si è indotti a esibire/condividere tutto di se stessi [su Carmilla], sembra annullare sempre più la distinzione tra pubblico e privato, conviene secondo Barassi soffermarsi sull’importanza di tale dicotomia in quanto «consente di capire la filosofia individualista – e problematica – che definisce l’approccio occidentale verso la privacy e la protezione dei dati» (p. 89). La dicotomia tra ciò che è pubblico e ciò che è privato nella cultura occidentale «suggerisce che c’è una chiara differenza tra la sfera collettiva e quella personale, tra Stato e individuo, tra ciò che è visibile e ciò che è segreto» (p. 89).

Il concetto di privacy occidentale ha le sue radici nell’idea che «che dobbiamo proteggere il nostro interesse personale e le nostre famiglie nucleari prima di pensare alla dimensione pubblica/collettiva» (p. 89). Ed è in tale filosofia individualista della privacy che secondo la studiosa si annida il vero problema:

rapportare il concetto di privacy a quello di interesse individuale porta sempre a una riduzione del suo valore una volta che la privacy viene posta di fronte all’interesse collettivo. Questo è chiaro se pensiamo ai dibattiti sul riconoscimento facciale, sul contact tracing o su altre tecnologie implementate in nome dell’interesse collettivo. Dall’altra parte, intendere la privacy come fenomeno individuale ci porta a cercare soprattutto soluzioni individualiste a problemi che sono invece di natura collettiva (p. 90).

Circa la privacy dei bambini, dall’indagine svolta da Barassi emerge con forza nei genitori una sorta di “rassegnazione digitale”, dettata dall’impressione di non aver altra scelta, di cui approfitta il capitalismo della sorveglianza che però, nota la studiosa, si avvale anche della “partecipazione digitale forzata”. I soggetti fornitori di servizi a cui ricorrono quotidianamente le famiglie, dai servizi sanitari alle istituzioni educative, sempre più si affidano alla raccolta e all’analisi dei dati personali.

È attraverso la partecipazione digitale forzata a una pluralità di istituzioni, private e non, che i bambini vengono datificati, ed è per questa ragione che dobbiamo andare oltre la privacy come interesse privato dei bambini per studiare invece cosa voglia dire crescere in una società dove siamo continuamente costretti ad accettare termini condizioni di utilizzo, e dove i dati dei nostri figli vengono raccolti e condivisi in modi che sfuggono alla nostra comprensione e la nostro controllo. Solo così riusciremo a fare luce sulle ingiustizie e sulle ineguaglianze della nostra società datificata, e sul fatto che il mondo in cui pensiamo al valore della privacy nella vita di tutti i giorni dipende spesso dalla nostra posizione sociale […] C’è qualcosa di profondamente ingiusto nel diverso impatto che queste trasformazioni hanno avuto sulle famiglie altamente istruite o ad alto reddito da un lato, e su quelle a basso reddito o meno istruite dall’altro (pp. 94-95).

La diseguaglianza sociale in effetti, sottolinea la studiosa, gioca un ruolo importante nelle modalità in cui viene vissuta e affrontata la datificazione a cui si è sottoposti quotidianamente. I sistemi automatizzati di intelligenza artificiale tendono ad amplificare tale ingiustizia. Nelle società a forte datificazione i dati raccolti ed elaborati finiscono per essere utilizzati per profilare e indirizzare le vite degli individui. Piuttosto che concentrarsi esclusivamente sul problema della privacy, occorrerebbe piuttosto indagare quanto «la sorveglianza digitale e la datificazione di massa [siano] strettamente interconnesse con la giustizia sociale» (p. 97).

Sebbene spesso si parli di profilazione riferendosi al ricorso a tecnologie e algoritmi per l’analisi predittiva, in realtà, sottolinea Barassi, si tratta innanzitutto di «un processo antropologico che si estende oltre il mondo digitale e che ha a che vedere con la classificazione e la creazione di categorie, di raggruppare persone, animali, piante e cibi sulla base delle loro similitudini e differenze. È attraverso la creazione di categorie che definiamo le regole sociali» (p. 103). Tale pratica viene utilizzata anche per identificare il rischio. «Nella società moderna la profilazione è anche storicizzatone connessa al controllo della popolazione e all’oppressione razziale e sociale» (p. 103). La profilazione ha finito per far parte della vita quotidiana tanto nel farvi ricorso quanto nell’esservi sottoposti [su Carmilla]; «la profilazione è per definizione una pratica di correlazione di dati che serve per formare un giudizio» (p. 104).

Sebbene la profilazione sia un fenomeno sociale, antropologico e personale in atto ben da prima della trasformazione digitale, è nel passaggio di millennio che si determinano cambiamenti sostanziali: l’avvento di nuove tecnologie ha comportato tanto un aumento spropositato della quantità di informazioni personali che possono essere raccolte e intrecciate, quanto di strumenti utili a ottenerle al fine di realizzare profilazioni sempre più sofisticate. Nel saggio Big Other: Surveillance Capitalism and the Prospects of an Information CIvilization (2015) pubblicato sul “Journal of Informatin Technology” (30 gennaio 2015), Shoshana Zuboff ha spiegato come a suo avviso sia più efficace indicare tale contesto come “Big Other”, piuttosto che “Big Data”, in quanto tale dicitura rende meglio l’idea dell’architettura globale – composta da computer, network, sistema di accordi e relazioni… – di cui si avvale il capitalismo della sorveglianza nello scambiare, vendere e rivendere i dati personali.

Barassi evidenzia come un ruolo centrale all’interno di tale Big Other sia svolto dai “data broker”, aziende che raccolgono informazioni personali sui consumatori, le aggregano sotto forma di profili digitali per poi venderli a terzi. La raccolta di dati avviene sia dai registri pubblici che dalle piattaforme digitali e dalle ricerche di mercato, oltre che acquistandole dalle aziende che gestiscono app e social media. Un data broker può identificare, ad esempio, un individuo anche in base al suo aver manifestato interesse all’argomento diabete non solo per vendere l’informazione a produttori di alimenti senza zucchero, ma anche alle assicurazioni che, in base a ciò, lo classificheranno come “individuo a rischio” alzando il prezzo della sua polizza. Analogamente gli individui vengono profilati sulla base del reddito, dello stile di vita, dell’etnia, della religione, dell’essere o meno socievoli o introversi e così via agendo di conseguenza nei loro confronti. La raccolta di questi dati avviene in un regime da Far West a partire dalla più tenera età così da poter aggiornare costantemente e affinare il profilo individuale.

La studiosa sottolinea anche come i dati raccolti dalle Big Tech in ambito domestico non siano soltanto personali/individuali ma raccontino anche la famiglia intesa come gruppo sociale a partire dai contesti socioeconomici, valoriali e comportamentali e tutto ciò può condurre a gravi forme di discriminazione. Un’inchiesta di ProPublica, organizzazione no-profit statunitense, ha rivelato come Facebook consentisse pubblicità mirate discriminatorie rivolte alle sole “famiglie bianche”. Barassi sottolinea come tali meccanismi possano imprigionare i bambini in stereotipi discriminatori e riduzionisti limitandone la mobilità sociale; si rischia di divenire sempre più prigionieri delle classificazioni assegnate al proprio profilo digitale.

Dal 2019 Amazon raccoglie informazioni fisiche ed emotive degli utenti attraverso la profilazione della voce, mentre Google ed Apple stanno lavorando da tempo a sensori in grado di monitorare gli stati emotivi degli individui e tutti questi dati vanno ad aggiungersi a quelli raccolti a scopo di profilazione quando si cercano informazioni sulla salute su un motore di ricerca. Come non bastasse, le Big Tech affiancano alla raccolta dati sulla salute ingenti investimenti nell’ambito dei sistemi sanitari. Qualcosa di analogo avviene nel sistema scolastico-educativo ed anche in questo caso le grandi corporation tecnologiche hanno saputo approfittare dell’emergenza sanitaria per spingere sull’acceleratore della loro entrata in pompa magna nel sistema dell’istruzione.

I media occidentali da qualche tempo danno notizia con un certo allarmismo del sofisticato sistema di sorveglianza di massa e di analisi dei dati raccolti sui singoli individui e sulle aziende messo a punto dal governo cinese tra il 2014 e il 2020 al fine di assegnare un punteggio di “affidabilità” fiscale e civica in base al quale gratificare o punire i soggetti attraverso agevolazioni o restrizioni in base al rating conseguito. All’interesse per il sistema di sorveglianza cinese non sembra però corrispondere altrettanta attenzione a proposito di ciò che accade nei paesi occidentali, ove da qualche decennio «governi e forze dell’ordine stanno utilizzando i sistemi IA per profilarci, giudicarci e determinare i nostri diritti» (p. 122), impattando in maniera importante soprattutto sul futuro delle generazioni più giovani.

Sebbene non sia certo una novità il fatto che governi e istituzioni raccolgano dati o sorveglino i comportamenti dei cittadini, la società moderna ha indubbiamente “razionalizzato” tale pratica soprattutto in funzione efficientista-produttivista rafforzando insieme alla burocrazia statale gli interessi aziendali. In apertura del nuovo millennio, scrive Barassi, anche sfruttando l’allarmismo post attentati terroristici che hanno colpito gli Stati Uniti e l’Europa, molti governi hanno iniziato ad integrare le tecnologie di sorveglianza quotidiana dei dati con i sistemi di identificazione e autenticazione degli individui.

Alcuni studi hanno dimostrato come le pratiche di profilazione digitale messe in atto in diversi paesi, oltre ad essere discriminatorie, minino alle fondamenta i sistemi legali in quanto determinano in segreto quanto un cittadino sia da considerare “un rischio” per la società senza concedergli la possibilità di usufruire di un’adeguata tutela legale. Altro che “giusto processo”; soprattutto grazie alle leggi anti-terrorismo emanate dopo l’11 settembre 2001 ci si può ritrovare “condannati” senza nemmeno conoscerne il motivo.

Barassi riporta il caso della Palantir Technologies, vero e proprio colosso privato della sorveglianza e profilazione dei cittadini, capace di offrire servizi di raccolta e analisi dei dati ai governi e alle aziende private soprattutto occidentali. Ai sevizi di tale azienda, creata nel 2003, ricorrono le principali agenzie governative statunitensi (dall’FBI alla CIA, dal’Immigration and Customs Enforcement al Department of Homeland Security ed al Department of Justice). Attiva in oltre 150 paesi nel 2010, la Palantir Technologies ha saputo sfruttare abilmente l’attuale pandemia per diffondere i sui servizi in Europa.

La profilazione digitale dei cittadini si rivela strategica per molti paesi occidentali in cui istituzioni governative e apparati di polizia ricorrono sempre più a sistemi di IA, il più delle volte gestiti direttamente da aziende private, per prendere decisioni importanti sulla vita dei cittadini. Barassi sottolinea anche come numerosi studi abbiano dimostrato come le tecniche per il riconoscimento facciale, ad esempio, siano tutt’altro che attendibili e come le stesse tecnologie per l’analisi predittiva, oltre che non affidabili, tendano ad amplificare i pregiudizi e ad alimentare la diseguaglianza sociale. Una ricerca del 2019 pubblicata su “Science”, ad esempio, ha rivelato come il sistema sanitario statunitense ricorra ad algoritmi razzisti nel prendere decisioni in merito alla salute pubblica.

«Nell’era de capitalismo della sorveglianza non esistono più dati “innocui”, perché i dati che offriamo come consumatori molto spesso vengono utilizzati per determinare i nostri diritti di cittadini» (p. 133). Il software CLEAR, ad esempio, attinge dati di oltre 400 milioni di consumatori da un’ottantina di società che si occupano di bollette domestiche di vario tipo per poi rivenderli ad istituzioni governative che si occupano di frode fiscale e sanitaria, di immigrazione e riciclaggio di denaro o di prendere decisioni relative all’affidamento di bambini. «Senza che se ne rendano conto, i dati che gli utenti […] producono in qualità di consumatori domestici possono venire incrociati, condivisi e utilizzati per investigazioni federali» (p. 134). Altro inquietante caso riportato da Barassi riguarda Clearview AI, società produttrice di software per il riconoscimento facciale. Un inchiesta del “New York Times” del 2020 ha evidenziato come in alcune giurisdizioni statunitensi le forze di polizia utilizzassero tale software per confrontare le fotografie di individui ritenuti sospetti con gli oltre tre miliardi di immagini presenti online, soprattutto sui social.

***

È di questi giorni la notizia delle sanzioni comminate in Italia dall’Autorità Garante della Concorrenza e del Mercato a due tra le maggiori Big Tech

Tra gli utenti di Apple e Google e le due aziende esiste “un rapporto di consumo, anche in assenza di esborso monetario“. Perché “la controprestazione”, cioè il pagamento, “è rappresentata dai dati che essi cedono utilizzando i servizi di Google e di Apple”. È con questa premessa che l’Antitrust ha multato i due gruppi per un totale di 20 milioni di euro – 10 ciascuno, il massimo edittale – per due violazioni del Codice del Consumo, una per carenze informative e un’altra per pratiche aggressive legate all’acquisizione e all’utilizzo dei dati dei consumatori a fini commerciali (Apple e Google, multa Antitrust da 20 milioni: “Informazioni carenti sull’uso dei dati personali degli utenti e pratiche aggressive”, “Il Fatto Quotidiano”, 26 novembre 2021.

Nel Comunicato stampa emesso dall’AGCM il 26 novembre 2021 viene evidenziato come nella fase di creazione dell’account, Google «l’accettazione da parte dell’utente al trasferimento e/o all’utilizzo dei propri dati per fini commerciali» risulti pre-impostata consentendo così «il trasferimento e l’uso dei dati da parte di Google, una volta che questi vengano generati, senza la necessità di altri passaggi in cui l’utente possa di volta in volta confermare o modificare la scelta pre-impostata dall’azienda». Nel caso di Apple, prosegue il Comunicato stampa, l’architettura di acquisizione «non rende possibile l’esercizio della propria volontà sull’utilizzo a fini commerciali dei propri dati. Dunque, il consumatore viene condizionato nella scelta di consumo e subisce la cessione delle informazioni personali, di cui Apple può disporre per le proprie finalità promozionali effettuate in modalità diverse». Nel dettaglio si vedano: Testo del provvedimento GoogleTesto del provvedimento Apple

Alla luce di quanto detto in precedenza, è difficile immaginare che tutti questi dati sugli utenti raccolti subdolamente, legalmente o meno, vengano sfruttati “solo” a livello commerciale. Intanto si accumulano, poi potranno essere messi sul mercato ed essere elaborati e utilizzati per gli scopi più diversi.

È il capitalismo della sorveglianza, bellezza. E tu non ci puoi far niente! Se ci si deve per forza rassegnare a tale ennesimo adagio impotente, occorrerebbe allora riprendere anche l’efficace titolo di un recente film italiano: E noi come stronzi rimanemmo a guardare (2021, di Pierfrancesco Diliberto “Pif”).


Su Carmilla – Serie completa Culture e pratiche della sorveglianza

]]>
Piattaforme di gentrificazione digitale https://www.carmillaonline.com/2020/11/19/piattaforme-di-gentrificazione-digitale/ Thu, 19 Nov 2020 22:00:14 +0000 https://www.carmillaonline.com/?p=63329 di Gioacchino Toni

Sarah Gainsforth, Airbnb città merce. Storie di resistenza alla gentrificazione digitale, DeriveApprodi, Roma 2019, pp. 192, € 18,00

«Cerchi una casa sull’albero per il weekend o un’intera casa per tutta la famiglia? Qualunque sia la tua destinazione, ti aspetta un caloroso benvenuto. Dietro ogni soggiorno c’è un host, una persona reale pronta a offrirti le informazioni di cui hai bisogno per effettuare il check-in e sentirti a casa». Così il portale Airbnb italiano accoglie il visitatore. Airbnb, spiega Wikipedia, «è un portale online che mette in contatto persone in cerca [...]]]> di Gioacchino Toni

Sarah Gainsforth, Airbnb città merce. Storie di resistenza alla gentrificazione digitale, DeriveApprodi, Roma 2019, pp. 192, € 18,00

«Cerchi una casa sull’albero per il weekend o un’intera casa per tutta la famiglia? Qualunque sia la tua destinazione, ti aspetta un caloroso benvenuto. Dietro ogni soggiorno c’è un host, una persona reale pronta a offrirti le informazioni di cui hai bisogno per effettuare il check-in e sentirti a casa». Così il portale Airbnb italiano accoglie il visitatore. Airbnb, spiega Wikipedia, «è un portale online che mette in contatto persone in cerca di un alloggio o di una camera per brevi periodi, con persone che dispongono di uno spazio extra da affittare, generalmente privati». Inoltre, riporta che il sito, attivato nel 2007, «al giugno 2012 contava alloggi in oltre 26.000 città in 192 paesi e raggiunse 10 milioni di notti prenotate in tutto il mondo. Gli annunci includono sistemazioni quali stanze private, interi appartamenti, castelli e ville, ma anche barche, baite, case sugli alberi, igloo, isole private e qualsiasi altro tipo di alloggio».

Insomma, un esempio di “sharing economy” di successo che però, con i suoi annunci accattivanti, sottrae unità residenziali dagli affitti a lungo termine. In Italia la percentuale delle unità immobiliari presenti sulla piattaforma è pari al 25% di quelle presenti nel centro storico della città di Firenze. Non solo la diminuzione della disponibilità abitativa per gli affitti a lungo termine ha fatto aumentare questi ultimi in maniera vertiginosa, ma anche contribuito a determinare una vera e propria fuga dalla città. Si calcola che in alcuni quartieri romani del centro la popolazione residente si sia ridotta del 30-40% nel periodo compreso tra il 2014 e il 2018. Nella parte antica della città di Venezia, poi, si è giunti alla parità: il numero di posti letto per turisti corrisponde ormai a quello dei residenti con inevitabili ricadute anche sul commercio di vicinato sempre più rimpiazzato da servizi per turisti1.

Anche le corporation del capitalismo delle start-up e delle piattaforme digitali hanno bisogno dei loro miti fondativi. Ne abbiamo sentite talmente tante di storie di successo che partono da piccoli laboratori in garage messi insieme da amici squattrinati che viene il dubbio si tratti di narrazioni utili a nascondere qualche verità scomoda o fatte circolare quasi per scusarsi di quel che queste romantiche attività sono nel frattempo diventate.

Nel suo Airbnb città merce, Sarah Gainsforth sottolinea come da questo punto di vista la piattaforma Airbnb non faccia eccezione. Al pari di altre piattaforme, anch’essa pare essersi costruita una genealogia immaginaria adeguata a una narrazione retorica abile nel ribaltare la natura parassitaria e ambivalente di tanta “sharing economy”. È anche grazie al ricorso di miti fondativi costruiti a tavolino che Airbnb ha potuto presentarsi come risposta a problemi che in realtà, come dimostra la studiosa, contribuisce a generare.

Il capitalismo delle piattaforme non è che una delle risposte che si è dato il vigente sistema economico egemone proteso nella sua incessante ricerca di nuove opportunità di profitto e da questo punto di vista, sostiene Gainsforth, Airbnb rappresenta, al momento, «la principale success story del capitalismo delle piattaforme e dell’ideologia neoliberale e startuppara, secondo cui ognuno è l’imprenditore di se stesso». Una retorica di lunga data che cela come le piattaforme digitali abbiano «trovato il modo di mercificare sempre nuove risorse, ampliando la sfera di ciò che è possibile mettere a profitto – la casa, il proprio tempo, le città».

Airbnb ha potuto svilupparsi sfruttando «un contesto di recessione economica, di precarizzazione del lavoro, di contrazione dei salari, di aumento del costo della vita e di finanziarizzazione della casa su scala globale. Gli effetti della produzione dello spazio per utenti progressivamente più ricchi, ovvero del fenomeno della gentrificazione, una strategia di crescita economica urbana globale, produce effetti drammatici nei luoghi dove le piattaforme atterrano: le città».

In un contesto in cui il turismo è diventato «uno strumento di produzione di località per l’estrazione di valore dalla città-merce», la natura individualista di Airbnb, celata ad arte da una patina di retorica comunitaria incentrata sul suo permette alle persone comuni di «arrotondare e restare nelle loro case», finisce per essere «uno strumento di accumulazione di profitti e di concentrazione di ricchezza nelle mani di pochi proprietari assenti che affittano le case a turisti di passaggio, portando al rialzo i valori immobiliari e i canoni di locazione, alla contrazione dell’offerta di case in affitto, e dunque all’espulsione del ceto medio e basso dai centri urbani».

Sarah Gainsforth si propone pertanto di svelare la retorica fasulla di Airbnb liberando «il campo dalle mitologie che accompagnano e legittimano l’avanzata del capitalismo delle piattaforme, radicate nella mentalità americana, su cui la favola di Airbnb si innesta». All’interno di un contesto che continua imperterrito a propagandare i miti dell’american dream, del self-made man e del paese delle pari opportunità, il sogno di possedere una casa, per milioni di americani, ha dovuto fare i conti con le politiche neoliberiste e con il mantra ripetuto che vuole motiva l’aumento delle diseguaglianze con l’ideologia del merito individuale. «Il mito del pioniere alla conquista delle terre selvagge, che diviene il libero imprenditore alla scoperta della frontiera dello spazio digitale. Il mito del creativo, a cui l’ideologia dell’innovazione capitalista accredita molto più merito del dovuto per le immense ricchezze accumulate grazie alle imprese collettive di molti».

Se la favola di Airbnb, sostiene Gainsforth, parte da San Francisco, la sua vera origine va ricercata nei capitali di ventura della Silicon Valley, il cui ecosistema innovativo «alla base del successo delle piattaforme digitali, è il frutto di decenni di ricerche finanziate con fondi pubblici e del lavoro di milioni di lavoratori invisibili, quelli dell’industria tecnologica e dei settori dei servizi, che costituiscono l’infrastruttura fisica dove “l’innovazione” può avvenire, le città».

La concentrazione di ricchezza accumulata dal capitalismo del settore tecnologico ha creato negli Stati Uniti veri e propri monopoli digitali con «circoli chiusi di investitori che si tramandano ereditariamente la ricchezza [che] rendendo invivibili le città per coloro che le abitano e le mandano avanti». È proprio a San Francisco, città dagli affitti vertiginosi, che si è strutturata la resistenza ad Airbnb a partire dalle lotte delle organizzazioni per il diritto all’abitare ed è da quell’esperienza che l’autrice parte per raccontare alcuni casi esemplari di resistenza sociale contro la gentrificazione digitale delle città.


  1. Dati riportati nell’articolo di Stefano Galeotti, Airbnb, da Bologna a Napoli gli affitti brevi “sfrattano” famiglie e studenti. “Il padrone di casa triplica il canone, andiamo in periferia”, Il Fatto Quotidiano, 21 febbraio 2020. 

]]>
La barricata mobile delle resistenze urbane https://www.carmillaonline.com/2019/11/13/la-barricata-mobile-delle-resistenze-urbane/ Tue, 12 Nov 2019 23:01:55 +0000 https://www.carmillaonline.com/?p=55998 di Fabio Ciabatti

Il campo di battaglia urbano. Trasformazioni e conflitti dentro, contro e oltre la metropoli, a cura del Laboratorio Crash, Red Star Press 2019, pp. 297, € 17,00.

“Il cittadino e l’abitante della città sono stati dissociati”, sostiene Henri Lefebvre in uno dei suoi ultimi scritti. Di fronte a questo fenomeno bisogna rilanciare il diritto alla città e cioè una “concezione rivoluzionaria della cittadinanza politica”. Sebbene le analisi di Lefebvre rimangano imprescindibili per comprendere il nostro presente, possiamo ancora oggi fare nostra la sua prospettiva di un nuovo incontro tra cittadino e abitante urbano o dobbiamo fare un passo oltre? Si può partire da questa [...]]]> di Fabio Ciabatti

Il campo di battaglia urbano. Trasformazioni e conflitti dentro, contro e oltre la metropoli, a cura del Laboratorio Crash, Red Star Press 2019, pp. 297, € 17,00.

“Il cittadino e l’abitante della città sono stati dissociati”, sostiene Henri Lefebvre in uno dei suoi ultimi scritti. Di fronte a questo fenomeno bisogna rilanciare il diritto alla città e cioè una “concezione rivoluzionaria della cittadinanza politica”. Sebbene le analisi di Lefebvre rimangano imprescindibili per comprendere il nostro presente, possiamo ancora oggi fare nostra la sua prospettiva di un nuovo incontro tra cittadino e abitante urbano o dobbiamo fare un passo oltre? Si può partire da questa domanda per esporre i contenuti del libro Il campo di battaglia urbano, volume che presenta una selezione di testi, compreso l’articolo da cui abbiamo tratto le citazioni di Lefebvre1 e un’intervista a David Harvey, emersi da un percorso di elaborazione teorica sull’urbano articolato in convegni, dibattiti e produzione di scritti, promosso tra il 2017 e il 2018 dal Laboratorio Crash di Bologna.

Come possiamo concettualizzare le dinamiche che investono oggi la città? Secondo il Laboratorio Crash il territorio non va ridotto a un ambiente ostile alle classi subalterne come se esso fosse meramente funzionale alla produzione capitalistica e alla vita degli abitanti più ricchi. Allo stesso tempo nelle città facciamo fatica a trovare ancora i vecchi quartieri proletari, solidali e pronti alla lotta, perché in assenza di intervento politico spesso prevalgono l’anomia, la solitudine, la disgregazione, la rabbia cieca. Prodotto di una relazione antagonistica il territorio non esiste come forma predefinita e unitaria: non è un background ma un battleground.
Lo Stato oggi si limita a garantire e a difendere, anche militarmente, l’installazione e il funzionamento delle piattaforme digitali e logistiche che richiedono un tessuto urbano continuamente fluidificato e flessibile per facilitare la mobilità di merci e persone e per attrarre capitali. Lo sviluppo della metropoli lasciato da quarant’anni alla (ir)razionalità del privato ha prodotto un tessuto urbano sempre più disarticolato in cui si moltiplicano le zone di abbandono, desolazione e di segmentazione razzializzata.
Di fronte a questo scenario, prosegue il Laboratorio Crash, bisogna evitare due atteggiamenti politici speculari: autonomia e separatezza del sociale, da una parte, autonomia del politico e attivismo vertenzialista, dall’altra. Si apre invece lo spazio per pratiche politiche orientate verso la (contro)territorializzazione che opera nell’ottica di una secessione offensiva di pezzi di territorio e di una loro connessione. La scommessa è quella di collegare in modo stabile case occupate, piazze vissute dalla composizione giovanile, aule occupate nelle facoltà, centri sociali, sedi del sindacalismo conflittuale, centri sociali e palestre popolari, territori dove si manifesta una socialità endogena della nostra classe (parchi, bar, muretti di quartiere ecc.). Occorre in altri termini “fare territorio” e, allo stesso tempo, essere capaci di bloccare radicalmente i circuiti della metropoli, come sono stati in grado di fare gli operai della logistica attraverso sabotaggio dei magazzini, vertenze e picchetti. La capacità conflittuale mostrata da questo segmento della contemporanea composizione di classe è un elemento strategico ma non esaustivo per poter pensare una cosa ancora tutta da costruire, lo sciopero generale d’oggi.
Quelli menzionati sono processi che eccedono costitutivamente la dimensione militante. Le minoranze agenti non si collocano davanti, ma alla frontiera delle lotte e dei movimenti. Devono essere parte di una processualità che mira alla durata e alla stabilità dell’autorganizzazione e, allo stesso tempo, interagire con una trama di eventi potenzialmente forieri di curvature improvvise e subitanei salti in avanti. Il territorio, in altri termini, si deve configurare come barricata, ma si deve trattare di un barricata mobile.

Certamente una strategia di questo tipo dovrà trovarsi pronta a controbattere all’ideologia dominante che, come sottolineato da Sonia Paone e Agostino Petrillo, enfatizza la violenza dei margini per occultare la brutalità con cui i ricchi e il capitale occupano molti spazi della città, espellono le classi popolari dai quartieri centrali, sottraggono valori d’uso e spazi pubblici, creando anche un confine morale rispetto ai poveri per evitare ogni contatto, giustificare la propria superiorità e neutralizzare ogni forma di compassione e solidarietà. Ciò non toglie che non bisogna assolutizzare questi momenti di sottrazione e occupazione agite dall’alto. Raffaele Sciortino sostiene infatti che, per articolare un’analisi sulla città, occorre oggi investigare il nesso che lega i meccanismi dell’accumulazione per espropriazione e quelli della riproduzione allargata, cioè il tentativo dal punto di vista capitalistico di riarticolare il rapporto tra una finanza ipertrofica alla ricerca di sempre maggiori flussi di valore di cui appropiarsi e una produzione che procede su base troppo ristretta per poterne soddisfare le pretese. In questo contesto l’impresa capitalistica è ancora un momento centrale dell’accumulazione capitalistica, dell’organizzazione dello sfruttamento. Gli spazi e le attività metropolitani sono ancora l’oggettivazione del capitale fisso per quanto esso si manifesti in forme nuove che permettono di sussumere il lavoro e la riproduzione sociale a livelli fino a poco tempo fa inimmaginabili.
La lettura estrattivista di matrice post-operaista, invece, concepisce la cooperazione sociale come autonoma rispetto al capitale e meramente corrotta dall’esterno dall’impresa. In questo modo, però, vengono meno sia la capacità di tematizzare l’ambivalenza delle soggettività sociali e produttive contemporanee sia la possibilità di criticare le modalità e le finalità delle attuali forme produttive e cooperative. Seguendo la lettura estrattivista sarebbe infatti sufficiente, a sostanziale parità di altre condizioni, affrancare dal giogo di un capitale finanziario parassitario i lavoratori cognitivi che, per sineddoche, finiscono per rappresentare l’intera composizione di classe contemporanea.
In realtà, sostiene Felice Mometti, le lunghe catene del valore, il capitalismo delle piattaforme, la rivoluzione logistica per funzionare hanno la necessità di poter disporre di una notevole quantità di lavoro ripetitivo, standardizzato, a basso contenuto di sapere e competenze. E’ il grande back-office delle aree metropolitane composto da una forza lavoro in gran parte migrante che si insedia nello spazio urbano non solo in aree completamente separate, ma anche in spazi misti con i vecchi residenti dando vita a zone grigie intermedie di commistione e segregazione.
D’altra parte, sottolinea Infoaut in uno dei suoi tre contributi al volume, materiale e immateriale si intrecciano inestricabilmente come dimostra il caso di Amazon con la sua mutazione da internet company in logistic company. Solo per fare un esempio di questa trasformazione, si può menzionare il servizio lanciato  a Milano che garantisce qualsiasi consegna in massimo un’ora. E’ facile capire che per realizzare questo obiettivo Amazon ha bisogno di una ramificata struttura offline: dai grandi centri di raccolta e smistamento nelle periferie, dove si svuotano i container, fino ai magazzini di prossimità per le consegne immediate, passando per una grande flotta di lavoratori sempre disponibili.

Fatti salvi i vincoli imposti da questa necessaria infrastruttura logistico-produttiva, la filosofia del capitale finanziario, sostiene Emilio Quadrelli, ha liberato le classi dominanti dal loro legame con il territorio lasciando questo tipo di rapporto soltanto ai subordinati. Per questo la dimensione territoriale è connessa a processi di marginalizzazione ed esclusione che, a differenza del passato, investono quote consistenti di subalterni interni ai processi di valorizzazione. L’organizzazione dello spazio urbano contrassegnato da un moltiplicarsi di barriere che confinano i subalterni è il cuore stesso della formazione economica e sociale contemporanea. Il ritiro dello Stato dai territori non significa la sua estinzione tout court, ma la tendenziale scomparsa di una forma particolare dell’intervento pubblico: il welfare state. La crisi di quest’ultimo significa la crisi della legittimità storico politica dei subalterni e dunque della possibile esistenza legittima di spazi urbani diversi da quelli abitati dai dominanti o da quelli deputati alla valorizzazione del capitale.
La marginalizzazione urbana è dunque la materializzazione dell’esclusione politica. I territori abbandonati dallo Stato possono trasformarsi in territori al di fuori del suo controllo, anche se questo può voler dire luoghi governati da micropoteri di tipo malavitoso. Ma i territori fuori controllo possono anche diventare contenitori di autonomie insorgenti, cioè di una forma politica che rompe con i lacci del passato, con la dimensione statuale, con l’astrattezza della cittadinanza incarnandosi nella concretezza dell’appartenenza territoriale. Non si deve pensare a una logica dello scontro frontale, terreno caro alla macchina burocratico-militare, precisa Quadrelli, ma a una belligeranza permanete di queste autonomie finalizzata a destrutturare le rigidità statali, non a formarne di nuove. Non la presa dello Stato, dunque, ma una lotta di lunga durata per portare avanti processi di liberazione e autogoverno.

Dopo questa parziale sintesi del libro, possiamo capire perché Infoaut sostenga, in uno dei suoi interventi, che la riflessione di Lefebvre, con tutto il suo potere anticipatorio, ci lascia oggi con un senso di incompiutezza. Parlare di diritto alla città, infatti, significa fare riferimento ad un assemblaggio istituzionale, quello della città del welfare, che prevede una dialettica possibile tra movimenti e istituzioni. Nell’epoca attuale questa tensione sembra potersi dare solo come strappo. Come contrattazione sociale che lega inscindibilmente appropriazione e difesa autonoma delle conquiste ottenute. Più che di diritto alla città, sostiene Infoaut, si pone l’urgenza di un progetto di città da prefigurare e contrapporre alla città esistente. In altri termini, si potrebbe sintetizzare, la sfida di oggi non è tanto quella di costruire rapporti di forza da far valere nella contrattazione con il potere quanto quella di far valere un’istanza di (contro)potere nell’immediatezza delle lotte. Più sfumata appare la posizione espressa da David Harvey nell’intervista contenuta nel volume: non bisogna essere Stato-fobici, ma neanche Stato-centrici. E’ cioè assolutamente necessario costituire una serie di poteri al di fuori dello Stato in grado di intrattenere un rapporto forte con esso.
Siamo qui di fronte ad un nodo politico importante. Personalmente ritengo che proprio l’esplosione-implosione della città, per dirla con Lefebvre, sia uno degli elementi che pone la questione di un livello di socializzazione della produzione su scala sufficientemente ampia, di un coordinamento produttivo con un livello minimo di centralizzazione capace di andare oltre la mera sommatoria di autogoverni su piccola scala. Certamente, da un punto di vista concettuale, socializzazione non è sinonimo di statalizzazione. E ancor meno coincide con la rigida e autoritaria programmazione di stampo sovietico. Di sicuro non si tratta di una questione all’ordine del giorno, mentre urge l’attuazione di una strategia in grado di dare concretezza e capacità espansiva a obiettivi come autonomia, riappropriazione e autogestione a partire dai conflitti nei territori. Senz’altro oggi lo Stato è strutturalmente un interlocutore sordo e ostile, per principio refrattario alle minime concessioni. Ciò nonostante il problema rimane. Almeno a livello della costruzione di un immaginario alternativo allo stato di cose presenti, un immaginario in grado di prospettare una credibile via di uscita dalla incipiente barbarie urbana. L’impossibilità di pensare il nuovo, e di farlo in grande, è uno dei frutti avvelenati del realismo capitalista che ci intrappola nella rassegnazione e nell’impotenza.


  1. Henri Lefebvre, “Quando la città si dissolve nella metamorfosi planetaria”, in Il campo di battaglia urbano, Red Star Press 2019, pp. 62 e 63. 

]]>