algoritmi – Carmilla on line https://www.carmillaonline.com letteratura, immaginario e cultura di opposizione Wed, 23 Apr 2025 19:20:30 +0000 it-IT hourly 1 https://wordpress.org/?v=4.9.26 L’umanità tra mistica e cultura digitale https://www.carmillaonline.com/2024/05/30/lumanita-tra-mistica-e-cultura-digitale/ Thu, 30 May 2024 20:00:15 +0000 https://www.carmillaonline.com/?p=82581 di Gioacchino Toni

Guerino Nuccio Bovalino, Algoritmi e preghiere. L’umanità tra mistica e cultura digitale, Luiss University Press, Roma 2024, pp. 212, € 17,00, ebook € 9,99

Nell’indagare la dimensione mediologica assunta ultimamente dal politico e l’immaginario attorno a cui si sviluppa, Guerino Nuccio Bovalino, nel suo volume Imagocrazia. Miti, immaginari e politiche del tempo presente (Meltemi 2018) [su Carmilla], ha messo in luce come alle figure deistiche, mitologiche, religiose e ideologiche a cui l’essere umano ha storicamente fatto ricorso per colmare il vuoto fra sé e il mondo che abita, si siano ormai sostituiti i media e [...]]]> di Gioacchino Toni

Guerino Nuccio Bovalino, Algoritmi e preghiere. L’umanità tra mistica e cultura digitale, Luiss University Press, Roma 2024, pp. 212, € 17,00, ebook € 9,99

Nell’indagare la dimensione mediologica assunta ultimamente dal politico e l’immaginario attorno a cui si sviluppa, Guerino Nuccio Bovalino, nel suo volume Imagocrazia. Miti, immaginari e politiche del tempo presente (Meltemi 2018) [su Carmilla], ha messo in luce come alle figure deistiche, mitologiche, religiose e ideologiche a cui l’essere umano ha storicamente fatto ricorso per colmare il vuoto fra sé e il mondo che abita, si siano ormai sostituiti i media e gli immaginari derivanti dall’intrecciarsi di nuovi e vecchi simboli trasfigurati dalle nuove tecnologie.

Con il suo nuovo libro, Algoritmi e preghiere. L’umanità tra mistica e cultura digitale (Luiss University Press, 2024), lo studioso continua la sua analisi indagando come, per affrontare le paure di questo mondo, gli esseri umani tendano sempre più ad affidarsi messianicamente alla tecnologia confidando nelle sue capacità salvifiche. Al centro del volume sono dunque le modalità contemporanee di sottrarsi alla realtà, tentativo che da sempre contraddistingue gli esseri umani «tra esodi e ritorni, tra terra e cielo, carne e spirito, beatitudine e dannazione, pesanti macchine e religioni eteree, algoritmi e preghiere». Modalità che oggi, sostiene Bovalino, guardano sempre più all’universo dell’intelligenza artificiale e, più in generale, al mondo delle tecnologie più avanzate come a potenze in grado di garantire una fuga dalla realtà, l’accesso al paradiso terrestre.

Con la Rivoluzione industriale prende il via il processo di colonizzazione dell’immaginario collettivo da parte delle macchine; l’essere umano, affogato in una massa indistinta, tenuto a vivere all’interno del sistema fabbrica/metropoli, si trova a vivere una situazione di spaesamento a cui non riesce più a dare risposta la proiezione salvifica personificata dalle tradizionali divinità.

Tale inedita configurazione dell’immaginario, scrive Bovalino, ha il suo mito fondativo nel frankensteiniano essere costituito con parti tratte da diversi corpi, efficace metafora «della massa indistinta che ha con-fuso gli esseri umani nel magma indistinto della nuova metropoli, e ibridato gli stessi con le macchine con le quali operano nelle fabbriche dalle quali sono agiti»1. Inoltre, il mostruoso frankensteiniano, non essendo più un’entità riconducibile al non-umano, si differenzia dall’idea di mostro propria dell’epoca pre-industriale. Non più figura pre-umana o dis-umana, il mostro si trasforma in un essere iper-umano o post-umano nella mitologia del cyborg e dell’androide. Si tratta di «una trasformazione sociale che sancisce la nascita di una relazione inedita tra organico e inorganico, carne e macchina»2. Come scrive Bovalino, si inaugura così una nuova idea di mostruosità non più fatta derivare da un qualche castigo divino, bensì proiezione di un disagio umano figlio delle trasformazioni introdotte dal processo di industrializzazione con la sua disseminazione di macchine.

L’avvento della fotografia sancisce il trionfo della dimensione immateriale su quella materiale; essa vampirizza il reale rendendo morto ciò che è vivo proiettandolo verso un’immortalità artificiale. La dilatazione delle esistenze determinata dall’eliminazione delle distanze spazio-temporali introdotta dalla metropoli trova nel cinema e, successivamente, nella televisione medium capaci di amplificare un processo che viene ripreso e amplificato dagli schermi dei computer e degli smartphone che, però, non rappresentano più una superficie trattenente ma un vortice, una vertigine risucchiante.

È ormai evidente la frattura tra l’essere sé stessi e l’essere ciò che si vuole apparire. I soggetti si muovono dentro le rete come fossero in esilio dal mondo fisico. Fuori dalla realtà cercano di ricostruire una verità alternativa di sé stessi e del mondo che li circonda. È l’affermarsi di una bolla, di un micromondo che il soggetto edifica lentamente, creando un ambiente digitale abitato molto spesso dai propri “simili”, coloro con i quali si condivide la visione del mondo o con cui, perlomeno, si reputa degno condividere le proprie idee3.

L’utopia digitale si è velocemente trasformata in distopia. «Lo splendore del consumo e il capitalismo gioioso si rovesciano, come katastrophé, in una fase cupa e crepuscolare caratterizzata dal controllo tecnologico e dallo sfruttamento dei dati degli utenti. È l’era della disillusione. Il crepuscolo delle tecnoutopie»4.

In Squid Game (2021-in produzione) di Hwang Dong-hyuk, nel suo presentarsi come “il gioco della fine”, suggerisce Bovalino, è possibile vedere una metafora della “fine dei giochi”, la catastrofe di un capitalismo che si manifesta direttamente nella sua crudeltà senza nemmeno mascherarsi dietro l’illusione spettacolare del consumo. L’universo messo in scena dalla serie coreana è costruito sulla colpa e sul debito. Chi partecipa al gioco mortale lo fa per ripagare i propri debiti così da poter essere reintegrato nel circuito perverso del consumo capitalista. Un circuito che non prevede via d’uscita non contemplando una reale espiazione del debito, della colpa: anche estinguendo il debito, il vincitore resta prigioniero delle atrocità commesse per raggiungere lo scopo.

Al capitalismo digitale si affida il compito di ordinare il mondo ma, scrive Bovalino, si tratta di un capitalismo triste e crepuscolare, palesante «una discrasia evidente fra le promesse di felicità e la rinuncia alla dimensione edonistica e onirica cui sottopone»5 l’essere umano.

La smaterializzazione digitale si trova ora costretta a confrontarsi con la percezione della fragilità umana, con la morte che, tra malattie e guerre, ha fatto irruzione nella realtà facendo riemergere il senso di finitudine umana. «Si tratta di un processo di ri-umanizzazione, fra androidi in lacrime perché bramano di divenire umani, guerre combattute sul campo, identità rinascenti, necessità di appartenenza e rinascita della più importante delle mitopoiesi realizzare dall’uomo: il ritorno del divino nella vita quotidiana»6.

Curiosamente, nel momento di massima espansione tecnologica, riemergono forme di vissuto arcaico in una variate che Vincenzo Susca ha definito tecnomagia [su Carmilla]: la dimensione magica viene riattivata dalla tecnologia. Alla smaterializzazione dei corpi umani succede l’umanizzazione delle macchine e l’intelligenza artificiale, con le sue capacità oracolari, si presenta come lo strumento di tale trasformazione, vera e propria tecno-magia.

La tecnologia non è la profezia ma “il profeta”: essa parla per conto dell’uomo nuovo, colui che vuole disintegrare ogni forma esistente e riconfigurare ogni ambito umano, ossia i nuovi creatori come Zuckerberg, Musk e Altman, i guru di Meta X e Open AI. Dio parla ai profeti come l’uomo parla alla tecnologia, la con-forma e le fa “pronunciare” le parole che costruiscono e configurano il tempo a venire. L’IA è l’oracolo che parla la lingua dell’ultima versione, il più recente upgrade dell’homo deus. Nel profetizzare i futuri stravolgimenti, essa trasforma il reale e come ogni nuova lingua costruisce una inedita architettura della realtà, la ri-forma7.

A ben guardare, suggerisce Bovalino, l’IA ricalca, estremizzandoli, i valori della società capitalista contemporanea – velocità, efficienza, semplificazione, funzionalità – indirizzati al profitto associandoli ad una dimensione del controllo iperstatalista.

È un capitalismo antilibertario costruito su un patto iniquo fra il singolo che elemosina illusioni social tecno-utopiche e le grandi aziende che gliele forniscono chiedendo in cambio di poter nutrirsi dell’intimità del soggetto sotto forma di dati, materiale che usano per rendere più efficienti le loro macchine disumanizzanti. È un processo surreale per cui l’uomo concede alle azione ciò che consente alle medesime di tenerlo sotto scacco8.

Il paradosso è che, come ormai tanta fantascienza di matrice distopica ha messo in scena, le ibridazioni tecno-umane finiscono per desiderare di essere soltanto umane. E ciò palesa l’incapacità dell’essere umano di immaginare qualcosa totalmente fuori da sé.

Opporsi alla nuova utopia/distopia del progressismo apocalittico, rimasta l’ultimo appiglio tattico cui aggrapparsi per sopravvivere dopo il fallimento definitivo del fideismo progressista, cesura che ci ha trasformati in zombie intenti a consumare la nostra residua energia nella lotta per scansare la fine. Soggetti e individui oppressi nell’ultima possibile narrazione: l’ideologia del penultimo. Il progressismo ormai ridotto alla stancante ricerca di estemporanee soluzioni utili a contrastare l’eterno non compiersi dell’apocalisse, che ci si prospetta di continuo sotto forma di mutanti di virus, catastrofi ambientali e nuove guerre nucleari. L’uomo si è cristallizzato nella figura tragica di un disperato che staziona inerme al bordo di un precipizio: schiavo della paura che scaturisce dalla percezione dell’imminenza della morte mentre cerca di eluderla9.

Se, come è sempre stato, l’essere umano si trova a fare i conti con il vuoto, ad essere profondamente cambiato è il contesto e, con esso l’essere umano stesso, costretto a confrontarsi con inedite e disorientanti tecnomagie.


  1. Guerino Nuccio Bovalino, Algoritmi e preghiere. L’umanità tra mistica e cultura digitale, Luiss University Press, Roma 2024, p. 39. 

  2. Ibid

  3. Ivi, p. 59. 

  4. Ivi, p. 115. 

  5. Ivi, p. 136. 

  6. Ivi, p. 139. 

  7. Ivi, pp. 183-184. 

  8. Ivi, p. 186. 

  9. Ivi, p. 194. 

]]>
Per una sociologia degli algoritmi. La cultura nel codice e il codice nella cultura https://www.carmillaonline.com/2024/03/01/per-una-sociologia-degli-algoritmi-la-cultura-nel-codice-e-il-codice-nella-cultura/ Fri, 01 Mar 2024 21:00:20 +0000 https://www.carmillaonline.com/?p=81400 di Gioacchino Toni

Massimo Airoldi, Machine Habitus. Sociologia degli algoritmi, Luiss University Press, Roma 2024, pp. 178, € 21,00 edizione cartacea, € 11,99 edizione ebook

Che gli algoritmi siano strumenti di potere agenti sulla vita degli individui e delle comunità, che lo facciano in maniera del tutto opaca e che alcuni di essi siano capaci di apprendere dagli esseri umani e dai loro pregiudizi, è ormai patrimonio diffuso anche perché, in un modo o nell’altro, lo si sta sperimentando direttamente. Dalla percezione di come le macchine sembrino essere sempre più simili agli esseri umani sono sin qua derivati soprattutto studi comparativi [...]]]> di Gioacchino Toni

Massimo Airoldi, Machine Habitus. Sociologia degli algoritmi, Luiss University Press, Roma 2024, pp. 178, € 21,00 edizione cartacea, € 11,99 edizione ebook

Che gli algoritmi siano strumenti di potere agenti sulla vita degli individui e delle comunità, che lo facciano in maniera del tutto opaca e che alcuni di essi siano capaci di apprendere dagli esseri umani e dai loro pregiudizi, è ormai patrimonio diffuso anche perché, in un modo o nell’altro, lo si sta sperimentando direttamente. Dalla percezione di come le macchine sembrino essere sempre più simili agli esseri umani sono sin qua derivati soprattutto studi comparativi incentrati su conoscenze, abilità e pregiudizi delle macchine oscurando quella che Massimo Airoldi ritiene essere la ragione sociologica alla radice di tale somiglianza: la cultura.

Airoldi, sociologo dei processi culturali e comunicativi, vede nella cultura – intesa come «pratiche, classificazioni, norme tacite e disposizioni associate a specifiche posizioni nella società» – «il seme che trasforma le macchine in agenti sociali»1. La cultura nel codice è ciò che permette agli algoritmi di machine learning di affrontare la complessità delle realtà sociali come se fossero attori socializzati. Il codice è presente anche nella cultura «e la confonde attraverso interazioni tecno-sociali e distinzioni algoritmiche. Insieme agli esseri umani, le macchine contribuiscono attivamente alla riproduzione dell’ordine sociale, ossia all’incessante tracciare e ridisegnare dei confini sociali e simbolici che dividono oggettivamente e intersoggettivamente la società in porzioni diverse e diseguali»2.

Visto che la vita sociale degli esseri umani è sempre più mediata da infrastrutture digitali che apprendono, elaborano e indirizzano a partire dai dati disseminati quotidianamente – più o meno volontariamente, più o meno consapevolmente – dagli utenti, secondo Airoldi occorre considerare le “macchine intelligenti”, al pari degli individui, come «agenti attivi nella realizzazione dell’ordine sociale»3, visto che «ciò che chiamiamo vita sociale non è altro che il prodotto socio-materiale di relazioni eterogenee, che coinvolgono al contempo agenti umani e non umani»4. Al fine di comprendere il comportamento algoritmico è perciò necessario capire come la cultura entri nel codice dei sistemi algoritmici e come essa sia a sua volta plasmata da questi ultimi.

La necessità di provvedere a una sociologia degli algoritmi deriva, secondo l’autore di Machine Habitus, dalla combinazione di due epocali trasformazioni: una di ordine quantitativo, costituita dall’inedita diffusione delle tecnologie digitali nella quotidianità individuale e sociale, e una di ordine qualitativo, inerente al livello che ha potuto raggiungere l’intelligenza artificiale grazie al machine learning permesso dai processi di datificazione digitale. «Questo cambiamento paradigmatico ha reso improvvisamente possibile l’automazione di compiti di carattere sociale e culturale, a un livello senza precedenti». Ad essere sociologicamente rilevante non è quanto accade nel “cervello artificiale” della macchina ma, puntualizza lo studioso, «ciò che quest’ultima comunica ai suoi utenti, e le conseguenze che ne derivano»5. I livelli raggiunti dai modelli linguistici con cui operano sistemi come ChatGpt mostrano modalità di partecipazione sempre più attive e autonome dei sistemi algoritmici nel mondo sociale destinati, con buona probabilità, ad incrementarsi ulteriormente in futuro.

Gli algoritmi possono essere sinteticamente descritti come sistemi automatizzati che, a partire dalla disponibilità e dalla rielaborazione di dati in entrata (input), producono risultati (output). Si tratta di un’evoluzione socio-tecnica che ha conosciuto diverse fasi, schematicamente così riassumibili: l’Era analogica (non digitale), che va dall’applicazione manuale degli algoritmi da parte dei matematici antichi fino alla comparsa dei computer digitali al termine della seconda guerra mondiale; l’Era digitale, sviluppatasi a partire dagli ultimi decenni del secolo scorso, che ha condotto all’archiviazione digitale delle informazioni, dunque alla loro circolazione attraverso internet e all’elaborazione automatizzata di enormi volumi di dati ponendo le premesse per la successiva evoluzione; l’Era delle piattaforme, contesto di applicazione delle macchine autonome e fonte della loro “intelligenza” attraverso il deep learning di inizio del nuovo millennio.

Se nell’era digitale la commercializzazione degli algoritmi aveva soprattutto scopi analitici, con il processo di platformizzazione questi sono divenuti a tutti gli effetti anche dispositivi operativi. Dall’effettuazione meccanica di compiti assegnati si è passati a tecnologie IA in grado di apprendere dall’esperienza datificata che funzionano come agenti sociali «che plasmano la società e ne sono a loro volta plasmati»6.

Mentre ad inizio millennio il discorso sociologico in buona parte guardava ai big data, ai nuovi social network e alle piattaforme streaming per certi versi limitandosi ad evidenziarne le potenzialità, in ambiti più tangenziali si ponevano le basi di quegli studi che nell’ultimo decennio hanno dato vita ai critical algorithm studies e ai critical marketing studies che hanno posto l’accento: sulla loro opera di profilazione selvaggia; sui meccanismi di indirizzo comportamentale; sullo sfruttamento di risorse naturali e manodopera; su come l’analisi automatizzata e decontestualizzata dei big data conduca a risultati imprecisi o distorti; su come la trasformazione dell’azione sociale in dati quantificati online risulti sempre più importante nel capitalismo contemporaneo; sulle modalità con cui vengono commercializzati e mitizzati gli algoritmi; su come il meccanismo di delega sempre più diffusa delle scelte umane ad algoritmi opachi restringa le libertà e agency umane e su quanto questi non si limitino a mediare ma finiscano per concorrere a costruire la realtà, assumendo un ruolo di “inconscio tecnologico”.

Alla luce dello svilupparsi di tanta letteratura critica, Airoldi motiva il suo obiettivo di costruire un framework sociologico complessivo a partire da una riflessione sul concetto di feedback loop degli algoritmi di raccomandazione tendenti alla reiterazione e all’amplificazione di pattern già presenti nei dati. Le raccomandazioni automatiche generate dagli algoritmi di una piattaforma come Amazon tendono ad indirizzare notevolmente il consumo degli utenti e siccome, allo stesso tempo, gli algoritmi analizzano le modalità di consumo, si genera un vero e proprio feedback loop. Se l’influenza della società sulla tecnologia e l’influenza di quest’ultima sulla prima procedono di pari passo, si giunge secondo lo studioso a due “quesiti sociologici”: la cultura nel codice (l’influenza della società sui sistemi algoritmici) e il codice nella cultura (l’influenza dei sistemi algoritmici sulla società).

Circa l’influenza della società sui sistemi algoritmici, lo studioso ricorda come le piattaforme “imparino” «dai discorsi e dai comportamenti datificati degli utenti, i quali portano con sé le tracce delle culture e dei contesti sociali da cui questi hanno origine»7; dunque derivino dalla società pregiudizi e chiusure mentali. Proporsi di “ripulire” i dati, oltre che probabilmente impossibile, non è forse nemmeno auspicabile in quanto presupporrebbe, in definitiva, un pensiero unico costruito a tavolino secondo logiche parziali.

Per quanto riguarda, invece, l’influenza dei sistemi algoritmici sulla società, basti pensare che gli algoritmi di piattaforme come Netflix ed Amazon riescono ad indirizzare circa l’80% delle “scelte” degli utenti; ciò rende l’idea di come i sistemi autonomi digitali non si limitino a mediare le esperienze digitali ma le costruiscano orientando i comportamenti e le opinioni degli utenti. «Ciò che accade dunque è che i modelli analizzano il mondo, e il mondo risponde ai modelli. Di conseguenza, le culture umane finiscono per diventare “algoritmiche”»8.

Spesso, sostiene Airoldi, si è insistito nel guardare le cose in maniera unidirezionale prospettando un certo determinismo tecnologico mentre in realtà diversi studi recenti dimostrano come gli output prodotti dai sistemi autonomi vengano costantemente negoziati e problematizzati dagli esseri umani. «Gli algoritmi non plasmano in maniera unidirezionale la nostra società datificata. Piuttosto, intervengono all’interno di essa, prendono parte a interazioni socio-materiali situate che coinvolgono agenti umani e non umani. Dunque il contenuto della “cultura algoritmica” è il risultato emergente di dinamiche interattive tecno-sociali»9.

Alla luce di quanto detto, le due questioni principali che approfondisce lo studioso in Machine Habitus riguardano le modalità con cui sono socializzati gli algoritmi e come le macchine socializzate partecipano alla società riproducendola.

Airoldi riprende il concetto di habitus elaborato da Pierre Bourdieu: «luogo dove interagiscono struttura sociale e pratica individuale, cultura e cognizione. Con i loro gesti istintivi, schemi di classificazione sedimentati e bias inconsci, gli individui non sono né naturali né unici. Piuttosto sono il “prodotto della storia”»10. Né determinata a priori, né completamente libera, «l’azione individuale emerge dall’interazione tra un “modello” cognitivo plasmato dall’habitus e gli “input” esterni provenienti dall’ambiente. Risulta evidente come un sistema automatico dipenda dalla scelta dell’habitus datificato su cui viene addestrato. «A seconda dell’insieme di correlazioni esperienziali e disposizioni stilistiche che strutturano il modello, l’algoritmo di machine learning genererà risultati probabilistici diversi. Ergo la frase di Bourdieu “il corpo è nel mondo sociale, ma il mondo sociale è nel corpo” potrebbe essere facilmente riscritta in questo modo: il codice è nel mondo sociale, ma il mondo sociale è nel codice»11.

L’habitus codificato dai sistemi di machine learning è l’habitus della macchina. Di fronte a nuovi dati di input, i sistemi di machine learning si comportano in modo probabilistico, dipendente dal percorso pre-riflessivo. Le loro pratiche «derivano dall’incontro dinamico tra un modello computazionale adattivo e uno specifico contesto di dati, vale a dire tra “la storia incorporata” dell’habitus della macchina e una determinata situazione digitale»12. Nonostante siano privi di vita sociale, riflessione e coscienza, gli algoritmi di machine learning rivestono un ruolo importante nel funzionamento del mondo sociale visto che contribuiscono attivamente alla reiterazione/amplificazione delle diseguaglianze sia di ordine materiale che simbolico. In sostanza, scrive Airoldi, ancora più degli esseri umani, tali macchine contribuiscono a riprodurre, dunque perpetuare un ordine sociale diseguale e naturalizzato.

La proposta dello studioso è pertanto quella di guardare ai sistemi di machine learning come ad «agenti socializzati dotati di habitus, che interagiscono ricorsivamente con gli utenti delle piattaforme all’interno dei campi tecno-sociali dei media digitali, contribuendo così in pratica alla riproduzione sociale della diseguaglianze e della cultura»13.

Ricostruita la genesi sociale del machine habitus, Airoldi sottolinea come questo si differenzi dal tipo di cultura nel codice presente in tanti altri artefatti tecnologici, «cioè la cultura dei suoi creatori umani, la quale agisce come deus in machina»14. Nonostante il discorso pubblico sull’automazione tenda a concentrarsi sui benefici che è in grado di offrire in termini sostanzialmente economici (tempo/denaro), ad essere stato introiettato a livello diffuso è soprattutto il convincimento della sua supposta oggettività, dell’assenza di arbitrarietà. Basterebbe qualche dato per dimostrare quanto la tecnologia sia, ad esempio, genderizzata e razzializzata: la stragrande maggioranza degli individui che hanno realizzato le macchine sono uomini bianchi, circa l’80% dei professori di intelligenza artificiale, l’85% dei ricercatori di Facebook ed il 90% di Google sono maschi (Fonte: AI Now 2019 Report).

Di certo per comprendere la cultura contenuta nei codici non è sufficiente individuare i creatori di macchine e il deus in machina; nei più recenti modelli di IA le disposizioni culturali fatte proprie dai sistemi di machine learning non derivano dai creatori ma da una moltitudine di esseri umani utenti di dispositivi digitali coinvolti a tutti gli effetti, in buona parte a loro insaputa, nel ruolo di “addestratori” non retribuiti che agiscono insieme a lavoratori malpagati.

Se correggere i pregiudizi presenti nel design degli algoritmi è relativamente facile, molto più problematico è agire sui data bias da cui derivano il loro addestramento. «Quando una macchina apprende da azioni umane datificate, essa non apprende solo pregiudizi discriminatori, ma anche una conoscenza culturale più vasta, fatta di inclinazioni e disposizioni e codificata come machine habitus»15. Per un sistema di machine learning i contesti di dati sono astratte collezioni di attributi elaborati come valori matematici e per dare un senso a una realtà vettoriale datificata, tali sistemi sono alla ricerca di pattern che non hanno nulla di neutrale, derivando dagli umani che stanno dietro le macchine.

Una volta affrontata la cultura nel codice nelle macchine che apprendono da contesti di dati strutturati socialmente (da “esperienze” datificate affiancate da un deus in machina codificato da chi le ha realizzate), dal momento che, come detto, le macchine imparano dagli umani e questi ultimi dalle prime attraverso un meccanismo di feedback loop, Airoldi si concentra sul codice nella cultura indagando i modi con cui le macchine socializzate plasmano la società partecipando ad essa.

Gli algoritmi agiscono all’interno di un più generale ambiente tecnologico composto da piattaforme, software, hardware, infrastrutture di dati, sfruttamento di risorse naturali e manodopera, insomma in un habitat tecnologico che, a differenza di quanto si ostina a diffondere una certa mitologia dell’high tech, non è affatto neutro, sottostante com’è ad interessi economici e politici. Risulta dunque di estrema importanza occuparsi di come i sistemi di machine learning prendano parte e influenzino la società interagendo con essa considerando i loro contesti operativi e la loro agency (i loro campi e le loro pratiche, in termini bourdieusiani). Nonostante le macchine socializzate non siano senzienti, queste, sostiene Airoldi, hanno «capacità agentiche». Certo, si tratta di agency diverse da quelle umane mosse da intenzioni e forme di consapevolezza, ma che comunque si intrecciano ad esse. «La società è attivamente co-prodotta dalle agency culturalmente modellate di esseri umani e macchine socializzate. Entrambe operano influenzando le azioni dell’altra, generando effetti la cui eco risuona in tutte le dimensioni interconnesse degli ecosistemi tecno-sociali»16.

Visto che ormai i “sistemi di raccomandazione” delle diverse piattaforme risultano più influenti nel guidare la circolazione di prodotti culturali e di intrattenimento (musica, film, serie tv, libri…) rispetto ai tradizionali “intermediari culturali” (critici, studiosi, giornalisti…), viene da domandarsi se non si stia procedendo a vele spiegate verso una “automazione del gusto” con tutto ciò che comporta a livello culturale e di immaginario. È curioso notare, segnala lo studioso, che se il sistema automatico delle raccomandazioni conosce “tutto” degli utenti, questi ultimi invece non sanno “nulla” di esso. Se tale asimmetria informativa è «una caratteristica intrinseca dell’architettura deliberatamente panottica delle app e delle piattaforme commerciali»17, occorre domandarsi quanto sia effettivamente arginabile attraverso un incremento del livello di alfabetizzazione digitale degli esseri umani e attraverso politiche votate a ottenere una maggiore trasparenza del codice. Quel che è certo è che ci si trova a rincorrere meccanismi che si trasformano con una velocità tale per cui risulta difficile pensare a come “praticare l’obiettivo” in tempo utile, prima che tutto cambi sotto ai nostri occhi.

Airoldi ricostruisce come la cultura nel codice sia impregnata delle logiche dei campi platformizzati, dove i sistemi di machine learning vengono applicati e socializzati, e come le stesse logiche di campo e la cultura siano “confuse” dalla presenza ubiqua di output algoritmici. È soprattutto a livello di campo, ove si ha un numero elevatissimo di interazioni utente-macchina, che, sostiene lo studioso, importanti domande sociologiche sul codice nella cultura necessitano di risposta. «Le logiche di campo pre-digitali incapsulate dalle piattaforme sono sistematicamente rafforzate da miliardi di interazioni algoritmiche culturalmente allineate? Oppure, al contrario, le logiche di piattaforma che confondono il comportamento online finiscono per trasformare la struttura e la doxa dei campi sociali a cui sono applicate?»18.

Dopo essersi occupato, nei primi capitoli, della genesi sociale del machine habitus, delle sue specificità rispetto alla cultura nel codice presente in altri tipi artefatti tecnologici e del codice nella cultura, analizzando i modi con cui le macchine socializzate plasmano la società partecipando ad essa, Airoldi si propone di «riassemblare la cultura nel codice e il codice nella cultura al fine di ricavare una teoria del machine habitus in azione» così da mostrare «come la società sia alla radice dell’interazione dinamica tra sistemi di machine learning e utenti umani, e come ne risulti (ri)prodotta di conseguenza»19.

Una volta mostrato come i sistemi di machine learning sono socializzati attraverso l’esperienza computazionale di contesti di dati generati dagli esseri umani da cui acquisiscono propensioni culturali durevoli in forma di machine habitus, costantemente rimodulate nel corso dell’interazione umano-macchina, Airoldi affronta alcune questioni nodali riconducibili a una serie di interrogativi: cosa cambia nei «processi di condizionamento strutturale che plasmano la genesi e la pratica del machine habitus» rispetto a quanto teorizzato da Bourdieu per il genere umano?; «come le disposizioni cultuali incorporate e codificate come machine habitus mediano nella pratica le interazioni umano-macchina all’interno dei campi tecno-sociali?»; «in che modo i feedback loop tecno-sociali influenzano le traiettorie disposizionali distinte di esseri umani e macchine socializzate, nel tempo e attraverso campi diversi?»; «quali potrebbero essere gli effetti aggregati degli intrecci tra umani e macchine a livello dei campi tecno-sociali?»20.

Inteso come attore sociale in senso bourdieusiano, un algoritmo socializzato risulta tanto produttore quanto riproduttore di senso oggettivo, derivando le sue azioni da un modus operandi di cui non è produttore e di cui non ha coscienza. Non essendo soggetti senzienti, i sistemi di machine learning non problematizzano vincoli ad essi esterni come, ad esempio, forme di discriminazione e di diseguaglianza che però, nei fatti, “interiorizzano”. Le piattaforme digitali sono palesemente strutturate per promuovere engagement e datificazione a scopi di profitto e funzionano al meglio con gli utenti a minor livello di alfabetizzazione digitale e di sapere critico. «Se il potere dell’inconscio sociale dell’habitus risiede nella sua invisibilità […] il potere degli algoritmi e dell’intelligenza artificiale sta nella rimozione ideologica del sociale dalla black box computazionale, che viene quindi narrata come neutrale, oggettiva, o super-accurata. Al di là delle ideologie, sullo sfondo di qualsiasi interazione utente-macchina si nasconde un intreccio più profondo, che lega gli agenti umani e artificiali alla doxa e alle posizioni sociali di un campo, attraverso habitus e machine habitus»21.

I sistemi di machine learning non soddisfano (come vorrebbero i tecno-entusiasti della personalizzazione) o comandano (secondo i tecno-apocalittici della manipolazione) ma negoziano, nel tempo e costantemente, con gli esseri umani un terreno culturale comune. È dunque, sostiene lo studioso, dalla sommatoria di queste traiettorie non lineari che deriva la riproduzione tecno-sociale della società. A compenetrarsi in un infinito feedback loop sono due opposte direzioni di influenza algoritmica: una orientata alla trasformazione dei confini sociali e simbolici ed una volta al loro rafforzamento.

In un certo senso, scrive Airoldi, «gli algoritmi siamo noi». Noi che tendiamo ad adattarci all’ordine del mondo come lo troviamo, che sulla falsariga di quanto fanno i sistemi di machine learning apprendiamo dalle esperienze che pratichiamo nel mondo riproducendole. Lo sudioso propone dunque una rottura epistemologica nel modo di comprendere la società e la tecnologia: i sistemi di machine learning vanno a suo avviso intesi «come forze interne alla vita sociale, sia soggette che parte integrante delle sue proprietà contingenti»22. Oggi una sociologia degli algoritmi, ma anche la stessa sociologia nel suo complesso, sostiene Airoldi, dovrebbe essere costruita attorno allo studio di questa riproduzione tecno-sociale.

Nella parte finale del libro, lo studioso delinea alcune direzioni di ricerca complementari per una «sociologia (culturale) degli algoritmi»: seguire i creatori di macchine ricostruendo la genesi degli algoritmi e delle applicazioni di IA, dunque gli interventi umani che hanno contribuito a «spacchettare la cultura nel codice e i suoi numerosi miti»; seguire gli utenti dei sistemi algoritmici individuando «gli intrecci socio-materiali dalla loro prospettiva sorvegliata e classificata»; seguire il medium per mappare la infrastruttura digitale «concentrandosi sulle sue affordance e/o sulle pratiche più che umane che la contraddistinguono»23; seguire l’algoritmo, ad esempio analizzando le proposte generate automaticamente dalle piattaforme.

Se è pur vero che le macchine socializzate sono tendenzialmente utilizzate da piattaforme, governi e aziende per datificare utenti al fine di orientare le loro azioni, non si può addebitare loro la responsabilità dei processi di degradazione e sfruttamento della vita sociale. «Il problema non è il machine learning strictu sensu […] ma semmai gli obiettivi inscritti nel codice e, soprattutto, il suo contesto applicativo più ampio: un capitalismo della sorveglianza che schiavizza le macchine socializzate insieme ai loro utenti»24. Altri usi di IA, altri tipi di intrecci tra utente e macchina sarebbero possibili. Certo. Ma si torna sempre lì: servirebbe un contesto diverso da quello sopra descritto.


  1. Massimo Airoldi, Machine Habitus. Sociologia degli algoritmi, Luiss University Press, Roma 2024, p. 10. 

  2. Ivi, p. 11. 

  3. Ivi, p. 13. 

  4. Ivi, p. 15. 

  5. Ivi, p. 17. 

  6. Ivi, p. 24. 

  7. Ivi, p. 28. 

  8. Ivi, p. 30. 

  9. Ibid

  10. Ivi, p. 33. 

  11. Ivi, p. 35. 

  12. Ivi, pp. 35-36. 

  13. Ivi, p. 37. 

  14. Ivi, p. 38. 

  15. Ivi, p. 52. 

  16. Ivi, p. 80. 

  17. Ivi, p. 90. 

  18. Ivi, p. 98. 

  19. Ivi, p. 107. 

  20. Ivi, p. 106. 

  21. Ivi, p. 116. 

  22. Ivi, p. 137. 

  23. Ivi, p. 142. 

  24. Ivi, p. 144. 

]]>
Pratiche e immaginari di sorveglianza digitale https://www.carmillaonline.com/2022/05/11/pratiche-e-immaginari-di-sorveglianza-digitale/ Wed, 11 May 2022 20:00:44 +0000 https://www.carmillaonline.com/?p=71738 di Gioacchino Toni

[Di seguito una breve presentazione del volume in uscita in questi giorni – Gioacchino Toni, Pratiche e immaginari di sorveglianza digitale, Prefazione di Sandro Moiso, Il Galeone, Roma, 2022, pp. 220, € 15.00 – Disponibile in pre ordine direttamente presso l’editore e presto in tutte le librerie on line e di fiducia – ght]

Ad un certo momento la finzione cessò di preoccuparsi di imitare la realtà mentre quest’ultima sembrò sempre più voler riprodurre la finzione, tanto che si iniziò ad avere la sensazione che le immagini si stessero sostituendo al reale. Ciò che abitualmente [...]]]> di Gioacchino Toni

[Di seguito una breve presentazione del volume in uscita in questi giorni – Gioacchino Toni, Pratiche e immaginari di sorveglianza digitale, Prefazione di Sandro Moiso, Il Galeone, Roma, 2022, pp. 220, € 15.00 – Disponibile in pre ordine direttamente presso l’editore e presto in tutte le librerie on line e di fiducia – ght]

Ad un certo momento la finzione cessò di preoccuparsi di imitare la realtà mentre quest’ultima sembrò sempre più voler riprodurre la finzione, tanto che si iniziò ad avere la sensazione che le immagini si stessero sostituendo al reale. Ciò che abitualmente si chiamava realtà, sembrò divenire una fantasia creata dai mass media, dai film, dalla televisione e dalla pubblicità. L’impressione era quella di vivere ormai all’interno di un grande racconto in cui i personaggi che popolavano la fiction hollywoodiana sembravano ormai più reali dei vicini di casa. La finzione giunse così ad affliggere la vita sociale, a contaminarla e a penetrarla al punto da far dubitare di essa, della sua realtà e del suo senso. La televisione continuava a raccontare la sua storia come si trattasse della storia di chi stava di fronte allo schermo; d’altra parte gli spettatori sembravano ormai da tempo vivere per e attraverso le sue immagini. Le stesse guerre smisero di essere viste per quello che erano e assunsero l’aspetto di un videogioco, così da risultare meglio sopportabili da chi ancora poteva viverle dal divano di casa.

I nuovi media digitali permisero agli esseri umani di farsi produttori e distributori di immagini, consentendo loro di costruirsi testimonianze di esistenza e così le metropoli iniziarono a essere attraversate da zombie dall’aspetto ben curato dotati di potenti attrezzature tecnologiche tascabili sempre più disinteressati della realtà che si trovavano di fronte intenti a immagazzinare senza sosta immagini da condividere sui social con comunità digitali composte da persone pressoché sconosciute. Il mondo, con i suoi parchi di divertimento, i club vacanze, le aree residenziali, le catene alberghiere, i centri commerciali riproducenti il medesimo ambiente, venne dunque organizzato per essere distrattamente filmato e condiviso, più ancora che visitato e vissuto.

La visione umana si era ormai assoggettata a una visione tecnologica capace di riscrivere le modalità di comprensione del mondo filtrandola attraverso schermi di computer, bancomat, smartphone e smart-tv che offrivano procedure operative già pronte, cui non restava che adeguarsi. Questa nuova visione guidava ormai i percorsi di soggettivazione, determinando le modalità con cui gli esseri umani si rapportavano nei confronti degli oggetti e degli altri individui fruiti quasi esclusivamente attraverso una visuale inorganica dell’occhio tecnologico.

Nei dibattiti, ormai svolti quasi esclusivamente attraverso sistemi digitali, raramente gli interlocutori entravano nel merito di ciò che commentavano, solitamente si limitavano a sfruttare l’occasione per ribadire fugacemente punti di vista e credenze già posseduti: l’importante era restare aggrappati alla bolla comunitaria in cui si era inseriti. La logica della spettacolarizzazione e dell’esibizione merceologica finì con l’estendersi dalle vetrine dei negozi agli individui obbligandoli a creare e gestire la propria identità al fine di catturare l’attenzione altrui adeguandosi agli standard di rappresentazione sociale prevalenti. I processi di digitalizzazione sembrarono disattendere le promesse di potenziare le capacità umane dispensando libertà, informazione e una generale propensione al bene comune per trasformarsi in amplificatori di fragilità, isolamento e alienazione sociale.

Le pratiche di sorveglianza raggiunsero livelli prima impensabili. Alcune corporation iniziano a tradurre l’esperienza privata umana in dati comportamentali da cui derivare previsioni su di loro. A molti tale trasformazione dell’esperienza umana in materia prima gratuita per le imprese commerciali, capace di rendere obsoleta qualsiasi distinzione tra mercato e società, tra mercato e persona, sembrò non procurare grandi fastidi. Si diceva che tutto ciò fosse potuto accadere anche grazie a una certa propensione alla servitù volontaria scambiata volentieri dagli individui con qualche servizio offerto dal Web e dai social, ma la carenza di rapporti sociali fuori dagli schermi e la dipendenza dalla Rete derivavano in buon parte dallo smantellamento delle comunità e dei rapporti sociali tradizionali operato da un sistema che aveva fatto dell’individualismo più cinico e spietato il suo filo conduttore e l’asservimento digitale sembrava piuttosto la logica conseguenza di quella ricerca spasmodica di nuovi ambiti di sfruttamento giunti a coinvolgere anche gli aspetti più privati dell’individuo.

Questo sistema economico fondato sulla sorveglianza iniziò a incidere sul reale attraverso le applicazioni, le piattaforme digitali e gli oggetti tecnologici utilizzati quotidianamente sfruttando i tempi ristretti imposti agli individui dalla società della prestazione, la propensione a ricorrere a comodi sistemi intuitivi e pronti all’uso, l’accesso selettivo alle informazioni utili a esigenze immediate di relazione, il desiderio di aderire a una visione certa di futuro pianificata a tavolino dagli elaboratori aziendali. Insomma ci si trovò di fronte al più sofisticato sistema di monitoraggio, predizione e incidenza comportamentale mai visto all’opera nella storia e tali pratiche di controllo e manipolazione sociale erano nelle mani di grandi corporation private che sembravano ormai divenute le nuove superpotenze.

Il confine tra fisico e non fisico, tra online e offline parve annullarsi: Internet divenne lo sfondo invisibile della vita quotidiana trasformando la connettività degli esseri umani da una modalità circoscritta all’uso degli schermi a una modalità diffusa nel quotidiano. Ci si ritrovò online anche senza volerlo o saperlo. Si diceva che tutto ciò serviva per migliorare la vita umana, ma molti di questi miglioramenti riguardavano i tempi e i fini imposti dalla società della prestazione, della mercificazione e del controllo.

La cultura della sorveglianza reciproca venne presto percepita come parte integrante di uno stile di vita, un modo naturale con cui rapportarsi al mondo e agli altri. A differenza delle ansiogene forme di sorveglianza tradizionali, deputate alla sicurezza nazionale e alle attività di polizia, le nuove seppero rendersi desiderabili e farsi percepire come poco invasive, inducendo così ad accettare con estrema disinvoltura di farsi contemporaneamente sorvegliati e sorveglianti. Si diffuse una vera e propria ossessione per la trasparenza e una propensione all’esibizionismo. In cambio di un rassicurante riconoscimento pubblico, sancito dal consenso digitale, si iniziò a mostrarsi e condividersi costruendosi identità adeguate agli standard graditi ai più.

In un tale panorama, invocare libertà impugnando un cellulare mossi dall’urgenza di postare al più presto sulle piattaforme social quel che restava del desiderio di libertà si scontrava con l’impossibilità di liberarsi da quei gratificanti intrattenimenti digitali di cui si continuava, nei fatti, a essere prigionieri nel timore di subire la morte sociale e perdere l’occasione di esprimere dissenso in un contesto che sembrava però ormai irrimediabilmente viziato.

Tutto ciò può sembrare la trama di una fiction distopica ma la realtà in cui viviamo non sembra essere molto diversa. Pratiche e immaginari di sorveglianza digitale intende dar conto di ciò tratteggiando le trasformazioni in atto senza alzare per forza bandiera bianca e lo fa riprendendo: l’idea di messa in finzione della realtà di Marc Augé; le riflessioni sul visuale contemporaneo di Horst Bredekamp, Nicholas Mirzoeff e Andrea Rabbito; il palesarsi di relazioni sempre più strette tra guerra, media e tecnologie del visibile messe in luce da Paul Virilio, Jean Baudrillard e Ruggero Eugeni; i rapporti tra l’universo videoludico e quello militare suggeriti da Matteo Bittanti; le annotazioni di André Gunthert sull’avvento dell’immagine fotografica digitale e sulla pratica della sua condivisione; il fenomeno della vetrinizzazione e del narcisismo digitale approfonditi rispettivamente da Vanni Codeluppi e Pablo Calzeroni; il capitalismo e le culture della sorveglianza ricostruiti da Shoshana Zuboff e David Lyon; l’affievolirsi della distinzione tra online e offline tratteggiata da Laura DeNardis e Stefano Za a partire dall’internet delle cose; la diffusione dell’intelligenza artificiale, della dittatura degli algoritmi e delle piattaforme digitali di cui si sono occupati Carlo Carboni, Massimo Chiariatti, Dunia Astrologo, Kate Crawford, Luca Balestrieri e il gruppo Ippolita; la privacy digitale e le pratiche di profilazione che coinvolgono gli individui sin da prima della nascita indagate da Veronica Barassi…

Questo volume è dedicato a Valerio Evangelisti

 

 

]]>
Culture e pratiche di sorveglianza. Convincere gli algoritmi di non essere troppo umani https://www.carmillaonline.com/2022/02/11/culture-e-pratiche-di-sorveglianza-convincere-gli-algoritmi-di-non-essere-troppo-umani/ Fri, 11 Feb 2022 21:00:03 +0000 https://www.carmillaonline.com/?p=70456 di Gioacchino Toni

La pretesa di rilevare le emozioni provate da un individuo in un determinato momento è ormai divenuta una vera e propria ossessione che si tenta di soddisfare attraverso la tecnologia. Di ciò si occupa l’articolo di John McQuaid, Your Boss Wants to Spy on Your Inner Feelings, “Scientific American” (01/12/21), ripreso con il titolo Spiare le emozioni da “le Scienze” (27/01/22). L’autore racconta di come l’intenzione, tramite telecamere ed elaborazioni affidate ad algoritmi, di carpire informazioni dalla mimica facciale circa le emozioni provate dagli individui trovi applicazione oltre che nell’ambito [...]]]> di Gioacchino Toni

La pretesa di rilevare le emozioni provate da un individuo in un determinato momento è ormai divenuta una vera e propria ossessione che si tenta di soddisfare attraverso la tecnologia. Di ciò si occupa l’articolo di John McQuaid, Your Boss Wants to Spy on Your Inner Feelings, “Scientific American” (01/12/21), ripreso con il titolo Spiare le emozioni da “le Scienze” (27/01/22). L’autore racconta di come l’intenzione, tramite telecamere ed elaborazioni affidate ad algoritmi, di carpire informazioni dalla mimica facciale circa le emozioni provate dagli individui trovi applicazione oltre che nell’ambito delle ricerche di mercato e della sicurezza, anche nelle valutazioni dei candidati in cerca di occupazione e nel rilevare la soglia di attenzione sui posti di lavoro e nelle scuole.

Non si tratta più di “limitarsi” al riconoscimento facciale – assegnare un’identità a un volto – ma di desumere dalla mimica facciale lo stato emotivo degli individui. Sono ormai numerose le applicazioni disponibili sul mercato che, avvalendosi di IA, offrono i propri servizi alle imprese in termini di analisi dell’emotività dei candidati o dei lavoratori già inseriti in azienda magari in attesa di riconferma.

Dell’interesse delle corporation e dei settori della sicurezza per il riconoscimento tramite tecnologie delle emozioni a partire dalla mica facciale si occupa anche Kate Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA (il Mulino, 2021) [su Carmilla]:

Per l’esercito, le imprese, i servizi segreti e le forze di polizia di tutto il mondo, l’idea del riconoscimento automatico delle emozioni è tanto avvincente quanto redditizia. Promette di distinguere in modo affidabile l’ amico del nemico, le bugie dalla verità e di utilizzare gli strumenti della scienza per scrutare nei mondi interiori (Crawford, p. 175).

I sistemi per il riconoscimento automatico delle emozioni, sostiene la studiosa, derivano dall’intrecciarsi di tecnologie IA, ambienti militari e scienze comportamentali.

Essi condividono idee e assunzioni: come per esempio che esista un piccolo numero di categorie emotive distinte e universali, che involontariamente facciano traspirare queste emozioni sui nostri volti e che esse possano essere rilevate dalle macchine. Questi atti di fede sono talmente accettati in determianti settori che può sembrare persino strano notarli, per non parlare di metterli in discussione. Sono idee talmente radicate da costituire il “punto di vista comune”. Ma se consideriamo come le emozioni sono state tassonimizzate – ben ordinate ed etichettate – ci accorgiamo che gli interrogativi sono in agguato ad ogni angolo (Crawford, p. 175).

Una figura di spicco in tale panorama è sicuramente quella dello psicologo statunitense Paul Ekman, elaboratore del celebre, quanto controverso, modello denominato “Facial Action Coding System” [su Carmilla].

Nel suo articolo McQuaid racconta di come in Corea del Sud sia ormai talmente diffuso il ricorso a tali strumenti che numerose agenzie di assistenza allo sviluppo carrieristico invitano i propri clienti ad esercitarsi a sostenere colloqui direttamente con sistemi IA anziché con altri esseri umani.

Se nel distopico Blade Runner (1982) di Ridley Scott, nei colloqui a cui venivano sottoposti, erano i replicanti a dover fingersi umani, ambendo comunque a divenirlo, ora sono gli umani stessi a dover convincere gli algoritmi circa la loro affidabilità comportamentale lavorativa, in sostanza a fingersi/farsi macchine produttive.

I sistemi di intelligenza artificiale usano vari tipi di dati per estrarre informazioni utili su emozioni e comportamenti. Oltre alle espressioni del volto, all’intonazione della voce, al linguaggio corporeo e all’andatura, possono analizzare contenuti scritti e orali alla ricerca di sentimenti e atteggiamenti mentali. Alcuni programmi usano i dati raccolti per sondare non le emozioni, bensì altre informazioni correlate, per esempio quale sia la personalità di un individuo, oppure se stia prestando attenzione o se rappresenti una potenziale minaccia (McQuaid, p. 44)

Non potendo intuire direttamente emozioni, personalità e intenzioni degli individui, gli algoritmi di intelligenza artificiale emotiva «sono addestrati, tramite una sorta di crowdsourcing computazionale, a imitare i giudizi espressi dagli esseri umani a proposito di altri esseri umani» (McQuaid, p. 45). Non è pertanto difficile immaginare come gli algoritmi possano finire per “apprendere” i pregiudizi più diffusi delle persone, dunque a rafforzarli.

Alcune ricerche condotte dal MIT Media Lab hanno dimostrato come i sistemi di riconoscimento facciale in uso siano più precisi se applicati a individui maschi bianchi (stanard a cui ci si deve adeguare),  altre analisi hanno mostrato come diversi di questi sistemi tendano ad attribuire maggiori espressioni negative agli individui di colore. Del resto l’idea che esista uno standard valido per tutti gli esseri umani si rivela fallace oltre che una condanna in partenza nei confronti di chiunque non si uniformi ai dati del campione raccolto.

La stessa idea che pretende di identificare un corrispettivo tra espressione esteriore ed emozione interiore risulta assai scivolosa, così come discutibile è la convinzione che le espressioni del volto siano davvero universali. Un’espressione magari sorridente può in realtà voler coprire il dolore o trasmettere empatia nei confronti di sentimenti altrui; le variabili sono tante ed i sistemi tendono di per sé a voler semplificare le cose per sentenziare risposte “certe”. «I sistemi di intelligenza artificiale cercano di estrarre le esperienze mutevoli, private e divergenti del nostro io corporeo, ma il risultato è uno schizzo fumettistico che non riesce a catturare le sfumature dell’esperienza emotiva del mondo» (Crawford, p. 199).

Per quanto riguarda il convincimento che gli stati interiori possono essere inferiti puntualmente da segni esterni, questo deriva, almeno in parte, dalla storia della fisiognomica che intendeva trarre indicazioni sul carattere di un individuo a partire dallo studio dei suoi tratti del viso. In Occidente la fisiognomica raggiunse il suo culmine tra il Settecento e l’Ottocento, quando venne collocata tra le cosiddette scienze anatomiche.

Tornando alla contemporaneità, l’ossessione di mappare e monetizzare le espressioni del volto, la personalità e i comportamenti degli individui contribuisce ad espandere gli ambiti della vita sottoposti alla sorveglianza. L’intelligenza artificiale emotiva conquista persino gli spazi domestici e gli abitacoli delle automobili, luoghi in cui si possono raccogliere numerosi dati emotivi e comportamentali.

Non è a questo punto sufficiente domandarsi a chi appartengano i dati del volto e del corpo degli individui; occorre chiedersi anche quanto, e in cambio di cosa, si sia disposti a cederli nella consapevolezza che non si è affatto in grado di delimitarne le finalità.

]]>