Algoritmi di classe

Dal bestseller di Shoshana Zuboff The age of surveillance capitalism, al caso Cambridge Analytica, la questione della relazione tra tecnologie, diritti individuali, e democrazie occupa uno spazio sempre più importante nel dibattito politico e culturale. E a ragione. La nostra vita quotidiana dipende sempre più indissolubilmente da tecnologie digitali; la nostra esistenza sociale si risolve sempre più chiaramente nell’insieme delle “tracce digitali” che lasciamo, volontariamente o meno. Se, fino a pochi decenni fa, la nostra individualità, la prova della nostra esistenza sociale e politica risedeva in un insieme di manifestazioni “fisiche” (l’esistenza in un registro, il possesso di un documento cartaceo, la capacità di recarsi fisicamente in un certo luogo), una lenta osmosi dal fisico al digitale sta trasferendo porzioni sempre più consistenti della nostra identità nel dominio del virtuale.

 

L’aspetto forse più interessante di questo fenomeno, però, è che, a ben vedere, la trasformazione in atto non si limita a un trasferimento “a somma zero” dal fisico al digitale: parti della nostra persona e della nostra storia finora non tracciabili, sono divenute perennemente disponibili. Per certi versi, questo potenziamento della nostra presenza digitale ha risvolti preoccupanti. Si pensi ai social media: il nostro “comportamento digitale” permette spesso, per esempio, di individuare le nostre preferenze politiche pur quando non espresse esplicitamente, informazioni che rimangono a disposizione di grandi corporazioni i cui vincoli etici sono ben poco definiti. 

In altri casi, però, la digitalizzazione della nostra identità sembra innegabilmente un bene. Un esempio è quello, spesso chiamato in causa di questi tempi, dell’informatizzazione della pubblica amministrazione. Stati altamente digitalizzati garantiscono accesso immediato alle informazioni necessarie per garantire a ciascun cittadino l’accesso ai propri servizi, si tratti di welfare, servizi fiscali, o altro. Per fare un esempio concreto, la possibilità di accedere a un record digitale della storia lavorativa e fiscale di un cittadino permette di valutare immediatamente se il cittadino in questione ha diritto ad accedere, per esempio, a un assegno di disoccupazione, al reddito di cittadinanza, o ad altre forme di supporto.

 

Questa dicotomia tra un’informatizzazione “buona” (quella del pubblico) e una “cattiva” (quella delle Big Tech) è pervasiva nella percezione comune della rivoluzione digitale. In questa visione in bianco e nero della realtà, però, si perdono spesso di vista una serie di interessanti ambivalenze. Nel caso della “cattiva digitalizzazione”, per esempio, un’adeguata regolamentazione dei criteri sul possesso e sulla condivisione dei dati personali può infatti trasformare i dati dei social media in una grande risorsa; dati estratti da Facebook sono stati utilizzati, per esempio, per individuare marcatori linguistici di disturbi psichici. 

Quanto alla “buona” digitalizzazione, se da un lato sembra innegabile che la capacità di accedere in modo trasparente alla storia di un individuo garantisce maggiore efficienza, il rapporto tra nuove tecnologie e bene pubblico è tutt’altro che scevro da lati oscuri e potenzialmente controversi.

 

Il libro di Virginia Eubanks Automating Inequality – How high-tech tools profile, police and punish the poor, edito da St. Martin’s Press in inglese e non (ancora) tradotto in italiano, propone un’inquietante disamina di questi lati oscuri, concentrandosi, in particolare, su una questione: il modo in cui l’uso di algoritmi nell’ambito del welfare può alimentare e rafforzare le diseguaglianze. Il tentativo di spiegare in che modo ciò avvenga è il filo conduttore di un testo la cui tesi, in ultima istanza, è l’idea che gli algoritmi attualmente in uso siano non uno strumento “neutro” e un puro ausilio all’efficienza delle procedure burocratiche, ma un dispositivo ideologico e di potere. O, usando una terminologia più politicamente carica, che siano veri e propri strumenti di dominio, che perpetuano e accentuano lo squilibrio tra le classi privilegiate e gli strati più deboli della società. 

 

Le argomentazioni a supporto di questa tesi partono da una ricostruzione storica della parabola del welfare negli Stati Uniti. Nei primi capitoli del libro, Eubanks esordisce descrivendo nel dettaglio il sistema dalle poorhouses, ospizi per poveri dell’era pre-welfare che funzionavano come veri e propri campi di lavori forzati, e permettevano di tenere sotto controllo e lontano dall’occhio pubblico i meno abbienti. Articola, poi, un resoconto dettagliato della fondazione del welfare americano, sancito dal Social Security Act del 1937, e sottolinea come, sebbene in apparenza universale e inclusivo, lo stato sociale che ne deriva è di fatto marcatamente elitario. I criteri per accedervi includono infatti la possibilità di aver fatto parte e di rientrare nel mercato del lavoro a tempo pieno e in modo continuo, escludendo de facto fette consistenti della società quali donne e afro-americani, e finendo per ripristinare e aggravare la diseguaglianza endemica tra la classe media, rigorosamente bianca, e strati marginalizzati senza possibilità di redenzione. 

 

 

Se queste argomentazioni sottolineano già il carattere ideologico e le dinamiche di classe implicite nella nascita del welfare americano, tali caratteristiche emergono ancor più efficacemente nell’analisi della transizione dallo stato sociale “analogico” a uno digitale. L’evento chiave, spiega Eubanks, è la recessione economica dell’inizio degli anni Settanta. E la grande svolta è l’ingresso in campo esplicito dell’elemento morale. È infatti allora che comincia a farsi strada l’idea, promossa a gran voce da Reagan sull’esempio delle welfare mothers e tutt’altro che aliena alla retorica europea dell’austerità post-2008, che sia necessario ottimizzare la spesa pubblica, essendo una delle cause fondamentali della crisi l’assistenzialismo dello stato nei confronti di individui che non meritano tale aiuto. Nel panico generato dalla recessione, la retorica del merito – altro tema tutt’altro che alieno al contesto nostrano – viene utilizzata da Reagan come sovrastruttura ideologica per giustificare la necessità di razionalizzare la distribuzione delle risorse pubbliche, a beneficio della ripresa della classe media e a discapito degli individui marginalizzati. Si badi bene, non si tratta di smantellare il welfare tout court. Un’apparenza, una speranza di sicurezza sociale, sottolinea Eubanks, è necessaria per preservare una delle funzioni fondamentali dello stato sociale inteso come strumento di dominio: la capacità di contenere il potenziale rivoluzionario degli esclusi. 

 

È in questo clima retorico che il tentativo di razionalizzare la spesa pubblica viene utilizzato come giustificazione per i primi esperimenti di digitalizzazione del welfare. Sistemi informatici per l’acquisizione di dati individuali e algoritmi che calcolino automaticamente l’ammissibilità di un individuo a un certo programma di assistenza vengono e introdotti nella pubblica amministrazione americana. E proprio la relazione tra la retorica reaganiana e l’informatizzazione è uno dei punti cruciali dell’argomentazione di Eubanks. Se pur gli algoritmi fossero, almeno in linea di principio, neutri, il contesto politico che ne determina gli scopi è carico d’interessi e d’ideologia. L’informatizzazione del welfare viene introdotta non per garantire l’accesso ai sussidi e la trasparenza dei processi decisionali, ma per limitare l’accesso a una torta descritta – a beneficio delle classi dominanti – come troppo piccola.

 

Il modo in cui tale scopo diviene esplicito nell’esperienza quotidiana di chi ha a che fare con lo stato sociale è descritto efficacemente dai vari esempi proposti da Eubanks. Storie individuali che raccontano del modo in cui una crisi passeggera nella vita lavorativa di un impiegato degenera in uno stato di marginalizzazione permanente per via di una richiesta di alloggio negato dal sistema automatico di classificazione dei senzatetto a Los Angeles. O storie che raccontano le vicende di un bambino di Pittsburgh in condizioni di grave disagio familiare, e del modo in cui la sua possibilità di accedere all’alfabetizzazione di base e a un alloggio riscaldato dipendano da un risk score calcolato automaticamente e secondo criteri tutt’altro che trasparenti. Ad aggravare la situazione, spiega Eubanks, è il fatto che in molti di questi sistemi, il principio morale, l’idea che il sussidio vada meritato, è direttamente implementato nel sistema: un cittadino che possiede già un record criminale, o che ha già avuto accesso a sussidi di un certo tipo, viene reputato automaticamente meno “affidabile” e meritevole di supporto, generando un circolo vizioso che ne alimenta la marginalizzazione.  “La povertà non è un’isola; è una terra di confine”, scrive Eubanks. Tale confine è spesso etereo e interno alla classe media. Ma una volta varcato, può divenire invalicabile, e rendere progressivamente insanabili le diseguaglianze che disintegrano il tessuto sociale e i principi fondanti delle democrazie dell’occidente. 

 

La diagnosi proposta da Virginia Eubanks solleva molti interrogativi fondamentali sulle conseguenze etiche dell’informatizzazione della vita pubblica. Chi è responsabile degli errori di un algoritmo? E come si definisce, in questo contesto, un errore? È facile definire la percentuale di successo di un algoritmo che predice, per esempio, la probabilità che domani piova. Ma come si misura se un algoritmo ha correttamente predetto se un individuo “merita” l’accesso a benefit sociali? E ancora, chi gestisce il costo umano delle decisioni di un algoritmo? Se un algoritmo addestrato a predire la probabilità che domani piova genera una predizione sbagliata, le conseguenze sono spesso noiose, talvolta gravi, ma raramente catastrofiche. Se un algoritmo decide (erroneamente?) che un senzatetto non soddisfa i criteri per l’assegnazione di un alloggio, il costo è l’esistenza intera dell’individuo, la sua permanenza in povertà cronica invece che una potenziale opportunità di riscatto.

 

Se la diagnosi è lucidissima, la prognosi appare però meno chiara. Eubanks sembra suggerire, a più riprese, soluzioni radicali: forse disfarsi del tutto di un sistema di screening nell’accesso ai servizi sociali, garantendo assistenza universale; forse “gettare via il bambino con l’acqua sporca”, e rinunciare all’automatizzazione rimettendo procedure e decisioni a esseri umani in carne ed ossa. C’è, però, uno spazio di possibilità da esplorare e su cui riflettere, in cui un’integrazione virtuosa tra automatizzazione e decisione umana è possibile e, in una certa misura, necessario per superare le idiosincrasie, i pregiudizi, e l’arbitrarietà che caratterizzano spesso il giudizio umano. L’automatizzazione, con una dovuta riflessione su risvolti etici e gestione dei rischi noti, può potenziare la nostra società e renderla più giusta. Può portare alla luce i bias impliciti nelle decisioni umane, e, rivelandoli, permettere di contrastarli. Può garantire maggiore trasparenza: la decisione di un algoritmo può sempre essere spiegata e discussa. Come spesso accade quando si parla di intelligenza artificiale, più che liquidare i mezzi, occorre ripensarli in relazione allo scopo; in questo, come in molti altri contesti, strumenti e scopi sono un tutt’uno.

 

Se continuiamo a tenere vivo questo spazio è grazie a te. Anche un solo euro per noi significa molto. Torna presto a leggerci e SOSTIENI DOPPIOZERO