raccontarci le parole più espressive dei nostri dialetti

 

Per un nuovo ‘illuminismo digitale’: pensare i media oggi

Sybille Krämer è tra i più noti filosofi dei media e della conoscenza tedeschi. Dal 1989 al 2018 ha occupato la cattedra di Filosofia teoretica presso la Freie Universität di Berlino. Un elenco completo delle sue pubblicazioni e ulteriori informazioni sulla sua ricerca sono disponibili sul suo sito personale.

 

In occasione della pubblicazione in traduzione italiana (2020) del suo libro del 2008, Piccola metafisica della medialità. Medium, messaggero, trasmissione già tradotto in giapponese e in inglese (tr. a cura di F. Buongiorno, Edizioni di Storia e Letteratura, Roma 2020) , Sybille Krämer ripercorre in questa intervista alcuni temi fondamentali della sua proposta filosofica. Il percorso delineato culmina nella proposta di un lavoro filosofico comune per un nuovo ‘illuminismo digitale’ che, senza dimenticare la natura ambivalente dei media, permetta la maturazione di una coscienza critica diffusa che sappia riconoscere e assumere tale ambivalenza e sfruttarla nella costruzione di buone pratiche sociali, culturali e politiche.

 

Partiamo da una domanda di contesto. Alcune delle tesi centrali del tuo libro, Piccola metafisica della medialità, appena uscito in italiano per le Edizioni di Storia e Letteratura, sono particolarmente forti, soprattutto in un contesto filosofico-culturale come quello italiano, che non gode di una tradizione altrettanto solida quanto quella tedesca nell’ambito degli studi culturali e il cui dibattito filosofico-accademico ha a lungo ignorato o sottovalutato – per lo più – le questioni legate alla cultura materiale e mediale. Negli ultimi anni questa impostazione ha iniziato a modificarsi, eppure Friedrich Kittler resta ancora un autore sconosciuto ai più e la proposta di costruire una via d’accesso “metafisica” alla filosofia dei media può suonare allarmante in un contesto che ha recepito fortemente la decostruzione e la critica alla metafisica heideggeriana. Puoi specificare ulteriormente il senso in cui impieghi il concetto e il paradigma di “metafisica” nel contesto mediale?

Quello che propongo nel libro è un capovolgimento filosofico-mediale della figura della metafisica tradizionale. Da Platone in poi si è tramandata una figura fondamentale della metafisica: ciò che esiste realmente ed essenzialmente si trova dietro ciò che appare, sottratto al mondo del percepibile. Questa posizione si è unita, per lo più, a un gesto ermeneutico: la sensibilità, anche la materialità di ciò che si mostra come fenomeno deve essere superata in funzione di un senso nascosto alle sue spalle e spesso inteso come immateriale. Secondo questo principio teorico, il senso deve essere depurato dalle scorie della sensibilità. Se però applichiamo, a titolo di prova, questa figura ai media, si produce un capovolgimento per me radicale e interessante. Nell’uso privo di interferenze, i media tendono a dissolvere e a rendere invisibile la loro propria materialità e corporeità in funzione del senso e dei contenuti comunicati attraverso di essi. Se, quindi, riflettendo sui media pratichiamo un gesto metafisico, si viene a produrre un rovesciamento ironico del principio metafisico: dietro al contenuto mediale palese, infatti, possono essere portate alla luce la materialità e tecnicità nascoste dei media! Comprendere il gesto metafisico della mia filosofia dei media, dunque, significa riconoscere l’ironia consistente nel fatto che l’elemento nascosto nell’avvenimento mediale è quella materialità, quella tecnicità che nella metafisica tradizionale è stata dissolta ontologicamente e che viene riscoperta, appunto, proprio mediante una riflessione filosofico-mediale di stampo metafisico! 

 

Sono passati più di dieci anni dalla prima pubblicazione in tedesco (2008): nell’ultimo decennio i temi al centro del libro sono letteralmente esplosi, basti pensare all’enorme espansione delle forme di comunicazione digitale e online. Mi ha colpito osservare come i “contesti di trasmissione” (Übertragunsverhältnisse) che analizzi nel testo (traduttore, virus, denaro, psicoanalista, testimone) abbiano trovato una loro corrispondenza nel contesto informatico. Esistono ormai strumenti di traduzione online, virus informatici, monete ‘digitali’ (pensiamo al fenomeno bitcoin), corsi motivazionali e para-terapeutici online, nonché una forma più o meno manifesta e ubiqua di ‘testimonianza generalizzata’ tramite le diffusissime forme di video-sorveglianza e visual capture. Come interpreti queste acquisizioni attuali alla luce delle tesi sostenute nel 2008 e quali aspetti del testo ritieni più utili (o più datati) per l’interpretazione odierna?

Dapprima, un’osservazione: attualmente stiamo vivendo la pandemia del Coronavirus, causata da una trasmissione mediante virus, che – in un apposito capitolo del libro – ho discusso come esempio della figura trasmittente del contagio. In questo caso non si tratta di fenomeni digitali, sebbene il virus informatico e il virus biologico presentino dei tratti in comune quanto alla loro forza distruttiva. Tuttavia, la crisi del Coronavirus ci insegna che l’ipostatizzazione del digitale si frantuma nella materialità della catena creaturale del vivente e, pertanto, non dovremmo dimenticare che la nostra vita si svolge analogamente secondo nascita, malattia e morte. 

Nondimeno, la trasmissione infettiva mediante virus ha dei punti di contatto con la sfera informatica e digitale: i virus si trasmette mediante un processo che ho definito di “riscrittura”. I virus, però, non vivono e non crescono: si servono del meccanismo riproduttivo della cellula ospite ai fini della propria riproduzione. Il materiale genetico della cellula ospite viene ri-codificato nel DNA/RNA del virus e, a quel punto, cominciano i processi di replicazione, trascrizione e traslazione ai fini dell’auto-accrescimento. 

Ci si mostra così, nelle circostanze tragiche e distruttive di una pandemia letale, la forza che può in generale animare i processi di trasmissione. Una forza che in molte teorie dei media moderne viene sottovalutata, nella misura in cui in tali teorie – per esempio in Friedrich Kittler e in Marshall McLuhan – contano come genuine soprattutto istanze creatrici e produttive, mentre processi come la trasmissione, la connessione, la mediazione, la traduzione – che pure costituiscono il terreno fertile della cultura – trovano poco spazio.

Ma torniamo alla domanda fondamentale circa il rapporto tra gli sviluppi tecnologici presenti e il mio libro. Non avrebbe dovuto sorprendermi, eppure mi ha colto di sorpresa: quasi tutte le forme di trasmissione che ho analizzato nel libro hanno, oggi, una corrispondenza in fenomeni digitali che si diffondono esponenzialmente. E questo vale anche per il principio secondo cui i media, in assenza di disturbi, rendono invisibile la loro materialità, nascondendosi dietro al contenuto che presentano. Pensiamo, ad esempio, all’Intelligenza Artificiale, che al momento fa parlare di sé per lo sviluppo di algoritmi di apprendimento: non si tratta tanto degli evidenti, spettacolari successi nella vittoria a scacchi, a Go e a poker, bensì del fatto che, di passata, l’Intelligenza Artificiale è entrata nella quotidianità – negli strumenti di assistenza alla traduzione, nelle prenotazioni di voli, nei filtri spam, nel riconoscimento facciale per lo sblocco degli smartphone, ma anche nella produzione industriale 4.0, nella gestione delle finanze, dell’amministrazione, del turismo etc. L’intelligenza artificiale, in unione con i procedimenti dei Big Data, è una tecnologia integrata ed estremamente efficace – ma per nulla visibile e attiva ‘sullo sfondo’.

Questo mimetizzarsi della tecnologia produce un problema: dietro lo schermo che usiamo ogni giorno si dispiega rizomaticamente una rete di azione, di forza e di potere costituita da protocolli, software e macchine interagenti, che gli utilizzatori degli schermi non vedono e non controllano più.  

 

Nel libro ricorri all’esempio della cartografia come banco di prova della tua proposta teorica. Mi sembra che un aspetto in particolare sia, qui, estremamente interessante (tu stessa lo enfatizzi nel libro): quello dell’indessicalità della mappe/carte. Può usare una mappa soltanto colui che sappia localizzarsi al suo interno, in un peculiare movimento di disembodiment e ri-embodiment che è, in particolare, tipico dei fenomeni digitali. Anche tu accenni a queste implicazioni ‘ipermoderne’, sulle quali vorrei ulteriormente sollecitarti: nell’uso, ad esempio, di Google Maps (come di tutti i fenomeni di realtà aumentata) il tratto dell’indessicalità assume proporzioni inaudite. Siamo non solo contemporaneamente ma anche interattivamente all’interno della mappa virtuale e dello spazio fisico percorso: i due livelli si integrano costantemente sullo schermo dello smartphone. Sotto questo punto di vista, l’idea (lungamente sostenuta) che la medialità digitale costituisca per lo più un fenomeno della smaterializzazione e della disincarnazione sta conoscendo una decisa revisione in favore di approcci più integrati e complessi: non ti sembra, anzi, che si proceda verso una ri-centralizzazione del “corpo” e delle sue funzioni, sebbene “aumentate” digitalmente? 

Nell’evento mediale il rapporto tra materialità e de-materializzazione, tra sensibilità e de-sensibilizzazione è dato in una reciprocità ambigua. La poesia letta come testo va distinta dal singolo esemplare stampato, perché i testi sono implementabili infinite volte: possono essere detti, scritti, letti, ascoltati o percepiti nella scrittura Braille. In questa indifferenza mediale risiede una forma di dematerializzazione e disincarnazione. Al tempo stesso è però chiaro: ciò che una poesia è come genere testuale si mostra nella sua immagine scritta, che va subito distinta, ad esempio, dalla prosa mediante il ritorno a capo. Ma questo carattere d’immagine scritturale non è semplicemente il testo, quanto la sua trama, il suo ‘modello di tessitura’, la corporeità del testo, che è un attributo percepibile e costituisce la specificità di un testo. Un testo che non fosse incarnato materialmente in una traccia percepibile non sarebbe un testo. La questione di come la materialità, la corporeità e la sensibilità si connettono nella sfera digitale, perciò, è senz’altro più complessa che nell’esempio del testo, ma si dà sempre come rapporto di tensione. 

Comincia con la dipendenza dalla fisica del flusso di corrente, prosegue con i programmi e gli algoritmi, che sono scritti, quindi costruiti, implica i milioni di trainingdata annotati, che vanno forniti ai sistemi di Intelligenza Artificiale auto-apprendenti, comprende l’indessicalità della realtà aumentata e di tutti i sistemi di navigazione e prosegue nelle interfacce che – come lo smartphone nella mano, come un portabile indossato o un chip impiantato – conducono letteralmente dal nostro corpo fisico al corpo vivente. Tutti i media presentificano ciò che è distante e anche il medium del digitale è una strategia del rendere percepibile ciò che è sottratto, lontano, invisibile. Che i dati condensino qualcosa che gli uomini possono percepire come una cosa o un evento è illustrato già dalla carta nel senso tradizionale: come cosa o oggetto, la carta non è semplicemente la raffigurazione rimpicciolita di una regione, ma è la visualizzazione del sapere intorno a una regione. Le carte moderne non incarnano semplicemente dei paesaggi, bensì strutture del sapere intorno a regioni geografiche. Se il progresso della civilizzazione consiste sempre anche nell’incorporare ciò che è assente e invisibile nella prossimità di azioni corporee, nel farne un elemento costitutivo di pratiche culturali, allora la digitalizzazione contribuisce a ciò in misura eccezionale: tutto ciò che può essere trasformato in una struttura di dati, può essere incarnato e visualizzato – con l’aiuto di interfacce – nella prossimità (anche corporea) dei riceventi. Tuttavia, va osservato che la digitalizzazione non è vincolata al computer, anche se la sua impressionante ascesa nel mondo della vita è avvenuta in connessione con esso. Già l’alfabeto, come pure il nostro linguaggio numerico decimale, incarna sistemi digitali: digitalizzare significa scomporre un continuo in elementi singoli, che possono poi essere ricomposti in maniera cifrata e arbitraria, dunque relativamente volontaria. Le forme germinali del digitale si trovano già nello spazio testuale alfanumerico. Perciò non stupisce che molti principi del lavoro testuale erudito – pensiamo alle enciclopedie, ai vocabolari, ai lessici o alle catalogazioni bibliotecarie, ai cataloghi di opere e ai manuali – anticipino e già incarnino, come forma simbolica, il ‘principio del database’. L’alfabeto serve, così, come un registro d’ordine che permette l’ordinamento perspicuo di grandi volumi testuali, rendendoli accostabili e accessibili. 

 

In anni passati hai ampiamente studiato il fenomeno del formalismo e del simbolismo non solo nel linguaggio matematico ma, più in generale, come schema di approccio alla medialità. Che analogie e sviluppi possibili intravedi in rapporto al linguaggio algoritmico, decisivo per il funzionamento dei media informatici, che hanno ormai colonizzato la vita quotidiana di gran parte della popolazione mondiale? Siamo di fronte a una seconda svolta, dopo quella della traduzione e reversibilità tra linguaggio geometrico e linguaggio algebrico?

Proprio tra gli scienziati umanisti vi è un pregiudizio quasi inestirpabile nei confronti della formalizzazione: quello secondo cui si tratterebbe di un processo di totale de-sensibilizzazione. Eppure, in nessun altro contesto si deve considerare in maniera altrettanto precisa e dettagliata l’aspetto dei segni, nessun’altra attività si muove così tanto nella regione dell’intuibile, quanto l’operare formale. La trattazione formale mediante segni implica che ciò che – in maniera informale – risulta incomprensibile, complesso e sottratto, venga reso accessibile, dominabile, controllabile, operabile mediante la formalizzazione. L’introduzione del calcolo scritto con i numeri decimali a opera dell’erudito islamico Al Chwarizmi (attorno all’800), al cui nome proprio risale il concetto di ‘algoritmo’, ne è un esempio. L’aritmetica dei calcoli complessi – dapprima accessibile solo ai matematici di talento – diventa un sapere scolastico passibile di insegnamento e di apprendimento. L’algoritmo, compreso come una regola della manipolazione segnica nella quale prescindiamo dal significato dei segni, produce una popolarizzazione – se non una democratizzazione – del sapere. Oppure, pensiamo all’introduzione dell’algebra simbolica (a+b = b+a), con la quale le regole di soluzione delle equazioni si sono potute annotare in modo universalmente valido e appropriato, in modo tale che l’algebra non è rimasta il sapere occulto e privilegiato di una ‘ars magna et occulta’. Nel calcolo scritto, come anche nell’algebra sillabale, si tratta di collettivizzare delle componenti di sapere e renderle indipendenti dall’interpretazione. Non dobbiamo sapere cosa significa lo zero (‘0’), per poter contare con esso. Il nostro ‘spirito’, la nostra civilizzazione procede in quanto estendiamo i domini nei quali possiamo svolgere compiti complessi in modo quasi in-sensibile, privo di spirito. Abbiamo sviluppato il ‘computer in noi’ molto tempo prima del computer come macchina fisica. In origine, gli algoritmi erano regole applicate dagli uomini, che collettivizzano un knowing-how cognitivo e rendono dei procedimenti di pensiero trasparenti e dominabili.

 

 

Tuttavia, nel corso della digitalizzazione e quindi di quegli algoritmi che vengono implementati nella cornice dell’Intelligenza Artificiale e dei metodi del deep learning, qualcosa di fondamentale cambia. Questi algoritmi imparano e ottimizzano il loro funzionamento in quanto vengono loro presentati enormi quantità di dati come materiale d’apprendimento. Così, ciò che l’algoritmo addestrato effettivamente adatta ed esegue è qualcosa che per il suo sviluppatore non è più trasparente, ma resta piuttosto una scatola nera (black box). Se, quindi, i dati d’apprendimento offerti contengono discriminazioni implicite, queste verranno sicuramente alla luce nelle operazioni e nelle decisioni dell’algoritmo. Ma supponiamo che qualche elemento di questo algoritmo venga riscritto o cancellato: in questo caso, agli stessi costruttori e programmatori manca la trasparenza su come sia costituito, nei suoi singoli elementi, il circuito di funzionamento dell’algoritmo addestrato. 

Vediamo così che la promessa di trasparenza e di controllo, originariamente connessa all’algoritmizzazione, si rovescia nel suo opposto, nell’opacità dell’elemento algoritmico e nella perdita di controllo.

 

La domanda precedente mi induce a una riflessione ulteriore: nello stesso anno in cui usciva in tedesco il tuo libro (2008), Chris Anderson pubblicava su “Wired” il suo famoso articolo The End of Theory, in cui sosteneva che il metodo di elaborazione dei dati avrebbe reso la “teoria” superflua, ossia avrebbe permesso di descrivere in modo completo pressoché ogni fenomeno, rendendo superflua l’interpretazione. Secondo te è possibile (e sensato) distinguere, oggi, tra codice e linguaggio? Penso ancora, naturalmente, all’esplosione dell’informatica e alla sua ubiquità, dunque ancora al problema degli algoritmi. Una certa tendenza nella scienza cognitiva ha, com’è noto, posto una sostanziale analogia tra uomo, o meglio cervello, e macchina, o meglio computer: è ancora sensato e possibile distinguere – direi fenomenologicamente – tra elaborazione dati e interpretazione dei dati? 

Che cos’è un dato? L’uso quotidiano della parola, etimologicamente ancorato alla cultura epistolare, indica un percorso: 03.01.2020 è una catena di segni, che possiamo decifrare come una data e comprendere come un’informazione perché abbiamo imparato il contesto calendaristico e le sue convenzioni di codificazione come una prassi dello scrivere e dell’apprendere. Non ci sono, quindi, ‘dati grezzi’ (come spesso si dice), bensì i dati sono stabiliti convenzionalmente, sono segni-in-contesto formali, codificati in modo tale che anche una macchina – in principio – sia in grado di leggerli. Il fatto che oggi, com’è ovvio, quando vogliamo annotare il mese di ‘Gennaio’ non scriviamo semplicemente ‘1.’ ma ’01.’, mostra quanto seriamente il formato leggibile anche alle macchine determini le nostre tecniche culturali anche là dove sono interessati gli uomini, e non le macchine. Da questo orizzonte diventa chiaro che il linguaggio non è semplicemente un sistema di segni, né un codice. Non v’è dubbio che i linguaggi possano essere concepiti e indagati come sistemi semiotici. Questa è una possibile prospettiva su una dimensione dell’indagine linguistica. Ma questo sguardo sul linguaggio-come-sistema-di-segni è uno sguardo sempre già preformato dalla natura scritta. La comunicazione umana nelle condizioni dell’oralità è un processo olistico che comprende la mimica, la prosodia, la gestualità e la verbalizzazione. Soltanto quando nell’antica Grecia l’alfabeto semitico venne integrato dalle vocali e, così, il linguaggio divenne trascrivibile come una disposizione di sillabe (‘gramma’), il tratto verbale fu isolato dall’evento complessivo della comunicazione: solo a quel punto emerse una entità puramente verbale come ‘la lingua’, in quanto per la prima volta questa era fissata, osservabile, analizzabile. La scrittura fonetica, però, non è una raffigurazione della lingua, quanto la sua cartografia. Infatti, il linguaggio non si svolge in unità discrete (anche se di tanto in tanto dobbiamo prendere fiato): è soltanto la struttura discreta della scrittura a produrre come elementi ‘fonemi’, parole, unità proposizionali etc. La trascrizione alfabetica del linguaggio è una scena originaria gravida di conseguenze, nella quale qualcosa di continuamente analogo si trasmette nella digitalità discreta. L’alfabeto costituisce il prototipo di un sistema digitale, molto prima dell’invenzione del computer. ‘Digitalizzazione’ significa scomporre un continuum in unità che, così, sono arbitrariamente ricombinabili.

 

Vorrei proporti una domanda forse provocatoria rispetto al contesto filosofico e culturale tedesco, dal quale il tuo testo proviene. Se, come detto, in Italia si registra un certo ritardo sui problemi dei cosiddetti cultural studies, in Germania vi è – mi pare – la tendenza opposta: la filosofia, in altri termini, sta raggiungendo un livello di ibridazione molto elevato e sempre più iper-applicativo e attualizzante. Credo che questo aspetto vada di pari passo, almeno negli ultimi decenni, con l’imporsi – molto più forte in Germania che in Italia – del programma filosofico “analitico” (cfr, l’illuminante articolo di A. Lucci su “doppiozero”): senza ricadere nella ormai stucchevole contrapposizione analitici/continentali, ti domando che ruolo ritieni che svolga (che possa o debba svolgere) la filosofia nel contesto accademico-culturale tedesco, oggi.

A questa domanda, che non è provocatoria, posso dare – dalla mia prospettiva – una risposta limpida e chiara: sì, c’è un’evidente tendenza filosofica in Germania, che sfocia nell’adattamento, sotto molti aspetti, alla filosofia analitica, e che implica di seguire una sorta di ‘modello scientista’. Si trattano microproblemi in modo massimamente sottile e per di più in una terminologia specialistica comprensibile soltanto a una comunità ristretta; si declinano poi posizioni e si presentano ‘proprie’ soluzione che, spesso, ‘girano un po’ attorno’ alle argomentazioni – e tutto ciò senza sfiorare le grandi questioni filosofiche, o anche solo quelle rilevanti per la contemporaneità. È stupefacente che questa presunta scientifizzazione della filosofia, che vede l’argomentare logico inequivocabile (e solo questo) come via maestra del filosofare e come unico metro di misura della buona filosofia, attragga proprio i più giovani, i dottorandi, i giovani filosofi e guadagni oggi sempre più terreno. Ma quello che viene praticato e apprezzato è un sapere ritratto nella torre d’avorio. Tuttavia, questa non è l’intera storia: come ‘altro’ dalla filosofia analitica, come i suoi, per così dire, antagonisti e nemici si interpretano in Germania filosofi come Richard David Brecht, Peter Sloterdijk, Byung-Chul Han, Slavoy Žižek – i quali, nella prospettiva della filosofia main stream orientata analiticamente, vengono stilizzati come filosofi popolari, se non più radicalmente come dei non-filosofi che, sostenuti anche dalla loro presenza mediatica, si infiltrerebbero nei metodi del buon filosofare o addirittura li distruggerebbero. La costellazione della differenza non corre tanto, quindi, lungo la contrapposizione tra filosofia analitica e filosofia continentale, quanto lungo la linea di demarcazione qui tracciata: la filosofia (analitica) contro la non-filosofia popolare. In ciò rientra che la tradizione fenomenologica, in maniera quasi concomitante all’ascesa del filosofare analitico, ‘perde terreno’ e anche che, ad esempio, la filosofia dei media in generale così come il mio stesso approccio filosofico-mediale vengano recepiti poco in Germania – mentre tutt’altro accade nei paesi di lingua non tedesca. 

 

Un’ultima domanda: siamo ormai abituati, per lo meno nelle società ad alto sviluppo tecnologico, a riferirci sempre più ai media come mass-media e a muoverci in un contesto informativo globale. Senza tali media, movimenti come quello ambientalista inaugurato da Greta Thunberg o come il #metoo (per fare soltanto due esempi macroscopici recenti) non avrebbero potuto affermarsi nelle loro dimensioni planetarie. Ovviamente, più grande è la potenza dei media, maggiore è il loro potenziale “diabolico”, che – come evidenzi nel libro – è inerente a ogni media: maggiore, cioè, è il rischio di un pervertimento della funzione stessa del medium. Shitstorms, fake news, controllo occulto, o anche semplicemente la banalizzazione dell’informazione sono all’ordine del giorno: pensi che la struttura mediale abbia gli anticorpi per reagire su larga scala a questi rischi? E in che modo la politica può intervenire su questo piano?

Le utopie del digitale nell’ultimo terzo del secolo scorso, fondate sull’aspettativa che la digitalità e la connessione globale porterebbero quasi automaticamente alla partecipazione, alla democratizzazione, all’accesso universale al sapere e a un livellamento delle differenze di genere, provenienza etc., suscitano ora aspettative sempre più apocalittiche. Al cuore di questo rovesciamento delle utopie digitali in distopie vi è l’esperienza delle fake news, delle occupazioni digitali da parte di raggruppamenti di destra, i discorsi d’odio e la perdita di controllo in rapporto all’utilizzo dei dati personali. Per quanto reali e minacciosi siano questi fenomeni, essi confermano al tempo stesso ciò che vale – di base – per tutti i media: che questi, nel loro utilizzo, sono sempre ambivalenti e possono contribuire alla promozione di cultura e comunità esattamente come alla loro offesa e distruzione. Tuttavia, non siamo condannati agli abusi del digitale. La sovranità sui dati e la maturità informatica non sono lontani auspici, ma – in principio – qualcosa che può essere delineato e anche rivendicato politicamente, socialmente, individualmente. Questo, però, presuppone da parte degli utenti lo sviluppo di una consapevolezza circa il fatto che non siamo soltanto vittime, per esempio, di sfruttamento commerciale del nostro ‘capitale di dati’, ma che contribuiamo – con ogni uso della rete – al suo accrescimento e che dobbiamo anche lottare per la disponibilità e il controllo dei nostri dati individuali, il che costituisce uno dei compiti essenziali nel futuro. La necessità di una coscienza dell’ambivalenza vale anche per lo stesso uso linguistico: proprio i discorsi d’odio in rete ci ricordano e chiariscono che la lingua è sempre stata, evidentemente, sia costruttrice di comunità quanto disgregante. La violenza linguistica, il ferimento mediante parole è stato ed è praticato quotidianamente come scontro armato – sebbene con Internet questa possibilità si sia accresciuta in modo esorbitante. Il dibattito sulle fake news, da ultimo, ha contribuito a una significativa e importante riabilitazione della categoria di ‘verità’: la relativizzazione decostruttiva del concetto di verità non può e non deve avere l’ultima parola. Perciò, vedo la necessità di delineare una nuova forma di ‘illuminismo digitale’, che da un lato accolga i postulati dell’illuminismo europeo, proprio perché questi non sono stati soddisfatti, e nel contempo assuma nuovi postulati, che vadano nella direzione della sovranità sui dati. Lavorare a questo ‘illuminismo digitale’, il cui cuore dev’essere una consapevolezza ambivalente rispetto ai media, rappresenta anche per me personalmente un compito filosofico prioritario. 

Se continuiamo a tenere vivo questo spazio è grazie a te. Anche un solo euro per noi significa molto. Torna presto a leggerci e SOSTIENI DOPPIOZERO