Speciale

Il dispositivo cellulare

29 Settembre 2015

In principio era la Legge di Moore.

 

In realtà non si tratta di una legge della fisica, quanto di una fortunata congettura che vale ancora oggi, 50 anni dopo. Gordon Moore la enunciò in un articolo molto tecnico[1] dove ipotizzava un raddoppio del numero di componenti fabbricati su un singolo chip ogni 18-24 mesi. Nella sua formulazione più generica e vaga attualmente in voga, assume che una qualche grandezza tecnica misurabile: la potenza di calcolo, la complessità del processore, la quantità di memoria che si può immagazzinare in un chip, raddoppi ogni due anni.

 

Per alcuni si tratta di una profezia che si auto-adempie: una volta definita come obiettivo tecnologico, sono stati messi in campo tutti quei parafernalia tecnologici che hanno reso possibile la sua continua riconferma. Altri, quelli che ritengono che la mancanza di un contrappeso di costi crescenti sia quasi una faccenda contro natura, continuano ad aspettare il giorno in cui questa crescita esponenziale dovrà, inevitabilmente, fermarsi. In effetti il nostro cervello primordiale fa fatica a comprendere concetti come “crescita esponenziale”. Ad esempio, è il concetto adombrato nella leggenda del premio chiesto dall’inventore degli scacchi[2]: un chicco di riso nella 1a casella, 2 nella 2a, poi 4, 8, 16 e così via fino alla casella 64 (tutto il riso prodotto nel mondo in un secolo!).

 

In 50 anni siamo giunti solo alla 25a casella della scacchiera magica, e gli indicatori tecnologici di cui sopra sono stati moltiplicati per 30 milioni. Il futurologo Ray Kurzweil[3] sostiene che stiamo solo adesso per entrare “nella seconda metà della scacchiera”, quando l’esplosione esponenziale toccherà ogni aspetto della vita umana (a cominciare dalle funzioni cognitive: per il 2030 prevede che la potenza di elaborazione sarà pari al cervello umano).

 

Nella Silicon Valley la legge di Moore è da tempo il mantra su cui si costruiscono tutti i possibili futuri, i quali, a loro volta, finiscono per assomigliare a profezie auto-avveranti. Non esiste limite alle idee di possibili applicazioni tecnologiche, per quanto inverosimili o strampalate, che possano dare vita a nuove iniziative basate sull’assunzione che quello che sembra irrealistico, o difficile, o troppo costoso, oggi, sarà inevitabilmente realizzabile in un futuro molto prossimo. Così è stato possibile immaginare di costruire una mappa ad alta risoluzione dell’intera superficie della Terra e renderla disponibile – gratuitamente – a tutti gli Internauti, oppure immaginare di indicizzare in tempo reale qualsiasi contenuto che venga reso disponibile in Rete, oppure immaginare di creare un dispositivo personale che stia sul palmo della mano e sia più potente dei più grandi calcolatori della fine del 20o secolo.

 

Tutto diventa realizzabile, basta attendere la prossima generazione di microprocessori: dalle automobili senza guidatore, all’intermediario commerciale universale che vende ogni possibile bene di consumo via Rete (con efficienza economica tale da distruggere ogni possibile altro intermediario, creando nuovi monopoli globali, per inciso). In un delirio di onnipotenza crescente, ci sono molti che prendono sul serio la possibilità di raggiungere l’immortalità personale, giungendo, in un futuro preconizzato come ormai prossimo, a dematerializzare la propria memoria ed esperienza individuale dentro sistemi di calcolatori solo un poco più complessi di quelli attuali.

 

Se questo è lo scenario, come possiamo stupirci che per miliardi di persone nel mondo l’oggetto del desiderio è lo smartphone? E che molti di questi siano affetti a loro volta da delirio di onnipotenza tenendo in mano un oggetto che supera anche le fantasie fantascientifiche di Star Trek? Un oggetto che diventa via via, nuovo paradigma tecnologico del “coltellino svizzero”, un telefono, una bussola, una macchina fotografica, un gioco elettronico, un libro, un assistente personale, etc etc. E in ogni caso, per ogni necessità, utile e seria o futile e banale, “there’s an App for that”, c’è una apposita applicazione, come recita uno slogan pubblicitario.

 

Ma come è stato possibile arrivare a questo? Bisogna ritornare indietro per un momento, ancora alla Legge di Moore.

 

 

 

La Rete della Quintessenza

 

Fino agli anni ’70 del secolo scorso la trasmissione delle informazioni, specie su lunga distanza aveva bisogno di apparati elettronici ingombranti e costosi e l’utilizzo di tecniche digitali era limitato. A partire dagli anni ’80 si mette in moto, grazie alla “legge di Moore”, una rivoluzione pervasiva. Nelle reti geografiche il solo fatto che i costi degli apparati divengano marginali rispetto ai costi delle linee fisiche di trasmissione moltiplica le opportunità per realizzare reti geografiche, ora non più appannaggio dei monopolisti telefonici. Nell’ambito locale nasce il paradigma della “rete dell’Etere” (Ether-net), modalità semplice per far parlare in modo paritetico computer di ogni sorta. Ethernet, nelle sue varie incarnazioni si estenderà a media diversi, dal cavetto in rame fino al “senza fili” (wireless) e alle fibre ottiche, fino a costituire oggi uno dei mattoni su cui è edificato l’edificio di Internet; a sua volta quest'ultima, nata come “rete delle reti”, estende all’ambito globale il paradigma del “tutti comunicano con tutti, in modo paritetico”.

 

Sempre negli anni ’80 diventa realistico realizzare una rete telefonica capillare che possa far comunicare telefoni portatili. La rete di radiofrequenze è organizzata in “celle” geografiche, da cui “il cellulare”. Qui il paradigma è ancora quello della rete telefonica, ma sarà la nascita di un mercato dei servizi telefonici aperto alla concorrenza che imporrà che “tutti possano parlare con tutti”, ancorché con barriere tariffarie (solo gradualmente abbassate attraverso l’opera delle autorità di sorveglianza).

 

Il cortocircuito finale tra rete “cellulare senza fili” e rete di trasmissione dati “di tipo Etere” potrà avvenire solo 20 anni dopo, 10 caselle della scacchiera più avanti, quando Steve Jobs riuscirà a mettere dentro un oggetto che sta sul palmo della mano un telefono (cellulare) ed un computer (connesso ad Internet): lo smartphone. La cui principale caratteristica, dal punto di vista della comunicazione, è quella di essere “seamless: può passare, senza che il fruitore se ne accorga, da una rete cellulare (telefonica) ad una rete “wireless” per dati. Il paradigma unificante è quello di Internet: nella percezione dei suoi utilizzatori, non ci sono differenze tra i servizi erogati sulla rete cellulare dall’operatore telefonico e i servizi, apparentemente simili, ma completamente diversi nella tecnologia – e nei costi! – offerti da nuovi soggetti presenti solo sulla Rete.

 

La competizione per accedere al portafoglio dell’utente non è più tra operatori (telefonici) integrati verticalmente che offrono tutto, dall’accesso fino ai servizi a valore aggiunto, ma diventa globale, con nuovi soggetti che, resi possibili dal paradigma della “Rete piatta”, possono offrire servizi specializzati a costi competitivi, relegando gli operatori tradizionali al mero ruolo di “fornitori di accesso”. Addirittura la competizione non è più mirata al portafoglio, ma alle sole “eyeballs”, all’attenzione degli utenti che, da sola, diventa preziosa merce di scambio.

 

 

 

Big Data

 

Negli anni ’90 Microsoft era il monopolista di fatto del mondo dei personal computer. Il controllo che aveva su quale software venisse usato sui PC di centinaia di milioni di persone nel mondo era così pervasivo che per la controcultura americana la società di Redmond fu considerata sinonimo di “evil”, il male, e tacciata di essere il possibile prossimo futuro Big Brother di orwelliana memoria. Eppure Microsoft non aveva le capacità tecnologiche per trasformare in realtà queste temute potenzialità: non esisteva una rete capillare per estrarre informazioni dai singoli computer con sistema operativo Windows e non era disponibile la capacità di calcolo e di memoria necessaria per elaborare le informazioni personali di centinaia di milioni di utenti.

 

Sono passati 20 anni, 10 caselle, e, sempre grazie a Moore, non solo il singolo PC è 1000 volte più potente, ma soprattutto vengono prodotti un numero esponenzialmente più grande di processori e di banchi di memoria. La quantità “pro-capite” è cresciuta di svariati ordini di grandezza, ma non serve per abilitare l’individuo, il cittadino informatico: nel contempo si è sviluppato un fenomeno di aggregazione sempre più spinto, secondo cui grandi potenze di calcolo e archivi di dimensioni sterminate sono segregati in grandi “Data Centers” centralizzati. Questi sono apparentemente fruibili da qualunque impresa o individuo, ma per larghissima parte sono esclusiva dai nuovi soggetti che hanno creato l’industria degli “user generated contents” e fatto dell’elaborazione delle informazioni personali una tecnologia di successo e un business sostenibile. Sono i cosiddetti operatori “Over The Top” (OTT): Google (il cui motto è “do not evil”, per inciso), Facebook, ma anche Amazon, Twitter, Instagram, etc.

 

In pratica chi ha potere economico, o anche solo ha avuto l’opportunità di fare leva su capitale di rischio per trasformare un’idea di business anche peregrina in un’impresa con centinaia di milioni di fruitori, ha a disposizione potenza di calcolo e di memoria illimitate e non ci sono vincoli tecnologici alle applicazioni di Big Data che può mettere in campo.

 

 

 

Le Social Network

 

Nel 2005 Amazon lanciò un’iniziativa dal nome apparentemente ironico: Il Turco meccanico (“Amazon Mechanical Turk”, AMT), forse senza rendersi conto di quanto quel nome fosse spiazzante. Il riferimento storico era all’automa giocatore di scacchi (per rimanere in tema), che destò stupore nelle corti e nelle piazze d’Europa alla fine del 1700 sconfiggendo ogni opponente umano[4]. Quel “Turco meccanico” era in realtà un’abile truffa che nascondeva dentro l’automa un giocatore umano.

 

L’iniziativa di Amazon aveva un sottotitolo esplicativo: artificial Artificial Intelligence, “artificiale” nel senso di fasulla; una AI basata sull’opera di esseri umani (nascosti dietro la cortina)! Si trattava a tutti gli effetti di dar vita a un mercato del lavoro dove proposte di attività più o meno intelligenti che possono essere eseguite meglio da esseri umani che da sistemi di calcolo incontrano l’offerta di potenziali lavoratori, negoziando una paga oraria. Nel suo momento di massima crescita AMT giunse ad avere oltre mezzo miliardo di “lavoratori” registrati, per poi essere ridimensionata su scala solo americana, essendo palese a tutti, non solo a chi avesse letto due pagine di Marx, di che cosa si trattasse: l’applicazione alla Società dell’Informazione dei metodi della prima Rivoluzione Industriale. Eppure AMT aveva una base di equità: una paga in cambio di un lavoro eseguito in via telematica. Altre forme di sfruttamento sono meno riconosciute e/o riconoscibili.

 

Captcha” ad esempio. L’acronimo significa: “Test di Turing pubblico e completamente automatico per distinguere computer e umani”; si tratta del meccanismo, che tutti abbiamo incontrato in Rete, attraverso cui viene data autorizzazione ad accedere a un dato servizio solo dopo aver verificato che il richiedente è – con ogni probabilità – un essere umano e non un automa, un programma automatico (“crawler”) che attraverso richieste ripetute riesce ad estrarre tutte le preziose informazioni alla base del servizio stesso (magari a favore di qualche fornitore di servizi concorrenti). Recentemente (2009) Google ha acquisito e reso poi disponibile come servizio gratuito reCaptcha, basato sugli stessi principi: in questo caso, però, non soltanto l’utente deve rispondere correttamente per essere accreditato come essere umano, ma anche, in virtù del suo essere “umano”, gli viene richiesto di risolvere un piccolo problema (riconoscere un testo poco leggibile, individuare un punto su una mappa geografica, o simili), compiti che rientrano nella categoria della “artificial Artificial Intelligence”, e che generano un valore monetizzabile per chi fornisce il servizio, e uno sfruttamento del lavoro di chi vorrebbe semplicemente usufruire del servizio.

 

L’apogeo di questo sistema, in cui tutte le parti trovano posto e dove lo smartphone, il “cellulare”, diventa davvero lo strumento del dominio universale da parte di quelli che sono riusciti a conquistare il ruolo di leader globali del mondo digitale, quelli che, quali Burattinai universali manovrano i fili – immateriali – che legano ogni singolo fruitore dei servizi in Rete, nasce dagli “user generated contents”. Quelli che vanno sotto il nome, apparentemente anodino, di social networks.

 

Lo scopo finale è intrattenere, anzi: trattenere davanti a quello schermo di pochi pollici per un tempo indefinito, allo scopo di raccogliere informazioni circa usi e costumi, preferenze, disponibilità a comprare o ad essere persuasi; informazioni che attraverso i Big Data verranno raccolte e distillate per trasformarsi in moneta sonante grazie all'advertising. Se questo è lo scopo, allora nulla è più efficace – ed a buon mercato – dei contenuti generati dagli utenti stessi; anche qui la matematica aiuta: produrre contenuti, che siano notizie, immagini, filmati, storie o pensieri costa, e al crescere della popolazione costa sempre di più, perché le preferenze degli ultimi utenti catturati saranno sempre più lontane dalla moda delle preferenze più popolari. Al contrario, i contenuti generati dall’interazione degli utenti tra di loro, specie se sollecitati o facilitati dal “hic et nunc” dato dalle potenzialità multimediali del cellulare, crescono in funzione del quadrato del numero degli utenti, una leva formidabile non solo per abbattere i costi di esercizio, ma anche per creare un divario incolmabile rispetto a tutti i futuri concorrenti per i “first movers”, quelle imprese che per lungimiranza – o per casualità – sono arrivate per prime a cogliere i frutti del mondo digitale reso possibile dalla Legge di Moore.

 

Questa estate Facebook ha annunciato di aver raggiunto un miliardo di utenti contemporaneamente connessi. Nel 2016 ci saranno nel mondo due miliardi di utenti di smartphones. L’opera è quasi compiuta: anche per l’industria dei media digitali e dei dispositivi personali sempre interconessi sta per scattare l’interruttore generale che commuta da un ecosistema florido in continua crescita e trasformazione a un’industria dominata da pochi soggetti. È il “Master Switch[5], l’interruttore che secondo Tim Wu prima o poi scatta per tutte le industrie dei media che sono sorte nel tempo.

 


 


[1] Gordon E. Moore, “Cramming More Components onto Integrated Circuits,” Electronics, pp. 114–117, April 19, 1965

[2] ad es. in “Paolo Maurensig, La variante di Lüneburg, dodicesima ed., Adelphi 1995.

[3] Ray Kurzweil, “The Singularity Is Near: When Humans Transcend Biology”, Penguin Books, 2006, in it. “La Singolarità è vicina”, Apogeo 2013

[4] Tom Standage, “Il Turco. La vita e l'epoca del famoso automa giocatore di scacchi del Diciottesimo secolo”, Nutrimenti 2011

[5] Tim Wu, “The Master Switch”, 2011.

Se continuiamo a tenere vivo questo spazio è grazie a te. Anche un solo euro per noi significa molto. Torna presto a leggerci e SOSTIENI DOPPIOZERO