L’economia della conoscenza e il paradosso della quantità: dalla precisione al pressappoco?

«Con i riflessi economici, politici e di altro tipo succede esattamente come con quelli dell’occhio umano, passano per una lente convergente e si mostrano perciò nel cervello rovesciati. Manca però il sistema nervoso, grazie al quale a chi se li rappresenta essi risultano di nuovo messi in piedi»

[Engels a Conrad Schmidt, 17 ottobre 1890]

Il modo di produzione capitalista diventa realmente dominante quando in tutte le articolazioni della vita sociale si afferma la legge della produttività del lavoro (massimo di prodotto dal minimo di lavoro) come legge oggettiva e indipendente dalla volontà dei singoli. Paradosso delle grandi opere inutili o dei lavori che non si fanno perché … rendono poco! È necessario allora «che la sca- la della produzione non dipenda da bisogni dati ma, al contrario, la massa dei prodotti dipenda dalla scala della produzione (sempre crescente) prescritta dal modo di produzione»1, mentre pro- durre su scala troppo piccola includerebbe nei prodotti più lavoro di quanto socialmente necessa- rio. Si ha dunque sottomissione «reale» al capitalismo soltanto a partire da un livello in cui la quan- tità di lavoro non pagato contenuta nel prodotto (plusvalore) (e pertanto solo la produzione finaliz- zata alla produzione stessa, la quantità fine a se stessa) agisce come spinta del capitalista singolo ad abbassare il valore individuale della sua merce al di sotto del suo valore socialmente stabilito.

L’evoluzione tecnologica è motivata, e stimolata, da un bisogno di gigantismo in tutte le sue ar- ticolazioni, quasi un’ossessione della quantità, della velocità di trasformazione di ogni cosa in mer- ce, del valore di scambio mercantile slegato dalla qualità e dal valore d’uso, e di tempo di vita ri- versato nel plusvalore relativo. La popolazione, altamente urbanizzata e concentrata, nel punto di massimo sviluppo della produttività del lavoro sociale umano, influenza il modo di lavorare e l’organizzazione del lavoro, sebbene se ne ignorino ancora la misura e le articolazioni. Questo pro- cesso avviene in maniera automatica, inconsapevole, ma realmente, e non è percepibile se non attraverso la paziente ricostruzione scientifica, lo studio, l’apprendimento, la registrazione di eventi e dati grezzi di varie realtà che noi stessi produciamo. L’umanità, sia pure in modo non consapevo- le, sta realizzando socialmente le condizioni che superano il carattere disorganico e parcellizzato in cui i singoli produttori individuali lavorano ancora in condizioni di separazione dai mezzi di lavoro, espropriati, anche nella coscienza, di ciò che, nell’insieme, costituisce l’esito e gli effetti collaterali, per così dire, del loro stesso prodotto sulla propria specie e sulla natura. A dispetto delle attuali ap- parenze, potremo forse dire un giorno non lontano: «Ben scavato, vecchia talpa!»

Dalla meccanizzazione all’automazione, già tentate nell’antichità, e infine al calcolatore, con l’avvento di Internet, il modo di acquisire socialmente l’informazione (i dati che stanno a fonda- mento della complessa macchina della conoscenza umana) e di comunicarla è praticamente rivo- luzionato, con conseguenze non soltanto sugli aspetti del movimento della vita sociale, politica, eti- ca e religiosa dei gruppi e degli individui, ma anche sulla percezione mentale del mondo, sulle me- todologie di pensiero, sulla conoscenza, sulla psicologia e le relazioni interpersonali.

In questo primo articolo focalizzo in breve un aspetto dell’informazione, l’«Information Technolo- gy», non senza precisare che il dato informativo, grezzo e non elaborato, costituisce solo una «base» della conoscenza che, come nota Engels, si presenta rovesciata nel cervello cui tocca il compito poi di raddrizzarla. Mi occuperò in un prossimo articolo dei problemi di privacy e di spionaggio sui dati.

1 K. MARX, Il Capitale, Libro I, Cap. VI inedito, Firenze, 1969, p.72.

Da una mirata inchiesta di Kenneth Cukier e Victor Mayer-Schoenberger2, apprendiamo che la «quantità di informazioni» che ogni essere umano oggi possiede equivale a circa 1.200 Exabyte, ossia circa 320 volte più di quelle contenute nella famosa biblioteca di Alessandria che, nel III seco- lo a. C., costituiva la summa della conoscenza umana antica, poi andata in rogo. Ma il dato in sé, oltre a darci una certa idea e dimensione dell’evoluzione del sapere contenibile nella mente umana anche individuale, va precisato dal lato appunto tecnologico: trasferiti su CD, questi 1200 Exabyte informativi, formerebbero, messi uno sull’altro, ben «cinque pile che arrivano fino alla luna». Se poi si consideri la differenza tra la massa di informazioni contenuta in uno di quei CD rispetto al supporto cartaceo, le proporzioni, vertiginose, diventano incalcolabili per una persona umana.

Infatti la memoria bio-fisiologica del cervello umano, dovendo «assimilare», ossia far propri, i dati per poterli elaborare creativamente, per quanto evoluta, ha dei limiti, che oggi la tecnologia cerca di superare con gli hard disk e i data center. La memoria individuale umana possiede dei li- miti nel numero di cellule neuronali, nelle relazioni e nella sua stessa complessità, nel volume cere- brale destinato ad accoglierle nell’archivio genetico della memoria che poi viene trasmesso, non solo attraverso il linguaggio e la sua evoluzione orale e scritta, e non si sa ancora come, per via biologica e storica, alla specie. E tali limiti esistono anche quando occorre fissare e contabilizzare i dati su un supporto materiale che non sia la mente stessa.

Ora, questa crescita quantitativa esponenziale della massa di dati disponibili non è stata causata dalla rete (il cui ruolo interviene invece nel metterli insieme, veicolarli e condividerli) ma è figlia dell’elettronica e dell’informatica, a partire dall’introduzione del micro-processore. La miniaturizza- zione ha consentito l’abbassamento dei costi e l’aumento crescente della capacità della memoria dei computer. È noto quanto sia cambiato il sistema di archiviazione, ad es. rispetto all’archiviazio- ne cartacea, e le conseguenze che ciò sta avendo in tutti i settori della vita produttiva e socio- culturale, nella riproduzione stessa del dato e nel suo trasferimento nel cervello, nel rapporto tra sensazione visiva e manuale, e in genere nel rapporto tra i cinque sensi di cui disponiamo3.

Alla base di tutto, sta la cosiddetta «digitalizzazione». Ancora una volta, la mano dell’homo faber resta a fondamento dell’homo sapiens, la conoscenza intellettiva e concettuale e il «lavoro» intellet- tuale passano attraverso la capacità di trasformare, data dal «lavoro» manuale non disgiunto dal lavoro intellettuale, quella che genericamente oggi si chiama abilità sia manuale che intellettuale. L’azione manuale di scrivere o incidere o dipingere graficamente una parola o un’immagine o ri- produrre un testo a mano favorisce e stimola la capacità di astrazione mentale.

Un giornalista di «Forbes» racconta come una grave malattia virale lo portò all’amnesia totale, da cui ora sta lentamente uscendo anche grazie all’uso di software che immagazzinano dati col computer, ma il punto decisivo egli lo racconta così: «Una psicoterapeuta molto gentile mi ha spie- gato che era arrivato il momento di prendere appunti da solo invece di farli scrivere a mia moglie Anna. Gli appunti mi avrebbero aiutato a trattenere i ricordi. Senza, non avrei riavuto la mia liber- tà. Con il senno di poi posso dire che è stato uno dei migliori consigli che abbia mai ricevuto».4

Invece, il semplice passaggio delle dita sulla tastiera, sia meccanica che, ancor più, elettronica, è un’operazione meno complessa e impegnativa, aumenta certamente la velocità e la quantità di prodotto, il dato archiviabile e computabile. Ancor più quando le dita sulla tastiera digitalizzano in- teri file, o fotografie belle e fatte, ad es. col taglia/copia/incolla, o quando passiamo semplicemente lo scanner sulla pagina, operazione addirittura scomparsa con lo scanner automatico. In questi ca- si, la nostra mente riduce enormemente il lavoro di riflessione, aumentando quello puramente operazionale, meccanico. Quel che si acquista in quantità (si pensi solo alla compilazione di indici analitici tematici, bibliografici, di nomi ecc.), se non lo si perde (perché lo si trasferisce nell’archivio

2 K. CUKIER e V. MAYER-SCHOENBERGER, Big data: a revolution that will transform how we live, work and thing, Hougton Mifflin, da cui è tratto l’articolo per «Foreign Affairs», riprodotto in «Internazionale», 14 giugno 2013. 3 Ho sviluppato questa tesi in: Natura Lavoro Società. Alle origini del pensiero razionale, Torino 1999. 4 CHARLES ASSISI, A caccia di ricordi, «Open», India, trad. da «Internazionale», 5 luglio 2013.

esterno alla nostra memoria) comunque non favorisce e non richiede le capacità riflessive. Manca l’operazione cerebrale dell’assimilazione dei dati riflessi nel cervello, «grazie al quale a chi se li rap- presenta essi risultano di nuovo messi in piedi» (Engels nella citazione in epigrafe). Una macchina- robot che scelga, concettualizzi e pensi in autocoscienza e flessibilità non è ancora stata inventata, nonostante sia nata una branca della tecnologia dedita alla costruzione dell’Intelligenza artificiale, costretta però sempre ad arrestarsi di fronte alla sconvolgente plasticità del cervello umano e alla sua enorme capacità di riprodurre i processi naturali, di formare nuove connessioni e dunque di creare il nuovo.

Le grandi trasformazioni cominciano comunque a produrre effetti nell’ultimo decennio. Nel 2000, ci dicono i due autori, solo 1⁄4 delle informazioni archiviate in tutto il mondo era in forma di- gitale, ma, raddoppiando ogni 3 anni, hanno capovolto la situazione: oggi meno del 2% dei dati non è in forma digitale. Per farci un’idea quantitativa dell’aumento della massa di informazioni ot- tenibile con la rete, basti pensare che, nel 2006, Facebook annoverava…appena 10 milioni di utenti, con un’unica sala server di 16m x 18m, dove la corrente elettrica in ingresso rischiò di mandare in fusione le prese ethernet.5 A ottobre 2012, erano un miliardo di persone. E la quantità di informazioni disponibili è diventata esplosiva, con conseguenze, anche sul piano energetico e ambientale, su cui sarà opportuno e necessario occuparsi a parte, e anche qui soffermarsi sulla dif- ferenza, in termini di danno ambientale, dell’epoca della cartocrazia (deforestazione, ecc.) rispetto a quello, forse non meno grave, dell’archiviazione in byte. Gli impianti richiesti, i data server (ma già si parla anche di cloud6) diventano infatti più grandi, occupano decine di migliaia di m2 con lunghissime file di server raffreddati con sistemi industriali. E non c’è solo Facebook, ma decine di migliaia di impianti preposti alla diffusione dell’informazione nel mondo: dallo scaricare un film, al controllo dell’estratto conto all’invio di allegati per posta elettronica fino agli smarthphone e tablet. Fra qualche anno molti oggetti, strumenti, utensili e dispositivi, diventeranno smart, cioè «intelli- genti» (avranno dei sensori avanzati e poco costosi che li collegheranno tra loro e con Internet). Molti sono già in commercio. Altri ne verranno fuori. «Avremo forchette smart che misureranno la velocità con cui mangiamo, spazzolini che misureranno quante volte ci laviamo i denti, scar- pe…ombrelli» collegati a internet che ci informeranno quando le condizioni atmosferiche preve- dono pioggia ecc.7 I corrieri UPS viaggiano con sensori applicati ad alcune componenti dei furgoni aziendali per individuare le variazioni di temperatura e le vibrazioni notate in passato in casi di guasto…e intervenire prima che si manifesti il guasto. È comunque utile osservare che in italiano noi utilizziamo una traduzione riduttiva dell’aggettivo smart, come approssimativo di «intelligente» (telefono intelligente, semaforo intelligente, ossia dotato di un collegamento «wii» e sensori che registrano in tempo reale ad es. il numero di auto e di biciclette che passano). In questo modo si possono raccogliere enormi quantità di dati per gestire la città in modo più efficiente ecc., mentre smart fa riferimento ad un aspetto dell’intelligenza (collegato alla rapidità e praticità di ese- cuzione; significa anche veloce, abile, efficace nel risolvere un problema) ma non la esauriscono. Altro esempio portato da K. Cukier e V. Mayer-Schoenberger è la traduzione automatica, miglio- rata poi enormemente da Google rispetto ai primi sistemi statistici della IBM (che usavano il dizio- nario bilingue, desunto inizialmente dai discorsi parlamentari canadesi in francese e in inglese), sul- la base di una vastissima quantità di dati da differenti ambiti linguistici e in ben 65 lingue.

Ci sarebbero oggi nel mondo più di 3 milioni di data center. Secondo uno studio commissiona- to dal New York Times8, «i data center sprecano il 90% dell’elettricità che assorbono dalla rete elet-

5 J. GLANZ, Il rovescio della rete, «New York Times», tradotto in «Internazionale», 26 ottobre 2012. 6 Il termine indica una specie di nuvola nel ciberspazio, in realtà materialmente essi rinviano a veri bunker bui sot- terranei nell’Idaho o nello Utah. 7 EVGENY MOROZOV, Il mercato della privacy, in «Frankfurter Allgemeine Zeitung», trad it. in «Internazionale», n. 1016, 6 settembre 2013, p. 38 8 J. GLANZ, Ibidem.

trica» e, per cautelarsi da interruzioni di corrente, son costretti a servirsi di gruppi di generatori di emergenza…a gasolio! Mediamente, solo dal 6 al 12% dell’energia è usata per le attività di calcolo, il resto serve per tenere «dormienti» i server in caso di rallentamenti o minacce di crash. Con cre- scente frequenza, aumentano i livelli di inquinamento dell’aria superiori a quelli consentiti, e i data center diventano i principali inquinatori da gasolio della California. In cifra, in tutto il mondo, essi consumano circa 30 miliardi di watt, l’equivalente di 30 centrali nucleari, da 1/4 a 1/3 solo negli Stati Uniti (nel 2010 avrebbero consumato 76 miliardi di kWh, l’equivalente a circa il 2% dell’elettricità consumata nel paese). Un solo data center assorbe più energia di una città di medie dimensioni. Senza contare i problemi di «sicurezza» e di segretezza degli impianti stessi, nonché l’uso di materiali radioattivi, di cosiddette «terre rare», e relativi problemi di smaltimento, condizioni di lavoro e sfruttamento spaventose. Ma quel che è necessario sottolineare è che il «dato», e in ge- nerale l’informazione, diventa «merce», con tutto quel che consegue, in termini di produzione, concorrenza, ecc. e di quello che è definito «consumismo informatico», di cui i primi intossicati sa- rebbero gli USA. Si scatena la concorrenza tra server che mettono a disposizione degli «utenti» del- le «piattaforme» per gestire «spazi» di archiviazione di decine di gigabyte, che consentono di scari- care fino a 6 file contemporaneamente, con «garanzie di sicurezza» tali da eludere la polizia del web9 o comunque tali da richiedere 13 miliardi di anni per trovare il codice di cifratura, dunque a prova di haker. Almeno a parole! Ne nasce, comunque, una tecnologia applicativa nuova, la «dati- ficazione» (si considerano molti aspetti del mondo finora mai quantificati), che ha per oggetto i dati in quantità gigantesche, appunto i «big data», tracce digitali che lasciamo nel fare acquisti, navi- gando in internet, usando il cellulare, ecc. Distinti da questi, ci sono gli «open data», tutti i dati rac- colti dalla pubblica amministrazione, come il tasso di criminalità per quartiere, l’efficienza energeti- ca degli edifici o il numero di contribuenti sotto una determinata soglia di età. Per fare un esempio, oltre quelli sopra citati dei dizionari, delle enciclopedie, delle raccolte interdisciplinari, avviate già da secoli con sistemi meccanici manuali di «documentazione»: i nomi di donne illustri commemo- rate nelle intitolazioni delle vie cittadine rispetto agli uomini. Operazione analoga a quella della classificazione dei luoghi geografici rispetto alla latitudine e longitudine. Per avere un’idea, si pensi a Facebook con la datificazione degli «amici» e dei «mi piace». Non è tuttavia da confondere la «datificazione» né con la documentazione né con la «digitalizzazione». Quest’ultima «prende con- tenuti analogici come libri, film o fotografie e li converte in informazioni digitali. La datificazione prende tutti gli aspetti della vita e li trasforma in dati».10 La scienza viene a supportare questa tec- nologia con l’invenzione di algoritmi, software complessi, processi matematici e statistici. Con tali algoritmi, per es., Google «setaccia le nostre e-mail private per presentarci annunci pubblicitari mi- rati», analizzandole e classificandole automaticamente,…e vendendone i dati, e ciò le consente di mantenere gratuito il suo raffinato e costoso sistema di posta elettronica11 e può renderne i dati ac- cessibili agli offerenti (Agenzia Nazionale per la Sicurezza degli Stati Uniti-NSA, governi, lobby, di- partimenti di sicurezza, banche, compagnie d’assicurazione, ecc.).

Come per il massimo profitto nell’economia capitalistica, per ottenere risultati apprezzabili oc- corre che la quantità delle merci prodotte nell’unità di tempo sia massima possibile, così quella di dati trattabili sia enorme, diversamente dai metodi della campionatura. Si perde in precisione, per l’inevitabile disordine, e soprattutto occorre rinunciare a capire le «cause» dei fenomeni, per l’unico vantaggio di stabilire delle correlazioni, individuare ricorrenze, tali da consentire una qualche pre- visione futura, ossia prevedere «ciò» che succederà, non «perché» succederà, insomma si sceglie il «pressappoco» di questo mondo, rinunciando alla «precisione» come appannaggio celeste12.

9 PHILIPPE VION-DURY, Mister Download alla riscossa, Rue89, trad. it. da «Internazionale», 25 gennaio 2013. 10 K. CUKIER e V. MAYER-SCHOENBERGER, Big data… cit. 11 EVGENY MOROZOV, Il mercato della privacy, cit., p. 38 12 Molto importanti su questo argomento le considerazioni di A. KOYRÉ, Dal mondo del pressappoco all’universo della precisione, Torino, Einaudi, 1967[1948].

Il principio che sottende questa impostazione pragmatica (Peirce e Dewey), utilitaristica e stru- mentale (Duhem e Ernest Mach), è che a volte ci sbagliamo nell’individuare le cause vere e reali, sovrapponendo quelle che poi si rivelano nostre illusioni o pregiudizi, e risulta invece più utile, pra- tico, lasciar parlare i fatti, considerando le idee e le teorie non come descrizioni vere della realtà, e dunque non come fini da perseguire, ma come strumenti appunto più o meno utili o efficaci ad organizzare, rappresentare e prevedere fenomeni osservabili in funzione della sopravvivenza e all’adattamento all’ambiente. Del resto, le verità della scienza, specie nella medicina (più delle altre caratterizzata, però, da forte incidenza empirica) spesso sono relative e vengono rettificate o can- cellate nel corso del tempo, proprio per la natura storica della conoscenza umana («veritas filia temporis»), dal momento che la nostra mente individuale vive nel discontinuo e non riesce a co- gliere i piccoli cambiamenti dai tempi comunque più lunghi rispetto a ciò che siamo in grado di astrarre. Insomma vediamo gli alberi e non la foresta.

Anche per giungere a questa condizione, che sicuramente avrà effetti pure nel nostro modo di vedere il mondo e di relazionarci reciprocamente, ha agito l’aumento delle capacità produttive del lavoro umano, sia manuale che intellettuale. Da sempre, gli esseri umani hanno sviluppato le pro- prie conoscenze a partire da pochi dati disponibili e dagli scarsi e costosi mezzi e tempi per racco- glierli, organizzarli, archiviarli e analizzarli. Proprio dalla «scarsità» e dall’alto costo nel reperimento dei dati è nata la statistica, e la matematica degli insiemi e sotto-insiemi, fondate essenzialmente sulla «campionatura» di pochi e precisi dati. Tutte le preoccupazioni erano rivolte a ridurre i margi- ni di errore e «approssimarsi» alla probabilità 1 (la certezza assoluta).

Ma si sa che i risultati di questo metodo diminuiscono e diventano insignificanti o nulli quanto più la realtà indagata appare, come è consuetudine dire da vari decenni, caotica e complessa ri- spetto ai dati scarsi, e migliori sono quanto più le domande sono semplici e univoche e non richie- dono analisi di sottogruppi all’interno del campione.

Questi limiti sarebbero invece superati con la disponibilità ed economicità totale dei dati su ciò che si indaga. La logica economica quantitativa della produzione capitalistica sembra farla qui da padrona. Grandi opere costosissime, per lo più indifferenti rispetto ai danni collaterali, ad ogni pru- rito etico, persino inutili o decisamente dannose, uno spreco immane di energie e risorse, per mas- simizzare la massa di profitto e compensare, con la quantità, la tendenza al calo del saggio di pro- fitto. Anche i big data presentano questa caratteristica comune ad ogni produzione mercantile capi- talistica. E si tratta comunque di previsioni sempre probabilistiche che danno tendenze generali, non sempre giuste, anche perché i dati cambiano continuamente e sono influenzati da fattori esterni e dai mezzi di informazione.

Naturalmente, a ciò si è giunti per la via che anche i concetti fondamentali con cui la maggio- ranza degli uomini (e soprattutto le classi dominanti) operano mentalmente, si sono nel frattempo evoluti, fino a mettere in crisi il concetto stesso di causa inteso come causalità lineare e riduzionista, senza che ad esso si sia sostituita una concezione dialettica della causalità. «Secondo Hume, padre dell’agnosticismo moderno, non c’è necessità intrinseca. Una legge causale descrive una regolarità osservata nella natura: niente di più».13 E tuttavia la differenza tra la causa e l’effetto resta, e l’emergere del nuovo resta la caratteristica essenziale e ineludibile della relazione causale.

A demolire definitivamente l’idea della linearità causale e dell’indagine analitica hanno concor- so proprio l’applicazione dell’elettronica e dell’informatica nella cibernetica, favorendo l’afferma- zione delle teorie del caos e della complessità. Ma l’incapacità di intendere la natura dialettica della causalità comporta, oltre ad una pericolosa elusione del pensiero teorico, anche una progressiva svalorizzazione della comprensione storica posta in passato a fondamento della conoscenza e dell’azione futura.

Dante Lepore

13 E. BITSAKIS, La materia e lo spirito, di prossima pubblicazione.

Facebook

YouTube