SOCIOLOGIA DELLA COMUNICAZIONE
(PARTE TERZA)
ALCUNE PREMESSE ORIENTATIVE.
Se la tua vita è digitale, fatti un backup!
Nelle società moderne la vita corrente è sempre più simile a un immenso accumulo di spettacoli. Lo spettacolo – come lo definì per primo Guy Debord più di quaranta anni fa – non è solo un insieme di immagini, ma va considerato come un rapporto sociale fra gli individui mediato dalle immagini.
Questo significa che nella post-modernità, come abbiamo già visto, le relazioni sociali sono sempre più “mediatizzate” dalle immagini.
Immagini che giocano un ruolo essenziale nella costruzione della vita sociale e culturale e, per conseguenza, nella costruzione e nella definizione dei significati e della produzione simbolica.
A partire dal secondo dopoguerra – soprattutto nei paesi di lingua inglese – si è visto come le immagini tendono sempre di più a sostituire la parola e la scrittura e come, questo nostro immergerci nel mondo visuale, modifichi sempre di più la vita corrente.
Ne consegue che le immagini hanno oramai sostituito, in moltissimi campi della vita sociale e culturale, la scrittura, intesa come un canale privilegiato di comunicazione.
In breve, il mondo che viviamo tende a identificarsi sempre di più con il “visto”.
Questo stato di cose – sociale, culturale, politico e tecnologico – ci obbliga a ridefinire il rapporto tra il linguaggio scritto e il linguaggio visuale, perché questo rapporto è alla base di numerosi processi culturali da cui derivano il modo di formarsi della socialità e le strutture ideologiche della società e di conseguenza le forme dell’identità.
È noto – per esperienza diretta o indiretta – come la scrittura abbia giocato un ruolo chiave nella definizione del nostro passato e come nelle società post–moderne – come vengono definite quella del mondo occidentale – le immagini stiano sostituendo, con una frequenza che è sempre più veloce, i testi scritti come forma culturale ed educativa dominante.
Per semplificare possiamo dire che il mondo, come esperienza testuale, è stato in buona parte sostituito da un mondo come esperienza visuale.
Questo significa che siamo i testimoni di un passaggio da una cultura del discorso, che può essere scritta o orale e diacronica, a una cultura dell’immagine che ha la caratteristica di essere sincronica e con un forte impatto mediatico.
In sostanza questo vuol dire che i principi organizzativi del mondo occidentale sono sempre di più fondati sulle immagini piuttosto che sulla scrittura (sul testo).
Di fatto la cosiddetta post-modernità è “oculocentrica” non solo per la quantità delle immagini che circolano e che organizzano la conoscenza (soprattutto grazie ai device digitali), ma perché gli individui hanno appreso a interagire con le esperienze visuali, esperienze il più delle volte costruite e socialmente rilevanti.
Ma quello che più conta, sono esperienze visuali che giocano lo stesso ruolo dei fatti sociali in virtù del loro carattere impositivo. Vale a dire, imperativo.
Come ha scritto Nicholas Mirzoeff, docente di cultura visuale presso la New York University, il visuale, oggi, rende obsoleto qualunque tentativo di definire la cultura, e la società in termini esclusivamente linguistici.
Per valutare il flusso (ininterrotto) di immagini che sono intorno a noi diciamo che, in un’ora di una qualunque trasmissione – tramite uno schermo – noi possiamo vedere più immagini di quelle che vedeva in una intera vita un qualunque abitante di una capitale europea nel diciottesimo secolo.
O, meglio, ogni due minuti gli americani da soli scattano più fotografie di quante ne siano state prodotte nell’intero diciannovesimo secolo.
A questo proposito si è valutato che nel 2014 siano state scattate TREMILACINQUECENTO MILIARDI DI FOTOGRAFIE.
NELLO STESSO ANNO YOUTUBE HA REGISTRATO MILLEDUECENTO MILIARDI DI VISITE.
Ancora va osservato come oltre alle immagini fotografiche, cine-televisive, informatizzate, esistono molte altre forme di dati visuali che circondano e compongono l’esperienza del vivere.
Anche se non ce ne rendiamo conto, oltre alle immagini in senso classico, molti degli oggetti che ci circondano veicolano significati visivi.
Basta pensare agli edifici urbani, alle strade, ai centri commerciali, agli aeroporti, ai paesaggi.
Non va poi sottovalutato il fatto – come ha scritto Erving Goffman – che buona parte dell’interazione sociale si basa sulla comunicazione prodotta dal linguaggio del corpo, dalle espressioni del viso, dai movimenti e dalle pose che assumiamo, in modo più o meno deliberato.
Questa attenzione alla dimensione visiva del mondo sociale marca il passaggio da una sociologia dei media (antichi o moderni) a una sociologia visuale, inaugurata a suo tempo, come abbiamo già detto, da Marshall McLuhan.
Un passaggio dietro cui ci sono molti interrogativi.
Chi produce le immagini?
Per quale motivo le produce?
Da chi sono viste? A chi sono indirizzate? Chi le interpreta?
Chi le utilizza, in che modo le utilizza?
______________________________________________________________________________
UNA NOTA SU MIRZOEFF. La visione – come percezione degli stimoli luminosi – non è un fenomeno meccanico ma un’azione complessa che il soggetto compie attraverso le proprie facoltà sensoriali e intellettive muovendosi entro una cornice sociale, culturale, ideologica, etnica, sessuale, eccetera. In quest’ambito le immagini, come abbiamo detto più volte, grazie alle tecnologie digitali, sono proliferate con una rapidità prima impensabile.
É la ragione per la quale a partire dalla metà degli anni novanta, alcuni studiosi di lingua inglese hanno analizzato il nuovo statuto mediale delle immagini con un approccio diverso da quello dell’iconologia classica, svincolandosi dalle tradizionali competenze della storia dell’arte.
Da questa attenzione è scaturita una nuova disciplina delle immagini, interessata ai rapporti tra produzione e consumo della visualità.
Questa disciplina è la cultura
visuale, termine che attualmente definisce
qualsiasi ricerca che prenda in esame il ruolo e le funzioni delle immagini
(artistiche e non) in un dato spazio-tempo e per una certa cultura o
sub-cultura.
Nicholas Mirzoeff, docente negli Stati Uniti di questa disciplina, è stato tra i primi a organizzare un quadro sistematico di essa, curando nel 1998 un’antologia, The Visual Culture Reader, e poi scrivendo nel 1999 una Introduzione alla cultura visuale, edita in Italia nel 2002.
A questo saggio va poi aggiunto, Come vedere il mondo, uscito in Italia nel 2015.
Questo libro si propone come chiave per comprendere le trasformazioni che hanno investito l’iconosfera, ossia il mondo della visione, negli ultimi due secoli e in particolare negli ultimi trent’anni.
Più che un lavoro di metodologia è un insieme di temi concernenti oggetti, dispositivi e pratiche legate alla visione: vedere, dis.vedere e visualizzare il territorio, la città, il corpo, se stessi, la guerra, il clima.
Va specificato che la cultura visuale non è la mera somma di
ciò che è stato prodotto per essere visto, come i quadri o i film. È la
relazione tra il visibile e i nomi che diamo a ciò che vediamo ed essa comprende
anche quanto è invisibile o tenuto nascosto alla vista.
Mirzoeff in questo libro riconosce l’importanza delle ricerche di John Berger e di W.J.T. Mitchell, uno specialista degli studi visuali, cita poi in ordine sparso un po’ tutto l’universo della cultura progressista: Benjamin, Foucault, Lyotard, Deleuze, Butler e anche Duchamp.
In questo libro ci sono anche dei cenni di critica post-coloniale, questioni di genere, teoria e storia dei media, scienze cognitive e neuroscienze. In pratica tutto l’orizzonte dei cultural studies.
“La cultura visuale è un impegno a produrre attivamente un cambiamento radicale, non soltanto un modo per vedere quanto accade intorno a noi” scrive Mirzoeff.
E prosegue: “Nel 1990 potevamo usare la cultura visuale
per criticare e contrastare il modo in cui eravamo rappresentati nell’arte, nel
cinema e nei mass media. Oggi possiamo servirci attivamente della cultura
visuale per creare nuove immagini di noi stessi, nuovi modi di vedere ed essere
visti, e nuovi modi di vedere il mondo. È questo l’attivismo visuale. É un’interazione di pixel e azioni reali allo
scopo di generare il cambiamento”.
Il climax di questo ottimismo è nella discussione sul selfie.
Mirzoeff sostiene che il selfie, è un’evoluzione democratica dell’autoritratto e che stravolge il concetto di autorialità sviluppandola attraverso strumenti precostituiti.
In base alle statistiche, scrive, risulta essere una pratica prevalentemente femminile che funziona meglio con Snapchat che su Facebook.
Mirzoeff sembra convinto che il selfie sia immune da forme di reificazione dello sguardo maschile, o da forme di narcisismo, e sorvola sul conformismo del selfie equiparato a una libera espressione individuale.
Per questo autore il dilagare dei selfie è soltanto l’esito del desiderio di comunicare e condividere la propria immagine.
°°°
Molti degli autori che si sono occupati di sociologia visuale (Nicholas Mirzoeff, Stuart Hall, Jessica Evans, Chris Jenks) provengono dai cultural studies.
Riassumiamo brevemente cosa sono. Gli studi culturali costituiscono un particolare indirizzo di studi sociali che ha origine in Gran Bretagna, alla fine degli anni ’50 del secolo scorso, come ampliamento del settore della critica letteraria verso i materiali della cultura popolare di massa.
Gli studi culturali, fin dall’inizio, combinano una varietà di approcci critici, spesso politicamente impegnati, tra cui il post-modernismo, la semiotica, il marxismo, il femminismo e gli studi di genere, l’etnografia, la teoria critica della società, lo strutturalismo, il post-colonialismo.
L’obiettivo degli studi culturali è quello di comprendere come venga elaborato il SIGNIFICATO, e come esso sia in relazione – secondo l’impostazione teorica postmoderna – con i sistemi di potere e di controllo sociale.
(Abbiamo usato l’espressione di significato, più corretta sarebbe quella di Weltanschauung, che nella filosofia tedesca esprime la concezione del mondo, della vita, e della posizione che in esso occupa l’uomo.)
In breve, studiare la cultura visuale non significa semplicemente studiare e analizzare le immagini, ma prendere in considerazione la posizione (sempre più centrale della visione) nella vita quotidiana e di conseguenza nella costruzione e nella condivisione dei significati.
Per Mirzoeff, oggi, la principale caratteristica della cultura visuale è la tendenza a visualizzare delle cose non-visuali con l’aiuto di supporti tecnologici.
È una caratteristica che modifica, ancora una volta, il rapporto tra ciò che è visibile e ciò che non lo è.
L’arte sacra, in passato, rappresentava l’invisibile – riproduceva le divinità – attraverso l’occhio della fede.
La fotografia ha permesso all’occhio della scienza di rappresentare e descrivere la realtà visibile e di conservarla.
Tecnologie come il microscopio e i raggi X hanno permesso di guardare al di là delle possibilità della vista e di rendere visibile una realtà invisibile, ma reale.
Infine, nell’era del visuale – come l’ha definita nel 1999 lo scrittore e saggista francese Régis Debray – la tecnologia rende visibile una realtà che è solamente simulazione e che noi possiamo vivere come reale se ci crediamo.
In questo senso l’immagine costruita con il computer è, da un punto di vista ontologico, più simile a un’icona religiosa che a un’immagine prodotta dalle tecnologie non virtuali.
Un secondo importante aspetto della cultura visuale è la tendenza a visualizzare l’esistenza.
Basta guardarsi intorno, per verificare che tutto nella vita corrente tende ad essere reso visibile.
Dai modelli informatici alla medicina. Dalle interfacce grafiche ai telefoni, fino agli aspetti più intimi della vita, come sono quelli sessuali che fanno audience nei talk–show.
Un terzo aspetto della cultura visuale è la centralità dell’esperienza visuale.
Fino al secolo scorso esistevano delle rappresentazioni visuali socialmente definite e gli individui ne erano i destinatari passivi.
Oggi chi osserva può – con un minimo di competenza – impadronirsi delle immagini,
de-contestualizzarle, utilizzarle per comunicare, modificarle.
Ha spiegato Marshall McLuhan,con uno dei suoi paradossi, se la Gioconda esce dal Louvre parigino e finisce su una tee-shirt essa acquista un significato completamente diverso se non opposto da quello dell’originale appeso nel museo.
In altri termini è divenuto importante capire ciò che gli individui e le istituzioni fanno con le immagini e che cosa si ripromettono da esse.
Un ultimo e fondamentale aspetto della cultura visuale è la visualizzazione del mondo.
La visualizzazione suppone che le immagini non siano né la realtà né la sua rappresentazione.
Piuttosto, sono una sua simulazione che capovolge l’idea stessa di realtà.
Ma cosa vuol dire visualizzare?
Nel linguaggio comune vuol dire rendere visibile, mostrare.
Nel contesto degli studi sociologici realizzare un’immagine significa produrre una costruzione sociale, anche quando questa costruzione mantiene un rapporto indicativo con la realtà rappresentata, com’è nel caso della fotografia e del cinema.
Allo stesso tempo visualizzare equivale a dare una definizione della realtà.
Equivale a veicolare un significato, a produrre una certa visione del mondo.
In questo modo, la visualizzazione – quale che sia il mezzo tecnologico su cui si fonda, dal pittogramma al pixel – esprime (di riflesso) nella vita corrente le relazioni di potere.
Un esempio ce lo suggerisce John Berger, un critico d’arte inglese che ha scritto molti libri sul tema delle immagini e della visione, quando sottolinea come nella rappresentazione della donna e dell’uomo nella pittura europea, l’uomo è colui che agisce, la donna è colei che appare.
E questa visualizzazione riflette le differenti importanze sociali attribuite ai due sessi.
La presenza dell’uomo esprime il potere che incarna.
La presenza della donna coincide con il suo farsi vedere, con il suo lasciarsi guardare.
In questo modo la donna si trasforma in un oggetto di visione o, meglio, in un oggetto guardato.
Va aggiunto che nella pittura classica il protagonista del guardare – cioè, l’uomo – non è mai rappresentato nell’atto di farlo.
Come le Femen o le Guerilla Girls hanno cominciato a ricordare con disprezzo ai direttori di museo con le loro performance visuali (il seno nudo usato come una lavagna per Femen, maschere di gorilla per le Guerilla Girls), la donna è stata il soggetto principale del nudo nella pittura europea.
Aggiungiamo come, ancora oggi, nonostante i mezzi della rappresentazione della modernità siano cambiati, il modo di vedere le donne è ancora voyeuristico.
Il termine voyeurismo o scopofilia, più raro scoptofilia, è una parafilia che caratterizza chi, per ottenere l’eccitazione e il piacere sessuale, desidera e ama guardare o spiare persone seminude, nude o intente a spogliarsi, o altresì persone impegnate in un rapporto sessuale.
Cosa vuol dire?
Sostanzialmente, che nella nostra cultura si da per scontato il fatto che lo spettatore ideale sia sempre un uomo.
In Gender Advertisements del 1979, Irvin Goffman, nell’analizzare i modi con cui sono usati dalla pubblicità le differenze sociali e di genere, concluse che normalmente i generi sono deliberatamente rafforzati dalle immagini pubblicitarie, spesso fino a farli diventare caricaturali.
Un esempio ancora più importante, sempre a proposito del potere delle immagini, è il modo con cui la cultura occidentale (bianca e colonialista) ha veicolato il concetto di civiltà e di come la fotografia abbia diffuso in Europa l’immagine del “selvaggio” per giustificare e legittimare la violenza coloniale.
Per chiudere, un capitolo a sé è rappresentato dalla visualizzazione delle guerre e dei conflitti a cominciare da quelli medio-orientali – attraverso un giornalismo embedded, vale a dire guidato (cullato) nei suoi reportage da militari esperti in comunicazione e fake new.
Tutti questi esempi dimostrano che il punto di vista è una sorta di, o meglio, una forma di potere …il potere di affermare il proprio punto di vista.
In sostanza, vedere equivale a controllare.
Essere visto equivale a essere controllato.
In questa ottica, il massimo del potere si trova nel punto da cui si può vedere tutto senza essere visto.
Una circostanza che ha generato in molti studiosi di cultura visuale il convincimento o il sospetto che la società dell’immagine è un grande panopticon o, come dicono gli americani, un grande fratello (big brother).
Panopticon o panottico è un carcere ideale progettato nel 1791 dal filosofo inglese Jeremy Bentham (cfr. la prima parte del corso).
Il concetto della progettazione è di permettere a un unico sorvegliante di osservare (opticon) tutti (pan) i soggetti di una istituzione carceraria senza permettere a questi di capire se siano in quel momento controllati o no.
Il nome si riferisce anche a Argo Panoptes della mitologia Greca: un gigante con un centinaio di occhi considerato perciò un ottimo guardiano.
L’idea del panopticon, come metafora di un potere invisibile, ha ispirato pensatori e filosofi come Michel Foucault, Noam Chomsky, Zygmunt Bauman e uno scrittore come tGeorge Orwell nel romanzo 1984.
In ogni modo, per proseguire, la vita corrente nei paesi industrializzati è sempre più controllata dalle telecamere, da quelle dei mezzi di trasporto, a quelle degli shopping malls.
Da quelle delle arterie di traffico a quelle dei bancomat, degli edifici pubblici, delle stazioni.
Questo fenomeno – nell’era degli schermi visuali – fa diventare centrale il “punto di vista” .
Che cosa significa?
Che non dobbiamo limitarci a considerare l’esistenza di una cultura visuale, ma al contrario, dobbiamo considerare che il potere di visualizzare – dunque, di veicolare dei significati – è diventato un oggetto di negoziazione e controllo socioculturale e questo perché la visualizzazione non avviene nel vuoto, ma è sempre all’interno di una cultura.
Così, se è vero che le immagini sono una interpretazione del mondo è anche vero che la cultura dipende dall’interpretazione che i suoi membri danno a ciò che li circonda e al senso che attribuiscono al mondo.
La questione di fondo è questa: come agiscono (o meglio, come funzionano) le immagini?
Partiamo da una premessa.
Anche se è vero che il mondo è sul punto di acquisire – grazie al digitale – una dimensione essenzialmente visuale, ciò nonostante il problema resta per il fatto che ci sono molte incertezze su ciò che significa visuale.
Molti degli studi sull’argomento si limitano a riflettere sugli effetti dei media, vale a dire sulla produzioni di immagini che entrano nei processi di costruzione della realtà sociale.
Altri studi si focalizzano sulla realtà virtuale vissuta come se fosse reale, soprattutto sul piano individuale.
Sono raree, invece, le ricerche sugli effetti che la dimensione visuale ha sulla vita sociale e sulla produzione della cultura.
Ricerche che spieghino sia come agiscono e comunicano le immagini ( dai media ai muri della città, ai corpi, agli oggetti, ai segnali urbani, alla pubblicità, alle vetrine, ai prodotti artistici…) e sia come esse concorrono:
– alla costruzione dei significati.
– Alla formazione delle norme sociali e dei valori.
– Alla regolazione dell’interazione sociale e dei processi di sociabilità?
– All’affermazione delle differenze e delle appartenenze e, soprattutto, alla definizione dei percorsi di costruzione delle identità.
È un problema complesso perché la visione di un’immagine avviene sempre in un contesto sociale che ne determina l’impatto.
Da ciò ne consegue che il tipo di visione percepita, in base al contesto sociale, cambia il suo significato, così come il modo di vederla ne modifica gli effetti.
Oggi la visione di un’immagine avviene, in genere, in luoghi specifici che hanno regole e pratiche sociali diverse.
Un conto è vedere un film o una partita di calcio sdraiati sul letto, un conto è vederli in un cinema o sullo schermo in una piazza.
C’è poi d’aggiungere che le stesse immagini possono essere viste in luoghi diversi, luoghi che influenzano il modo in cui sono viste.
Chi guarda, le immagini ha, in genere, un suo modo o una sua pratica per guardarle e questo di conseguenza, cambia i loro significati e dunque le loro dinamiche di negoziazione e di condivisione.
Ricordiamo che in termini fenomenologici le immagini non sono né vere, né false, ma strutture interpretative (costruzioni visuali) che dipendono dal modo con le quali si usano e da chi le usa.
Come abbiamo accennato la loro natura è spesso ambigua ed è questa ambiguità che produce un impatto emotivo molto forte e spesso molto violento.
Non per caso si dice che un’immagine vale più di mille parole.
E questo si verifica soprattutto quando il significato denotativo e il significato connotativo non sono separabili l’uno dall’altro.
Facciamo un esempio di scuola.
Se noi osserviamo la fotografia di un bambino di colore affamato e ammalato (aspetto denotativo) non possiamo non pensare a tutti i bambini che muoiono di fame e sono malati (dimensione connotativa).
Su questo punto ricordiamo anche che Roland Barthes, negli anni ’80 del secolo scorso, mise in luce il carattere polisemico delle immagini, vale a dire la molteplicità dei loro significati connotativi.
Significati che possono essere compensati o dirottati dalle didascalie che, in molti casi giocano il ruolo del significato denotativo.
Va anche sottolineato come il linguaggio verbale possiede un potere di gestione delle potenzialità espressive delle immagini grazie al fatto che esso ha un codice connotato, cioè, un codice basato su una logica razionale e sequenziale.
Un codice costruito su una grammatica e una sintassi, scomponibile in segni che costituiscono (rappresentano) il suo meccanismo interpretativo.
Al contrario, la polisemia del linguaggio visuale, scrive Barthes, rappresenta una sua debolezza dovuta alla mancanza di un codice e all’assenza di un contesto interpretativo esplicito.
Questo comporta che il significato di un’immagine è contestuale, soggettivo e interpretabile in molti modi, che dipendono dallo stato d’animo, dal vissuto, dalla cultura, dalla memoria, eccetera.
In breve, l’immagine, di per sé, è ambigua a causa di ciò che essa è e a causa della sua natura intrinseca.
La sua ambiguità, però, è in qualche modo dissipata o controllata dai contenuti che le sono attribuiti soggettivamente.
Roland Barthes sostiene che quando guardiamo una fotografia il più delle volte c’è in essa un punto particolare, qualcosa che ci colpisce e che non necessariamente l’autore della fotografia ha evidenziato.
Questo qualcosa è paragonabile a un buco, a uno strappo, a un dettaglio che scava nella nostra memoria, nel nostro passato, nel nostro rimosso, nelle nostre ferite, finendo per svelare o dissimulare le nostre emozioni.
Per tornare al discorso sociologico, la polisemia delle immagini è un elemento che complica la ricerca sociale perché accentua l’arbitrarietà interpretativa tutte le volte che la ricerca si basa su delle immagini considerate come “dati”, soprattutto in assenza di un autore o di un contesto che espliciti il significato connotativo.
Ritorneremo su questo punto quando parleremo delle origini e degli ambiti di ricerca della Scuola di sociologia di Chicago che, per prima, ricorse alle immagini come strumento di documentazione e di ricerca, soprattutto nell’ambito del lavoro operaio, delle periferie urbane e dell’immigrazione.
°°°°°
Vediamo ora in modo specifico la relazione vedere/sapere, partendo da una considerazione: Noi siamo immersi nel vedere.
La vista è il senso più usato nel nostro rapporto con il mondo ed è quello che gestisce i nostri rapporti con gl’altri.
Tutte le nostre attività implicano il vedere e fanno della cecità un oggetto d’angoscia, una catastrofe.
Perdere la vista significa essere emarginati da come culturalmente è organizzata la vita corrente, ecco perché, spesso senza volerlo, con la cecità siamo crudeli.
Due esempi. In moltissime lingue il termine “cieco” ha connotazioni negative.
Nel linguaggio comune l’accecamento è definito come una mancanza di lucidità.
Di contro, vedere è capire tanto che, coprirsi gl’occhi con le mani, vuol dire non voler vedere.
Maurice Merleau-Ponty (1908-1961) un filosofo francese della corrente fenomenologia, studioso del fenomeno della percezione, ha scritto:
L’esistenza è per gli uomini prima di tutto il prodotto della visione, noi non siamo in grado di immaginare un mondo di odori o di suoni.
I nostri modi di guardare sono molteplici, essi concorrono adare spessore alla significazione, ci aprono alla profondità del mondo, colmano le distanze.
Dobbiamo ricordare però che l’acutezza dello sguardo ha i suoi limiti, l’infinitesimo o il molto lontano ci sfuggono.
Paradossalmente la vista è un senso ingenuo, perché spesso si lascia ingannare dalle apparenze, mentre l’odorato e l’udito hanno, nei confronti del mondo, un potere esplorativo.
È ingenuo anche perché quando guardiamo senza il giusto distacco, prendiamo lucciole per lanterne.
È ingenuo perché sa trasformare il mondo in immagini, ma poi non sa distinguerle dai miraggi.
In ogni modo è la condizione più importante per valutare la realtà, tanto che vedere è credere.
Nel linguaggio comune si dice “vedere per credere” oppure, “crederò quando avrò visto”.
Da un punto di vista fenomenologico il vedere è ciò che salta agl’occhi, è ciò che è e-vidende.
Il verbo vedere deriva dal latino videre, ma alla base di videre c’è veda – io so – che ha la stessa radice indo-europea, da cui deriva evidenza – ciò che è visibile – e provvidenza – il prevedere divino, ovvero l’espressione della sovranità.
Per restare agli etimi, in greco la teoria è una contemplazione e il theoros è lo spettatore.
Quanto a speculare, è un verbo che deriva dalla parola specula, come si chiama il luogo dal quale si osserva.
Soprattutto nella modernità il visivo è ciò che si prende o si perde del mondo. Questo vedere èspesso affiancato dal lavoro dell’oblio che agisce sul piano sensoriale.
Diciamo che è una forma di routine che riguarda sia le cose conosciute e subito decifrate, sia quelle che ci sono indifferenti, tali da non meritare attenzione.
Nella nostra cultura lo sguardo è volontà di sapere, è poiesis (azione creativa) è desiderio di capire, di vedere meglio.
Lo sguardo ha un potere tattile. Lo si può definire uno strumento di palpazione oculare, non per caso lo sguardo è ciò che cerca il contatto.
I rapporti intimi e quelli di potere conoscono bene la potenza dello sguardo, così come il mondo femminile conosce con fastidio l’essere osservato e scrutato.
Nella cultura medioevale, come in quella rinascimentale, lo sguardo era considerato una potenza che riduceva il mondo al suo volere.
Esso possiede una forza d’impatto sia benefica che malefica.
La forza malefica, nel linguaggio comune, è chiamata malocchio, è condivisa da numerose culture, come se lo sguardo avesse il potere di pietrificare per poter mantenere il suo controllo sul mondo.
Al contrario, il voyeur è colui che si appaga guardando. Ècolui che abolisce, con la visione, la distanza.
Mangiare con gl’occhi non è solo una metafora, spesso è un oltraggio o una minaccia.
Molte culture prendono questa metafora alla lettera, considerano il vedere è una porta spalancata sul desiderio, una minaccia che si percepisce, lo sanno bene le ragazze che sono spiate o molestate.
È un atto fastidioso, che non lascia indenni, che finisce per coinvolgere sia il soggetto che guarda che l’oggetto del desiderio.
L’immaginario popolare è da sempre convinto che lo sguardo è un contatto che tocca ciò che guarda. Ce lo conferma la lingua.
Lo sguardo accarezza, cova, fulmina, inchioda.
Lo sguardo è penetrante, acuto, tagliente, trafigge, gela e come spesso si dice, uccide.
Lo ritroviamo anche in molte espressioni d’uso corrente, come nel guardare in cagnesco, di traverso, di buon occhio, di sbieco, eccetera.
Gli amanti, di contro, si fanno gl’occhi dolci, si accarezzano e si mangiano con gl’occhi.
D’altro canto lo sguardo può essere duro, acuto, pesante, mellifluo, dolce, avvincente e crudele.
Sul piano simbolico gl’occhi, toccando, si compromettono con il mondo, ecco perché gli sguardi che ci si scambia difficilmente lasciano indifferenti e spesso arrivano a turbare la vita corrente.
Sotto un’altra prospettiva lo sguardo può indurre al peccato.
Santo Agostino su questo è perentorio e avverte: Gl’occhi anche se cadono su una donna non si fissino su nessuna. Quando uscite, non vi è proibito vedere le donne, ma sarebbe grave desiderarle o voler essere da loro desiderati.
Facciamo un passo avanti, diciamo che i sensi devono fare senso.
Ma per fare senso occorre imparare a vedere.
Alla nascita il bambino non coglie il significato delle forme che gli stanno intorno. Poi lentamente comincia a discriminarle partendo dal volto della madre.
Qui c’è un problema logico. Per riconoscere si deve conoscere.
Per diversi mesi la vista del neonato è meno sviluppata dell’udito e del tatto con il seno materno.
Poi la vista prende il sopravvento e diviene un elemento fondamentale della sua educazione e del suo rapporto con il mondo. Si trasforma in un elemento chiave per la sua educazione.
La vista, dunque, è un senso fondamentale per il bambino, ma per diventarlo richiede sia la parola degli adulti che il senso del tatto per indirizzarla.
In ogni modo il vedere non è un atto passivo, ma attivo. Nella vita di tutti i giorni quando un oggetto si vede male (per via della distanza, della forma o per le cattive condizioni di visibilità) l’individuo si sposta, strizza gli occhi, si protegge dalla luce diretta, inforca gli occhiali.
In questo modo le figure informi possono diventare familiari.
È ciò che sta alla base del test di Rorschach, usato in psichiatria come strumento per catalizzare le fantasie.
Le macchie sulle tavole del test, prive di un significato preciso, vengono offerte all’immaginario del paziente e le sue risposte rivelano le sue preoccupazioni, i suoi desideri, le sue angosce, i suoi incubi.
Anche se di per sé queste macchie non significano nulla, l’individuo attribuisce loro un significato in funzione della sua personalità.
Nel Trattato della pittura Leonardo da Vinci (1452-1519) aveva intuito l’importanza di questo fatto. Scrive:
Se tu riguarderai in alcuni muri imbrattati di varie macchie o pietre di vari colori misti…potrai su di loro vedere similitudine di diversi paesi, profili di montagne, fiumi, alberi, pianure, grandi valli e colli in diversi modi. Ancora vi potrai vedere battaglie e atti di figure, strane arie di volti e abiti e infinite cose, le quali potrai riprodurre.
Ernst Gombrich (1909-2001), il grande storico dell’arte austriaco, in Arte e illusione (un libro del 1960) ha visto in questa disposizione a completare le forme e a renderle intellegibili uno dei fondamenti dell’illusione nell’arte.
In linea generale possiamo dire che per le immagini il significato viene sempre dopo.
Un significato che si può correggere o può essere discusso, considerato che molto di rado una situazione vista ha un significato univoco.
Per vedere il mondo gl’individui procedono ricomponendo frammenti di elementi visivi che di per sé non hanno un significato e, soprattutto sono indotti a farlo secondo quando si attendono di vedere.
In sostanza, è lo sguardo che fa emergere una Gestalten del guardato.
Le opere di Picasso, di Klee o di Matisse – per citare tre artisti conosciuti – sono spesso portatrici di questa visione d’insieme ricomposta di un volto o di un oggetto.
La visione, per tornare a Merleau–Ponty, non è altro che un particolare uso dello sguardo, perché l’occhio non è mai innocente, ma arriva di fronte alle cose con una sua storia, una sua cultura e soprattutto con un suo inconscio.
Si può dunque affermare che l’occhio, paradossalmente, non riflette semplicemente il mondo, ma lo crea con le sue rappresentazioni.
L’occhio, infatti, sa come appropriarsi delle forme portatrici di senso, come sono le nuvole che precedono la pioggia, degli avanzi di un pasto sul tavolo o di una situazione – lo ha perfettamente capito e con una certa arguzia, Sophie Calle, un’artista francese di quella corrente chiamata narrative art.
L’occhio sa come appropriarsi della brina sul vetro di una finestra, del gesto di una mano tra la folla, dei mille piccoli e grandi eventi che hanno luogo intorno a esso.
Sul piano simbolico si potrebbe dire, con un gioco di parole, che il percepito è “percepito” come una forma morale.
Pensiamo a un paesaggio. Esso è nell’uomo prima che l’uomo sia in esso perché il paesaggio ha un senso solo attraverso ciò che l’uomo vede di esso.
Allo stesso modo ogni sguardo proiettato sul mondo, anche il più anonimo o insignificante, compie un ragionamento visivo per produrre senso e giudicare.
Detto altrimenti, la vista, filtrando ciò che percepisce, rende il mondo pensabile, più che uno strumento di registrazione delle immagini è un’attività di pensiero.
O, in modo più esplicito, gli occhi servono per portare a termine un continuo lavoro di costruzione di un senso.
Spesso, però, più che l’acutezza dello sguardo conta la qualità del vedere.
Il filosofo francese Pierre-Maxime Schuhl (1902-1984) in L’immaginazione e il meraviglioso: il pensiero e lo sguardo, ha scritto: “Saper guardare è il segreto dei processi gnoseologici”.
Significa che, prima di vedere, occorre imparare a riconoscere i segni del vedere come si fa con le parole di una lingua.
Oggi lo diamo per scontato, ma la lettura di un’immagine cinematografica richiede la conoscenza dei codici di percezione.
In questo senso l’etnocentrismo occidentale si è sempre vantato, a proposito delle immagini e della prospettiva, dell’universalità delle sue concezioni, attribuendo le difficoltà a comprenderle, da parte di altri gruppi sociali, a una loro inferiorità culturale o intellettuale.
Di fatto, in molte culture cosiddette primitive, non abituate alla lettura delle immagini, è difficile operare una distinzione tra finzione e realtà.
Ma allora, come dobbiamo giudicare il fatto che gli spettatori parigini del Grand Café, nel dicembre del 1895, fuggirono terrorizzati davanti al film dei fratelli Lumière sull’ingresso di un treno nella stazione di La Ciotat?
Per la sociologia visuale valutare le modalità di fraintendimento o di errore nella lettura delle fotografie o dei film da parte di una certa comunità può servire a valutare il loro grado di
acculturazione.
Ma c’è anche il rovescio della medaglia.
La banalizzazione delle immagini, come conseguenza delle nuove tecnologie digitali e delle politiche di mercato del visuale, tende a eliminare o a banalizzare il loro carattere sociale, culturale e storico.
°°°°°
Cambiamo argomento. Vediamo ora alcune rivoluzioni che hanno trasformato la nostra storia culturale.
Come ci spiega la gnoseologia, la scienza muta la nostra comprensione della realtà in due modi.
Il primo modo è definito estroverso, perché è riferito a ciò che ci circonda del mondo. Il secondo è definito introverso, perché riguarda direttamente la condizione umana e quello che siamo o pensiamo di essere.
Ciò premesso, nel millennio che ci siamo lasciati alle spalle, ci sono tre rivoluzioni che hanno avuto un forte impatto conoscitivo sia sulla realtà, sia su quello che siamo.
Queste rivoluzioni nel modificare la nostra comprensione del mondo, hanno trasformato anche la concezione di chi siamo e il nostro modo di percepirci, di considerarci.
Fino a sei secoli fa eravamo abituati a pensare di essere al centro dell’universo, messi lì da un
dio-padre e creatore onnipotente.
Era, se la vediamo in prospettiva, una pietosa illusione che ci rassicurava e ci faceva convivere con l’angoscia generata dalla coscienza della irreversibilità del tempo di vita.
Nel 1543, Niccolò Copernico pubblicò il suo trattato sulla rotazione dei corpi celesti.
Quando questo libro uscì nessuno era in grado di prevedere che dopo aver scosso il nostro modo di vedere la terra e i pianeti avrebbe dato l’avvio a una rivoluzione sul modo di comprendere noi stessi.
I fatti, però, sono quello che sono.
La sua cosmologia eliocentrica spodestò per sempre la terra dal centro dell’universo costringendoci a riconsiderare la nostra posizione e il nostro modo di rapportarci ad essa.
In breve, le conseguenze di questa rivoluzione ci obbligarono a una riflessione più obiettiva e approfondita sulla nostra condizione umana.
Capimmo che la terra è un pianeta piccolo e fragile e trovammo nella ragione la forza per studiarlo.
Uno studio che non ha mai smesso di proseguire come dimostrano l’esplorazioni spaziali.
La seconda rivoluzione è avvenuta nel 1859 quando Charles Darwin pubblicò L’origine delle specie.
In questo libro si riassumevano anni di esplorazione sul campo da cui si deduceva che ogni specie vivente è il risultato di un’evoluzione da progenitori comuni, attraverso un processo di selezione naturale.
Con Darwin la parola evoluzione acquistò un nuovo significato, un significato da molti ritenuto sgradevole e insopportabile e che molte religioni ancora oggi rifiutano o accettano solo parzialmente.
In ogni modo, sebbene fossimo coscienti di non essere più al centro dell’universo, sebbene avessimo dovuto ammettere di essere poco più che animali, tuttavia eravamo ancora padroni dei nostri contenuti mentali.
In altre parole la nostra capacità di autocoscienza, di elaborare una coscienza di sé, ci dava ancora un posto speciale nell’Universo.
Penso dunque sono, aveva dichiarato Cartesio e l’introspezione era considerata un viaggio interiore alla scoperta di sé.
Ci pensò Sigmund Freud a liquidare questa illusione.
Questa terza rivoluzione dimostrò che la mente è inconscia e incontrollabile.
Che ciò che facciamo è per lo più il frutto dell’inconscio e che i cosiddetti stati coscienti sono da noi utilizzati per dare una giustificazione razionale alle nostre azioni.
In altri termini, scoprimmo che non siamo più liberi neanche nella nostra coscienza.
Questo perché essa ubbidisce più all’inconscio che a noi, banalizzando ciò che ritenevamo il frutto della volontà.
In ogni modo, dopo queste tre rivoluzioni, ci restava l’intelligenza, una proprietà difficile da definire, ma che ci pone di fatto in una posizione di assoluto vantaggio operativo tra le forme viventi.
Lo prova il fatto che sappiamo costruire macchine, sviluppare progetti e utilizzare le forme della tecnica.
Blaise Pascal, che visse nella prima parte del XVII secolo, inventò la macchina aritmetica – più conosciuta come la pascalina – con la quale si potevano realizzare la quattro operazioni.
Tra l’altro il metodo di calcolo inventato da Pascal e basato sui complementi ed esso è analogo a quello che utilizzano oggi i computer.
Questa macchina ottenne da subito un grande successo e influenzò un altro grande matematico e filosofo del XVII secolo, Gottfried Leibniz.
Gottfied Leibniz (Lipsia 1646 – Hannover 1716) è stato un matematico, filosofo, logico, giurista storico e magistrato tedesco di origine soroba o serba.
A
lui dobbiamo il termine di funzione che
egli utizzò per individuare le proprietà di una curva. Leibniz, assieme a Newton, è lo scienziato che sviluppo il calcolo infinitesimale e in
particolare il concetto di integrale.
È considerato il precursore dell’informatica e del calcolo automatico, fu
l’inventore di una calcolatrice
meccanica detta macchinadiLeibniz .
E’ considerato uno dei più grandi esponenti del pensiero occidentale.
Qui, ricordiamo che fu Leibniz a inventare il sistema dei numeri binari e che per questa ragione è considerato il primo scienziato dei computer.
In estrema sintesi, per Pascal, pensare era ragionare e ragionare era far di conto e la sua macchina era in grado di farlo.
Possiamo dire che i germi di una quarta rivoluzione erano stati gettati, anche se Pascal non poteva immaginare che avremmo costruito macchine in grado di superarci nella capacità di processare informazioni dal punto di vista logico.
Ciò che non era ancora pensabile diventò però chiaro con il lavoro di Alan Turing, il protagonista di questa quarta rivoluzione.
In altri termini e senza certamente prevederlo, Turing ci ha spodestato dal regno del ragionamento logico, soprattutto dalla capacità di analizzare grandi volumi di dati e di agire in modo conseguente.
Con il risultato che oggi non siamo più gli indiscussi padroni del mondo dei dati e del loro uso.
La parola computer è a questo proposito significativa.
Tra la fine del XVII secolo e il XIX era sinonimo di persona che svolge dei calcoli.
Il termine computer, infatti, è il nome dell’agente (del soggetto) del verbo to compute.
L’etimo latino di questa parola è composto da com / cum (insieme) e putare (tagliare, rendere netto – da cui anche potare).
Significa propriamente: confrontare (o comparare) per trarre il netto della somma.
Originariamente il termine computer indicava una persona incaricata di eseguire dei calcoli.
Fu grazie a Turing che, negl’anni ’50 del secolo scorso, la parola computer perse il suo riferimento all’uomo e divenne sinonimo di macchina programmabile, ovvero, di macchina di Turing.
Questa quarta rivoluzione ha messo in crisi, sul piano esistenziale, il convincimento della nostra unicità, ridisegnandoci come organismi informazionali (inforg) reciprocamente connessi e, al tempo stesso, parti di un ambiente informazionale (infosfera) che condividiamo con altri agenti (altri soggetti) naturali e artificiali.
Agenti che processano informazioni in modo logico e autonomo.
Questo fa prevedere che molto probabilmente la prossima generazione sarà la prima a non considerare più rilevante la distinzione tra ambiente online e offline.
Una distinzione che già oggi appare opaca.
In ogni modo, se l’idea di “casa” è dove sono custoditi i nostri dati, allora vuol dire che viviamo già da tempo e senza averne coscienza nelle cloud storage.
In informatica con il termine cloud computing (in italiano nuvola informatica) si indica un paradigma di erogazione di servizi offerti su domanda da un fornitore ad un cliente finale attraverso la rete Internet (come l’archiviazione, l’elaborazione o la trasmissione dati), a partire da un insieme di risorse preesistenti, configurabili e disponibili in remoto.
Occorre però stare attenti alle false prospettive perché la rivoluzione digitale difficilmente ci trasformerà in un’umanità di cyborg.
Un numero di telefono solo nei film si può digitare per mezzo di una tastiera virtuale che appare sul palmo di una mano, più realisticamente lo possiamo comporre pronunciandolo, grazie al fatto che il nostro smartphone ci capisce.
Per comprendere con una metafora la logica e l’estensione degli ambienti informazionalidobbiamo invece riflettere sul fatto che in molti contesti le ICT (Information and Communication Technologies) hanno cominciato ad essere la squadra che gioca in casa (nell’infosfera) con noi che giochiamo in trasferta.
Va sottolineato che noi viviamo in una singola infosfera. Un’infosfera che non ha un fuori.
(In Italia da qualche tempo si usa l’acronimo TIC – Tecnologie dell’Informazione e della Comunicazione – così come il termine cyber.tecnologie è stato sostituito da Web 2.0 o dalla parola rete.
Mentre è ancora usata l’espressione inglese Digital Humanities per indicare quell’area di ricerca interdisciplinare nata dall’intersezione tra scienze informatiche e discipline umanistiche.
Va anche notato che l’uso dell’espressione cyber pone l’accento sulla dimensione avveniristica e fantascientifica di queste tecnologie, mentre parlare di tecnologie informatiche sposta l’attenzione sui loro usi pratici.)
Più precisa è la definizione di sociologia digitale perché la sociologia digitale è molto di più di una sociologia dei media digitali. È un modo di concepire e praticare la sociologia che prende in esame le trasformazioni che i media e i dispositivi digitali operano (inducono) sul mondo sociale. Un modo che riconosce la svolta epocale prodotta dall’avvento e dall’infiltrazione in ogni aspetto dell’esistenza delle nuove tecnologie e degli oggetti digitali.
Chi è Alan Turing? Perché è così famoso? E’ stato uno scienziato, matematico e filosofo britannico, nato a Londra il 23 giugno 1912 e morto il 7 giugno 1954, a soli 41 anni.
E’ considerato il padre dell’informatica grazie ai suoi studi sulla crittografia e alla creazione di algoritmi che hanno gettato le basi per realizzare il primo computer e l’intelligenza artificiale.
Durante la II Guerra Mondiale, al servizio dell’esercito Inglese, ideò un sistema per decifrare i messaggi cifrati tedeschi, che risultò l’arma decisiva per gli Alleati.
Infatti, decodificando i messaggi radio in codice inviati dai nemici, la contraerea inglese fu in grado di anticipare e intercettare gli attacchi dei nazisti. Turing utilizzò un primissimo rudimentale calcolatore progettato da lui e costruito in segreto con l’aiuto dell’esercito: è considerato il padre dei moderni computer.
Dal 1948 fu lettore di matematica all’università di Manchester. Dalle sue ricerche svolte prima della seconda guerra mondiale derivò l’elaborazione della macchina di Turing.
Questa è costituita da un nastro diviso in campi, il quale può scorrere in un senso o nell’altro quanto si vuole; ciascun campo è adatto a contenere esattamente un simbolo di un ben determinato alfabeto finito. La macchina possiede una memoria, capace di ritenere un numero finito di istruzioni, e un “occhio” in grado di esaminare esattamente un campo per volta.
Una macchina di Turing, trovandosi di fronte a determinati simboli scritti, esegue il relativo calcolo e si porta in una nuova posizione finale esibendo il risultato del calcolo.
Il nome di T. è legato anche ad altri importanti risultati di logica matematica, come una dimostrazione dell’indecidibilità del calcolo predicativo puro e alla dimostrazione dell’insolubilità del problema della parola per i semigruppi. A T. si deve anche l’elaborazione del test di T., criterio che consente di stabilire se una macchina è intelligente, consistente nella impossibilità di distinguere, in un dialogo scritto, se ci si trova di fronte a un interlocutore umano o a un artefatto.
Il test di Turing è un test di criterio ideato da A.M. Turing per dimostrare la capacità di pensare di una macchina. Fu proposto nel 1950 in un articolo pubblicato sulla rivista Mind.
Si tratta di una situazione sperimentale consistente in un gioco a tre partecipanti: un uomo A, una donna B e una terza persona C.
Quest’ultimo è tenuto separato dagli altri due e, tramite una serie di domande, deve stabilire qual è l’uomo e quale la donna.
Dal canto loro, anche A e B hanno dei compiti: A deve ingannare C e portarlo a fare un’identificazione errata, mentre B deve aiutarlo.
Affinché C non possa disporre di alcun indizio (come l’analisi della grafia o della voce), le risposte alle domande di C devono essere dattiloscritte o similarmente trasmesse.
Il test di Turing si basa sul presupposto che una macchina si sostituisca ad A. In tal caso, se C non si accorgesse di nulla, la macchina dovrebbe essere considerata intelligente, dal momento che sarebbe indistinguibile da un essere umano.
La macchina cioè dovrebbe essere considerata come dotata di una “intelligenza” pari a quella dell’uomo.
Il criterio proposto da Turing è ritenuto alla base della → intelligenza artificiale; tuttavia per stabilire l’intelligenza esso si basa su un presupposto meramente osservativo e quindi necessita di ulteriori precisazioni data la complessità del concetto stesso d’intelligenza e l’impossibilità di una sua definizione universalmente accettata.
Nonostante l’omosessualità negli anni ’40 e ’50 fosse un reato, Alan Turing non nascose mai il suo orientamento sessuale.
Fece parte di alcuni circoli gay e proprio in virtù del suo orientamento sessuale fu arrestato nel 1952. Le pene erano estremamente crudeli: castrazione chimica ed assunzione di ormoni femminili, in seguito alla quale dovette subire la crescita del seno.
Furono anche queste umiliazioni a condurlo verso la sua tragica fine, che avvenne ingerendo una mela avvelenata, come nella favola di Biancaneve.
°°°°°°
Intorno alla metà del ‘700 in molte città europee si cominciò a numerare, strada dopo strada, partendo dal centro, le abitazioni in ordine crescente, erano nati i numeri civici.
Più che per problemi postali o a beneficio dei singoli cittadini questo provvedimento veniva incontro alle richieste del fisco e delle forze dell’ordine per rintracciare e identificare per mappare facilmente, come si direbbe oggi, le persone.
Ci furono, soprattutto nella mitteleuropa, molte proteste di cittadini contrari a questa misura che in alcune circostanze era anche di natura discriminatoria, come nel caso degli ebrei di Boemia, obbligati a usare per la numerazione delle case i numeri romani anziché quelli arabi.
Non è difficile immaginare i mille sotterfugi che furono inventati, come distruggere la targa con il numero, metterla capovolta, così che il sei diventa nove, imbrattarla di vernice o di fango, eccetera.
A Parigi, fu Napoleone che introdusse i numeri civici nel 1805.
Walter Benjamin nel suo Parigi, capitale del diciannovesimo secolo, racconta che nei quartieri proletari questa misura fu subito avvertita come repressiva e gli artigiani – con in testa quelli del fouburg Saint-Antoine, uno dei più grandi e ricchi di falegnamerie – si rifiutavano di usare il numero della loro abitazione come indirizzo.
Quanto a Charles Baudelaire – il poeta de I Fiori del male – definì questa numerazione come un’intrusione criminale nella vita quotidiana dei cittadini.
Possiamo aggiungere non senza un qualche interesse, considerato che era perennemente assediato dai creditori che volevano essere pagati e che lui evitava, cambiando in continuazione il suo indirizzo.
L’analisi di Benjamin in realtà è più complessa.
Per questo grande saggista europeo anche l’invenzione della fotografia è un punto di svolta nello sviluppo del controllo amministrativo e identificativo, problema che rinviamo perchè dovrebbe essere affrontato in modo specifico.
Queste osservazioni sulla nascita della numerazione stradale ci servono per capire meglio l’enorme distanza che separa quei giorni dall’epoca nella quale viviamo.
Un’epoca caratterizzata dalle identità digitalizzate e geolocalizzate.
Possiamo dire che, nella storia dell’umanità, mai come oggi siamo stati in possesso di una quantità così enorme di informazioni immagazzinate su i fenomeni e i comportamenti sociali.
Informazioni che, non va dimenticato, confluiscono incessantemente nell’area dei Big Data.
Come tutti sanno, da almeno una generazione, con modeste quantità di dati, algoritmi e macchine di analisi, siamo arrivati ad estrapolare informazioni mirate, ma i Big Data hanno reso obsoleto questa situazione, mettendoci nella condizione di possedere una quantità di dati maggiore di quella che i mezzi più accessibili ci permettono di gestire.
Vediamo qualche grandezza.
Nel 2000 – l’anno di nascita dei nativi digitali – le informazioni registrate erano per il 25 per cento supportate da un formato digitale e per 75 per cento contenute su dispositivi analogici (carta, pellicola, nastri magnetici, ecc…)
Nel 2013 le informazioni digitalizzate erano stimate intorno ai 1200 exabyte, vale a dire erano il 98 per cento, mentre quelle analogiche si erano ridotte al 2 per cento.
La mole delle informazioni digitalizzate fino ad oggi è tale che se le stampassimo su carta coprirebbero una superficie grande come sessanta Stati Uniti.
A parte il volume delle informazioni c’è da considerare, per le notevoli conseguenze che comporta sul piano culturale, politico, economico, che questi dati fanno capo a pochissimi soggetti, sono concentrati in pochissime mani.
Cosa vuol dire?
Che Facebook – per fare un esempio – ha collezionato, in regime di monopolio, il più grande insieme di dati mai assemblati sul comportamento sociale delle persone.
Che, con molta probabilità, ALCUNE DELLE NOSTRE INFORMAZIONI PERSONALI NE FANNO PARTE ed altre, proprio in questo momento, VI STANNO CONFLUENDO.
°°°°°°
C’è una importante correlazione che si sta sviluppando tra le ICT digitali (tecnologie dell’informazione e della comunicazione) e quella che in filosofia è chiamata la coscienza del sé.
L’espressione, lo ricordiamo, indica l’uso della tecnologia nella gestione e nel trattamento dell’informazione, specie nelle grandi organizzazioni.
In particolare, riguarda l’uso di tecnologie digitali che consentono all’utente di raccogliere, creare, memorizzare, scambiare, utilizzare e processare informazioni (o “dati”) nei più disparati formati: numerico, testuale, audio, video, immagini e molto altro.
Il ciclo dell’informazione,in sintesi, è strutturato su queste operazioni : Generare – Raccogliere – Registrare e immagazzinare – Processare – Distribuire e trasmettere – Usare e consumare – Riciclare e cancellare.
Questa correlazione coinvolge sia il nostro modo di confrontarci con l’Altro da noi, sia con il nostro modo di relazionarci al mondo o, meglio, alla natura materiale delle cose.
Questo perché, da almeno una ventina di anni, grazie al digitale, siamo circondati (sarebbe più corretto dire immersi) “da – e – in” nuovi e inediti geo-scenari sociali e culturali e dai loro risvolti culturali, economici e politici.
Facciamo qualche esempio.
Siamo coinvolti dalle nanotecnologie.
Le nanotecnologie sono un ramo della scienza applicata e della tecnologia che si occupano del controllo della materia su una scala dimensionale dell’ordine del nanometro, ovvero un miliardesimo di metro e nella progettazione e realizzazione di dispositivi in tale scala.
Siamo inseriti nell’internet delle cose.
Nelle telecomunicazioni l’internet delle cose è un neologismo che si riferisce all’estensione di internet al mondo degli oggetti e dei luoghi concreti.
Siamo immersi dal Web semantico.
Con il termine di web semantico – un termine coniato dallo scienziato inglese Tim Berners–Lee – si intende la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini, ecc…) sono associati ad informazioni e a dati che ne specificano il contesto semantico in un formato adatto all’interrogazione e all’interpretazione.
In questo modo, con l’interpretazione del contenuto dei documenti del Web semantico saranno possibili sia ricerche molto più evolute delle attuali – basate sulla presenza nel documento di parole chiave o di espressioni idiomatiche – sia operazioni specialistiche come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più elaborate del semplice collegamento ipertestuale.
Una nota sul Web.
Le tecnologie digitali del secolo scorso – oggi definite Web 1.0 – si basavano sui siti e su dispositivi come i desktop e i laptop. Gli utenti accedevano alle informazioni online e potevano usare servizi come l’e-mail e l’online banking, fare shopping, ma in generale non avevano un ruolo attivo nella creazione dei contenuti online.
A partire dall’inizio del secolo sono comparsi siti e piattaforme accessibili online che non richiedevano di essere caricate. Si è sviluppata la tecnologia wireless (Wi-fi) e la banda larga. Le tecnologie ubique e senza fili e i social media. Per definire questi sviluppi del Web si parla di Web 2.0 o di Web sociale.
Oggi esiste anche un Web 3.0 ovvero l’Internet delle cose nel quale gli oggetti digitalizzati sono in grado di collegarsi a internet e tra loro, scambiarsi informazioni e dare vita a reti interoperative attraverso gli oggetti, i database e le piattaforme digitali.
Ancora, siamo utenti del cloud computing.
Una tecnologia che, come abbiamo già visto, consente di usufruire, tramite un server remoto, di risorse software e hardware (come memorie di massa per l’archiviazione di dati), il cui utilizzo è offerto come servizio da un provider tramite abbonamento.
Possiamo usufruire di giochi basati sul movimento del corpo, così come di applicazioni per gli smartphone, per i tablet, per il touch screen.
Abbiamo la possibilità di usufruire del GPS, un sistema di posizionamento satellitare che permette in ogni istante di conoscere la longitudine e la latitudine di un oggetto o di una persona.
Ricordiamo che i dispositivi muniti di un ricevitore GPS sono tantissimi: navigatori satellitari, smartphone, tablet, smartwatch, solo per citarne qualcuno.
GPS è l’acronimo di Global Positioning System. Si tratta di un sistema per il posizionamento globale. Grazie al GPS è possibile localizzare la longitudine e la latitudine di oggetti e persone.
Il tutto avviene tramite i satelliti che stazionano nell’orbita terrestre e permettono di sapere in ogni istante l’esatta ubicazione di un luogo.
La localizzazione oggi è possibile perché i satelliti contengono un orologio atomico che calcola al millesimo di secondo il tempo che passa tra la richiesta effettuata dal ricevitore GPS e le risposte ottenute dai satelliti stessi.
Non da ultimo siamo immersi nella realtà densificata.
Una realtà abitata da droni (vale a dire oggetti volanti radiocomandati), da auto che si guidano da sole, da stampanti 3D, da social media, da cyber-guerre, eccetera.
Sono argomenti che rappresentano un terreno di polemiche tra tecnofili e tecnofobici, ma soprattutto hanno generato un’ampia discussione tra coloro che si domandano che cosa non riusciamo a comprendere o si nasconde dietro tutto questo.
In pratica, possediamo una prospettiva ermeneutica per comprendere e gestire tutto questo?
La difficoltà maggiore è riuscire a valutare quanto queste tecnologie sono estese e come abbiano potuto diventare forze ambientali, antropologiche, politiche, sociali e, non da ultimo, culturali, vale a dire, capaci di interpretare e di trasformare il qui ora dell’esistenza.
Ricordiamo ancora una volta che queste nuove tecnologie, a differenza di quelle arcaiche, hanno la capacità:
– di creare e plasmare la realtà fisica e intellettuale,
– di modificare, o meglio, di manipolare la nostra capacità di giudizio,
– di cambiare il nostro modo di relazionarci con gl’altri,
– di modificare la nostra Weltanschauung, la nostra visione del mondo
– soprattutto, queste nuove tecnologie a differenza di quelle arcaiche o analogiche, sono in grado di fare tutto questo in modo pervasivo, profondo e continuo e spesso a nostra insaputa.
In conclusione, volenti o nolenti – noi globalizzati – ci troviamo a vivere nell’infosfera all’alba di un millennio che ancora non comprendiamo.
I punti critici sono noti.
Saremo capaci di ottenere il massimo dei vantaggi e il minimo degli svantaggi dalle ICT?
Saremo preparati ad anticiparne i pericoli dal punto di vista della vita corrente?
Avremo la necessaria competenza per affrontare i rischi che corriamo nel trasformare il mondo in un ambiente sempre più digitale?
In linea generale e fin da ora, a ragione della loro natura, queste tecnologie costringono la maggior parte della popolazione inurbata dentro spazi fisici sempre più inconsistenti e concettualmente sempre più limitati.
Perché è opportuno saper rispondere a questi interrogativi?
Sostanzialmente perché oggi le novità non danno più vita a delle fratture nella continuità della vita quotidiana che siano facilmente e a breve termine ricomponibili o assorbibili.
In linea generale per comprendere queste novità abbiamo bisogno, oltre che di conoscenze tecnologiche avanzate, di una nuova filosofia della natura e della storia, di una nuova antropologia e di una nuova scienza della politica.
In questo senso ripensare il presente e pensare il futuro in un mondo sempre più digitalizzato richiede una nuova filosofia dell’informazione.
La forma storica della società dell’informazione, così come la conosciamo,ha le sue radici nella scrittura e nell’invenzione della stampa e dei mass media.
Cioè nella capacita di REGISTRARE e di TRASMETTERE.
Oggi, con il digitale questa società si è evoluta con la capacità di PROCESSARE.
Una capacità che, paradossalmente, ha contribuito a generare nuove forme di DEFICIT COGNITIVI.
I paesi del G7 – Canada, Francia, Germania, Giappone, Gran Bretagna, Italia, Stati Uniti – la Cina, la Corea del Sud, la Russia europea, l’Australia, l’India, per citare i più conosciuti, costituiscono da tempo quella che si chiama una società dell’informazione.
Cosa significa questa definizione?
Che più del settanta per cento del PIL (cioè del loro prodotto interno lordo, che misura il livello dei beni e servizi di una nazione, anche se non rappresenta il benessere) dipende da beni intangibili – vale a dire che concernano l’informazione – e non da beni materiali, come sono quelli del settore agricolo e manifatturiero.
Possiamo dire – a mo’ di definizione – che la società dell’informazione ha una struttura neo-manufatturiera in cui l’informazione è la materia grezza che tutti produciamo, che alcuni manipolano e sia il prodotto finito che consumiamo secondo le nostre capacità.
°°°°°
Vediamo alcuni lemmi legati al tema dell’infosfera a partire dalla definizione di algoritmo.
L’algoritmo è un processo logico-formale che si struttura, articolandosi in una serie di passaggi logici elementari.
Questo processo conduce a un risultato definito da un numero finito di passaggi.
(L’espressione di algoritmo deriva dalla latinizzazione del nome del matematico persiano Muhammad ibn Musa al-Khwarizmi, vissuto nel nono secolo dell’era comune.)
Lo schema logico di un algoritmo si può esprimere con la forma if / then – SE/ALLORA.
Nel mondo che viviamo, anche se non conosciamo gli algoritmi, sappiamo che ogni passaggio logico per arrivare a una conclusione comporta una decisione che influenzerà il passaggio successivo.
C’è un gioco che illustra bene questo.
E’ la morra cinese.
Per vincere a questo gioco i passi elementari possibili sono tre:
Se giochiamo sasso, allora vince carta. Se carta, allora forbice. Se è forbice, allora sasso.
Fatte le debite proporzioni, i computer che giocano a scacchi operano nello stesso modo.
Ad ogni mossa che facciamo un algoritmo cerca le contro-mosse possibili, valuta le possibilità e seleziona la migliore.
L’importanza degli algoritmi (cioè di questi processi logico-formale) è esplosa con la nascita dell’informatica.
______________________________________________________________________________
L’informatica è la scienza che studia l’elaborazione delle informazioni e le sue applicazioni.
Più precisamente, l’informatica si occupa della rappresentazione, dell’organizzazione e del trattamento automatico della informazione.
Il termine deriva dal francese informatique (composto di INFORMATion e automatIQUE, informazione automatica) coniato da Philippe Dreyfus nel 1962.
Ricordiamo che l’informatica è una scienza indipendente dal computer che ne è solo uno strumento, ma va da se che lo sviluppo dell’informatica è stato ed è tuttora strettamente legato all’evoluzione del computer.
Va anche detto che pur avendo radici storiche antiche l’informatica si è sviluppata come disciplina autonoma solo a partire dagli anni ’60 del secolo scorso, sulla spinta innovativa dei sistemi di elaborazione e del progresso nella formalizzazione del concetto di procedura di calcolo, che possiamo far risalire al 1936, quando Alan Turing elaborò un modello di calcolo, oggi noto come macchina di Turing.
______________________________________________________________________________
In linea generale possiamo dire che i computer, i tablet, gli smartphone, così come i device connessi, sono costruiti secondo uno schema teorico chiamato “macchina di Turing”.
In realtà questa macchina non è assolutamente un oggetto, ma un concetto logico astratto elaborato dal matematico inglese Alan Turing.
Si compone di due parti.
– La prima parte è capace di interpretare una famiglia di algoritmi.
– La seconda è capace di immagazzinare i dati ai quali questi algoritmi si applicano o che da loro si ottengono.
Così, dal punto di vista dell’informatica, un computer non è altro che la realizzazione fisica di una macchina di Turing.
In questa macchina i dati sono scritti su una memoria – l’hard disk – e processati da circuiti logici chiamati processori.
Questi processori sono la parte della macchina che è capace di compiere i passaggi logici, come estrarre i dati immagazzinati nella memoria, interpretarli, eseguire le istruzioni ricevute.
In pratica, qualsiasi programma che fa funzionare un computer o che può essere fatto funzionare da un computer non è altro che un complesso di algoritmi.
Non è difficile comprendere come alla base di tutti questi processi c’è un problema di fondo, la velocità di calcolo.
Oggi, l’aumento importante delle capacità di calcolo dei processori ha permesso di poter far funzionare, su macchina–ad–hoc, come sono i supercomputer che utilizzano la superconduttività alle basse temperature, algoritmi sempre più complessi, vale a dire dipendenti da più variabili.
La rete, di contro, ha permesso di mettere insieme una moltitudine di enormi database che nutrono questi algoritmi.
Ci sono vari tipi di algoritmi.
I più popolari sono gli algoritmi di ottimizzazione che cercano la soluzione che minimizza o massimizza una funzione.
E gli algoritmi probabilistici, molto diffusi grazie alla possibilità che offrono di trattare grandi masse di dati (i Big Data).
Big data è un termine adoperato per descrivere l’insieme delle tecnologie e delle metodologie di analisi di dati massivi.
L’espressione indica la capacità di estrapolare, analizzare e mettere in relazione un’enorme mole di dati eterogenei, strutturati e non strutturati, per scoprire e portare alla luce i legami tra fenomeni diversi e prevedere quelli futuri.
Gli algoritmi probabilistici sono detti anche predittivi, in quanto sono strumenti capaci di prevedere la probabilità dell’insorgenza di un evento – come sono, per fare qualche esempio, le epidemie di influenza, il diffondersi di malattie infettive o, lo scoppio di crisi finanziarie.
I suggerimenti per gli acquisti che trovate sulla schermata di un computer (ti potrebbe interessare anche… oppure, sono spesso comprati insieme, ecc…) si basano sulla stessa logica algoritmica, essi analizzano quegli eventi come sono le visualizzazioni, i click o gli acquisti correlati a specifici individui.
C’è un problema etico che è ben illustrato da questa storia vera.
Target – una società americana di vendite per corrispondenza – fa affidamento sull’analisi dei profili di acquisto di venticinque prodotti al fine di assegnare a ciascun acquirente femmina un tasso chiamato previsione di gravidanza.
Questa profilazione stima la data del parto e invia dei coupon per l’acquisto scontato di prodotti correlati ai diversi stadi della gravidanza.
Ciò causò seri problemi di privacy finiti in tribunale allorché i coupon furono inviati a una famiglia la cui figlia – liceale – non aveva informato i propri genitori del suo stato.
Ritorniamo al tema degli algoritmi.
Possiamo distinguere tre serie di passaggi articolati.
Quello dei dati in entrata – input.
Quello dell’algoritmo propriamente detto – che realizza l’elaborazione.
E quello dei dati in uscita – output.
Ricordiamo che un computer opera esclusivamente sui dati digitali che esso stesso ha generato in maniera digitale oppure su dati che sono stati digitalizzati.
Si tratta di sequenze di bit, indicate con le cifre 0 (zero) 1 (uno) che corrispondono alla presenza o all’assenza di un determinato livello di tensione elettrica all’estremità dei transistor che compongono un computer.
La scienza è fatta di dati come una casa è fatta di pietre. Ma un mucchio di dati non è scienza più di quanto un mucchio di pietre sia una casa”.
Henri Poincaré
Big Data. Uno dei co-fondatori della Intel, l’azienda di microprocessori, Gordon E. Moore, nel 1965 formulò un principio che fu battezzato con il suo nome. Affermava che il numero di transistor per unità di superficie di un microprocessore sarebbe raddoppiato ogni dodici mesi.
Con il tempo, poi, i termini per esprimere la capacità di memoria e il volume di trasmissione dei dati si sono adeguati allo sviluppo dei bit.
Otto bit formano un byte.
Mille byte formano un kilobyte, una misura che alla metà del Novecento era sufficiente a misurare la capacità di un computer.
Poi arrivarono i megabyte, cioè, 10 alla sesta byte. I gigabyte, dieci alla nona. Il terabyte, dieci alla dodicesima, per valutare la sua grandezza ricordatevi che tera in greco significa mostro.
L’ascesa di Internet ha fatto da traino al moltiplicarsi dei byte.
Nel corso della nostra lezione più di duecento siti web si saranno aggiunti ai quasi due miliardi esistenti. Una cifra destinata ad aumentare ogni secondo che passa.
Oggi sono oramai comuni i petabyte, dieci alla quindicesima byte. Gli exabyte, dieci alla diciottesima byte e cominciano a farsi strada gli zettabyte, dieci alla ventunesima byte.
Il peso di Internet nel 2006 era di poco più di 40 petabyte.
Dieci anni fa era di circa uno zettabyte.
A questo proposito molti hanno cominciato a parlare di yottabyte, 10 alla 24 byte.
La quantità di dati presenti in uno yottabyte equivarrebbe a 20 milioni di volte quella contenuta in tutti i libri pubblicati a cominciare dal gennaio del 1800 per arrivare a stamattina.
Calcoli previsionali dicono che nel 2025 in Internet ci saranno più di 170 zettabyte.
Dal punto di vista delle informazioni oltre al volume dei dati conta il ritmo con il quale sono generati e la loro freschezza, per usare una metafora, considerato che il loro valore diminuisce se non sono subito interpretati.
Ricordiamo che oggi quasi ogni abitazione ha un computer, che gli smartphone sono in tutte le tasche e che le connessioni Internet che formano l’Internet delle cose trasmettono dati in tempo reale da moltissimi dispositivi a cominciare dai televisori per finire agli aspirapolvere.
Oggi si valuta che ogni persona che abita la fascia temperata del pianeta condivida ogni giorno uno virgola quattro gigabyte di dati attraverso Internet.
Questa foresta infinita di numeri, parole, geo-localizzazioni, documenti è indicata come macrodati.
Il termine di big data si riferisce a un tipo particolare di informazioni che richiedono degli strumenti specifici di analisi.
Questo perché si tratta di dati che possiedono:
– un grande volume.
– sono generati in tempo reale.
– sono eterogenei.
Dal punto di vista del volume quello che si fa con i big data ha senso solo nella scala in cui si fanno, sarebbe impossibile a scale di grandezza inferiori.
Le multinazionali del dato come Netflix, Amazon o Spotify sono le uniche strutture – su cui per altro nessuno ha un potere di controllo – in grado di gestire e di appropriarsi di milioni di profili di utenti diversi, così come di canzoni, film, podcast, e quello che più conta in tempo reale quando il carico dei dati è maggiore.
Sull’eterogeneità dei dati va osservato che quando questi erano relativamente scarsi dovevano essere precisi e omogenei. La raccolta era un’operazione molto importante così come il loro campionamento perché dovevano essere rappresentativi della totalità (popolazione) che si stava studiando.
Oggi domina un nuovo paradigma, quello dell’abbondanza.
Con l’abbondanza di dati si possono estrarre grandi tendenze anche se i dati sono molto eterogenei.
Quello che però più conta è l’importante cambiamento concettuale che i big data hanno generato.
Riguarda la causalità, vale a dire la capacità dei dati di rilevare – anche in assenza di una prospettiva teorica – il PERCHÉ dei fenomeni.
Diciamo che quando i dati non sono molti devono essere analizzati per individuarne la causa e il senso.
Con i big data il perché conta meno del che–cosa.
Quello che importa è captare la tendenza, la direzione del dato, indipendentemente da ciò che lo causa.
Non per caso l’obiettivo di molti strumenti di analisi dei dati – come il machine learning o il deep learning – è quello di identificare pattern complessi (degli schemi narrativi o dei modelli) che consentano di portare alla luce tendenze o comportamenti.
Noi sappiamo che gli algoritmi non capiscono le situazioni, ma allora come agiscono?
Come un analfabeta in una libreria che cerca un libro da regalare!
Osserva cosa guarda la gente che in qualche modo assomiglia alla persona a cui deve fare il regalo
e compra il libro più sfogliato.
La matematica delle previsioni è sorprendente, ma ha dei limiti. Per esempio, gli algoritmi predittivi hanno, oggi, dei limiti, basandosi sui dati storici le loro previsioni sono valide a patto che il comportamento futuro rispecchi quello passato. In pratica la loro validità si limita ai problemi che il soggetto umano non può alterare di molto.
Per adesso, per la logica del machine learning il futuro deve comportarsi come il passato e quindi questo algoritmo funziona se accettiamo che il passato detti il futuro, in buona sostanza comprendere un fenomeno al fine di modificarlo comporta capire i dati storici e il contesto in cui si è verificato.
Vediamo qualche altro aspetto dei Big Data.
Come abbiamo accennato rappresentano un insieme di dati quantitativamente enorme, molto vario e in continua e rapida evoluzione.
Il concetto di Big Data nasce alla fine del secolo scorso in corrispondenza all’aumento esponenziale della capacità di trattamento e di salvataggio dei dati che rese disponibile grandi quantità di informazioni sotto forma digitale.
L’unità di misura di volume dei Big Data è il petabyte che rappresenta un milione di gigabyte.
Proviamo a valutare che cos’è un petabyte.
Una foto in alta definizione occupa cinque millesimi circa di un gigabyte quindi un petabyte può contenere 200 milioni di foto o 250mila pellicole cinematografiche masterizzate in dvd.
Il DVD, sigla di Digital Versatile (versa-tail) Disc, originariamente Digital Video Disc, è un supporto di memoria di tipo disco ottico, in via di sparizione.
Un esempio importante di Big Data sono le informazioni collezionate in tempo reale dai social network, dai grandi mercati online o mediante le applicazioni che usiamo sui nostri telefoni.
Sono, come si può intuire, un’enorme massa di dati acquisiti velocemente e con varie tipologie.
Tra queste tipologie ricordiamo:
– La localizzazione.
– Il sistema operativo.
– Il plugin (cioè, il modulo aggiuntivo di un programma, utilizzato per aumentarne le funzioni).
Il plugin in campo informatico è un programma non autonomo che interagisce con un altro programma per ampliarne o estenderne le funzionalità originarie. Ad esempio, un plugin per un software di grafica permette l’utilizzo di nuove funzioni non presenti nel software principale.
– Le preferenze del nostro navigatore.
– Le pagine visitate e il tempo passato su di esse.
– Le foto e i video selezionati. I contatti e le e-mail.
– E, non da ultimo, le ricerche.
A questo va poi aggiunto tutto il contenuto testuale, audio, video e fotografico postato o condiviso sulla nostra bacheca.
______________________________________________________________________________
L’Internet Relay Chat (IRC) è un protocollo di messaggeria istantanea su Internet.
Consente, sia la comunicazione diretta fra due utenti, che il dialogo contemporaneo di gruppi di persone raggruppati in stanze di discussione, chiamate canali.
La chat è una forma di comunicazione online durante la quale un utente intrattiene una conversazione con uno o più utenti, in tempo reale e in maniera sincrona, attraverso lo scambio di messaggi testuali o stabilendo una connessione audio/video con essi.
La chat nasce come forma di comunicazione testuale supportata da tecnologia IRC (Internet relay chat) che consente la comunicazione sia uno a uno, sia uno a molti.
Questa ultima forma avviene in stanze di discussione o canali (channel), a cui ogni utente accede servendosi di un nickname e conservando quindi l’anonimato. I canali possono essere identificati da un soggetto di discussione specifico, oppure essere semplicemente finalizzati all’incontro con persone sconosciute. L’ambiente virtuale nel quale avviene la conversazione si definisce chatroom.
Alle chat basate su tecnologia IRC si sono nel tempo aggiunte le chat basate su altre tecnologie ospitate da server autonomi, definite webchat e le chat basate sui servizi di messaggistica istantanea.
Tali piattaforme – come MSNMessenger, Google Talk, Skype – integrano funzionalità di posta elettronica, trasmissione dati, interazione audio-video con l’interlocutore e consentono di arricchire con le emoticon il linguaggio puramente testuale tipico di IRC.
______________________________________________________________________________
Ci sono poi molti casi di raccolta dei dati utilizzati nel campo della sicurezza e del controllo sociale.
Per fare un esempio, gli algoritmi di riconoscimento facciale – sempre più numerosi nelle stazioni ferroviarie, negli aeroporti in luoghi urbani sensibili si basano sulla capacità di stoccare e di analizzzare in tempi brevi i flussi di dati provenienti da telecamere istallate in questi luoghi o da foto postate su un qualsiasi social network o sito web.
Tra le opportunità offerte oggi dai Big Dataricordiamo il deep learning e gli algoritmi predittivi.
Il deep learning (apprendimento profondo) – su cui ritorneremo – è una forma di intelligenza artificiale costituito da algoritmi che consentono a una macchina di prendere decisioni, operando sulla possibilità di far convergere tecniche di calcolo, tecniche con un’alta probabilità di correttezza o di affidabilità.
Gli algoritmi predittivi, invece, sono algoritmi che permettono di stimare la probabilità di realizzazione per un determinato evento a partire dalle condizioni misurate in un dato momento.
Sono oggi molto usati nella prevenzione di molte specie di malattie a sviluppo lento.
Il nocciolo della predittività sta nella possibilità di correlare tra di loro eventi fisici di varia natura.
Un esempio negativo e nascosto.
Associati alle leggi della fisica gli algoritmi predittivi consentono, con una precisione definita chirurgica, di calcolare dove cadrà un missile, conoscendone la potenza, la quantità del propellente, l’alzo del carrello di lancio e il peso.
Abbiamo poi quello che si definisce un approccio statistico quando la correlazione non viene dedotta dalle leggi della fisica, ma estratta per inferenza da un insieme di dati.
Definizione elementare di correlazione: è una relazione tra due variabili statistiche per la quale a ciascun valore della prima variabile corrisponde con una certa frequenza o regolarità un valore della seconda. Va da sé, per questa ragione la correlazione da sola non è una spiegazione che da sola chiarisce la natura della relazione che lega due fenomeni.
Joshua M. Epstein – che insegna epidemiologia all’Università di New-York – ha scritto che chiunque si avventuri in una proiezione o provi ad immaginare come si sviluppa una certa dinamica sociale sta elaborando n modello, ma in genere si tratta di un modello implicito i cui assunti sono nascosti. La cui coerenza interna non è testata. Le cui conseguenze logiche sono ignote. E, infine, la cui relazione con i dati e sconosciuta.
L’inferenza (in generale) è una deduzione intesa a provare o a sottolineare una conseguenza logica.
L’inferenza statistica (o statisticainferenziale), invece, è il procedimento per cui si deducono le caratteristiche di una popolazione dall’osservazione di una parte di essa (detta “campione“), selezionata solitamente mediante un esperimento casuale (aleatorio).
In linea generale, più grande è l’insieme più probabilità ci sono che le correlazioni osservate statisticamente riflettano la legge che regola il comportamento del fenomeno in questione.
In questo senso, la novità rappresentata dai Big Data consente di migliorare gli algoritmi predittivi, anche e grazie a metodi di deep learning, rendendo questi algoritmi sempre più performanti.
Sul piano sociologico, tra i molti dubbi e problemi che si possono avere sugli algoritmi predittivi, quello che qui importa sottolineare è la questione etica o più in generale politica, perché l’analisi e lo sfruttamento dei Big Data è in mano a pochi, ovvero ai grandi gruppi industriali e militari.
Moralmente il problema sta nel fatto che nessuna organizzazione scientifica o politica è messa nella condizione di controllare le inferenze compiute e le loro conclusioni.
A questo punto dello sviluppo digitale si può dire che i Big Data assomiglino a delle forme oracolari pseudo-scientifiche a cui è comodo affidarsi, anche sotto l’aspetto economico, evitando la ricerca e la formulazione di teorie da verificare.
In altri termini i Big Data invece di essere usati per avanzare delle tesi e cercare verifiche sul campo, sono usati (soprattutto quelli commerciali) per convincere senza dimostrare, partendo dal presupposto che i dati parlano da sé, basta saperli interrogare e ascoltare.
°°°°°°°
Approfondiamo meglio il tema dei dati spostando l’ottica con cui ne parliamo.
La loro caratteristica – oltre alla loro quantità – sta nel fatto che essi provengono da fonti diverse e sono “estratti” con metodi diversi, in questo modo costituiscono un datasetcomplesso e, allo stesso tempo, destrutturato, che richiede, per essere sfruttato, elevate capacità di calcolo e di efficienza algoritmica.
Va aggiunto che i dati non provengono solo dagli addetti ai lavori, ma anche dalle azioni quotidiane di milioni di utenti digitali che non ne sono consapevoli o non ne comprendono le implicazioni.
Tutto questo va poi considerato tenendo presente il carattere pervasivo (che tende a diffondersi in tutte le direzioni) delle nuove tecnologie, delle quali non siamo, per ora, capaci di immaginare gli scenari.
Non è un caso che la sociologia critica parla di una “dittatura planetaria degli algoritmi” che nella sostanza favorisce le disparità economiche e i soprusi sociali.
Vediamone un esempio. La polizia di Los Angeles da qualche anno a questa parte sta implementando un programma chiamato Predpol che grazie all’analisi dei dati dovrebbe riuscire a prevedere i crimini.
Per ora i risultati sono stati grossolani e il più delle volte sono stati distorti dai pregiudizi razziali che hanno accompagnato la raccolta dei dati, torneremo su questo importante tema dei bias che affligge gli archivi di raccolta dei dati digitali.
Implementare, dall’inglese (to) implement, a sua volta del lat. implēre “condurre a termine”, si usa quando si rende eseguibile un programma attraverso la formalizzazione dell’algoritmo risolutivo.
Per tornare ai dati. La digitalizzazione (e quindi l’automazione dei processi) richiede capitali enormi tale da renderla un’attività altamente selettiva e qualificata, ma non immune da danni collaterali, il più grave che produce è nel comparto della precarizzazione del lavoro cultuale e cognitivo individuale.
In altri termini la digitalizzazione rende sempre più simbiotico il rapporto tra mente e macchina e accentua l’importanza del lavoro eterodiretto.
Ma c’è di più.
La data e sentimental analysis mostra come, oggi, l’estrazione dei dati, che disegnano e prevedono i comportamenti fino a modellarli, un lavoro complesso che produce un ingente plusvalore.
Nella terminologia marxiana il plusvalore è la differenza tra il valore del prodotto del lavoro e la remunerazione dei lavoratori, differenza della quale, nei regimi capitalisti, si appropriano esclusivamente gli imprenditori.
Questo plusvalore, nel digitale, si forma non solo a partire dal singolo individuo, ma dal valore aggiunto di milioni e milioni di corpi e di menti messi in relazione.
Proviamo a concludere su questo punto:
NELLA CULTURA DIGITALE SE NON PAGHI, IL PRODOTTO SEI TU!
Facebook e Google sono gratis, ma solo per il fatto che a lavorarci siamo anche noi quando li usiamo.
______________________________________________________________________________
La cessione delle informazioni sulla persona dovrebbe essere una scelta personale per molte ragioni.
Cedere i propri dati significa cedere alcuni diritti e per questo dovrebbe essere una scelta consapevole. Nella modernità le informazioni hanno un valore economico e sono commercializzate nonostante che le persone non ne abbiano la percezione.
Gli utenti del digitale vengono considerati de meri consumatori dai quali estrarre i dati per usarli o rivenderli. Sono una merce.
Per consuetudine e da tempo i dati correlati a un individuo sono considerati – nell’linguaggio economico-burocratico – una commodity è una merce che si possiede e che, a ragione della sua natura, non si può vendere ma solo usare come merce di scambio.
In altri termini, non si possono vendere i propri dati, ma si possono cedere in cambio di un servizio a chi invece – se vuole – potrà rivenderli.
Vediamo un caso di specie.
Quando nel 2014 Facebook ha comprato WhatsApp per 19 miliardi di dollari, di cui 4 in contanti, non ha certo comprato un software, ma ha acquistati i dati appartenenti a 400milioni di utenti. Se proviamo a fare due conti ogni persona è stata valutata circa 40 euro. E oggi? In ogni modo io non ho visto un centesimo e voi?
______________________________________________________________________________
In altri termini. L’utente è – allo stesso tempo – risorsa da cui estrarre la materia prima dei dati e obiettivo su cui realizzare la valorizzazione dell’informazione prodotta a partire dai dati estratti.
In sostanza siamo in presenza di una sorta di neo–potere, caratteristico delle piattaforme, che ha dato vita a un nuovo potere politico ed economico organizzato in modo tale che le proprie policydi utilizzo finiscono per essere considerate alla stregua di leggi internazionali.
Con policy, nei paesi di lingua inglese, si indica un insieme di azioni (ma anche di nonazioni) poste in essere da soggetti di carattere pubblico e privato, in qualche modo correlate ad un problema collettivo.
A questo proposito, nel 2008 uno studio universitario statunitense ha calcolato che per leggere in modo adeguato tutte le policy sulla privacy che si incontrano in un anno sarebbero necessari 76 giorni lavorativi con un costo per gli USA di 781 miliardi di dollari. Cosa se ne deduce? Che le aziende, di fatto, acquisiscono dei diritti senza contrattazione e impongono delle pratiche senza che gli utenti si accorgano di quanto accade.
Va anche detto che queste piattaforme, grazie alla loro tecnologia, forniscono servizi basati su standard che quasi sempre sono superiori a quelli dei servizi classici – sia privati che pubblici – innescando, senza che ce ne rendiamo appieno conto, processi di privatizzazione consensuale, silenziosi e inavvertiti.
Tra l’altro, questa è la ragione per la quale chi controlla il web fa di tutto per imporsi nella ricerca scientifica e nella formazione sia sviluppandola in proprio che finanziandola dietro lo schermo della ricerca pro-bono.
Ma questa è anche la causa di un conflitto di cui non siamo in grado di prevedere le proporzioni e l’esito, inedito nella storia moderna – quello tra gli Stati nazionali e le piattaforme transnazionali.
C’è da aggiungere che – in virtù della sua deterritorializzazione – si è anche sviluppata una sorta di etica hacker che potremo definire “anarco-capitalista” e che ha come obiettivo un mercato digitale libero da ogni regolamentazione e assolutamente reddituale.
Non va dimenticato che l’enorme capacità di calcolo e di elaborazione dei dati consente alle grandi aziende dell’informatica – spesso in regime di monopolio, quasi sempre di oligopolio – di fornire analisi in qualunque settore della conoscenza, potendo attingere non solo alle risorse del proprio recinto di dati, ma anche alle fonti ad accesso libero.
In quest’ottica la produzione di dati a mezzo di dati fa si che la volontà di offrire piattaforme aperte è più che altro una forma avanzata di capitalismo travestito di buonismo, nel quale il lavoro individuale si muta in una opportunità di contribuire al loro progresso.
Perché?
Perché il meccanismo alla base delle nuove forme di intelligenza artificiale è il cosiddetto apprendimento automatico o machine learning.
Per comprendere i termini della questione va ricordato che nell’algoritmica classica la macchina esegue determinati compiti prefissati da un ordine. Di contro nel machine learning l’algoritmo si nutre in modo autonomo dei dati che elabora.
Per esempio, se vogliamo creare un programma che sappia distinguere le foto degli asini da quelle dei cavalli, occorre metterlo in condizione di esaminare un enorme dataset di immagini di asini e di cavalli.
L’algoritmo studierà queste foto contrassegnate da un etichetta che li distingue ricomponendo in continuazione la propria esperienza in modo da commettere sempre meno errori possibili di riconoscimento.
Alla fine questo programma sarà in grado di distinguere, con una buona approssimazione, un asino da un cavallo, ma quello che è straordinario DA UNA FOTO CHE NON HA MAI VISTO.
L’ampiezza di questo processo è che può essere applicato a qualunque cosa inerte o vivente,
sia esso il software per riconoscere una traccia musicale, sia esso un programma per identificare una persona partendo da come cammina o per come parla.
L’unica cosa di cui abbiamo bisogno è un dataset sufficientemente grande di informazioni adatto al contesto.
Lo stesso processo può poi essere applicato al sentiment analysis ovvero a quei sistemi sviluppati soprattutto per determinare il livello di “positività” o di “negatività” di un testo.
Un’analisi importantissima e invasiva sia nel mondo della pubblicità, come in quello della politica e della diplomazia.
°°°°°°°
“Quo facto, calculemus”
Come abbiamo gia visto, è stato Leibniz ilprimo a cercare di elaborare un modello logico capace di risolvere per mezzo di calcoli qualunque problema.
Oggi, per gli ingegneri della Silicon Valley, ma soprattutto per i proprietari dei dati e delle macchine di calcolo, questo è un mito che appare se non vicino, perlomeno pensabile.
Un po’ di cronaca. Nel 2008 su Wired fu pubblicato un articolo di Chris Anderson che annunciava l’era dei Petabyte.
Wired è una rivista mensile statunitense con sede a San Francisco in California dal marzo 1993, e nota come “La Bibbia di Internet”, tra i suoi fondatori annovera Nicholas Negroponte.
Il Petabyte è un’unità di misura dell’informazione o della quantità di dati.
Il termine deriva dalla unione del prefisso peta con byte e ha per simbolo PB.
Il prefisso peta deriva dal termine greco penta e sta ad indicare 1000 alla quinta.
Perché sono importanti i Petabyte?
Perché hanno reso obsoleto molti aspetti del metodo scientifico classico, così come l’elaborazione di molti modelli teorici, sostituendoli con l’analisi dei dati.
In questo modo hanno creato una nuova forma di fiducia acritica verso gli algoritmi e la correlazione statistica delegando – di fatto – alla macchina la capacità di analisi indipendentemente dalla loro obiettività.
Il problema è che gli algoritmi sono nella nostra vita, valutano l’efficacia dei manager o degli insegnanti.
Come investire in borsa.
Quando ci ammaleremo e, con buona approssimazione, perché.
Come ci comporteremo nell’acquisto di un casa o di un auto.
Ci ricordano cosa ci piace, quale musica ascoltare, quali libri acquistare, in quale ristorante andare.
Dov’è la zona oscura?
In prima istanza nel fatto che l’algoritmo diventa il nostro critico, il nostro esperto, il nostro giudice, in seconda istanza colui che ci precede nei desideri e nelle decisioni perché ci conosce.
Per dirla in maniera più tecnologica l’algoritmo apprende, elabora, costruisce una “scatola nera” capace di valutazioni, vale a dire di fornire risultati senza che il programmatore abbia la necessità di conoscere i criteri che portano al risultato finale.
Che cosa interessa di questo processo alla sociologia?
La circostanza che nella fase di apprendimento la macchina si appropria anche dei bias, delle distorsioni e degli errori che potrebbero trovarsi nel dataset di partenza.
È un caso di scuola il caso di Tay, il Twitter–bot di Microsoft che fu ritirato perché antisemita.
In informatica il significato di bot (da robot) si è trasformato nel tempo.
Inizialmente indicava un software usato per svolgere automaticamente attività ripetitive su una rete, ad esempio un mailbot risponde con messaggi automatici a e-mail inviati a uno specifico indirizzo di posta elettronica.
Oggi il bot descrive anche programmi che possono interagire in modo automatico con i sistemi o gli utenti, come i bot sui social che simulano persone reali.
I bot di Twitter (Twitterbot) gestiscono automaticamente account e sono programmati per comportarsi come utenti umani: seguono altri account, ri-twittano e generano automaticamente contenuti e se malevoli possono anche diffondere notizie false e sfruttare hashtag e parole chiave degli argomenti più popolari per inserirsi in scambi tra persone reali e provocarne le reazioni.
L’opinione pubblica americana sospetta che siano quelli che sono intervenuti e modificato in modo significativo il risultato delle elezioni presidenziali americane.
In altri termini, il problema di fondo, anche se in questo momento in fase embrionale, è quello di una pseudo-oggettivazione del giudizio che appare veritiero e non è controllabile.
Al pari di un qualsiasi individuo – le cui capacità di analisi e di valutazione sono influenzate dalla sua cultura e da ciò che gli è capitato di vivere – l’algoritmo di machine learning si sviluppa apprendendo.
È questa la ragione per la quale sia la politica che le scienze sociali hanno cominciato a considerare con attenzione le implicazioni politiche di un dataset, di comepossa essere confezionato, per esempio, ignorando le minoranze etniche, culturali, politiche, sottovalutando le diversità o le circostanze. Chi lo controlla e con quali fini.
In questo momento l’algoritmo di machine learning opera imbevendosi di opinioni e gusti che riflettono le opinioni dominanti e sono in grado di dar vita a una retorica che appare oggettiva.
Come sostengono gli scettici: Gli algoritmi di deep learning sono intelligenti o stupidi tanto quanto chi li programma e, a causa di questo loro natura, sono spesso destinati a confondere la correlazione di causalità, ma come abbiamo visto imparano velocemente
Prima di concludere queste note, vanno rilevate due cose.
La prima mostra come lo scontro tra apocalittici e integrati, nell’ambito delle nuove tecnologie digitali, appare più che altro un conflitto emotivo legato alla sensibilità culturale.
Di contro, non si può dimenticare che la tecnologia digitale è una realtà autonoma e quindi non si può sottovalutare il fatto che essa è, da una parte, modellata sui rapporti di proprietà e di produzione, dall’altra dipendente dalle relazioni tra i poteri e dalle loro logiche.
Un esempio di scuola che risale al primo secolo prima dell’era comune può essere illuminante.
In questo secolo il matematico Erone di Alessandria concepì una specie di macchina a vapore che se sviluppata avrebbe potuto anticipare la tecnologia a vapore di almeno diciotto secoli.
Questa macchina, però, non aveva – allora – nessuna applicazione pratica perché la grande quantità di schiavi a disposizione rendeva superfluo studiare questa tecnologia.
La seconda cosa è che il mito della neutralità algoritmica discende dal mito della neutralità scientifica.
In realtà come da tempo ha mostrato la teoria critica della società ci sono condizionamenti reciproci tra scienza e rapporti sociali di produzione.
Il concetto di neutralità, in quest’ambito, appare una forma particolare di feticismo che attribuisce a proprietà oggettive, proprie dei prodotti dell’attività intellettuale e manuale degli uomini, ciò che discende dai rapporti sociali che tra di essi intercorrono.
Molti studiosi di scienze sociali, a proposito di algoritmi, denunciano un’autorità algoritmica sull’informazione e la conoscenza.
Parlano di algocrazia (potere degli algoritmi) sul mondo del lavoro, così come di identità algoritmiche, calcolate in modo bio-politico, e assegnate, a loro insaputa, agli utenti dei social media.
Queste circostanze rivelano una preoccupazione sulle conseguenze politiche micro-sociali e culturali del digitale, ma soprattutto sulla trasparenza dei processi computazionali.
Secondo molti sociologi americani la cultura del mondo occidentale si sta progressivamente trasformando in una algorithmic culture caratterizzata da un forte determinismo tecnologico.
Per semplificare al massimo, quello che preoccupa di più le scienze sociali non è l’input – i Big data estratti dall’attività di miliardi di consumatori – né l’output, ma la non trasparenza che sta nel mezzo, vale a dire le righe di codice che guidano il processo con cui gli algoritmi on line ingeriscono i dati sui comportamenti degli utenti.
Algoritmi che, abbiamo sottolineato più volte, rappresentano un investimento – insieme ai dati – da custodire con grande cura perché gran parte dei profitti di colossi come Netflix e Amazon derivano proprio dai suggerimenti automatici che acquisiscono.
Infatti, anche se molti degli algoritmi delle nostre tracce digitali sono progettati da privati per scopi soprattutto commerciali, le ricadute sono pubbliche e spesso inquietanti.
Un caso esemplare è quello del recommender algorithm di Amazon che in piena stagione di terrorismo suggeriva le componenti per fare una bomba artigianale in quanto “spesso comprate insieme”.
In questo aneddoto – tragicamente vero – per riprendere un’espressione di Hanna Arendt, sta quella che si potrebbe chiamare la banalità dell’algoritmo.
Uno strumento che appare semplice, utile e apparentemente neutrale, che si limita a eseguire gli ordini, ma può produrre esiti indesiderati e devastanti.
°°°
La Profilazione Digitale.
Nelle scienze sociali il concetto di identità personale si riferisce all’insieme delle caratteristiche dell’individuo, ed è materia di autodeterminazione.
Vale a dire, questa identità è auto-costruita e discende dal processo di identificazione con uno o più modelli proposti dall’ambiente familiare, socio-culturale e politico in cui l’individuo si trova a vivere. Va sottolineato che l’identità per sua natura non può che essere molteplice e meticciata. L’idea di un identità pura e statica è un’illusione.
L’identità digitale è, invece, la rappresentazione di un individuo.
Un’identità disegnata da coloro che creano e usano i dataset (cioè le collezioni di dati) in cui questa identità è memorizzata.
In sostanza, una persona digitale è la rappresentazione digitale di un individuo reale.
Una sorta di persona astratta che può essere connessa a un individuo reale e che comprende una quantità di dati sufficiente per essere usata in ambiti specifici.
In pratica è una delega di cui si può essere coscienti o che si realizza a nostra insaputa.
Roger Clarke, un esperto di cultura
digitale australiano, ha definito due tipi di identità digitale: quella progettata e quella imposta.
La progettata è costruita dallo stesso individuo, che la trasferisce ad altri per mezzo di dati.
Ad esempio: con la creazione di un Blog personale o di una pagina personale su un social network, o luoghi digitali simili.
Quella imposta è quella proiettata sulla persona. In un certo senso è quella illuminata per
mezzo dei dati collezionati da agenzie
esterne, quali sono le società
commerciali o le agenzie governative (dati che hanno molteplici scopi, come, per
esempio, valutare di una persona il suo grado di solvibilità ai fini della
concessione di mutui, il suo stato di salute a fini assicurativi o creditizi, definire
le sue preferenze politiche, i suoi gusti musicali, eccetera.
In una conferenza a Roma di qualche anno fa, Roger Clarke – affrontando il il tema dell’Identità Digitale – ha definito quattro categorie di persona digitale modellate sull’individuo reale come forme di un inconscio digitale:
– alla prima categoria troviamo una persona che non è a conoscenza degli archivi che conservano i suoi dati sensibili.
– alla seconda, una persona che è a conoscenza degli archivi dati, ma non può accedere ad essi.
– alla terza, una persona che è a conoscenza degli archivi e ne ha accesso ma non conosce i codici per decodificare le informazioni su tali archivi.
– all’ultima categoria troviamo una persona che nonostante abbia accesso ai suoi dati sa che ad essi sono state sottratte o aggregate molte delle informazioni che la profilano, senza conoscerne il motivo.
In quest’ottica il profiling è l’insieme di quelle tecniche che servono per disegnare il profilo di un utente in base al suo comportamento.
Questo modello di profiling deriva direttamente da quello in uso da tempo dalle forze dell’ordine e reso popolare dai film e dalle serie televisive.
Si tratta di una tecnica che ha l’obiettivo di portare alla luce dei pattern, cioè, degli schemi ricorrenti nel modo di agire di un indiziato. L’obiettivo del profiling è di prevedere il momento del reato e intervenire per evitarlo.
Per analogia, come il criminale identifica il comportamento di un delinquente, allo stesso modo il profiling commerciale identifica il comportamento di un utilizzatore di servizi.
Ha rappresentato un grosso passo in avanti qualitativo rispetto al meccanismo della fidelizzazione (dall’inglese fidelity, fedeltà), perché si tratta di un monitoraggioche non riguarda solo i consumi correnti, ma è in grado di anticipare i desideri di consumo, così come il profiler criminale anticipa il momento e il modo del reato.
Oggi il profiling commerciale è ancora più sofisticato perché non si limita ad anticipare i desideri di consumo, ma li orienta e in molti casi li crea.
Più in generale il campo di studio del profiling commerciale, applicato ai consumi, non riguarda solo l’area degli acquisti, ma l’insieme delle interazioni e dei sentimenti (dei processi emotivi) che un individuo sviluppa in un ambiente sociale predisposto per mezzo del web.
L’obiettivo è quello di tracciare un’area esplicativa dei legami sociali e, per conseguenza, dell’identità che si “costruisce” entrando in relazione con gl’altri.
Quest’area di studi oltre a essere complessa è delicata da valutare perché in genere – per motivi politici e culturali – siamo abituati a pensare che il tema del controllo sia di esclusivo appannaggio delle istituzioni – più o meno legittime – che detengono il potere e non una nuova prerogativa commerciale legata alla diffusione del digitale.
Qui siamo in presenza di un paradosso. Se un governo spia la popolazione o settori di essa si rende colpevole per l’opinione pubblica di un comportamento scandaloso e antidemocratico.
Di contro e fino ad oggi, invece, non c’è scandalo, né riprovazione morale se questo controllo è esercitato dalle multinazionali del digitale.
E questo nonostante il fatto che, da un punto di vista fenomenologico, il profiling è una delle tecniche più sofisticate per reificare un individuo, cioè renderlo simile a una cosa, in questo caso, una cosa valutabile e sfruttabile.
In genere nessuno pensa mai di essere sottoposto alla profilazione e, questo, indipendentemente dall’uso che facciamo dei servizi gratuiti in rete ma, come abbiamo gia ricordato, i critici digitali a questo proposito dicono:
SE E’ GRATIS VUOL DIRE CHE LA MERCE SEI TU.
Questo perché l’obiettivo dei servizi che ci offrono è il profitto e non certo quello di metterci in contatto con altri o di condividere con noi le esperienze della vita.
Diciamo che il segreto di Pulcinella del digitale è il suo potere di estrarre valore economico dalla capacità umana di incontrarsi, comunicare, mostrarsi, generare senso e articolare i legami sociali.
In altri termini la profilazione può anche essere definita l’insieme delle tecniche che consentano di identificare e classificare gli utenti in base al loro comportamento.
Quello che viene raccolto e conservato non è, come nelle indagini di mercato classiche, una sorta di istantanea scattata in un dato momento, ma è un flusso di dati in movimento che aumenta costantemente e si modifica in continuazione, realizzando una sorta di controllo continuo.
In sostanza, ogni utente che è in rete sviluppa e acquisisce un’impronta identitaria unica e in perenne metamorfosi.
Il tracciamento di questa impronta avviene in vari modi e per mezzo delle applicazioni che ci mettono in contatto con i servizi.
Il più importante è il browser, cioè il navigatore, con cui surfiamo nel Web.
Il browser è un programma per navigare in Internet che inoltra la richiesta di un documento alla rete e ne consente la visualizzazione una volta arrivato.
Il modo più conosciuto per tracciare un’impronta è il sistema dei cookie, che tutti conoscono perché per legge deve essere segnalato sul sito dove si sta navigando.
Va però aggiunto che questi cookie sono quasi sempre soggetti a domini esterni rispetto a quello su cui il cookie si trova.
Ma che cos’è un cookie?
E’ una stringa di codice, diversa per ciascuno, che ci viene assegnata ogni volta che siamo su un sito e al cui interno sono contenute le impostazioni dell’utente relative al sito Web visitato.
Quando si ritorna su questo sito i cookie impostati in precedenza vengono di nuovo inviati al sito.
A cosa servono?
Se sul sito di una compagnia aerea effettuiamo una ricerca con la frase: Voli per Londra o treni per Berlino, sul nostro browser viene istallato un cookie con questa richiesta (query).
Il termine query viene utilizzato per indicare l’interrogazione da parte di un utente di un database, strutturato. L’analisi del risultato della query è oggetto di studio dell’algebra relazionale.
Poi, in seguito a questa richiesta, un software istallato sul sito consultato farà uso di tale informazione (Voli per Londra, treni per Berlino) per offrirvi della pubblicità legata alla ricerca, come hotel, noleggio auto, ristoranti centri di shopping, eccetera.
Questo perché, in genere, il cookie istallato è un cookie di proliferazione.
In ogni modo ci sono sistemi di tracciamento anche più sofisticati come gli LSO (Local Shared Object) più conosciuti con il nome di flash cookie, e gli e-tag, una sorte di database nascosti dentro il browser e usati soprattutto dalle grandi compagnie come Google, Yahoo, Amazon e così via.
Il tag è una sequenza di caratteri con cui si marcano gli elementi di un file per successive elaborazioni. Da qui la sua definizione più popolare, di sigla apposta come firma dall’autore di un graffito.
Perché tutto questo ci riguarda da un punto di vista sociologico?
Perché il nostro browser generalmente è farcito di software di cui non sospettiamo l’esistenza e che hanno lo scopo di tracciarci.
La pratica di ripulire il proprio browser è importante, ma non risolve il problema.
In linea di massima ogni volta che una tecnologia Web permette a un server di salvare qualche dato all’interno del browser,questo può essere usato come sistema di tracciamento.
Ma oggi c’è anche una proliferazione di tipo attivo.
Quando utilizziamo Google Doc o Gmail condividiamo con il servertutte le informazioni sui contenuti, le condivisioni e le modalità d’uso che ne facciamo.
E’ un tracciamento di tipo attivo di cui abbiamo accettato le condizioni, vale a dire, quei “Termini del Servizio” che nessuno legge mai e che, in sostanza, ci comunicano che, per esempio, Google, con ciò che mettiamo a sua disposizione, si riserva di farne quello che vuole al fine di migliorare il servizio (sic).
Per concludere, dobbiamo PRENDERE ATTO – e molti faticano a crederlo – che i servizi che ci vengono promessi come gratuiti non lo sono affatto.
LA MONETA DI SCAMBIO E’ RAPPRESENTATA DALLA NOSTRA IDENTITA’ – CHE SI COSTRUISCE ATTRAVERSO IL WEB – E DAL CONTENUTO DEI NOSTRI PROCESSI DI INTERAZIONI CON GL’ALTRI.
Per interazione sociale intendiamo qui una relazione di tipo cooperativo svolta da due o più attori detti soggetti agenti, che orientano le loro azioni in riferimento ed in reazione al comportamento di altri attori.
Queste relazioni sono caratterizzate da una certa durata, intensità e ripetitività nel tempo.
Il termine trae origine dalla scuola sociale americana ed è in qualche modo l’equivalente di relazione sociale. Vedi: Modelli di interazione, Erving Goffman, Bologna, Il Mulino, 1971. (Contiene in trad. italiana: Interaction ritual. Strategic interaction.)
Come abbiamo detto, l’identità digitale è, di fatto, la base dei profitti del Web 2.0.
Il termine, apparso nel 2005, indica la seconda fase di sviluppo e diffusione di Internet, caratterizzata da un forte incremento dell’interazione tra sito e utente.
Vale a dire:
(uno) Maggiore partecipazione dei fruitori, che spesso diventano anche autori (blog, chat, forum, wiki).
(due) Più efficiente condivisione delle informazioni, che possono essere facilmente recuperate e scambiate con strumenti peer to peer o con sistemi di diffusione di contenuti multimediali come Youtube.
(tre) Sviluppo e affermazione dei social network.
Possiamo dire che l’architettura del Web 2.0 ha avuto come obiettivo principale quello di pensare l’identità degli utenti e, come abbiamo visto, la raccolta delle informazioni sulle identità, attraverso le tecniche del profiling, costituisce la piattaforma su cui si fondano i profitti delle società di servizi gratuiti online.
In termini sociologici, come si fa a trasformare un utente in merce?
Come abbiamo detto con la reificazione, un concetto che sotto un’altra forma costituisce uno degli argomenti della teoria critica della società elaborata nel secolo scorso soprattutto dalla Scuola di Francoforte.
In pratica, rendendo l’utente un oggetto di studio misurabile.
Creando di esso un modello semplificato sul quale poter compiere elaborazioni come si fa con un insieme di dati.
Ma c’è un aspetto di questo problema che non va sottovalutato.
L’identità – come è mostrato dalle scienze sociali – è un concetto complesso, costituisce il frutto delle relazioni sociali in cui viviamo.
Come si fa a renderla misurabile?
Come abbiamo visto con la profilazione, vale a dire con quella tecnica che permette di identificare i singoli utenti e catalogarli in base al loro comportamento.
Dove sta il trucco? Nella capacità di far si che l’utente venga reificato (messo a nudo) attraverso il suo stesso comportamento.
In particolare analizzando la nostra condotta e registrando le nostre azioni il cui significato è calcolabile attraverso la costruzioni di parametri.
In altri termini, sul web commerciale noi siamo considerati per quello che facciamo.
Dal più piccolo movimento del mouse fino al tempo che trascorriamo senza far nulla sulla schermata di una pagina web.
Va anche osservato che nei panottici digitali del web il credito e la visibilità sono direttamente proporzionali a quanto noi riversiamo sui framework, la piattaforma che funge da strato intermedio tra un sistema operativo e il software che lo utilizza.
Più il nostro account è raffinato, più ci personalizziamo, maggiore sarà il dettaglio della nostra immagine profilata sui data center delle aziende che conservano i nostri dati.
L’account è il complesso dei dati identificativi di un utente.
Quei dati che gli consentono l’accesso a un servizio di rete.
L’account di posta elettronica, in particolare, è il nome e la parola d’accesso per poter usufruire del servizio di posta.
Esistono da questo punto di vista due copie della nostra identità.
Una è quella che vediamo sullo schermo del nostro computer, che aggiorniamo, attraverso la quale ci rapportiamo con gli altri. È, di fatto, l’identità con la quale ci presentiamo nell’infosfera.
L’altra è quella che sta sul server, è molto più estesa e complessa perché conserva in memoria ogni nostro dettaglio a partire dalle interazioni, dalle correzioni e dalle osservazioni passive che abbiamo svolto.
°°°°°
Una nota sul data mining.
Definiamolo prima di analizzarlo.
Il data mining riguarda l’estrazione di informazioni – eseguita in modo automatico o semi-automatico – da grandi quantità di dati – conservati nei DataBase – per la ricerca di pattern e/o relazioni non note a priori.
Implica l’uso di tecniche di analisi che si avvalgono di modelli matematici e statistici per l’interpretazione e la previsione dell’andamento di serie temporali, tecniche che mirano ad implementare le capacità analitiche di tipo predittivo.
Va rilevato che gli algoritmi di data mining costituiscono una svolta rispetto a quelli usati nei calcoli statistici. Infatti, mentre la statistica permette di elaborare informazioni generali riguardo ad una data popolazione – per esempio, il numero di disoccupati rispetto agli occupati – il data mining viene utilizzato per cercare correlazioni tra più variabili relativamente ai singoli individui.
Per questo da tempo il data mining è massicciamente usato per orientare le opinioni e i processi decisionali.
Va osservato che questo lavoro sui dati non si limita alla pura constatazione e osservazione di fatti, perché il suo fine è quello di mettere in atto azioni capaci di produrre valore.
Ci sono quattro misure – dette le quattro V – che consentono di catalogare i dati raccolti e di poterne individuare una grandezza.
Queste misure sono:
– Il Volume, è una misura facile da intuire in quanto riguarda l’accumulo dei dati, ma va apprezzata.
Ogni minuto vengono caricate sulla piattaforma di sharing Youtube più di quattrocentocinquanta
ore di video.
Facebook genera più cinque petabyte di dati al giorno.
Twitter gestisce oltre 700 milioni di tweet ogni 24 ore.
Il numero di mail scambiate ogni giorno nel mondo è più di duecento miliardi di unità.
(Sono dati del 2018 e sono per la nostra esperienza impensabili e in difetto.)
– La Velocità. Concerne la necessità di ridurre al minimo i tempi di analisi delle informazioni cercando di processarle in real time o quasi e distinguendo quelle che potrebbero essere o diventare in tempi brevi obsolete.
– La Varietà. È una delle caratteristiche più importanti e ricercate in quanto incide sul valore di rete generato.
I dati – per una classificazione di massima – possono essere dati strutturati (costituiscono il venti per cento di tutti i dati). Dati non strutturati sono i dati conservati senza alcuno schema, composti da un elevato numero di meta-dati, ossia di informazioni che specificano il contenuto e il contesto di una pagina web. Dati semi–strutturati. Come i dati XML.
In informatica, l’Extensible Markup Language (XML) è un linguaggio di markup che definisce un insieme di regole per la codifica dei documenti in un formato che sia leggibile dall’uomo e leggibile dalla macchina.
– La quarta misura è la Veridicità. Indica il grado di accuratezza e di attendibilità dei dati. È la condizione chiave e insieme la più delicata per poter estrarre valore dai dati.
Queste quattro misure sono legate tra di loro da processi di interdipendenza.
Partendo da esse possiamo definire i Big data ( per quello che interessa la sociologia) come un patrimonio informativo caratterizzato da velocità, volume e variabilità elevati, che richiede forme innovative di analisi e di gestione finalizzate a ottenere una più accurata comprensione dei processi decisionali.
Questo fenomeno dei Big data ha smesso da tempo di essere un argomento specialistico per diventare un tema ricorrente sui social network.
Su LinkedIn, per esempio, ci sono più di duemila gruppi dedicati all’argomento, può sembrare strano, ma non dimentichiamo che i data sono il nuovo petrolio, o se preferite uno dei temi centrali della contemporaneità.
Alla base di questa situazione ci sono le tecnologie digitali oramai essenziali a innumerevoli attività professionali, dalla comunicazione all’economia, all’industria, alla cultura, alla difesa.
Così come ci siamo noi, sempre più dipendenti da una serie di dispositivi digitali necessari per svolgere un numero sempre più elevato di compiti quotidiani e dotati di un numero sempre crescente di sensori e strumenti di registrazione.
In breve, questo è il motivo per cui la natura dei dispositivi digitali è di essere delle macchine che in prima istanza producono dati.
Il più famoso di essi lo chiamiamo ancora “telefonino”, ma lo smartphone è, a tutti gli effetti, un computer portatile di dimensioni ridotte, ed è proprio la sua vera natura di device che produce dati che lo fa costare così poco.
Oramai sono gesti automatici che facciamo senza pensarci, ma la mattina, quando lo accendiamo, o, meglio, lo avviamo – sempre che non lo lasciamo acceso in continuazione – il nostro smartphone avvisa più di un soggetto, con i quali ci collega, che il device è attivo.
Quali sono?
Il produttore del telefono, il produttore del sistema operativo, quelli delle app che abbiamo installato e ad altri a essi collegati.
Poi, se sul nostro smartphone è attivata la geo-localizzazione, verranno registrati anche i nostri tragitti quotidiani che finiranno con il far parte di quel insieme di dati che trasmettiamo a tutti i soggetti a cui siamo legati per suo tramite.
In altri termini, se una mezzora dopo essere usciti di casa il nostro smartphone raggiunge un indirizzo che corrisponde a quello di un’azienda o di una scuola, come nel nostro caso, e da qui non si muove per un certo periodo di tempo, sarà piuttosto facile per chiunque abbia i mezzi per raccogliere questi dati, di processarli e trarne delle conclusioni.
In passato questa acquisizione di dati creava spesso ingorghi, oggi avviene in modo automatico, senza interferenze, perché ogni dispositivo che noi utilizziamo crea una traccia digitale fatta di dati che sono aggregati, analizzati e letti.
Questa situazione è oggi accentuata dall’Internet delle cose (Internet of Things) – che abbiamo già definito come l’implementazione di connettività all’interno di elettrodomestici, autovetture e di oggetti di uso comune – che ha fatto crescere le dimensioni della nostra traccia digitale trasformandola in modo radicale.
Poeticamente potremmo dire dando vita all’ombra delle nostre abitudini di consumo.
A parte questo, con la mole di dati raccolti si può fare un vero e proprio profilo virtuale della nostra esistenza, esistenza di cui senza una piena consapevolezza cediamo la proprietà e il controllo ai produttori di device e ai fornitori di servizi digitali.
Dunque, al centro del problema ci sono i dati, la cui importanza – come fenomeno della modernità – fu messa in luce qualche anno fa dalle discussioni sulla post–fattualità.
Post–fattuale(in inglese post–truth) è un termine inventato da David Roberts, un blogger ambientalista americano.
Serve a spiegare la crescente inclinazione di parte della società moderna a prestare fede a notizie false o fortemente alterate, cioè, alle “bufale”, come si dice in italiano corrente.
Semplificando, quello che stiamo vivendo è un passaggio da una modalità o schema di giudizio basato sull’osservazione diretta e la testimonianza dei fatti a una modalità di giudizio basata sulla raccolta, l’aggregazione e l’analisi dei dati.
La domanda che, per conseguenza, dobbiamo porci è questa:
In che modo il passaggio dai fatti ai dati come modalità di giudizio cambia il modo in cui vediamo le cose?
In primo luogo va compreso il ruolo che i dati rivestono nel determinare il giudizio che diamo sulla realtà che ci circonda è la loro pretesa oggettività rispetto ai fenomeni che descrivono.
Basta fare un giro sui social network per costatare il modo in cui gli utenti gestiscono i dati, le statistiche, le inchieste di data journalism e di altre forme di presentazione delle informazioni, come se fossero un vangelo, con il solo obiettivo di far accettare all’interlocutore l’evidenza della propria posizione.
Inchieste sul campo hanno dimostrato che nel sentire comune, soprattutto dei nativi digitali, ciò che viene presentato e supportato attraverso i dati assume la forza di un’evidenza sostanzialmente incontestabile.
O, per dirla in altro modo, sembra che il dato abbia assunto uno statuto simile a quello degli elementi naturali.
Vale a diresembra che i dati abbiano acquisito uno statuto comparabile a quello dei fatti osservabili che per secoli hanno costituito l’unica base possibile di giudizio.
Questa credenza del dato come un paradigma di oggettività è il prodotto di due fattori.
– Da una parte è il risultato dell’abbassamento delle soglie d’ingresso alla produzione e alla distribuzione delle informazioni, condizione che ha reso possibile un mondo caratterizzato dalla parcellizzazione delle opinioni e dei punti di vista competenti, generando quello che i sociologi chiamano un panorama liquido e mutevole.
– Dall’altra è l’effetto ideologico che presiede alla costruzione di un discorso o di un punto di vista che ha come obiettivo di nascondere e rimuovere la reale natura dei dati. Un effetto che potremmo anche chiamare semiotico.
Di fatto, quelli che siamo abituati a considerare come fatti che si danno in modo spontaneo all’analisi e che chiamiamo comunemente dati, sono, in realtà, una selezione da un catalogo infinito di possibilità che coinvolgono i nostri sensi.
Per cui, considerato che l’azione di selezionare delle differenze tra le cose che ci circondano è un atto di per sé culturale, anche i dati che raccogliamo e analizziamo ne portano impresso il segno.
Considerati in questo modo, cioè come un elemento culturale, i dati perdono il carattere dell’oggettività per diventare – come le opinioni – il prodotto delle condizioni e del contesto in cui vengono sviluppati.
In pratica ed è il problema, i dati portano impresso i bias culturali di chi progetta i sistemi per raccoglierli e le cornici concettuali per analizzarli, mettendo così in luce alcuni aspetti a discapito di altri, a seconda dei punti di vista da cui vengono creati.
°°°°°°
Per spiegare che cos’è un algoritmo e illustrare il meccanismo del SE/ALLORA siamo ricorsi al gioco della mora cinese.
Oggi non siamo più in grado di battere le ICT neppure a questo gioco poiché un robot è così veloce da riconoscere in un millesimo di secondo la forma che assumerà la nostra mano e scegliere la mossa vincente.
Oggi, per comprendere quello che molti chiamano il nostro destino informazionale dobbiamo tenere presente la distinzione tra tecnologie che migliorano e tecnologie che aumentano le prestazioni.
Impugnature, interruttori, manopole – che caratterizzano in genere le tecnologie che migliorano (come ieri erano martelli, leve, pinze…) – sono interfacce volte a consentire l’applicazione dello strumento al corpo dell’utente in modo ergonomico.
Le tecnologie che migliorano richiamano – se si vuole – l’idea di cyborg.
Invece, i dati e i pannelli di controllo delle tecnologie che aumentano, sono interfacce tra ambienti diversi.
Da un punto di vista narrativo possiamo dire che le vecchie tecnologie analogiche creavano ambienti funzionali al loro scopo, ambienti raccolti, com’è l’interno acquoso e insaponato di una lavatrice o l’interno bianco e freddo di un frigorifero.
Le ICT, invece, sono forze che modificano l’essenza del nostro mondo, creano o ricompongono realtà che l’utente è in grado di abitare.
DICIAMO CHE NON SONO CHIUSE SU SE STESSE, MA SONO AVVOLGENTI, COSTRUISCONO INTORNO A NOI.
Facciamo un passo in avanti.
La nuova storia, la storia nell’era digitale, dipende in modo considerevole dai big–data, ma ci sono molti aspetti da considerare.
Uno riguarda la qualità della memoria digitale perché le tecnologie dell’informazione e della comunicazione digitale hanno una memoria che dimentica.
Cosa vuol dire?
Che queste tecnologie – costi di produzione a parte – divengono rapidamente obsolete e rendono tutto molto volatile.
Già da oggi vecchi documenti digitali sono diventati inutilizzabili perché la loro tecnologia non è più disponibile.
Basti pensare al destino dei floppy.
In Internet ci sono milioni di pagine abbandonate, pagine create e poi mai più aggiornate o modificate.
Nel 1998 la vita media di un documento, prima dell’abbandono, era di 75 giorni, nel 2008 si è ridotto a 45 giorni, nel 2018 a 37 giorni.
Molti studiosi hanno osservato che la nostra memoria digitale appare volatile come la nostra memoria orale anche se l’impressione che ci trasmette la memoria digitale è diversa.
Realisticamente possiamo dire che, in questa alba del digitale, le ICT non conservano il passato per metterlo a disposizione del futuro, dal momento che – da un punto di vista fenomenologico – le strategiedigitali tendono a farci vivere in un eterno presente.
Conservare la memoria, del resto, non è facile, occorre saper cogliere le differenze significative e saper stabilizzare le sedimentazioni in una serie ordinata di cambiamenti.
Qual è la sostanza del problema?
Il fatto che lo stesso sistema dinamico – che ci consente di riscrivere migliaia di volte lo stesso documento – è quello che rende altamente improbabile la conservazione delle versioni precedenti per un esame futuro.
“Salva questo documento” significa sostituisci le versioni precedenti.
In questo modo ogni documento digitale di qualsiasi genere è condannato a questo destino tecnico-storico.
Con quali rischi?
Che le differenze finiscano per essere cancellate e dimenticate e le alternative amalgamate.
Così, il passato appare costantemente riscritto e la storia ridotta a un perenne qui-ora.
Come dicono gli scettici, quando la maggior parte della nostra conoscenza è nelle mani di questa memoria che dimentica, rischiamo di trovarci e senza volerlo imprigionati in un eterno presente.
Questo è uno dei motivi per cui si sono formate molte organizzazioni volte a conservare la nostra eredità culturale digitale come la “National Digital Stewardship Alliance” o l’”International Internet Preservation Consortium”.
En passant si può dire che il lavoro di custode delle informazioni digitali è una delle nuove professioni di questo secolo.
Un altro aspetto importante del problema è che la quasi totalità dei dati è stata creata in pochi anni e tutti questi dati stanno invecchiando nello stesso tempo.
Invecchiano insieme ai nostri attuali supporti digitali, hard disk e memorie di vario genere.
MTBF – Mean Time Before Failure ovvero “il tempo medio prima del fallimento” è un programma che indica l’aspettativa di vita stimata di un sistema.
Più elevato è il MTBF più a lungo dovrebbe durare un sistema.
Un MTBF di cinquantamila ore – vale a dire di cinque anni e mezzo – è la vita media di un hard disk.
La questione è che, per come si è sviluppato sul piano commerciale il sistema digitale, le aspettative di vita dei supporti dei nostri dati sono, al momento, sincronizzate.
Praticamente, i Big-Data invecchieranno e diventeranno dati morti pressappoco nello stesso momento.
Va da sé, molti saranno salvati e trasferiti su altri supporti, ma il punto è chi stabilirà quali dati dovranno vivere e quali dovranno sparire?
Per capire meglio questo problema c’è un’analogia.
È quella che ha riguardato il passaggio dai film in bianco e nero e muti, ai film a colori.
Questo passaggio fu fatto senza un criterio o delle direttive condivise e oggi noi sappiamo che più della metà delle pellicole girate nei primi tre decenni del Novecento sono andate distrutte, soprattutto per recuperare il nitrato d’argento.
C’è anche un altro problema, nel 2007, per la prima volta, il mondo ha prodotto più dati di quanti ne poteva immagazzinare e ciò a dispetto del fatto che la densità di immagazzinamento degli hard disk stia crescendo rapidamente.
Per fare un esempio, si prevede che entro il 2023 un hard disk di 14 terabyte misurerà circa tre centimetri di diametro e non costerà più di una cinquantina di dollari.
Per fronteggiare queste situazioni è importante capire questo.
Nella cultura analogica il problema è cosa salvare.
Nella cultura digitale il problema è cosa cancellare e con quali conseguenze.
Nel digitale, infatti, il nuovo spinge via il vecchio o, meglio, il primo che entra è il primo che esce.
Le pagine web aggiornate cancellano quelle vecchie, le nuove foto rendono obsolete le vecchie, i nuovi messaggi si sovrappongono ai precedenti, le e-mail recenti sono conservate a spese di quelle dell’anno prima.
Vediamo un altro argomento in qualche modo connesso: il Quantified Self.
È un movimento nato in rete per incorporare la tecnologia necessaria all’acquisizione di dati relativi a ogni aspetto della vita corrente.
Il motto di questo movimento è: self knowledge through numbers.
Nata nel 2007 su iniziativa della rivista Wired la pratica del lifelogging (la pratica di registrare le immagini della vita materiale) grazie alla diffusione di dispositivi bio-metrici connessi alla rete globale ha consentito un balzo in avanti nel monitoraggio delle attività biologiche.
Ogni aspetto vitale è definito in termini di input, stati o condizioni, performance, quantità di cibo consumato, qualità dell’aria respirata, umore, eccitazione, eccetera.
I sensori sono fatti in modo da poter essere indossati e sono in grado di monitorare l’attività fisico-chimica dell’organismo così come sequenziare il DNA e le cellule microbiche che abitano il corpo.
Il desiderio e la ricerca della verità del sé – che ha la sua culla nell’insegnamento delfico GNOTHI SEAUTON (conosci te stesso) si sta trasformando in uno strumento di auto-addestramento o, come molti ricercatori scrivono, di autocondizionamento.
Di fatto, misurare le manifestazioni fisiologiche del proprio corpo con gli strumenti che offre il monitoraggio digitali, così come tenere una traccia costante del proprio corpo organico di fatto serve solo al confronto profilato.
______________________________________________________________________________
Una nota tratta dal quotidiano La Repubblica, Roma.
In principio fu il blog. Ma adesso, dopo che i socialnetwork come Facebook e Twitter hanno elevato il “web–log”, ossia il “diario online”(questo il significato del termine) a fenomeno universale, è arrivato il momento del lifelog: il diario della propria vita per immagini da postare tutto intero su internet.
Una nuova micro-video-camera digitale che si può attaccare ai vestiti e in grado di effettuare automaticamente due foto al minuto.
Ciò permette di mettere in rete tutto quello che facciamo nelle 24 ore del giorno.
Prodotta dalla Memoto, una start–up americana, crea se uno la “indossa” per più o meno dodici ore al giorno (ovvero se la si tiene sempre accesa, tranne quando si dorme) quattro gigabyte di nuovo materiale ogni 24 ore.
La mini macchina fotografica scatta 10 mila immagini alla settimana, 40 mila al mese, mezzo milione all’anno.
Volendo, si può fare in questo modo la “cronaca fotografica” di una vita intera, due foto al minuto dalla culla alla tomba, pari all’incirca a 40 milioni di fotografie: mentre mangiamo, studiamo, lavoriamo, chiacchieriamo, giochiamo, facciamo l’amore.
Sarà il “lifelogging”, si è chiesta la Bbc illustrando il nuovo fenomeno, la prossima mania del web?
Per gli ottimisti, come Martin Kallstrom, fondatore e presidente della Memoto, significa che non avremo più bisogno della memoria cerebrale per ricordare la nostra esistenza: basterà scaricare su internet e salvare l’archivio digitale di parole, suoni e immagini che scorre come un doppione, come una “secondlife”, accanto alla nostra vita reale, di cui è lo specchio fedele.
Per i pessimisti, tuttavia, questa “informationoverload”, questo carico eccessivo di informazioni digitali, può diventare una minaccia sociale, perché ogni parvenza di privacy va in frantumi nel momento in cui viene condiviso con altri utenti sul web.
In
altri termini, può funzionare una società in cui, perlomeno teoricamente, tutti
sanno tutto di tutti (o almeno possono saperlo) con un semplice clic del mouse o semplicemente premendo i polpastrelli su
uno schermo?
Una cosa è certa: le nuove frontiere della comunicazione digitale si spingono
sempre più avanti, sempre più in fretta.
La Memoto ha prodotto il congegno per ora più piccolo, ma non è certo l’unica azienda dell’it, cioè dell’information technology, a operare nel campo del lifelogging.
La Microsfot ha creato i una minivideocamera chiamata SenseCam che scatta automaticamente una foto ogni 30 secondi in maniera analoga.
GoogleGlass e Twitter offrono strumenti per filmare e postare in modo simile ogni attimo della nostra giornata.
“L’osservazione di massa sta diventando una tendenza globale”, osserva il professore Henry Jenkins, docente di studi sui nuovi media alla University of Southern California. “Viviamo in una cultura più esibizionistica ma al tempo stesso ci sono persone a disagio davanti a tutta questa mole di informazioni”.
Il timore è quello che il GrandeFratello immaginato da George Orwell nel suo romanzo futuristico “1984” non sia più un occhio che vigilia dal di sopra sull’esistenza umana, ma un minuscolo gadget che ciascuno di noi porterà volontariamente all’occhiello.
Tuttavia vanno considerati anche gli aspetti positivi: le immagini digitali riprese con i telefonini da centinaia o migliaia di spettatori hanno aiutato la polizia a individuare rapidamente gli autori dell’attentato all’arrivo della maratona di Boston.
E’ un fenomeno che gli esperti chiamano “sousveillance”,il contrario di surveillance (sorveglianza).
Invece di un governo che ci guarda dall’alto, ci sono gli individui che guardano dal basso, magari per mettere su internet il lifeblog della propria vita.
______________________________________________________________________________
Vediamo adesso di chiarire alcuni equivoci.
Quando si parla di intelligenza artificiale occorre intenderci.
È un’espressione che potrebbe far pensare a macchine dotate di una qualche forma di conoscenza, in grado di ragionare e, soprattutto, consapevoli di ciò che stanno facendo.
Le cose, in realtà, sono diverse.
Il fatto che un software impari a riconoscere – scannerizzando un’immagine – se su di essa ci sono dei gatti non significa che sappia che cos’è un gatto.
O meglio, il software che ci batte giocando a scacchi non ha la più pallida idea di che cos’è il gioco degli scacchi, come per esempio avvenne quando Deep Blue batté Gary Kasparov. Oppure quando un computer batté Lee Sedol, un grande maestro di GO.
Ha scritto Luciano Floridi: la nostra tecnologia per ora non è in grado di processare alcun tipo di informazione dotata di significato, essendo impermeabile alla semantica, vale a dire, al significato e all’interpretazione dei dati che manipola.
Diciamo, semplicemente, che i sofware non sono in grado di pensare.
Sono capaci solo di processare una quantità enorme di dati e di metterli in relazione tra di loro, identificando collegamenti e differenze o valutarli statisticamente.
Nel nostro esempio, di identificare la mossa degli scacchi che ha la maggiore probabilità di avere successo.
En passant, ricordiamo che i primi studi sulla cosiddetta intelligenza artificiale risalgono alla metà del secolo scorso.
I mezzi utilizzati per arrivare a questo risultato nella fattispecie degli scacchi sono sostanzialmente due.
Il machine learning – ovvero, l’apprendimento automatico – e la sua più recente evoluzione, il deep learning – l’apprendimento approfondito.
In particolare il deep learning opera su un vastissimo numero di strati interni alle cosiddette reti neurali che simulano il funzionamento del cervello, raggiungendo così una maggiore capacità di astrazione.
Oggi possiamo definire il machine learning come una branca della cosiddetta intelligenza artificiale che fornisce ai computer l’abilità di apprendere senza essere stati esplicitamente programmati.
Di apprendere attraverso tentativi ed errori utilizzando una sorta di calcolo statistico estremamente evoluto.
O, più semplicemente, il machine learning è l’abilità di apprendere di un computer senza essere stato esplicitamente programmato, a differenza dei software tradizionali.
Il metodo probabilistico che sta alla base del machine learning è lo stesso che sta alla base di una quantità di operazioni che ci semplificano, apparentemente, la vita.
Può eliminare, con l’impiego di filtri, la posta indesiderata, serve a Facebook per indovinare quali dei nostri amici sono presenti nelle foto, permette ad Amazon e a Netflix di suggerirci quali libri o film potrebbero piacerci, a Spotify di classificare le canzoni in base al loro genere musicale.
Per la cosiddetta intelligenza artificiale i fattori fondamentali sono due. Il potere di calcolo e i dati. Soprattutto questi che sono la materia grezza dalla quale il network neurale trae le sue conclusioni e le sue predizioni.
Ma come abbiamo più volte detto se questi dati non sono di buona qualità il risultato non potrà essere che pessimo.
In informatica la rete neurale è un sistema hardware o software, la cui struttura di base è ricalcata sull’organizzazione del cervello in neuroni e reti di neuroni interconnessi
Alla fine del secolo scorso, invece, le ricerche sulla cosiddetta intelligenza artificiale erano concentrate sullo sviluppo delle capacità simboliche.
Vale a dire si cercava di far apprendere alle macchine tutte le regole necessarie per portare a termine un compito.
Per tradurre dall’italiano all’inglese – per fare un esempio – si cercava di fornire al computer tutte le regole grammaticali e i vocaboli delle due lingue per poi chiedergli di convertire una frase da una lingua all’altra.
Con il risultato di tradurre merluzzi con piccoli merli.
Tra i pionieri di queste ricerche va ricordato, Silvio Ceccato, che per anni lavorò nel laboratorio di cibernetica dell’Università Statale di Milano.
Oggi abbiamo capito che il modello simbolico ha grossi limiti e funziona solo in quei campi che hanno regole chiare e rigide, come la matematica e gli scacchi.
L’atteggiamento generale iniziò a cambiare con gli ultimi anni del secolo scorso quando diventò evidente che il machine learnig consentiva di risolvere problemi che l’intelligenza artificiale simbolica non sarebbe mai stata in grado di risolvere.
Tutto ciò, grazie a una mole senza precedenti di dati a disposizione e all’accresciuta potenza di calcolo dei computer.
Per capire il volume dei dati occorre riflettere su questo: Nel 2013 si è valutato che il 90 per cento dei dati prodotti nella storia dell’umanità erano stati creati nei due anni precedenti.
Alla base del machine learning c’è l’utilizzo di algoritmi che analizzano enormi quantità di dati, imparano da essi e poi traggono delle conclusioni o fanno delle previsioni.
In breve, come abbiamo detto, nel caso del machine learning è la macchina che scopre da sola come portare a termine l’obiettivo che le è stato fissato.
È una forma di intelligenza?
No.
Per imparare a riconoscere un numero, diciamo il numero “quattro”, un’intelligenza artificiale deve essere sottoposta a migliaia e migliaia di esempi. A un bambino di cinque anni basta vederne cinque o sei.
In ogni modo il machine learning è in marcia.
Guiderà le nostre automobili, ma già adesso, per esempio, ci può assistere come se fosse un avvocato, soprattutto nelle pratiche internazionali.
Un avvocato capace di scartabellare in pochissimo tempo nei database legali di tutto il mondo.
Senza dimenticare Watson – l’intelligenza artificiale elaborata dalla IBM – che può diagnosticare i tumori con precisione maggiore di molti medici ospedalieri.
Dove i saperi sono consegnati al calcolo e alla simulazione
tecnologicamente assistita. Dove dilagano le procedure di
semplificazione, spacciate per procedure d verità. Dove ogni
conoscenza ha il suo posto e il suo compito performativo, la filosofia
finisce per venir esautorata.
Donatella Di Cesare
Riassumendo.
Per la cosiddetta intelligenza artificiale i due fattori fondamentali sono il potere di calcolo e i dati.
Quest’ultimi devono essere di buona qualità essendo la materia grezza alla base delle conclusioni o predizioni del network.
Come sanno bene gli informatici, se inserisci spazzatura, produci spazzatura.
Qual è il problema?
È che spesso i dati forniti alle IA (intelligenze artificiali) includono molti pregiudizi umani che si riflettono inevitabilmente sui risultati ottenuti con le macchine.
L’esempio di scuola di questa constatazione è quella del bot progettato da Microsoft e chiamato Tay. Ne abbiamo già parlato.
Appena ha cominciato a immagazzinare dati si sono scatenati i troll che hanno iniziato a comunicare con Tay dandogli in pasto una miriade di opinioni razziste e omofobe che lo hanno fatto diventare nel giro di 24 ore il primo esempio di intelligenza artificiale nazista.
Un aneddoto racconta che un istante prima di essere chiuso Tay twittò: Hitler was right I hate the Jews.
Lasciando stare i troll un altro problema nella distorsione delle IA è l’uso di training set facilmente accessibili e a basso rischio legale dal punto di vista del copyright.
Due esempi spiegano bene il problema.
Una fonte per istruire i network neurali sono le e-mail.
In un caso famoso furono usate le mail di una compagnia petrolifera texana.
Sembravano perfette fino a quando questa compagnia non fu denunciata per truffa.
Quali furono le conseguenze inattese?
Che anche l’intelligenza artificiale aveva assorbito l’arte di truffare!
Spesso per evitare i copyright si usano dati provenienti da opere che non sono più soggette ad esso.
Per esempio, in lingua inglese, Shakespeare, Joyce, Scott Fitzgerald.
Ma anche in questo caso c’è un problema non da poco.
Sono autori pubblicati prima della seconda guerra mondiale e un dataset che faccia affidamento sui loro scritti non farebbe altro che riflettere i pregiudizi del loro tempo e lo stesso farà il sistema di intelligenza artificiale nutrito con questo dataset.
Si tratta di un problema enorme e delicato, soprattutto per quanto riguarda l’ordine pubblico, perché, come si è già verificato, certe etnie – solo a causa di statistiche mal impostate – sono state considerate come naturalmente più predisposte a diventare terroristiche o a commettere crimini.
Il problema diventa ancora più delicato con i software predittivi in mano alle forze dell’ordine perché spesso essi finiscono per causare – come dice la sociologia – una profezia che si auto-avvera o che si auto-adempie.
In sociologia una profezia che si auto-adempie o che si auto realizza, come abbiamo visto, è una previsione che si realizza per il solo fatto di essere stata espressa.
In conclusione il pericolo sta nel fatto che gli algoritmi – protetti dalla loro aurea di scientificità – potrebbero diventare una giustificazione per profilazioni in sé inattendibili e generare equivoci se non tragedie.
In sostanza, ogni sistema di profilazione predittivo è efficace solo se i dati inseriti sono corretti e privi di bias.
Le scoperte di Einstein non si possono spiegare
con le parole di Newton.
Ancora una nota su l’intelligenza artificiale. Can Machines Think?
Il nucleo di partenza dell’intelligenza artificiale è il testo di Alan Turing del 1950 intitolato, Computer Machinery and Intelligence, nelle prime righe di questo testo Turing si domanda, “possono le macchine pensare?”.
Una risposta articolata provò a cercarla un gruppo di scienziati e ingegneri nell’agosto del 1956 al Dartmouth College nel New Hampshire.
Questo incontro è anche quello in cui fu fondata la disciplina chiamata Artificial Intelligence.
A questo incontro parteciparono i futuri premi Nobel, Herbert Simon e John Nash, Marvin Minsky, che fonderà un omonimo laboratorio al MIT e Claude Shannon, il fondatore della teoria dell’informazione.
A più di sessanta anni di distanza il tema dell’intelligenza artificiale rappresenta ancora uno dei più complessi sforzi scientifici nella storia della modernità, uno sforzo che ha riunito molte discipline sia scientifiche che umanistiche e che ha accelerato la corsa della cosiddetta rivoluzione industriale.
La machine learning è oggi un concetto centrale per fare speech recognition, image recognition o traduzioni. Per esempio, se si vogliono fare traduzioni come Google transale occorre creare un sistema nelle due lingue in questione e poi fornirgli milioni di testi in queste due lingue.
In questo modo il sistema impara a tradurre, ma non è un problema di linguistica bensì di statistica pura.
In breve l’intelligenza artificiale non cerca di imitare la logica umana ma sviluppa calcoli probabilistici e traduce.
È facile capire che il problema non è tanto quello di sviluppare algoritmi, ma trovare dati su cui imparare. Si può dire che la caccia ai dati è oggi di vitale importanza ed è quello che fanno tutti a cominciare da Google, Facebook, Amazon, eccetera.
In altri termini, la Data Collection e il machine learning sono la base dell’Intelligenza artificiale, tutto il resto è un corollario.
Tutto questo ci dice anche che la scienza nella modernità progredisce riformulando i suoi paradigmi, oggi il problema non è più tanto capire che cos’è l’”intelligenza”, ma emularne il comportamento utile. Certamente la statistica non aiuta di certo a capire il modo di pensare umano, ma sicuramente si possono costruire sistemi intelligenti in modo statistico.
Facciamo un esempio, Autocomplete e Autocorrection in Google funzionano senza minimamente capire quello che fanno.
L’autocompletamento (autocompletion), in informatica, è una funzionalità offerta da molti programmi di video scrittura e browser.
È la capacità di intuire automaticamente quale parola sta per essere digitata solo in base alle prime lettere di essa.
La parola intuita compare sul video come suggerimento, e l’utente può confermarla (in genere premendo un tasto come spazio o invio) oppure continuare a digitare normalmente nel caso la parola desiderata fosse in realtà un’altra.
Quando Amazon consiglia un libro da leggere non sa quello che dice. Nel mondo degli affari, della sicurezza, delle assicurazioni tutto è data-driver.
In breve, siamo circondati da una caccia ai dati e l’intelligenza artificiale fa la sua parte, ma attenzione, non è un robot che ci insegue o ci può perseguitare. È peggio è un’infrastruttura.
Ricordiamo che l’intelligenza umana non è l’unica forma di intelligenza.
Essa è così perché è il frutto di un processo evolutivo, ma non è l’unica e se ci pensiamo è stata preceduta da molte altre forme di intelligenza, com’era quella dei dinosauri.
Le macchine non stanno cercando di diventare umane e se anche hanno un’intelligenza paragonabile a quella di un topo possono fare molte cose.
È arrivato il momento di definire in modo succinto che cos’è l’intelligenza artificiale.
Diciamo che è lo studio degli agenti intelligenti.
Gli agenti intelligenti sono quelli che acquisiscono informazioni dall’ambiente in cui si trovano, in cui vivono, le processano e imparano ad usarle massimizzando il loro profitto d’uso, non importa se è una lumaca, un gatto o un elefante. Quindi, l’intelligenza artificiale è lo studio degli agenti intelligenti, dei processi revisionali e dei modelli di comportamento in un determinato ambiente.
Resta un interrogativo da fantascienza, saranno mai le intelligenze artificiali così potenti da assoggettarci?
È una sorta di bias, non si può ragionare con le macchine. Esse ricevono un compito e come sistema autonomo lo realizzano.
Ricordiamo che l’intelligenza artificiale è solo un processo statistico, più dati ha meglio funziona.
I bias delle macchine nascono dall’insufficienza dei dati o da fonti erronee, l’unica cosa che si può dire è che le macchine tendono a sbagliare sempre meno nel corso del tempo.
°°°°°
Una nota sulla tecnocrazia.
Le teorie che trattano il fenomeno della tecnocrazia sono moderne, ma la loro origine può essere individuata nella dottrina greca del governo dei custodi.
In altri termini, l’idea della monopolizzazione delle decisioni collettive ad opera di chi possiede dei saperi specialistici (o dotati di una qualche superiorità di tipo cognitivo) costituisce un tema sensibile nell’ambito del pensiero politico occidentale.
Platone è all’origine di questa tradizione quando si pose con il suo governo dei custodi in opposizione ad una concezione della politica sviluppata da Protagora, secondo cui la distribuzione di rispetto e giustizia, che insieme compongono le ragioni della politica, deve, a differenza delle altre ragioni, andare a beneficio di tutti.
Diversamente da Protagora, che con le sue tesi contributi a legittimare il nuovo ordine democratico di Atene, Platone era convinto che, nella misura in cui la politica è una tecnica, essa abbia come tutte le tecniche pochi ed esclusivi detentori.
Questa idea di un governo dei custodi,fondato sulla coniugazione di potere e sapere, ha poi attraversato l’intera esperienza politica dell’Occidente.
Dai consiglieri al servizio del Principe passando per i tecnici della ragion di Stato, per arrivare agli intellettuali delle università, intese come una sorta di vivaio di scienze utili al governo, si è venuto a costituire, come ha scritto Michel Foucault, un rapporto particolare “tra la politica come pratica e la politica come sapere”, da cui è scaturita la “presunzione e il primato di un sapere specificamente politico”.
In altri termini si è fatto strada un modello tecnicistico, in cui lo Stato compare come una machina machinarum, ideata dal pensiero filosofico e resa funzionante da una classe di specialisti.
Un modello che ha fornito la base su cui si svilupperanno, spesso nel quadro di una reazione antipolitica, le moderne teorie tecnocratiche.
Il passaggio a queste teorie, tuttavia, si è inverato solo nel momento in cui il
progresso delle scienze e delle tecniche ha investito la sfera economica della
produzione e del consumo, rivoluzionando in profondità le modalità di esistenza
e le aspettative di jouissance degli
individui.
In breve, il governo dei custodi si presenta, di fatto, come il governo di coloro che sanno.
Nel corso della storia, però, questo ideale è mutato a seconda dei modelli di sapere dominante (la dialettica di Platone, la geometria di Thomas Hobbes, la sociologia di Auguste Comte, la psicologia, come nel racconto utopico Walden two di B. Frederic Skinner) e i modelli di diffusione della conoscenza e, successivamente, di organizzazione delle informazioni e di elaborazione dell’identità del gruppo che aspira al monopolio del potere ideologico.
Rappresenta da sempre un modello di potere (e di sapere) che tenta di neutralizzare il peso del passato, di addomesticare la tirannia della tradizione e, al tempo stesso, di ipotecare il futuro.
È solo alle soglie dell’età moderna che l’utopia tecnocratica trova la sua prima formulazione nella New Atlantis di Francis Bacon, in cui è delineato l’ideale di una società interamente fondata sulla scienza e sulla tecnica, dai cui progressi dipende il livello del benessere collettivo.
Entro questa cornice trovano collocazione le diverse varianti di ‘tecnocrazia’, ‘sofocrazia’ e ‘ideocrazia’ che compongono l’immaginario utopico e ideologico della modernità.
Tuttavia il quadro di riferimento resta sempre – per quanto concerne la determinazione delle qualità specifiche dell’élite governante – di natura platonica.
Quando il politologo americano, Robert Dahl individua nella comprensione morale, nella virtù e nella conoscenza strumentale le componenti della competenza politica, è facile riconoscere in questo intreccio la connessione tra conoscenza, potere e arte, tematizzata da Platone nella sua analisi del sapere politico.
Come abbiamo detto, l’espressione governo dei custodi è sempre stata carica di ambivalenze e queste ambivalenze che si sono moltiplicate nel nostro secolo in cui l’espressione è tornata in uso e il concetto è stato sviscerato in tutte le sue varianti autoritarie – in antagonismo alla democrazia – sia come sistema tutelare, sia nella sua variante più moderata, coniugabile con la democrazia liberale, che la vede come sinonimo di “governo meritocratico”.
In particolare, la nozione platonica dei guardiani–guerrieri è riapparsa nel dibattito intorno alle decisioni sulle armi nucleari e la deterrenza, decisioni che sfuggono al controllo democratico e tendono a essere monopolizzate dagli specialisti militari di strategia.
In tempi più recenti, invece, si è richiamata la formula del governo dei custodi per definire, nelle democrazie contemporanee, l’anomalia di un (vero o presunto) governo dei giudici, in relazione all’espansionismo del potere giudiziario in generale e alla crescita delle prerogative delle corti costituzionali in particolare (nella loro funzione di custodi delle costituzioni).
Se la figura del custode o del guardiano evocano l’azione di un
protettore armato o la decisione saggia di un sapiente qualificato da una
superiorità etica, quella del tecnocrate
ha le sue radici nel mondo della produzione e dell’economia, anche se di
un’economia non confinata ai processi elementari dell’appropriazione, della
produzione e dello scambio, ma potenziata da forme complesse di organizzazione
che incorporano la necessità di sapere.
In entrambi i casi non si tratta di funzioni propriamente specialistiche all’interno di uno schema di divisione democratica del lavoro, ma di una competenza che include un momento generale di sintesi.
Anche se la distanza tra il tecnocrate e il tecnico
non è più quella che intercorreva tra il custode platonico e il detentore di
tecniche creative, resta valido anche per il mondo moderno il fatto che fra i
due sussiste una differenza di fondo: Mentre
il tecnico si qualifica come un esperto del particolare, il tecnocrate va
definito (e si definisce) come un esperto del generale.
Riassumendo. La tecnocrazia è una ipoteticaformadigoverno in cui le decisioni politiche vengono prese da “tecnici”, cioè da esperti di materie tecnico-scientifiche o più in generale da studiosi di campi specifici. Per definizione,poi, la tecnocrazia deve contemplare una delega tecnocratica (cioè, operativa).
Etimologicamente la parola tecnocrazia deriva dalle parole potere (krátos) e tecnica (techné).
L’idea di base che sta dietro questa ideologia è che la vita corrente deve essere gestita da esperti competenti nelle varie scienze e tecniche, considerati i soli in grado di proporre le soluzioni migliori.
Come dire l’economia agli economisti, la città agli urbanisti, la salute ai medici.
Ma il problema è: Come si decide chi sono gli esperti di chiara fama, considerato che il più delle volte l’appartenenza a una categoria di esperti è determinata da gerarchie e meriti che nella cultura occidentale sono opachi e compromessi?
Per venire a nostri giorni la caratteristica specifica della tecnocrazia digitale è quella di porsi e di agire come uno strumento di delega dei nostri desideri e di controllo delle nostre capacità cognitive.
La rete ci informa dei libri che vogliamo leggere, dei film che vogliamo vedere, della musica che vogliamo ascoltare.
Facebook, addirittura, ci garantisce la possibilità di rimanere “in contatto con le persone della nostra vita” – come recita la sua home-page.
Ci sono poi servizi che si occupano di trovarci un partner sessuale, altri ancora il ristorante dove vogliamo cenare o il viaggio che vogliamo fare.
Può apparire paradossale, ma questa delega tecnocratica è una limitazione delle nostre libertà se pensiamo alla libertà come un problema di scelte.
La tecnocrazia digitale ci blandisce con il miraggio di scelte illimitate, ma poi è essa stessa a scegliere per noi.
In cambio di cosa?
In cambio della nostra identità, in cambio di tutti i particolari delle nostre relazioni sociali, dei nostri gusti, delle nostre preferenze.
La tecnocrazia digitale, in sostanza, è una forma politica che si presenta come apolitica.
Si presenta come il frutto della ricerca scientifica oggettiva e disinteressata. Un tema che ci riporta all’annosa e per molti versi priva di senso discussione sulle tecnologie buone e cattive.
Ma perché la tecnologia digitale non può essere neutra?
Perché – volenti o nolenti – le macchine e gli algoritmi che le fanno girare riproducono le ideologie dei loro creatori.
Queste macchine sono costruite da individui mossi da interessi economici, politici, ideologici e le interazioni tra gli operatori e le macchine configurano relazioni di potere. Un potere prodotto e gestito a scopi di dominio e di profitto.
Una reazione diffusa di fronte alla tecnocrazia digitale è il luddismo digitale.
Questo luddismo ha vari aspetti.
Uno di questi è di attribuire alle macchine la responsabilità di aggravare certi rischi legati al loro sviluppo, rischi che non esistevano in passato.
In altri termini, quando gli strumenti tecnologici industriali crescono oltre una certa misura si ritiene che la soglia della loro inutilità cresce ed essi tendono a diventare nocivi.
É stata la posizione di Ivan Illich (Vienna 1926 – Brema 2002). Uno scrittore, storico, pedagogista e filosofo austriaco. Personaggio di vasta cultura, poliglotta, per la sua vasta conoscenza di svariati idiomi, e storico.
A questo proposito va anche ricordata una posizione ancora più radicale, come quella di John Zerzan (Salem, 1943) un anarchico americano della corrente primitivista.
______________________________________________________________________________
John Zerzan ha scritto numerosi articoli e saggi di opposizione radicale ad ogni forma di civilizzazione, individuando ciò che occorre rifiutare nei concetti di agricoltura, linguaggio, pensiero simbolico.
Zerzan rifiuta l’oppressione, che ritiene funzionale alla civilizzazione, e propone la riconquista di una libertà primordiale ispirata ad un modello di vita preistorico basato sulla caccia e la raccolta, caratterizzato da egualitarismo sociale e abbondanza di tempo libero, oltre che da un maggior benessere fisico e psichico. I suoi libri più significativi sono: Elements of Refusal (1988), Future Primitive and Other Essays (1994), Against Civilization: A Reader (1998) e Running on Emptiness (2002). Zerzan, in sostanza, individua nell’avvento della civiltà l’origine di ogni forma di potere, ciò che ha condotto alla domesticazione dell’uomo, degli animali, dell’ambiente.
Si tratta di una macchinasociale che ha introdotto il principio della proprietà, della divisione del lavoro, della legge. Tale struttura si regge attraverso l’ausilio di alcuni artifici quali il tempo, il linguaggio, la scrittura, il numero, la religione (funzionali all’esigenza alla classe dominante per stabilire i confini delle proprietà, i ritmi di lavoro, la codificazione delle norme).
°°°°°
Una nota su comunità e condivisione. Comunità è una delle espressioni più ricorrenti della rete. Tutto ciò che si rivolge al singolo ha una community di riferimento. È una sorta di a-priori che garantisce la nostra collocazione sociale.
Va però notato che la parola inglese community è ambigua e non ha nessun riferimento con il sociale o la socialità. Semplicemente, nel contesto digitale, indica una comunità di consumatori.
L’analogia con la comunità sociale deriva dal fatto che l’architettura digitale imita lo spazio pubblico come se fosse la piazza di una città.
In breve, l’obiettivo dei media sociali è quello di raccogliere informazioni per disegnare un profilo identitario degli utenti il più realistico possibile e siccome questa identità si costruisce in relazione con gl’altri – l’uomo è per definizione un animale sociale – è essenziale che il soggetto sia inserito in un contesto che faciliti la comunicazione reciproca.
Chiamiamo questo spazio così costruito una community.
L’obiettivo di una community è la creazione di una comfort zone che faccia sentire l’utente un
privilegiato.
Questo però non deve farci dimenticare che le comunità mediatiche sono più simili a comunità di sudditi che a comunità di cittadini
La community si lega a un altro tema.
In informatica condividere significa mettere a disposizione, da parte di chi ne ha la competenza, un’opera o un artefatto digitale da lui creato.
La condivisione nasce negli anni Settanta, ma si diffonde velocemente quando vengono commercializzati i primi personal computer.
È tanto popolare che diventerà una sorta di movimento politico, poi con il free software diviene una sorta di economia del dono.
Da qui il passaggio commerciale all’open source per arrivare all’ultima metamorfosi, quella di una sharing economy.
Dunque, alla lettera condividere significa mettere in comune un artefatto.
Quando “condividiamo” un file su una piattaforma stiamo solo spostando una cosa da un posto a un altro.
Un prodotto che ha fatto la storia della condivisione in rete è il sistema operativo Unix – l’ispiratore di Linus – nato alla fine degli anni ’70 nei laboratori della Bell.
Siccome alla AT&T (proprietaria della Bell) fu proibito di entrare nel settore dell’informatica Unix venne venduto a un prezzo simbolico alle università le quali si ritrovarono ad avere una piattaforma comune completa di codice sorgente.
Per queste ragioni e in modo spontaneo si creo una rete di collaborazioni attorno al codice di questo sistema operativo coordinata dall’Università di Berkeley e questo può essere considerato un primo grande momento di condivisione.
Ma poi tutto finì e furono impedite anche le pratiche del patch.
Della toppa, ovvero di effettuare modifiche al codice per farlo funzionare meglio. Patchare un programma significa questo.
La personalità hacker. L’hacker, in informatica, è un esperto di sistemi e di sicurezza.
In genere è considerato capace di introdursi nelle reti informatiche protette e di sviluppare una conoscenza approfondita dei sistemi sui quali interviene, per poi essere in grado di accedervi o adattarli alle proprie esigenze.
L’hacking, di conseguenza,è l’insieme dei metodi, delle tecniche e delle operazioni volte a conoscere, accedere e modificare un sistema hardware o software.
Il termine, tuttavia, avendo accompagnato lo sviluppo delle tecnologie di elaborazione e comunicazione dell’informazione ha assunto sfumature diverse a seconda del periodo storico e dell’ambito di applicazione.
Sebbene venga usato principalmente in relazione all’informatica, l’hacking si riferisce più genericamente a ogni situazione in cui è necessario far uso di creatività e immaginazione nella soluzione di un problema.
Al suo nascere la cultura digitale ha fatto spesso ricorso all’aneddotica per spiegare certi suoi singolari punti di vista. Uno di questi aneddoti definisce che cos’è un hacker.
Consideriamo una fontana con un bel rubinetto. Le persone in genere sono interessate a ciò che fuoriesce dal rubinetto. L’hacker, invece, si interessa a come funziona questo rubinetto, sarà tentato di smontarlo, valuterà se può aumentare il suo flusso d’acqua, giocherà con l’acqua…
Cosa significa? Che l’hacking è una questione di attitudine.
I suoi fan si divertono a studiare le macchine, a smontarle, a ricomporle e nel caso di macchine digitali, a scrivere codici per farle funzionare meglio, metterle in contatto, o come dichiarò un hacker a un giudice, nutrirle e dar loro una nuova vita.
Ci sono molti tipi di hacker.
I coder sono specialisti in linguaggi e danno vita ai programmi informatici.
I security hacker si occupano in genere delle strategie per bucare o aggirare le protezioni di un sistema, anche se spesso lavorano per garantire e incrementare la sicurezza di grandi aziende, governi, istituzioni.
Gli hacker dell’hardware sono esperti nel costruire macchine saldando, tagliando, assemblando, riparando computer, radio, stereo, ecc. I geek (disadattati) che noi in genere chiamiamo smanettoni, anche se non hanno grandi competenze nella scrittura dei codici, sono capaci di muoversi nei mondi digitali, e usare device sofisticati.
Una nota sulla società della prestazione.
È una società nella quale si misura, si quantifica e si restituisce una valutazione di ogni azione compiuta e senza soluzione di continuità, con l’obiettivo di aumentare il livello delle prestazioni.
Il controllo delle prestazioni avviene attraverso sistemi di misurazione automatici o attraverso altri utenti che provvedono a valutare la performance con i loro contributi.
Tutto questo perché la società attuale esige dagli individui un livello di prestazioni in costante crescita.
In generale, non solo dobbiamo avere solo un reddito adeguato, ma anche una forma fisica ottimale.
Siamo costantemente spinti a migliorare la nostra salute, a creare nuove opportunità di amicizia, a frequentarci.
Con le debite proporzioni le stesse cose sono richieste alle nazioni.
Devono mostrarsi in continua crescita, esibire uno sviluppo economico senza flessioni, sapersi battere con successo sui mercati finanziari.
Questa affermazione di una società della prestazione è stata resa possibile dal costante miglioramento dei sistemi di raccolta e misurazione dei dati.
In questa società sfumano sempre più le distinzioni fra digitale, analogico, online, offline, umano, meccanico.
Sappiamo anche che in una società di questo tipo cercare la soluzione giusta modifica la soluzione come cercare l’offerta giusta modifica l’offerta stessa.
C’è però un altro aspetto da considerare.
È la sostituzione, di fatto, dei vecchi mediatori dell’informazione – editoria, radio, tv, cinema – con Google, Amazon, Facebook, Apple, Microsoft.
Questa sostituzione aumenta in modo esponenziale l’enorme asimmetria di interazione tra individui e le grandi corporazioni transnazionali.
Il risultato di queste deleghe alle organizzazioni corporative (da parte di settori sempre più ampi della società) è che tutte le informazioni fornite dagli individui in maniera più o meno volontaria vengono registrate e immagazzinate per diventare una parte importante dei Big Data.
In una tale prospettiva, le cosiddette nuvole di computer dove si condensano i servizi sociali sono in realtà distese di macchine protette da guardie armate.
Proviamo a riflettere.
Il costo delle nuvole è notevole come sono costosi i servizi offerti nel Web2.0, così anche se lo stoccaggio, il recupero e l’aggiornamento sembrano gratuiti, di fatto non lo sono.
Il successo di questa tecnologie sta nel fatto che si prendono cura della nostra identità, o meglio, della nostra identità digitale.
Queste tecnologie ci conoscono meglio di quanto noi non conosciamo noi stessi e sanno suggerirci con grande precisione i libri da leggere, i film da vedere, i luoghi da visitare, i modelli di vacanza, i ristoranti adatti ai nostri gusti.
Un paradosso significativo, che nessuno affronta, sta nel fatto che le pratiche di profilazione sono antitetiche ai principi della privacy, oltre che opache.
Una nota sulla forma della privacy.
Ci sono quattro possibili configurazioni della privacy.
La privacy fisica, vale a dire la libertà di non subire interferenze o intrusioni tangibili, di non vedere invaso il nostro spazio personale.
La privacy intellettuale. Riguarda il diritto di non subire interferenze o intrusioni psicologiche.
La privacy decisionale o operativa. Di essere liberi da ogni interferenza o intrusioni procedurali limitative.
La privacy informazionale. È la privacy che dovrebbe garantirci che ciò che riteniamo che deve essere inconoscibile o che deve restare sconosciuto abbia la possibilità di restarlo. Paradossalmente, oggi, la privacy che i più non possono più permettersi è quella dell’anonimato che una volta era favorita dagli ambienti urbani.
Va aggiunto che i sistemi tecnosociali sono co–evolutivi, nonostante la loro frammentazione verso in basso – com’è quella che produce la lingua o le abitudini legate alla tradizione – e la direzione verso la quale muovono è una sola: l’aumento delle prestazioni dell’utente che controllano.
Questa è la ragione per la quale siamo costantemente chiamati a dichiarare quello che vogliamo e questo vuol dire che dobbiamo adattarci all’ideologia della trasparenza.
La profilazione viene in genere accettata come inevitabile.
Ma c’è di più. I processi decisionali degli individui sono assistiti, guidati, fusi con il dominio degli algoritmi.
Cosa significa?
Che singoli individui e gruppi delegano a queste procedure la creazione di collegamenti tra le persone e le cose del mondo.
L’Internet of Thing, l’internet delle cose rappresenta oggi la nuova frontiera di una socialità reificata.
Il frigorifero può fare la spesa da solo perché conosce i gusti dei suoi proprietari, verifica che un certo prodotto consumato regolarmente sta finendo e può collegarsi con i fornitori.
Il nostro smartphone sa come guidarci alla scoperta di una città che non conosciamo, come suggerirci locali o attrazioni.
Che cosa significa?
Che ci muoviamo in un mondo di significati grazie a relazioni costruite per noi e gestite da algoritmi. Algoritmi in mano a privati sconosciuti e sottratti a dei controlli democratici, cioè accettati e condivisi.
Tutto questo non significa rimpiangere un’utopica armonia e non significa certo ignorare che la storia dell’uomo è anche la storia della tecnica e dell’invenzione di linguaggi.
Da un punto di vista fenomenologico storia è sinonimo di età dell’informazione.
Ne consegue che la storia, di fatto, inizia con le pitture del neolitico e prosegue con l’invenzione della scrittura in Mesopotamia.
Ma è solo di recente che la vita sociale e il progresso hanno cominciato a dipendere dalla gestione del ciclo di vita dell’informazione.
Vuol dire, al contrario, mettere in luce che la società delle prestazioni si basa su sistemi di condizionamento molto efficaci, ma di cui ignoriamo le conseguenze.
Paradossalmente, invece di punire le infrazioni alle regole, si premiano le prestazioni e il conformismo.
Si accettano sistemi che si presentano come giochi, classifiche, performance.
Da un punto di vista psicologico le persone tendono sempre più a comportarsi come macchine, vale a dire, a reagire in maniera irriflessa e automatica.
Di contro i socialbot che simulano gli utenti dei social network sono sempre più indistinguibili dagli umani.
______________________________________________________________________________
Il bot (abbreviazione di robot) in terminologia informatica è un programma che accede alla rete attraverso lo stesso tipo di canali utilizzati dagli utenti umani (per esempio, che accede alle pagine Web, invia messaggi in una chat, si muove nei videogiochi, e così via).
I social bot sono dei bot (cioè, qualsiasi software in grado di automatizzare delle azioni normalmente compiute da utenti umani) che vengono programmati per agire sui social network.
Ne esistono molti tipi che è possibile raggruppare in tre macro categorie in base alla funzione specifica per cui sono stati creati:
Spambots (quelli che spammano contenuti vari).
Paybots (pagati per portare traffico, spesso copiano tweet aggiungendo una short-URL che non c’entra con il contenuto e rimanda al sito pagante).
Influence bots (influenzano le conversazioni relative a un determinato argomento, gonfiano campagne marketing o hashtag per motivi che possono andare dalla semplice promozione alla propaganda politica).
______________________________________________________________________________
Per le scienze sociali la “delega tecnocratica” favorisce l’emergere di pseudo–soggettività e di identità eteronomiche, cioè, che ci vengono imposte e che risultano superficiali e semplificate.
Va anche osservato che gli occhi sono gli unici organi di senso direttamente collegati al cervello e che la plasticità celebrale è continuamente stimolata dal visuale.
In questo modo il cervello si modifica, con la conseguenza che le persone imparano e sentono in maniera diversa.
Ciò non dipende dall’età anagrafica – l’espressione di nativi digitali e solo una formula efficace a sottolineare le nuove forme di apprendimento tecnologico delle giovani generazioni – ma dall’utilizzo massiccio della memoria procedurale nell’interazione con i new–media.
Più semplicemente dalle ripetizioni procedurali interattive pensate da altri – sconosciuti – per scopi precisi – profilazione e profitto – che assumono la forma di ritualità ossessive.
Uno degli effetti più vistosi di questo ordine di cose è l’alterazione della coerenza narrativa che finisce per compromettere l’autonomia degli individui.
Come dicono i critici, si tratta di imparare a gestire le sirene dell’automatizzazione per evitare di essere mercificati.
Fine