SOCIOLOGIA DELLA COMUNICAZIONE
(PARTE TERZA)
ALCUNE
PREMESSE ORIENTATIVE.
Se la
tua vita è digitale, fatti un backup!
Nelle società moderne la vita
corrente è sempre più simile a un immenso accumulo di spettacoli. Lo spettacolo – come lo definì per primo Guy Debord più di quaranta anni fa – non è
solo un insieme di immagini, ma va considerato come un rapporto sociale fra gli individui mediato dalle immagini.
Questo significa che nella post-modernità, come abbiamo già visto, le relazioni sociali sono sempre più “mediatizzate” dalle immagini.
Immagini che giocano un ruolo essenziale nella costruzione della
vita sociale e culturale e, per conseguenza, nella costruzione e nella definizione dei significati e della
produzione simbolica.
A partire dal secondo dopoguerra –
soprattutto nei paesi di lingua inglese – si è visto come le immagini tendono sempre di più a
sostituire la parola e la scrittura e come, questo nostro immergerci nel mondo visuale, modifichi sempre di più la
vita corrente.
Ne consegue che le immagini hanno
oramai sostituito, in moltissimi campi della vita sociale e culturale, la scrittura, intesa come un canale
privilegiato di comunicazione.
In breve, il mondo che viviamo tende
a identificarsi sempre di più con il “visto”.
Questo stato di cose – sociale, culturale, politico e tecnologico
– ci obbliga a ridefinire il rapporto
tra il linguaggio scritto e il linguaggio visuale, perché questo
rapporto è alla base di numerosi processi culturali da cui derivano il modo di
formarsi della socialità e le strutture ideologiche della società e di
conseguenza le forme dell’identità.
È
noto – per esperienza diretta o indiretta – come la scrittura abbia giocato un ruolo chiave nella definizione del
nostro passato e come nelle società post–moderne – come vengono definite quella
del mondo occidentale – le immagini stiano
sostituendo, con una frequenza che è sempre più veloce, i testi scritti come forma culturale ed
educativa dominante.
Per semplificare possiamo dire che il mondo, come esperienza testuale, è stato in buona parte
sostituito da un mondo come esperienza visuale.
Questo significa che siamo i testimoni di un passaggio da una cultura
del discorso, che può essere scritta o orale e diacronica, a una cultura
dell’immagine che ha la caratteristica di essere sincronica e con un forte impatto
mediatico.
In sostanza questo vuol dire che i principi organizzativi del mondo
occidentale sono sempre di più fondati sulle immagini piuttosto che sulla scrittura
(sul testo).
Di fatto la cosiddetta post-modernità è “oculocentrica” non solo per la quantità delle immagini che circolano e che
organizzano la conoscenza (soprattutto grazie ai device digitali), ma perché gli individui hanno appreso a interagire con le esperienze visuali, esperienze
il più delle volte costruite e socialmente rilevanti.
Ma quello che più conta, sono esperienze
visuali che giocano lo stesso ruolo
dei fatti sociali in virtù del loro carattere impositivo. Vale a dire,
imperativo.
Come ha scritto Nicholas Mirzoeff, docente di cultura visuale presso la New York University, il visuale, oggi, rende
obsoleto qualunque tentativo di definire la cultura, e la società in termini
esclusivamente linguistici.
Per valutare il flusso (ininterrotto) di immagini
che sono intorno a noi diciamo che, in un’ora
di una qualunque trasmissione – tramite uno schermo – noi possiamo vedere più immagini di quelle che vedeva in una intera vita un qualunque
abitante di una capitale europea nel diciottesimo
secolo.
O, meglio, ogni due minuti gli
americani da soli scattano più fotografie di quante ne siano state prodotte
nell’intero diciannovesimo secolo.
A questo proposito si è valutato
che nel 2014 siano state scattate TREMILACINQUECENTO
MILIARDI DI FOTOGRAFIE.
NELLO
STESSO ANNO YOUTUBE HA REGISTRATO
MILLEDUECENTO MILIARDI DI VISITE.
Ancora va osservato come oltre alle
immagini fotografiche, cine-televisive, informatizzate, esistono molte altre forme di dati
visuali che circondano e compongono
l’esperienza del vivere.
Anche se non ce ne rendiamo conto, oltre
alle immagini in senso classico, molti
degli oggetti che ci circondano veicolano significati visivi.
Basta pensare agli edifici urbani, alle
strade, ai centri commerciali, agli aeroporti, ai paesaggi.
Non va poi sottovalutato il fatto –
come ha scritto Erving Goffman – che
buona parte dell’interazione sociale si
basa sulla comunicazione prodotta dal linguaggio del corpo, dalle espressioni
del viso, dai movimenti e dalle pose che assumiamo, in modo più o meno deliberato.
Questa attenzione alla dimensione
visiva del mondo sociale marca il
passaggio da una sociologia dei
media (antichi o moderni) a una sociologia
visuale, inaugurata a suo tempo,
come abbiamo già detto, da Marshall McLuhan.
Un passaggio dietro cui ci sono molti interrogativi.
Chi produce le immagini?
Per quale motivo le produce?
Da chi sono viste? A chi sono indirizzate? Chi le
interpreta?
Chi le utilizza, in che modo le
utilizza?
______________________________________________________________________________
UNA NOTA SU MIRZOEFF.
La visione – come percezione
degli stimoli luminosi – non è un fenomeno meccanico ma un’azione complessa che
il soggetto compie attraverso le proprie facoltà sensoriali e intellettive
muovendosi entro una cornice sociale, culturale, ideologica, etnica, sessuale,
eccetera. In quest’ambito le immagini, come
abbiamo detto più volte, grazie alle tecnologie digitali, sono proliferate con
una rapidità prima impensabile.
É la ragione per la quale a partire dalla metà degli anni
novanta, alcuni studiosi di lingua inglese hanno analizzato il nuovo statuto
mediale delle immagini con un approccio diverso da quello dell’iconologia
classica, svincolandosi dalle tradizionali competenze della storia dell’arte.
Da questa attenzione è scaturita una nuova disciplina delle
immagini, interessata ai rapporti tra produzione e consumo della visualità.
Questa disciplina è la cultura
visuale, termine che attualmente definisce
qualsiasi ricerca che prenda in esame il ruolo e le funzioni delle immagini
(artistiche e non) in un dato spazio-tempo e per una certa cultura o
sub-cultura.
Nicholas Mirzoeff, docente
negli Stati Uniti di questa disciplina, è stato tra i primi a organizzare un
quadro sistematico di essa, curando nel 1998 un’antologia, The Visual Culture Reader, e poi scrivendo nel 1999 una Introduzione alla cultura visuale, edita
in Italia nel 2002.
A questo saggio va poi aggiunto, Come vedere il mondo, uscito in Italia nel 2015.
Questo libro si propone come chiave per comprendere le
trasformazioni che hanno investito l’iconosfera,
ossia il mondo della visione, negli ultimi due secoli e in particolare negli
ultimi trent’anni.
Più che un lavoro di metodologia è un insieme di temi
concernenti oggetti, dispositivi e pratiche legate alla visione: vedere, dis.vedere e visualizzare il territorio,
la città, il corpo, se stessi, la guerra, il clima.
Va specificato che la cultura visuale non è la mera somma di
ciò che è stato prodotto per essere visto, come i quadri o i film. È la
relazione tra il visibile e i nomi che diamo a ciò che vediamo ed essa comprende
anche quanto è invisibile o tenuto nascosto alla vista.
Mirzoeff in
questo libro riconosce l’importanza delle ricerche di John Berger e di W.J.T. Mitchell,
uno specialista degli studi visuali, cita poi in ordine sparso un po’ tutto l’universo
della cultura progressista: Benjamin, Foucault, Lyotard, Deleuze, Butler e
anche Duchamp.
In questo libro ci sono anche dei cenni di critica post-coloniale,
questioni di genere, teoria e storia dei media, scienze cognitive e
neuroscienze. In pratica tutto
l’orizzonte dei cultural studies.
“La cultura visuale è un impegno a produrre attivamente
un cambiamento radicale, non soltanto un modo per vedere quanto accade intorno a
noi” scrive Mirzoeff.
E prosegue: “Nel 1990 potevamo usare la cultura visuale
per criticare e contrastare il modo in cui eravamo rappresentati nell’arte, nel
cinema e nei mass media. Oggi possiamo servirci attivamente della cultura
visuale per creare nuove immagini di noi stessi, nuovi modi di vedere ed essere
visti, e nuovi modi di vedere il mondo. È questo l’attivismo visuale. É un’interazione di pixel e azioni reali allo
scopo di generare il cambiamento”.
Il climax di
questo ottimismo è nella discussione sul selfie.
Mirzoeff sostiene
che il selfie, è un’evoluzione
democratica dell’autoritratto e che stravolge il concetto di autorialità
sviluppandola attraverso strumenti precostituiti.
In base alle statistiche, scrive, risulta essere una pratica
prevalentemente femminile che funziona meglio con Snapchat che su Facebook.
Mirzoeff sembra
convinto che il selfie sia immune da
forme di reificazione dello sguardo maschile, o da forme di narcisismo, e sorvola
sul conformismo del selfie equiparato
a una libera espressione individuale.
Per questo autore il dilagare dei selfie è soltanto l’esito del desiderio di comunicare e condividere
la propria immagine.
°°°
Molti degli autori che si sono occupati
di sociologia visuale (Nicholas Mirzoeff,
Stuart Hall, Jessica Evans, Chris Jenks) provengono dai cultural studies.
Riassumiamo
brevemente cosa sono. Gli studi culturali costituiscono un particolare indirizzo di studi
sociali che ha origine in Gran Bretagna, alla fine degli anni ’50 del secolo scorso, come
ampliamento del settore della critica letteraria verso i materiali della cultura
popolare di massa.
Gli
studi culturali, fin dall’inizio, combinano una varietà di approcci critici,
spesso politicamente impegnati, tra cui il post-modernismo, la semiotica, il
marxismo, il femminismo e gli studi di genere, l’etnografia, la teoria critica
della società, lo strutturalismo, il post-colonialismo.
L’obiettivo
degli studi culturali è quello di comprendere come venga elaborato il SIGNIFICATO,
e come esso sia in relazione – secondo l’impostazione teorica postmoderna – con
i sistemi di potere e di controllo sociale.
(Abbiamo usato l’espressione di significato, più corretta sarebbe quella di Weltanschauung,
che nella filosofia tedesca esprime la concezione del mondo, della vita, e
della posizione che in esso occupa l’uomo.)
In breve, studiare la cultura visuale non significa semplicemente studiare e analizzare le
immagini, ma prendere in considerazione
la posizione (sempre più centrale della visione) nella vita quotidiana e di
conseguenza nella costruzione e nella condivisione dei significati.
Per Mirzoeff, oggi, la principale caratteristica della cultura
visuale è la tendenza a visualizzare
delle cose non-visuali con l’aiuto di supporti tecnologici.
È una caratteristica che modifica, ancora una volta, il rapporto tra ciò che è visibile e ciò che non lo è.
L’arte sacra, in passato,
rappresentava l’invisibile – riproduceva
le divinità – attraverso l’occhio della fede.
La fotografia ha permesso all’occhio della scienza di rappresentare e descrivere la realtà
visibile e di conservarla.
Tecnologie come il microscopio e i
raggi X hanno permesso di guardare al di
là delle possibilità della vista e di rendere visibile una realtà invisibile,
ma reale.
Infine, nell’era del visuale – come
l’ha definita nel 1999 lo scrittore e saggista francese Régis Debray – la tecnologia rende visibile una realtà che è solamente simulazione e
che noi possiamo vivere come reale se ci crediamo.
In questo senso l’immagine costruita con il computer è, da un punto di
vista ontologico, più simile a un’icona religiosa che a un’immagine
prodotta dalle tecnologie non virtuali.
Un secondo importante aspetto della cultura visuale è la
tendenza a visualizzare l’esistenza.
Basta guardarsi intorno, per
verificare che tutto nella vita corrente tende ad essere reso visibile.
Dai modelli informatici alla
medicina. Dalle interfacce grafiche ai
telefoni, fino agli aspetti più intimi della vita, come sono quelli sessuali
che fanno audience nei talk–show.
Un terzo aspetto della cultura visuale è la centralità dell’esperienza visuale.
Fino al secolo scorso esistevano
delle rappresentazioni visuali socialmente definite e gli individui ne erano i
destinatari passivi.
Oggi chi osserva può – con un
minimo di competenza – impadronirsi delle immagini,
de-contestualizzarle, utilizzarle per comunicare, modificarle.
Ha spiegato Marshall McLuhan,con uno dei suoi paradossi, se la Gioconda esce dal Louvre
parigino e finisce su una tee-shirt
essa acquista un significato completamente diverso se non opposto da quello
dell’originale appeso nel museo.
In altri termini è divenuto importante
capire ciò che gli individui e le istituzioni fanno con le immagini e che cosa
si ripromettono da esse.
Un ultimo e fondamentale aspetto della cultura visuale è la visualizzazione del mondo.
La visualizzazione suppone che le immagini non siano né la realtà né
la sua rappresentazione.
Piuttosto, sono una sua simulazione che
capovolge l’idea stessa di realtà.
Ma cosa vuol dire visualizzare?
Nel linguaggio comune vuol dire
rendere visibile, mostrare.
Nel contesto degli studi
sociologici realizzare un’immagine
significa produrre una costruzione sociale, anche quando
questa costruzione mantiene un rapporto indicativo con la realtà
rappresentata, com’è nel caso della fotografia e del cinema.
Allo stesso tempo visualizzare equivale
a dare una definizione della realtà.
Equivale a veicolare un significato, a produrre una certa visione del
mondo.
In questo modo, la visualizzazione – quale che sia il
mezzo tecnologico su cui si fonda, dal pittogramma al pixel – esprime (di riflesso) nella vita corrente le relazioni di
potere.
Un esempio ce lo suggerisce John Berger, un critico d’arte inglese che
ha scritto molti libri sul tema delle immagini e della visione, quando sottolinea
come nella rappresentazione della donna e dell’uomo nella pittura europea,
l’uomo è colui che agisce, la donna è colei che appare.
E questa visualizzazione riflette le differenti importanze sociali
attribuite ai due sessi.
La presenza dell’uomo esprime il potere che incarna.
La presenza della donna coincide
con il suo farsi vedere, con il suo
lasciarsi guardare.
In questo modo la donna si
trasforma in un oggetto di visione
o, meglio, in un oggetto guardato.
Va aggiunto che nella pittura
classica il protagonista del guardare – cioè, l’uomo – non è mai rappresentato
nell’atto di farlo.
Come le Femen o le Guerilla Girls
hanno cominciato a ricordare con disprezzo ai direttori di museo con le
loro performance visuali (il seno
nudo usato come una lavagna per Femen, maschere di gorilla per le Guerilla
Girls),
la donna è stata il soggetto principale del nudo nella pittura europea.
Aggiungiamo come, ancora oggi,
nonostante i mezzi della rappresentazione della modernità siano cambiati, il
modo di vedere le donne è ancora voyeuristico.
Il termine voyeurismo
o scopofilia, più raro scoptofilia, è una parafilia che caratterizza chi, per ottenere l’eccitazione e il piacere
sessuale, desidera e ama guardare o spiare persone seminude, nude o intente a
spogliarsi, o altresì persone impegnate in un rapporto sessuale.
Cosa vuol dire?
Sostanzialmente, che nella nostra cultura si da per scontato il fatto
che lo spettatore ideale sia sempre un
uomo.
In Gender Advertisements del
1979, Irvin Goffman, nell’analizzare
i modi con cui sono usati dalla pubblicità le differenze sociali e di genere, concluse
che normalmente i generi sono
deliberatamente rafforzati dalle immagini pubblicitarie, spesso fino a farli diventare
caricaturali.
Un esempio ancora più importante,
sempre a proposito del potere delle immagini, è il modo con cui la cultura occidentale (bianca e colonialista)
ha veicolato il concetto di civiltà e di come la fotografia abbia diffuso
in Europa l’immagine del “selvaggio” per giustificare
e legittimare la violenza coloniale.
Per chiudere, un capitolo a sé è
rappresentato dalla visualizzazione delle guerre e dei conflitti a cominciare
da quelli medio-orientali – attraverso un giornalismo
embedded,
vale a dire guidato (cullato) nei suoi reportage da militari esperti in
comunicazione e fake new.
Tutti questi esempi dimostrano che il
punto di vista è una sorta di, o meglio, una forma di potere …il potere di affermare il proprio punto di
vista.
In sostanza, vedere equivale a controllare.
Essere visto equivale a essere controllato.
In questa ottica, il massimo del
potere si trova nel punto da cui si può
vedere tutto senza essere visto.
Una circostanza che ha generato in
molti studiosi di cultura visuale il convincimento o il sospetto che la società
dell’immagine è un grande panopticon o, come dicono gli
americani, un grande fratello (big brother).
Panopticon o panottico è un carcere ideale
progettato nel 1791 dal filosofo inglese Jeremy Bentham (cfr. la prima parte del corso).
Il concetto della progettazione è di permettere a un unico
sorvegliante di osservare (opticon)
tutti (pan) i soggetti di una istituzione carceraria senza permettere a questi
di capire se siano in quel momento controllati o no.
Il nome si riferisce anche a Argo Panoptes della mitologia
Greca: un gigante con un centinaio di occhi considerato perciò un ottimo
guardiano.
L’idea del panopticon, come
metafora di un potere invisibile, ha ispirato pensatori e filosofi come
Michel Foucault, Noam Chomsky, Zygmunt Bauman e uno scrittore come tGeorge Orwell
nel romanzo 1984.
In ogni modo, per proseguire, la
vita corrente nei paesi industrializzati è sempre più controllata dalle
telecamere, da quelle dei mezzi di trasporto, a quelle degli shopping malls.
Da quelle delle arterie di traffico
a quelle dei bancomat, degli edifici
pubblici, delle stazioni.
Questo fenomeno – nell’era degli
schermi visuali – fa diventare centrale
il “punto di vista” .
Che cosa significa?
Che non dobbiamo limitarci a
considerare l’esistenza di una cultura visuale, ma al contrario, dobbiamo considerare che il potere di
visualizzare – dunque, di veicolare dei significati – è diventato un oggetto di
negoziazione e controllo socioculturale e questo perché la visualizzazione non avviene nel vuoto,
ma è sempre all’interno di una cultura.
Così, se è vero che le immagini
sono una interpretazione del mondo è
anche vero che la cultura dipende dall’interpretazione
che i suoi membri danno a ciò che li circonda e al senso che attribuiscono
al mondo.
La questione di fondo è questa: come agiscono
(o meglio, come funzionano) le immagini?
Partiamo da una premessa.
Anche se è vero che il mondo è sul
punto di acquisire – grazie al digitale – una dimensione essenzialmente visuale,
ciò nonostante il problema resta per il fatto che ci sono molte incertezze su ciò che significa visuale.
Molti degli studi sull’argomento si
limitano a riflettere sugli effetti dei media, vale a dire sulla produzioni di immagini che entrano nei processi
di costruzione della realtà sociale.
Altri studi si focalizzano sulla realtà
virtuale vissuta come se fosse
reale, soprattutto sul piano individuale.
Sono raree, invece, le ricerche sugli effetti che la dimensione
visuale ha sulla vita sociale e sulla produzione della cultura.
Ricerche che spieghino sia come agiscono e comunicano le immagini (
dai media ai muri della città, ai
corpi, agli oggetti, ai segnali urbani, alla pubblicità, alle vetrine, ai
prodotti artistici…) e sia come esse concorrono:
– alla costruzione dei significati.
– Alla formazione delle norme
sociali e dei valori.
– Alla regolazione dell’interazione
sociale e dei processi di sociabilità?
– All’affermazione delle differenze
e delle appartenenze e, soprattutto, alla definizione dei percorsi di
costruzione delle identità.
È un problema complesso perché la visione di un’immagine avviene sempre
in un contesto sociale che ne determina l’impatto.
Da ciò ne consegue che il tipo di visione percepita, in base al
contesto sociale, cambia il suo significato, così come il modo di vederla ne
modifica gli effetti.
Oggi la visione di un’immagine
avviene, in genere, in luoghi specifici che hanno regole e pratiche sociali
diverse.
Un conto è vedere un film o una
partita di calcio sdraiati sul letto, un conto è vederli in un cinema o sullo
schermo in una piazza.
C’è poi d’aggiungere che le stesse
immagini possono essere viste in luoghi diversi, luoghi che influenzano il modo
in cui sono viste.
Chi guarda, le immagini ha, in
genere, un suo modo o una sua pratica per guardarle e questo di conseguenza, cambia i loro significati e dunque le
loro dinamiche di negoziazione e di condivisione.
Ricordiamo che in termini fenomenologici le immagini non sono né vere, né false, ma strutture interpretative (costruzioni visuali) che dipendono dal modo con le quali si usano e da chi le usa.
Come abbiamo accennato la loro
natura è spesso ambigua ed è questa ambiguità che produce un impatto
emotivo molto forte e spesso molto violento.
Non per caso si dice che
un’immagine vale più di mille parole.
E questo si verifica soprattutto
quando il significato denotativo
e il significato connotativo non sono separabili l’uno dall’altro.
Facciamo un esempio di scuola.
Se noi osserviamo la fotografia di
un bambino di colore affamato e ammalato (aspetto
denotativo)
non possiamo non pensare a tutti i bambini che muoiono di fame e sono malati (dimensione connotativa).
Su questo punto ricordiamo anche che
Roland Barthes, negli anni ’80 del
secolo scorso, mise in luce il carattere polisemico delle immagini, vale a
dire la molteplicità dei loro significati
connotativi.
Significati che possono essere compensati
o dirottati dalle didascalie che, in molti casi giocano il ruolo del significato denotativo.
Va anche sottolineato come il linguaggio verbale possiede un potere di gestione delle potenzialità
espressive delle immagini grazie al fatto che esso ha un codice connotato, cioè, un codice basato su
una logica razionale e sequenziale.
Un codice costruito su una
grammatica e una sintassi, scomponibile in segni
che costituiscono (rappresentano) il suo meccanismo interpretativo.
Al contrario, la polisemia
del linguaggio visuale, scrive Barthes,
rappresenta una sua debolezza dovuta alla mancanza
di un codice e all’assenza di un contesto interpretativo esplicito.
Questo comporta che il significato
di un’immagine è contestuale, soggettivo e interpretabile in molti modi, che dipendono dallo stato d’animo, dal
vissuto, dalla cultura, dalla memoria, eccetera.
In breve, l’immagine, di per sé, è ambigua a causa di ciò che essa è e
a causa della sua natura intrinseca.
La sua ambiguità, però, è in qualche modo dissipata o controllata dai contenuti che le sono attribuiti soggettivamente.
Roland Barthes sostiene che quando guardiamo una fotografia il più delle
volte c’è in essa un punto particolare, qualcosa
che ci colpisce e che non necessariamente l’autore della fotografia ha
evidenziato.
Questo qualcosa è paragonabile a un buco, a uno strappo, a un dettaglio
che scava nella nostra memoria, nel nostro passato, nel nostro rimosso, nelle
nostre ferite, finendo per svelare o dissimulare le nostre emozioni.
Per tornare al discorso
sociologico, la polisemia delle
immagini è un elemento che complica la ricerca sociale perché accentua l’arbitrarietà interpretativa
tutte le volte che la ricerca si basa su delle immagini considerate come
“dati”, soprattutto in assenza di un autore o di un contesto che espliciti il significato connotativo.
Ritorneremo su questo punto quando
parleremo delle origini e degli ambiti di ricerca della Scuola di sociologia di Chicago che, per prima, ricorse alle
immagini come strumento di documentazione e di ricerca, soprattutto nell’ambito
del lavoro operaio, delle periferie urbane e dell’immigrazione.
°°°°°
Vediamo ora in modo specifico la
relazione vedere/sapere, partendo da una considerazione: Noi siamo
immersi nel vedere.
La vista è il senso più usato nel
nostro rapporto con il mondo ed è quello che gestisce i nostri rapporti con
gl’altri.
Tutte le nostre attività implicano
il vedere e fanno della cecità un oggetto d’angoscia, una catastrofe.
Perdere la vista significa essere
emarginati da come culturalmente è organizzata la vita corrente, ecco perché,
spesso senza volerlo, con la cecità siamo crudeli.
Due esempi. In moltissime lingue il termine “cieco” ha
connotazioni negative.
Nel linguaggio comune l’accecamento
è definito come una mancanza di lucidità.
Di contro, vedere è capire tanto che, coprirsi gl’occhi con le mani, vuol dire
non voler vedere.
Maurice Merleau-Ponty (1908-1961) un filosofo francese della corrente fenomenologia,
studioso del fenomeno della percezione, ha scritto:
L’esistenza
è per gli uomini prima di tutto il prodotto della visione, noi non siamo in
grado di immaginare un mondo di odori o
di suoni.
I nostri modi di guardare sono
molteplici, essi concorrono adare spessore alla significazione, ci aprono alla profondità del mondo, colmano le
distanze.
Dobbiamo ricordare però che l’acutezza dello sguardo ha i suoi limiti,
l’infinitesimo o il molto lontano ci sfuggono.
Paradossalmente la vista è un senso
ingenuo,
perché spesso si lascia ingannare dalle apparenze, mentre l’odorato e l’udito hanno,
nei confronti del mondo, un potere esplorativo.
È ingenuo anche perché quando
guardiamo senza il giusto distacco, prendiamo lucciole per lanterne.
È ingenuo perché sa trasformare
il mondo in immagini, ma poi non sa distinguerle dai miraggi.
In ogni modo è la condizione più
importante per valutare la realtà,
tanto che vedere è credere.
Nel linguaggio comune si dice “vedere
per credere” oppure, “crederò quando avrò visto”.
Da un punto di vista fenomenologico
il vedere è ciò che salta agl’occhi, è ciò che è e-vidende.
Il
verbo vedere deriva dal latino videre, ma alla base di videre c’è veda – io so – che ha la
stessa radice indo-europea, da cui deriva evidenza
– ciò che è visibile – e provvidenza
– il prevedere divino, ovvero
l’espressione della sovranità.
Per restare agli etimi, in greco la
teoria
è una contemplazione e il theoros è lo spettatore.
Quanto a speculare, è un verbo che
deriva dalla parola specula, come si chiama il luogo dal quale si osserva.
Soprattutto nella modernità il visivo
è ciò che si prende o si perde del mondo. Questo vedere
èspesso affiancato dal lavoro dell’oblio che agisce sul piano sensoriale.
Diciamo che è una forma di routine
che riguarda sia le cose conosciute e subito decifrate, sia quelle che ci sono indifferenti,
tali da non meritare attenzione.
Nella nostra cultura lo sguardo è volontà di sapere, è poiesis
(azione creativa) è desiderio di capire, di vedere meglio.
Lo sguardo ha un potere tattile.
Lo si può definire uno strumento di palpazione oculare, non per caso
lo sguardo è ciò che cerca il
contatto.
I rapporti intimi e quelli di
potere conoscono bene la potenza dello sguardo, così come il mondo femminile
conosce con fastidio l’essere osservato e scrutato.
Nella cultura medioevale, come in
quella rinascimentale, lo sguardo era
considerato una potenza che riduceva il
mondo al suo volere.
Esso possiede una forza d’impatto sia benefica
che malefica.
La forza malefica, nel linguaggio
comune, è chiamata malocchio, è condivisa da numerose culture, come se lo sguardo avesse
il potere di pietrificare per poter mantenere il suo controllo sul mondo.
Al contrario, il voyeur
è colui che si appaga guardando. Ècolui
che abolisce, con la visione, la distanza.
Mangiare con gl’occhi non è solo una metafora, spesso è un oltraggio o
una minaccia.
Molte culture prendono questa
metafora alla lettera, considerano il vedere è una porta spalancata sul
desiderio, una minaccia che si percepisce, lo sanno bene le ragazze che sono
spiate o molestate.
È un atto fastidioso, che non
lascia indenni, che finisce per coinvolgere sia il soggetto che guarda che
l’oggetto del desiderio.
L’immaginario popolare è da sempre
convinto che lo sguardo è un contatto
che tocca ciò che guarda. Ce lo
conferma la lingua.
Lo sguardo accarezza, cova,
fulmina, inchioda.
Lo sguardo è penetrante, acuto,
tagliente, trafigge, gela e come spesso si dice, uccide.
Lo ritroviamo anche in molte
espressioni d’uso corrente, come nel guardare in cagnesco, di traverso, di buon
occhio, di sbieco, eccetera.
Gli amanti, di contro, si fanno
gl’occhi dolci, si accarezzano e si mangiano con gl’occhi.
D’altro canto lo sguardo può essere
duro, acuto, pesante, mellifluo, dolce, avvincente e crudele.
Sul piano simbolico gl’occhi,
toccando, si compromettono con il mondo,
ecco perché gli sguardi che ci si scambia difficilmente lasciano indifferenti e
spesso arrivano a turbare la vita corrente.
Sotto un’altra prospettiva lo
sguardo può indurre al peccato.
Santo Agostino su questo è
perentorio e avverte: Gl’occhi anche se cadono su una donna non si fissino su
nessuna. Quando uscite, non vi è
proibito vedere le donne, ma sarebbe grave desiderarle o voler essere da loro
desiderati.
Facciamo un passo avanti, diciamo
che i sensi devono fare senso.
Ma per fare senso occorre imparare a vedere.
Alla nascita il bambino non coglie
il significato delle forme che gli stanno intorno. Poi lentamente comincia a discriminarle
partendo dal volto della madre.
Qui c’è un problema logico. Per riconoscere
si deve conoscere.
Per diversi mesi la vista del
neonato è meno sviluppata dell’udito e del tatto con il seno materno.
Poi la vista prende il sopravvento e
diviene un elemento fondamentale della sua educazione e del suo rapporto con il
mondo. Si trasforma in un elemento
chiave per la sua educazione.
La vista, dunque, è un senso
fondamentale per il bambino, ma per diventarlo richiede sia la parola degli
adulti che il senso del tatto per indirizzarla.
In ogni modo il vedere non è un atto passivo, ma attivo. Nella vita di tutti i giorni quando un
oggetto si vede male (per via della distanza, della forma o per le cattive
condizioni di visibilità) l’individuo si sposta, strizza gli occhi, si protegge
dalla luce diretta, inforca gli occhiali.
In questo modo le figure informi
possono diventare familiari.
È ciò che sta alla base del test di Rorschach, usato in psichiatria come strumento per catalizzare le fantasie.
Le macchie sulle tavole del test, prive di un significato preciso,
vengono offerte all’immaginario del paziente e le sue risposte rivelano le sue
preoccupazioni, i suoi desideri, le sue angosce, i suoi incubi.
Anche se di per sé queste macchie non significano nulla, l’individuo
attribuisce loro un significato in funzione della sua personalità.
Nel Trattato della pittura Leonardo da Vinci (1452-1519) aveva intuito l’importanza di questo
fatto. Scrive:
Se
tu riguarderai in alcuni muri imbrattati di varie macchie o pietre di vari
colori misti…potrai su di loro vedere similitudine di diversi paesi, profili di
montagne, fiumi, alberi, pianure, grandi valli e colli in diversi modi. Ancora vi potrai vedere battaglie e atti di
figure, strane arie di volti e abiti e infinite cose, le quali potrai
riprodurre.
Ernst Gombrich (1909-2001), il grande storico dell’arte austriaco, in Arte e illusione (un libro del 1960) ha
visto in questa disposizione a completare le forme e a renderle intellegibili
uno dei fondamenti dell’illusione nell’arte.
In linea generale possiamo dire che
per le immagini il significato viene
sempre dopo.
Un significato che si può
correggere o può essere discusso, considerato che molto di rado una situazione
vista ha un significato univoco.
Per vedere il mondo gl’individui
procedono ricomponendo frammenti di
elementi visivi che di per sé non hanno un significato e, soprattutto sono indotti a farlo secondo quando si attendono
di vedere.
In sostanza, è lo sguardo che fa
emergere una Gestalten del guardato.
Le opere di Picasso, di Klee o di Matisse – per citare tre artisti
conosciuti – sono spesso portatrici di questa visione d’insieme ricomposta di un volto o di un oggetto.
La visione, per tornare a Merleau–Ponty, non è altro che un particolare uso dello sguardo,
perché l’occhio non è mai innocente, ma arriva di fronte alle cose con una sua
storia, una sua cultura e soprattutto con un suo inconscio.
Si può dunque affermare che l’occhio, paradossalmente, non riflette
semplicemente il mondo, ma lo crea con le sue rappresentazioni.
L’occhio, infatti, sa come appropriarsi
delle forme portatrici di senso, come sono le nuvole che precedono la pioggia,
degli avanzi di un pasto sul tavolo o di una situazione – lo ha perfettamente
capito e con una certa arguzia, Sophie Calle,
un’artista francese di quella corrente chiamata narrative art.
L’occhio sa come appropriarsi della
brina sul vetro di una finestra, del gesto di una mano tra la folla, dei mille piccoli
e grandi eventi che hanno luogo intorno a esso.
Sul piano simbolico si potrebbe dire,
con un gioco di parole, che il percepito è “percepito” come una forma morale.
Pensiamo a un paesaggio. Esso è nell’uomo
prima che l’uomo sia in esso perché il paesaggio ha un senso solo attraverso
ciò che l’uomo vede di esso.
Allo stesso modo ogni sguardo
proiettato sul mondo, anche il più anonimo o insignificante, compie un ragionamento visivo per produrre senso e
giudicare.
Detto altrimenti, la vista, filtrando ciò che percepisce,
rende il mondo pensabile, più che uno strumento di registrazione delle immagini
è un’attività di pensiero.
O, in modo più esplicito, gli occhi servono per portare a termine un
continuo lavoro di costruzione di un senso.
Spesso, però, più che l’acutezza dello sguardo conta la qualità del vedere.
Il filosofo francese Pierre-Maxime Schuhl (1902-1984) in L’immaginazione e il meraviglioso: il
pensiero e lo sguardo, ha scritto: “Saper guardare è il segreto dei
processi gnoseologici”.
Significa che, prima di vedere, occorre imparare a riconoscere i segni del
vedere come si fa con le parole di una lingua.
Oggi lo diamo per scontato, ma la
lettura di un’immagine cinematografica richiede la conoscenza dei codici di percezione.
In questo senso l’etnocentrismo occidentale si è sempre
vantato, a proposito delle immagini e della prospettiva, dell’universalità
delle sue concezioni, attribuendo le difficoltà a comprenderle, da parte di
altri gruppi sociali, a una loro inferiorità culturale o intellettuale.
Di fatto, in molte culture
cosiddette primitive, non abituate alla lettura delle immagini, è difficile operare una distinzione tra
finzione e realtà.
Ma allora, come dobbiamo giudicare
il fatto che gli spettatori parigini del Grand
Café, nel dicembre del 1895,
fuggirono terrorizzati davanti al film dei fratelli Lumière sull’ingresso di un
treno nella stazione di La Ciotat?
Per la sociologia visuale valutare
le modalità di fraintendimento o di errore nella lettura delle fotografie o dei
film da parte di una certa comunità può servire a valutare il loro grado di
acculturazione.
Ma c’è anche il rovescio della
medaglia.
La banalizzazione delle immagini, come conseguenza delle nuove
tecnologie digitali e delle politiche di mercato del visuale, tende a eliminare o a banalizzare il loro carattere
sociale, culturale e storico.
°°°°°
Cambiamo argomento. Vediamo ora alcune rivoluzioni che hanno
trasformato la nostra storia culturale.
Come ci spiega la gnoseologia, la scienza muta la nostra comprensione della
realtà in due modi.
Il primo modo è definito estroverso,
perché è riferito a ciò che ci circonda del mondo. Il secondo è definito introverso, perché
riguarda direttamente la condizione umana e quello che siamo o pensiamo di
essere.
Ciò premesso, nel millennio che ci
siamo lasciati alle spalle, ci sono tre rivoluzioni che hanno
avuto un forte impatto conoscitivo
sia sulla realtà, sia su quello che siamo.
Queste rivoluzioni nel modificare
la nostra comprensione del mondo, hanno trasformato anche la concezione
di chi siamo e il nostro modo di percepirci, di considerarci.
Fino a sei secoli fa eravamo
abituati a pensare di essere al centro dell’universo, messi lì da un
dio-padre e creatore onnipotente.
Era, se la vediamo in prospettiva,
una pietosa illusione che ci rassicurava e ci faceva convivere con l’angoscia
generata dalla coscienza della irreversibilità del tempo di vita.
Nel 1543, Niccolò Copernico pubblicò il suo trattato
sulla rotazione dei corpi celesti.
Quando questo libro uscì nessuno era
in grado di prevedere che dopo aver scosso il nostro modo di vedere la terra e
i pianeti avrebbe dato l’avvio a una rivoluzione sul modo di comprendere noi
stessi.
I fatti, però, sono quello che sono.
La sua cosmologia eliocentrica
spodestò per sempre la terra dal centro dell’universo costringendoci a riconsiderare
la nostra posizione e il nostro modo di rapportarci ad essa.
In breve, le conseguenze di questa
rivoluzione ci obbligarono a una riflessione più obiettiva e approfondita sulla
nostra condizione umana.
Capimmo che la terra è un pianeta
piccolo e fragile e trovammo nella ragione la forza per studiarlo.
Uno studio che non ha mai smesso di
proseguire come dimostrano l’esplorazioni spaziali.
La seconda rivoluzione
è avvenuta nel 1859 quando Charles Darwin
pubblicò L’origine delle specie.
In questo libro si riassumevano
anni di esplorazione sul campo da cui si deduceva che ogni specie vivente è il risultato di un’evoluzione da progenitori comuni, attraverso un
processo di selezione naturale.
Con Darwin la parola evoluzione acquistò un nuovo
significato, un significato da molti ritenuto sgradevole e insopportabile e che
molte religioni ancora oggi rifiutano o accettano solo parzialmente.
In ogni modo, sebbene fossimo
coscienti di non essere più al centro dell’universo, sebbene avessimo dovuto
ammettere di essere poco più che animali, tuttavia eravamo ancora padroni dei
nostri contenuti mentali.
In altre parole la nostra capacità di autocoscienza, di elaborare una
coscienza di sé, ci dava ancora un posto speciale nell’Universo.
Penso dunque sono, aveva dichiarato
Cartesio e l’introspezione era
considerata un viaggio interiore alla scoperta di sé.
Ci pensò Sigmund Freud a liquidare questa
illusione.
Questa terza rivoluzione dimostrò
che la mente è inconscia e
incontrollabile.
Che ciò che facciamo è per lo più il
frutto dell’inconscio e che i cosiddetti stati
coscienti sono da noi utilizzati per
dare una giustificazione razionale
alle nostre azioni.
In altri termini, scoprimmo che non siamo più liberi neanche nella nostra
coscienza.
Questo perché essa ubbidisce più all’inconscio che a noi,
banalizzando ciò che ritenevamo il frutto della volontà.
In ogni modo, dopo queste tre
rivoluzioni, ci restava l’intelligenza,
una proprietà difficile da definire, ma che ci pone di fatto in una posizione
di assoluto vantaggio operativo tra le forme viventi.
Lo prova il fatto che sappiamo costruire
macchine, sviluppare progetti e utilizzare le forme della tecnica.
Blaise Pascal, che visse nella prima parte del XVII secolo, inventò la macchina
aritmetica
– più conosciuta come la pascalina – con la quale si potevano
realizzare la quattro operazioni.
Tra
l’altro il metodo di calcolo inventato da Pascal e basato sui complementi ed esso è analogo a quello
che utilizzano oggi i computer.
Questa macchina ottenne da subito un grande successo e influenzò un altro
grande matematico e filosofo del XVII secolo, Gottfried Leibniz.
Gottfied
Leibniz (Lipsia 1646 – Hannover
1716) è stato un matematico, filosofo, logico, giurista storico e magistrato
tedesco di origine soroba o serba.
A
lui dobbiamo il termine di funzione che
egli utizzò per individuare le proprietà di una curva. Leibniz, assieme a Newton, è lo scienziato che sviluppo il calcolo infinitesimale e in
particolare il concetto di integrale.
È considerato il precursore dell’informatica e del calcolo automatico, fu
l’inventore di una calcolatrice
meccanica detta macchinadiLeibniz .
E’
considerato uno dei più grandi esponenti del pensiero occidentale.
Qui, ricordiamo che fu Leibniz a inventare il sistema dei numeri binari e che per questa ragione è considerato il primo scienziato
dei computer.
In estrema sintesi, per Pascal, pensare era ragionare e
ragionare era far di conto e la sua macchina era in grado di farlo.
Possiamo dire che i germi di una quarta
rivoluzione
erano stati gettati, anche se Pascal
non poteva immaginare che avremmo costruito macchine in grado di superarci nella capacità di processare informazioni dal
punto di vista logico.
Ciò che non era ancora pensabile
diventò però chiaro con il lavoro di Alan Turing,
il protagonista di questa quarta rivoluzione.
In altri termini e senza certamente
prevederlo, Turing ci ha spodestato dal
regno del ragionamento logico, soprattutto dalla capacità di analizzare grandi
volumi di dati e di agire in modo conseguente.
Con il risultato che oggi non siamo più gli indiscussi padroni del
mondo dei dati e del loro uso.
La parola computer è a questo proposito significativa.
Tra la fine del XVII secolo e il
XIX era sinonimo di persona che svolge dei calcoli.
Il termine computer,
infatti, è il nome dell’agente (del soggetto) del verbo to
compute.
L’etimo latino di questa parola è
composto da com / cum (insieme) e putare (tagliare, rendere
netto – da cui anche potare).
Significa propriamente: confrontare (o comparare) per trarre il
netto della somma.
Originariamente il termine computer
indicava una persona incaricata di eseguire dei calcoli.
Fu grazie a Turing che, negl’anni ’50 del secolo scorso, la parola computer
perse il suo riferimento all’uomo e divenne sinonimo di macchina programmabile, ovvero, di macchina di Turing.
Questa quarta rivoluzione ha messo in crisi, sul piano esistenziale, il
convincimento della nostra unicità, ridisegnandoci come organismi informazionali (inforg) reciprocamente connessi e, al tempo stesso, parti di un
ambiente
informazionale (infosfera) che condividiamo con altri agenti (altri soggetti) naturali
e artificiali.
Agenti che processano informazioni in modo logico e autonomo.
Questo fa prevedere che molto
probabilmente la prossima generazione sarà la prima a non considerare più rilevante la distinzione tra ambiente online e offline.
Una distinzione che già oggi appare
opaca.
In ogni modo, se l’idea di “casa” è dove sono custoditi i nostri dati, allora vuol
dire che viviamo già da tempo e senza averne coscienza nelle cloud
storage.
In informatica con
il termine cloud computing (in italiano nuvola
informatica) si indica un paradigma di erogazione di servizi offerti su domanda
da un fornitore ad un cliente finale attraverso la rete Internet (come l’archiviazione, l’elaborazione o la
trasmissione dati), a partire da un insieme di
risorse preesistenti, configurabili e disponibili in
remoto.
Occorre però stare attenti alle
false prospettive perché la rivoluzione digitale difficilmente ci trasformerà
in un’umanità di cyborg.
Un numero di telefono solo nei film si può digitare per mezzo di una
tastiera virtuale che appare sul palmo di una mano, più realisticamente lo
possiamo comporre pronunciandolo, grazie al fatto che il nostro smartphone
ci capisce.
Per comprendere con una metafora la
logica e l’estensione degli ambienti informazionalidobbiamo invece riflettere sul fatto
che in molti contesti le ICT (Information and Communication Technologies) hanno cominciato ad
essere la squadra che gioca in casa (nell’infosfera)
con noi che giochiamo in trasferta.
Va sottolineato che noi viviamo in
una singola infosfera. Un’infosfera che non ha un fuori.
(In
Italia da qualche tempo si usa l’acronimo TIC
– Tecnologie dell’Informazione e della Comunicazione – così come il termine cyber.tecnologie è stato sostituito da Web 2.0 o dalla parola rete.
Mentre
è ancora usata l’espressione inglese Digital
Humanities per indicare quell’area di ricerca interdisciplinare nata
dall’intersezione tra scienze informatiche e discipline umanistiche.
Va
anche notato che l’uso dell’espressione cyber
pone l’accento sulla dimensione avveniristica e fantascientifica di queste
tecnologie, mentre parlare di tecnologie
informatiche sposta l’attenzione sui loro usi pratici.)
Più precisa è la definizione di sociologia
digitale perché la sociologia digitale è
molto di più di una sociologia dei media digitali. È un modo
di concepire e praticare la sociologia che prende in esame le trasformazioni che i media e i
dispositivi digitali operano (inducono) sul mondo sociale. Un modo
che riconosce la svolta epocale prodotta dall’avvento e dall’infiltrazione in
ogni aspetto dell’esistenza delle nuove tecnologie e degli oggetti digitali.
Chi è Alan Turing? Perché è così famoso? E’ stato
uno scienziato, matematico e filosofo britannico, nato a Londra il 23
giugno 1912 e morto il 7 giugno 1954, a soli 41 anni.
E’ considerato il padre dell’informatica grazie ai suoi
studi sulla crittografia e alla creazione di algoritmi che hanno gettato
le basi per realizzare il primo computer e l’intelligenza artificiale.
Durante la II Guerra Mondiale, al servizio
dell’esercito Inglese, ideò un sistema per decifrare i messaggi cifrati
tedeschi, che risultò l’arma decisiva per gli Alleati.
Infatti, decodificando i messaggi radio in codice inviati
dai nemici, la contraerea inglese fu in grado di anticipare e intercettare gli
attacchi dei nazisti. Turing utilizzò un primissimo rudimentale
calcolatore progettato da lui e costruito in segreto con l’aiuto dell’esercito:
è considerato il padre dei moderni computer.
Dal 1948 fu lettore di matematica all’università
di Manchester. Dalle sue ricerche svolte prima della seconda guerra
mondiale derivò l’elaborazione della macchina di Turing.
Questa è costituita da un nastro diviso in campi, il quale
può scorrere in un senso o nell’altro quanto si vuole; ciascun campo è adatto a
contenere esattamente un simbolo di un ben determinato alfabeto finito. La macchina possiede una memoria, capace di
ritenere un numero finito di istruzioni, e un “occhio” in grado di
esaminare esattamente un campo per volta.
Una macchina di Turing, trovandosi di fronte a determinati
simboli scritti, esegue il relativo calcolo e si porta in una nuova posizione
finale esibendo il risultato del calcolo.
Il nome di T. è legato anche ad altri importanti risultati
di logica matematica, come una dimostrazione dell’indecidibilità del calcolo
predicativo puro e alla dimostrazione dell’insolubilità del problema della
parola per i semigruppi. A T. si deve anche l’elaborazione del test
di T., criterio che consente di stabilire se una macchina è intelligente,
consistente nella impossibilità di distinguere, in un dialogo scritto, se ci si
trova di fronte a un interlocutore umano o a un artefatto.
Il test di Turing è un test di criterio ideato da A.M.
Turing per dimostrare la capacità di pensare di una macchina. Fu proposto nel
1950 in un articolo pubblicato sulla rivista Mind.
Si tratta di una situazione sperimentale consistente in un
gioco a tre partecipanti: un uomo A, una donna B e una terza
persona C.
Quest’ultimo è tenuto separato dagli altri due e, tramite
una serie di domande, deve stabilire qual è l’uomo e quale la donna.
Dal canto loro, anche A e B hanno dei
compiti: A deve ingannare C e portarlo a fare
un’identificazione errata, mentre B deve aiutarlo.
Affinché C non possa disporre di alcun indizio
(come l’analisi della grafia o della voce), le risposte alle domande
di C devono essere dattiloscritte o similarmente trasmesse.
Il test di Turing si basa sul presupposto che una macchina
si sostituisca ad A. In tal caso, se C non si accorgesse di
nulla, la macchina dovrebbe essere considerata intelligente, dal momento che
sarebbe indistinguibile da un essere umano.
La macchina cioè dovrebbe essere considerata come dotata di
una “intelligenza” pari a quella dell’uomo.
Il criterio proposto da Turing è ritenuto alla base
della → intelligenza artificiale; tuttavia per stabilire
l’intelligenza esso si basa su un presupposto meramente osservativo e quindi
necessita di ulteriori precisazioni data la complessità del concetto stesso
d’intelligenza e l’impossibilità di una sua definizione universalmente
accettata.
Nonostante
l’omosessualità negli anni ’40 e ’50 fosse un reato, Alan Turing non
nascose mai il suo orientamento sessuale.
Fece
parte di alcuni circoli gay e proprio in virtù del
suo orientamento sessuale fu arrestato nel 1952. Le pene erano
estremamente crudeli: castrazione chimica ed assunzione di ormoni femminili, in
seguito alla quale dovette subire la crescita del seno.
Furono anche queste umiliazioni a condurlo
verso la sua tragica fine, che avvenne ingerendo una mela avvelenata,
come nella favola di Biancaneve.
°°°°°°
Intorno alla metà del ‘700 in molte
città europee si cominciò a numerare, strada dopo strada, partendo dal centro,
le abitazioni in ordine crescente, erano nati i numeri civici.
Più che per problemi postali o a
beneficio dei singoli cittadini questo provvedimento veniva incontro alle
richieste del fisco e delle forze dell’ordine per rintracciare e identificare
per mappare
facilmente, come si direbbe oggi, le persone.
Ci furono, soprattutto nella mitteleuropa, molte proteste di
cittadini contrari a questa misura che in alcune circostanze era anche di natura
discriminatoria, come nel caso degli ebrei di Boemia, obbligati a usare per la
numerazione delle case i numeri romani anziché quelli arabi.
Non è difficile immaginare i mille
sotterfugi che furono inventati, come distruggere la targa con il numero,
metterla capovolta, così che il sei diventa nove, imbrattarla di vernice o di
fango, eccetera.
A Parigi, fu Napoleone che
introdusse i numeri civici nel 1805.
Walter Benjamin nel suo Parigi,
capitale del diciannovesimo secolo, racconta che nei quartieri proletari
questa misura fu subito avvertita come repressiva e gli artigiani – con in
testa quelli del fouburg
Saint-Antoine, uno dei più grandi e ricchi di falegnamerie – si rifiutavano di
usare il numero della loro abitazione come indirizzo.
Quanto a Charles Baudelaire – il poeta de I Fiori del male – definì questa
numerazione come un’intrusione criminale nella vita quotidiana dei cittadini.
Possiamo aggiungere non senza un
qualche interesse, considerato che era perennemente assediato dai creditori che
volevano essere pagati e che lui evitava, cambiando in continuazione il suo
indirizzo.
L’analisi di Benjamin in realtà è più complessa.
Per questo grande saggista europeo
anche l’invenzione della fotografia è un punto di svolta
nello sviluppo del controllo
amministrativo e identificativo, problema che rinviamo perchè dovrebbe
essere affrontato in modo specifico.
Queste osservazioni sulla nascita
della numerazione stradale ci servono per capire meglio l’enorme distanza che
separa quei giorni dall’epoca nella quale viviamo.
Un’epoca caratterizzata dalle identità digitalizzate e geolocalizzate.
Possiamo dire che, nella storia dell’umanità, mai come oggi siamo stati
in possesso di una quantità così enorme di informazioni immagazzinate su i
fenomeni e i comportamenti sociali.
Informazioni che, non va
dimenticato, confluiscono incessantemente nell’area dei Big Data.
Come tutti sanno, da almeno una
generazione, con modeste quantità di dati, algoritmi e macchine di analisi,
siamo arrivati ad estrapolare informazioni mirate, ma i Big Data hanno reso
obsoleto questa situazione, mettendoci nella condizione di possedere una quantità di dati maggiore di quella che i mezzi più
accessibili ci permettono di gestire.
Vediamo qualche grandezza.
Nel 2000 – l’anno di nascita dei
nativi digitali – le informazioni registrate erano per il 25 per cento supportate da un formato digitale e per
75 per cento contenute su dispositivi
analogici (carta, pellicola, nastri
magnetici, ecc…)
Nel 2013 le informazioni digitalizzate erano stimate intorno ai 1200 exabyte,
vale a dire erano il 98 per cento, mentre quelle analogiche si erano ridotte al 2 per cento.
La mole delle informazioni digitalizzate fino ad oggi è tale che
se le stampassimo su carta coprirebbero una superficie grande come sessanta Stati
Uniti.
A parte il volume delle
informazioni c’è da considerare, per le notevoli conseguenze che comporta sul
piano culturale, politico, economico, che
questi dati fanno capo a pochissimi soggetti, sono concentrati in pochissime
mani.
Cosa vuol dire?
Che Facebook – per fare un
esempio – ha collezionato, in regime di monopolio, il più grande insieme di
dati mai assemblati sul comportamento sociale delle persone.
Che, con molta probabilità, ALCUNE DELLE NOSTRE INFORMAZIONI PERSONALI NE FANNO
PARTE ed altre, proprio in questo momento, VI STANNO CONFLUENDO.
°°°°°°
C’è una importante correlazione che si sta sviluppando tra
le ICT
digitali
(tecnologie dell’informazione e della comunicazione) e quella che in filosofia è
chiamata la coscienza del sé.
L’espressione,
lo ricordiamo, indica l’uso della tecnologia nella gestione e nel trattamento
dell’informazione, specie nelle grandi organizzazioni.
In
particolare, riguarda l’uso di tecnologie digitali che consentono all’utente di
raccogliere, creare, memorizzare, scambiare, utilizzare e processare
informazioni (o “dati”) nei più disparati formati: numerico,
testuale, audio, video, immagini e molto altro.
Il
ciclo dell’informazione,in sintesi, è strutturato su queste operazioni : Generare – Raccogliere – Registrare e
immagazzinare – Processare – Distribuire e trasmettere – Usare e consumare –
Riciclare e cancellare.
Questa correlazione coinvolge sia il nostro modo di confrontarci con
l’Altro da noi, sia con il nostro modo
di relazionarci al mondo o, meglio, alla natura materiale delle cose.
Questo perché, da almeno una
ventina di anni, grazie al digitale, siamo circondati (sarebbe più corretto
dire immersi) “da – e – in” nuovi e inediti geo-scenari sociali e culturali e dai
loro risvolti culturali, economici e politici.
Facciamo qualche esempio.
Siamo coinvolti dalle nanotecnologie.
Le nanotecnologie sono un ramo della scienza applicata e della
tecnologia che si occupano del controllo
della materia su una scala dimensionale dell’ordine del nanometro, ovvero un miliardesimo di
metro e nella progettazione e realizzazione di dispositivi in tale scala.
Siamo inseriti nell’internet
delle cose.
Nelle telecomunicazioni l’internet delle cose è un neologismo che
si riferisce all’estensione di internet
al mondo degli oggetti e dei luoghi concreti.
Siamo immersi dal Web
semantico.
Con il termine di web semantico
– un termine coniato dallo scienziato inglese Tim Berners–Lee – si intende
la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML,
file, immagini, ecc…) sono associati ad informazioni e a dati che ne
specificano il contesto semantico in un formato adatto
all’interrogazione e all’interpretazione.
In questo modo, con
l’interpretazione del contenuto dei documenti del Web semantico saranno possibili sia ricerche molto più evolute
delle attuali – basate sulla presenza nel documento di parole chiave o di
espressioni idiomatiche – sia operazioni specialistiche come la costruzione di
reti di relazioni e connessioni tra documenti secondo logiche più elaborate del semplice collegamento
ipertestuale.
Una nota sul Web.
Le tecnologie digitali del secolo
scorso – oggi definite Web 1.0 – si basavano sui siti e su dispositivi
come i desktop e i laptop. Gli utenti accedevano alle
informazioni online e potevano usare servizi come l’e-mail e l’online banking, fare shopping, ma in generale non avevano un ruolo attivo nella
creazione dei contenuti online.
A partire dall’inizio del secolo
sono comparsi siti e piattaforme accessibili online che non richiedevano di
essere caricate. Si è sviluppata la
tecnologia wireless (Wi-fi) e la banda larga.
Le tecnologie ubique e senza fili e i social media. Per definire questi sviluppi del Web si parla
di Web 2.0 o di Web sociale.
Oggi esiste anche un Web 3.0
ovvero l’Internet delle cose nel quale gli oggetti digitalizzati sono in grado
di collegarsi a internet e tra loro, scambiarsi informazioni e dare vita a reti
interoperative attraverso gli oggetti, i database e le piattaforme
digitali.
Ancora, siamo utenti del cloud computing.
Una tecnologia che, come abbiamo
già visto, consente di usufruire, tramite un server remoto,
di risorse software e hardware (come memorie di massa per
l’archiviazione di dati), il cui utilizzo è offerto come servizio da un provider
tramite abbonamento.
Possiamo usufruire di giochi basati sul movimento del corpo,
così come di applicazioni per gli smartphone, per i tablet,
per il touch screen.
Abbiamo la possibilità di usufruire
del GPS,
un sistema di posizionamento satellitare che permette in ogni istante di
conoscere la longitudine e la latitudine di un oggetto o di una persona.
Ricordiamo che i dispositivi muniti
di un ricevitore GPS sono tantissimi: navigatori satellitari, smartphone, tablet, smartwatch, solo
per citarne qualcuno.
GPS è l’acronimo di Global
Positioning System. Si tratta di
un sistema per il posizionamento globale. Grazie al GPS
è possibile localizzare la longitudine e la latitudine di oggetti e
persone.
Il tutto avviene tramite i
satelliti che stazionano nell’orbita terrestre e permettono di sapere in ogni
istante l’esatta ubicazione di un luogo.
La localizzazione oggi è possibile
perché i satelliti contengono un orologio
atomico che calcola al
millesimo di secondo il tempo che passa tra la richiesta effettuata dal
ricevitore GPS e le risposte ottenute dai satelliti stessi.
Non da ultimo siamo immersi nella realtà densificata.
Una realtà abitata da droni
(vale a dire oggetti volanti radiocomandati), da auto che si guidano da sole, da
stampanti 3D, da social media, da cyber-guerre, eccetera.
Sono argomenti che rappresentano un
terreno di polemiche tra tecnofili e tecnofobici, ma
soprattutto hanno generato un’ampia discussione tra coloro che si domandano che
cosa non riusciamo a comprendere o si nasconde dietro tutto questo.
In pratica, possediamo una prospettiva ermeneutica per comprendere e gestire tutto
questo?
La difficoltà maggiore è riuscire a
valutare quanto queste tecnologie sono estese e come abbiano potuto diventare forze ambientali, antropologiche,
politiche, sociali e, non da ultimo, culturali, vale a dire, capaci di
interpretare e di trasformare il qui ora dell’esistenza.
Ricordiamo ancora una volta che queste nuove tecnologie, a differenza
di quelle arcaiche, hanno la capacità:
– di creare e plasmare la realtà fisica e intellettuale,
– di modificare, o meglio, di manipolare la nostra capacità di
giudizio,
– di cambiare il nostro modo di relazionarci con gl’altri,
– di modificare la nostra Weltanschauung,
la nostra visione del mondo
– soprattutto, queste nuove tecnologie a differenza di quelle arcaiche
o analogiche, sono in grado di fare tutto questo in modo pervasivo, profondo e continuo e spesso a nostra insaputa.
In conclusione, volenti o nolenti – noi globalizzati – ci troviamo a
vivere nell’infosfera all’alba di un
millennio che ancora non comprendiamo.
I punti critici sono noti.
Saremo capaci di ottenere il
massimo dei vantaggi e il minimo degli svantaggi dalle ICT?
Saremo preparati ad anticiparne i
pericoli dal punto di vista della vita corrente?
Avremo la necessaria competenza per
affrontare i rischi che corriamo nel
trasformare il mondo in un ambiente sempre più digitale?
In linea generale e fin da ora, a ragione della loro natura, queste
tecnologie costringono la maggior parte della popolazione inurbata dentro spazi
fisici sempre più inconsistenti e concettualmente sempre più limitati.
Perché è opportuno saper rispondere
a questi interrogativi?
Sostanzialmente perché oggi le novità
non danno più vita a delle fratture nella continuità
della vita quotidiana che siano facilmente e a breve termine ricomponibili o
assorbibili.
In linea generale per comprendere queste novità abbiamo bisogno, oltre che di conoscenze tecnologiche
avanzate, di una nuova filosofia della natura e della storia, di una nuova
antropologia e di una nuova scienza della politica.
In questo senso ripensare il
presente e pensare il futuro in un mondo
sempre più digitalizzato richiede
una nuova filosofia dell’informazione.
La forma storica della società
dell’informazione, così come la conosciamo,ha le sue radici nella scrittura e nell’invenzione della stampa e
dei mass media.
Cioè nella capacita di REGISTRARE e
di TRASMETTERE.
Oggi, con il digitale questa società si è evoluta con la capacità di
PROCESSARE.
Una capacità che, paradossalmente, ha contribuito a generare nuove
forme di DEFICIT COGNITIVI.
I
paesi del G7 – Canada, Francia, Germania, Giappone, Gran Bretagna, Italia,
Stati Uniti – la Cina, la Corea del Sud,
la Russia europea, l’Australia, l’India, per citare i più conosciuti, costituiscono
da tempo quella che si chiama una società
dell’informazione.
Cosa significa questa definizione?
Che più del settanta per cento del PIL (cioè del loro prodotto interno
lordo, che misura il livello dei beni e servizi di una nazione, anche se non
rappresenta il benessere) dipende da beni
intangibili – vale a dire che concernano l’informazione – e non da beni
materiali, come sono quelli del settore agricolo e manifatturiero.
Possiamo dire – a mo’ di
definizione – che la società dell’informazione ha una struttura
neo-manufatturiera in cui l’informazione è la materia grezza che tutti produciamo, che alcuni manipolano e sia il
prodotto finito che consumiamo secondo le nostre capacità.
°°°°°
Vediamo alcuni lemmi legati al tema dell’infosfera a partire dalla definizione
di algoritmo.
L’algoritmo è un processo logico-formale che si struttura, articolandosi in una
serie di passaggi logici elementari.
Questo processo conduce a un risultato definito da un numero finito
di passaggi.
(L’espressione
di algoritmo deriva dalla latinizzazione del nome del matematico persiano Muhammad ibn Musa al-Khwarizmi, vissuto
nel nono secolo dell’era comune.)
Lo schema logico di un algoritmo si può esprimere con la forma if / then
– SE/ALLORA.
Nel mondo che viviamo, anche se non
conosciamo gli algoritmi, sappiamo che
ogni passaggio logico per arrivare a una conclusione comporta una decisione che
influenzerà il passaggio successivo.
C’è un gioco che illustra bene
questo.
E’ la morra cinese.
Per vincere a questo gioco i passi
elementari possibili sono tre:
Se giochiamo sasso, allora vince
carta. Se carta, allora forbice. Se è forbice, allora sasso.
Fatte le debite proporzioni, i computer
che giocano a scacchi operano nello stesso modo.
Ad ogni mossa che facciamo un
algoritmo cerca le contro-mosse possibili, valuta le possibilità e seleziona la
migliore.
L’importanza degli algoritmi (cioè
di questi processi logico-formale) è esplosa con la nascita dell’informatica.
______________________________________________________________________________
L’informatica è la scienza che studia
l’elaborazione delle informazioni e le sue applicazioni.
Più
precisamente, l’informatica si occupa della rappresentazione,
dell’organizzazione e del trattamento automatico della informazione.
Il
termine deriva dal francese informatique (composto
di INFORMATion e automatIQUE,
informazione automatica) coniato da Philippe Dreyfus nel 1962.
Ricordiamo che l’informatica è
una scienza indipendente dal computer che
ne è solo uno strumento, ma va da se che lo sviluppo dell’informatica è stato
ed è tuttora strettamente legato all’evoluzione del computer.
Va
anche detto che pur avendo radici storiche antiche l’informatica si è
sviluppata come disciplina autonoma solo a partire dagli anni ’60 del secolo scorso, sulla spinta innovativa dei sistemi di elaborazione e del progresso nella formalizzazione del concetto di procedura di
calcolo, che possiamo far risalire al
1936, quando Alan Turing
elaborò un modello di calcolo, oggi noto come macchina di Turing.
______________________________________________________________________________
In linea generale possiamo dire che
i computer,
i tablet,
gli smartphone, così come i device connessi, sono costruiti secondo uno schema teorico chiamato
“macchina di Turing”.
In realtà questa macchina non è assolutamente un oggetto,
ma un concetto logico astratto elaborato dal matematico
inglese Alan Turing.
Si compone di due parti.
– La prima parte è capace di
interpretare una famiglia di algoritmi.
– La seconda è capace di
immagazzinare i dati ai quali questi algoritmi si applicano o che da loro si
ottengono.
Così, dal punto di vista dell’informatica, un computer non è altro che la realizzazione fisica di una macchina di
Turing.
In questa macchina i dati sono
scritti su una memoria – l’hard disk – e processati da circuiti
logici chiamati processori.
Questi processori sono la parte della macchina che è capace di compiere i passaggi
logici,
come estrarre i dati immagazzinati nella memoria, interpretarli, eseguire le
istruzioni ricevute.
In pratica, qualsiasi programma che fa funzionare un computer
o che può essere fatto funzionare da un computer non è altro che un
complesso di algoritmi.
Non è difficile comprendere come
alla base di tutti questi processi c’è un problema di fondo, la velocità di calcolo.
Oggi, l’aumento importante delle
capacità di calcolo dei processori ha permesso di poter far funzionare, su macchina–ad–hoc,
come sono i supercomputer che utilizzano la superconduttività alle basse
temperature, algoritmi sempre più complessi, vale a dire dipendenti da più variabili.
La rete, di contro, ha
permesso di mettere insieme una moltitudine di enormi database che nutrono
questi algoritmi.
Ci sono vari tipi di algoritmi.
I più popolari sono gli algoritmi
di ottimizzazione che cercano la soluzione che minimizza o massimizza
una funzione.
E gli algoritmi probabilistici, molto diffusi grazie alla possibilità che
offrono di trattare grandi masse di dati (i Big Data).
Big data è un termine
adoperato per descrivere l’insieme delle tecnologie e delle metodologie di analisi
di dati massivi.
L’espressione indica la capacità di
estrapolare, analizzare e mettere in relazione un’enorme mole di dati
eterogenei, strutturati e non strutturati, per scoprire e portare alla luce i
legami tra fenomeni diversi e prevedere quelli futuri.
Gli algoritmi probabilistici
sono detti anche predittivi, in quanto sono strumenti capaci di prevedere la
probabilità dell’insorgenza di un evento – come sono, per fare qualche esempio,
le epidemie di influenza, il diffondersi di malattie infettive o, lo scoppio di
crisi finanziarie.
I suggerimenti per gli acquisti che
trovate sulla schermata di un computer (ti potrebbe interessare anche… oppure, sono spesso comprati insieme, ecc…) si basano sulla stessa logica
algoritmica, essi analizzano quegli eventi come sono le visualizzazioni, i click
o gli acquisti correlati a specifici individui.
C’è
un problema etico che è ben illustrato da questa storia vera.
Target – una società americana di vendite per
corrispondenza – fa affidamento
sull’analisi dei profili di acquisto di venticinque prodotti al fine di
assegnare a ciascun acquirente femmina un tasso chiamato previsione di
gravidanza.
Questa
profilazione
stima la data del parto e invia dei coupon per l’acquisto scontato di prodotti
correlati ai diversi stadi della gravidanza.
Ciò
causò seri problemi di privacy finiti
in tribunale allorché i coupon furono
inviati a una famiglia la cui figlia – liceale – non aveva informato i propri
genitori del suo stato.
Ritorniamo al tema degli algoritmi.
Possiamo distinguere tre
serie di passaggi articolati.
Quello dei dati in entrata – input.
Quello dell’algoritmo propriamente
detto – che realizza l’elaborazione.
E quello dei dati in uscita – output.
Ricordiamo che un computer opera esclusivamente sui dati
digitali
che esso stesso ha generato in maniera digitale oppure su dati che sono stati
digitalizzati.
Si tratta di sequenze di bit, indicate con le cifre 0 (zero)
1 (uno) che corrispondono alla
presenza o all’assenza di un determinato livello di tensione elettrica
all’estremità dei transistor che compongono un computer.
La scienza è fatta di dati come una casa è
fatta di pietre. Ma un mucchio di dati
non è scienza più di quanto un mucchio di pietre sia una casa”.
Henri
Poincaré
Big Data. Uno dei co-fondatori della Intel, l’azienda di microprocessori,
Gordon E. Moore, nel 1965 formulò un principio che fu battezzato con il suo
nome. Affermava che il numero di
transistor per unità di superficie di un microprocessore sarebbe raddoppiato ogni
dodici mesi.
Con il tempo, poi, i termini per esprimere la capacità di
memoria e il volume di trasmissione dei dati si sono adeguati allo sviluppo dei
bit.
Otto bit formano
un byte.
Mille byte formano
un kilobyte, una misura che alla metà
del Novecento era sufficiente a misurare la capacità di un computer.
Poi arrivarono i megabyte,
cioè, 10 alla sesta byte. I gigabyte,
dieci alla nona. Il terabyte, dieci alla dodicesima, per valutare la sua grandezza
ricordatevi che tera in greco
significa mostro.
L’ascesa di Internet
ha fatto da traino al moltiplicarsi dei byte.
Nel corso della nostra lezione più di duecento siti web si saranno aggiunti ai quasi due
miliardi esistenti. Una cifra destinata
ad aumentare ogni secondo che passa.
Oggi sono oramai comuni i petabyte, dieci alla quindicesima byte. Gli exabyte, dieci alla diciottesima byte e cominciano a farsi strada gli zettabyte, dieci alla ventunesima byte.
Il peso di Internet
nel 2006 era di poco più di 40 petabyte.
Dieci anni fa era di circa uno zettabyte.
A questo proposito molti hanno cominciato a parlare di yottabyte, 10 alla 24 byte.
La quantità di dati presenti in uno yottabyte equivarrebbe a 20 milioni di volte quella contenuta in
tutti i libri pubblicati a cominciare dal gennaio del 1800 per arrivare a
stamattina.
Calcoli previsionali dicono che nel 2025 in Internet ci saranno più di 170 zettabyte.
Dal punto di vista delle informazioni oltre al volume dei
dati conta il ritmo con il quale sono generati e la loro freschezza, per usare
una metafora, considerato che il loro valore diminuisce se non sono subito
interpretati.
Ricordiamo che oggi quasi ogni abitazione ha un computer,
che gli smartphone sono in tutte le
tasche e che le connessioni Internet
che formano l’Internet delle cose
trasmettono dati in tempo reale da moltissimi dispositivi a cominciare dai
televisori per finire agli aspirapolvere.
Oggi si valuta che ogni persona che abita la fascia
temperata del pianeta condivida ogni giorno uno
virgola quattro gigabyte di dati attraverso Internet.
Questa foresta infinita di numeri, parole,
geo-localizzazioni, documenti è indicata come macrodati.
Il termine di big data si riferisce a un tipo particolare
di informazioni che richiedono degli strumenti specifici di analisi.
Questo perché si tratta di dati che possiedono:
– un grande volume.
– sono generati in tempo reale.
– sono eterogenei.
Dal punto di vista del volume quello che si fa con i big data
ha senso solo nella scala in cui si fanno, sarebbe impossibile a scale di
grandezza inferiori.
Le multinazionali del dato come Netflix, Amazon o Spotify sono le uniche strutture – su
cui per altro nessuno ha un potere di controllo – in grado di gestire e di
appropriarsi di milioni di profili di utenti diversi, così come di canzoni,
film, podcast, e quello che più conta
in tempo reale quando il carico dei dati è maggiore.
Sull’eterogeneità dei dati va osservato che quando questi
erano relativamente scarsi dovevano essere precisi e omogenei. La raccolta era un’operazione molto
importante così come il loro campionamento perché dovevano essere
rappresentativi della totalità (popolazione) che si stava studiando.
Oggi domina un nuovo paradigma, quello dell’abbondanza.
Con l’abbondanza di dati si possono estrarre grandi tendenze
anche se i dati sono molto eterogenei.
Quello che però più conta è l’importante cambiamento
concettuale che i big data hanno generato.
Riguarda la causalità,
vale a dire la capacità dei dati di rilevare – anche in assenza di una
prospettiva teorica – il PERCHÉ dei fenomeni.
Diciamo che quando i dati non sono molti devono essere
analizzati per individuarne la causa e il senso.
Con i big data il perché conta meno del che–cosa.
Quello che importa è captare la tendenza, la direzione del
dato, indipendentemente da ciò che lo causa.
Non per caso l’obiettivo di molti strumenti di analisi dei
dati – come il machine learning o il deep learning – è quello
di identificare pattern complessi
(degli schemi narrativi o dei modelli) che consentano di portare alla luce
tendenze o comportamenti.
Noi sappiamo che gli
algoritmi non capiscono le situazioni, ma allora come agiscono?
Come un analfabeta in una libreria che cerca un libro da
regalare!
Osserva cosa guarda la gente che in qualche modo assomiglia
alla persona a cui deve fare il regalo
e compra il libro più sfogliato.
La matematica delle previsioni è sorprendente, ma ha dei
limiti. Per esempio, gli algoritmi
predittivi hanno, oggi, dei limiti, basandosi sui dati storici le loro
previsioni sono valide a patto che il comportamento futuro rispecchi quello
passato. In pratica la loro validità si
limita ai problemi che il soggetto umano non può alterare di molto.
Per adesso, per la logica del machine learning il
futuro deve comportarsi come il passato e quindi questo algoritmo funziona se
accettiamo che il passato detti il futuro, in buona sostanza comprendere un
fenomeno al fine di modificarlo comporta capire i dati storici e il contesto in
cui si è verificato.
Vediamo qualche altro aspetto dei Big Data.
Come abbiamo accennato
rappresentano un insieme di dati quantitativamente enorme, molto vario e in
continua e rapida evoluzione.
Il concetto di Big Data nasce alla fine del
secolo scorso in corrispondenza all’aumento esponenziale della capacità di
trattamento e di salvataggio dei dati che rese disponibile grandi quantità di
informazioni sotto forma digitale.
L’unità di misura di volume dei Big
Data
è il petabyte
che rappresenta un milione di gigabyte.
Proviamo a valutare che cos’è un petabyte.
Una foto in alta definizione
occupa cinque millesimi circa di un gigabyte quindi un petabyte
può contenere 200 milioni di foto o 250mila pellicole cinematografiche
masterizzate in dvd.
Il
DVD, sigla di Digital
Versatile (versa-tail) Disc,
originariamente Digital Video Disc, è
un supporto di memoria di tipo disco ottico, in via di sparizione.
Un esempio importante di Big
Data
sono le informazioni collezionate in tempo reale dai social network,
dai grandi mercati online o mediante le applicazioni che usiamo sui nostri
telefoni.
Sono, come si può intuire,
un’enorme massa di dati acquisiti velocemente e con varie tipologie.
Tra queste tipologie ricordiamo:
– La localizzazione.
– Il sistema operativo.
– Il plugin (cioè, il modulo
aggiuntivo di un programma, utilizzato per aumentarne le funzioni).
Il
plugin in campo informatico è un programma non autonomo che interagisce con un
altro programma per ampliarne o estenderne le funzionalità originarie. Ad
esempio, un plugin per un software
di grafica permette l’utilizzo di nuove funzioni non presenti nel software
principale.
– Le preferenze del nostro
navigatore.
– Le pagine visitate e il tempo
passato su di esse.
– Le foto e i video selezionati. I contatti e le e-mail.
– E, non da ultimo, le ricerche.
A questo va poi aggiunto tutto il
contenuto testuale, audio, video e fotografico postato o condiviso sulla nostra
bacheca.
______________________________________________________________________________
L’Internet Relay Chat (IRC) è un protocollo di
messaggeria istantanea su Internet.
Consente, sia la comunicazione diretta fra due
utenti, che il dialogo contemporaneo di gruppi di persone raggruppati
in stanze di discussione, chiamate canali.
La chat è una forma di comunicazione online
durante la quale un utente intrattiene una conversazione con uno o più utenti,
in tempo reale e in maniera sincrona, attraverso lo scambio di messaggi
testuali o stabilendo una connessione audio/video con essi.
La chat nasce come forma di comunicazione testuale
supportata da tecnologia IRC (Internet relay chat) che consente la comunicazione sia uno a uno, sia uno a molti.
Questa ultima forma
avviene in stanze di discussione o canali (channel), a cui ogni utente accede servendosi di un nickname e conservando quindi l’anonimato. I canali
possono essere identificati da un soggetto di discussione specifico, oppure
essere semplicemente finalizzati all’incontro con persone sconosciute. L’ambiente virtuale nel quale avviene la
conversazione si definisce chatroom.
Alle chat basate su tecnologia IRC si sono nel tempo
aggiunte le chat basate su altre
tecnologie ospitate da server autonomi, definite webchat e le chat basate sui servizi di messaggistica
istantanea.
Tali piattaforme –
come MSNMessenger, Google Talk, Skype – integrano
funzionalità di posta elettronica, trasmissione dati, interazione audio-video
con l’interlocutore e consentono di arricchire con le emoticon il linguaggio
puramente testuale tipico di IRC.
______________________________________________________________________________
Ci sono poi molti casi di raccolta
dei dati utilizzati nel campo della
sicurezza e del controllo sociale.
Per fare un esempio, gli algoritmi
di riconoscimento facciale – sempre più numerosi nelle
stazioni ferroviarie, negli aeroporti in luoghi urbani sensibili si basano
sulla capacità di stoccare e di analizzzare in tempi brevi i flussi di dati
provenienti da telecamere istallate in questi luoghi o da foto postate su un
qualsiasi social network o sito web.
Tra le opportunità offerte oggi dai
Big
Dataricordiamo il deep learning e gli algoritmi predittivi.
Il deep learning (apprendimento
profondo) – su cui ritorneremo – è una forma di intelligenza artificiale
costituito da algoritmi che consentono a una macchina di prendere decisioni,
operando sulla possibilità di far convergere tecniche di calcolo, tecniche con
un’alta probabilità di correttezza o di affidabilità.
Gli algoritmi predittivi,
invece, sono algoritmi che permettono di stimare la probabilità di realizzazione per un determinato evento
a partire dalle condizioni misurate in un dato momento.
Sono oggi molto usati nella
prevenzione di molte specie di malattie a sviluppo lento.
Il nocciolo della predittività
sta nella possibilità di correlare tra
di loro eventi fisici di varia natura.
Un esempio negativo e nascosto.
Associati alle leggi della fisica gli
algoritmi predittivi consentono, con una precisione definita chirurgica, di
calcolare dove cadrà un missile, conoscendone la potenza, la quantità del
propellente, l’alzo del carrello di lancio e il peso.
Abbiamo poi quello che si definisce
un approccio
statistico
quando la correlazione non viene dedotta dalle leggi della fisica, ma estratta
per inferenza
da un insieme di dati.
Definizione
elementare di correlazione: è una relazione tra due variabili statistiche per
la quale a ciascun valore della prima variabile corrisponde con una certa
frequenza o regolarità un valore della seconda.
Va da sé, per questa ragione la correlazione da sola non è una
spiegazione che da sola chiarisce la natura della relazione che lega due
fenomeni.
Joshua
M. Epstein – che insegna epidemiologia all’Università di New-York – ha scritto
che chiunque si avventuri in una proiezione o provi ad immaginare come si sviluppa
una certa dinamica sociale sta elaborando n modello, ma in genere si tratta di
un modello implicito i cui assunti sono nascosti. La cui coerenza interna non è testata. Le cui conseguenze logiche sono ignote. E,
infine, la cui relazione con i dati e sconosciuta.
L’inferenza (in generale) è una deduzione intesa a provare o a
sottolineare una conseguenza logica.
L’inferenza statistica (o statisticainferenziale), invece, è il
procedimento per cui si deducono le caratteristiche di una popolazione dall’osservazione
di una parte di essa (detta “campione“), selezionata solitamente mediante un esperimento casuale
(aleatorio).
In linea generale, più grande è
l’insieme più probabilità ci sono che le correlazioni osservate statisticamente
riflettano la legge che regola il comportamento del fenomeno in questione.
In questo senso, la novità
rappresentata dai Big Data consente di migliorare gli algoritmi predittivi,
anche e grazie a metodi di deep learning, rendendo questi
algoritmi sempre più performanti.
Sul piano sociologico, tra i molti
dubbi e problemi che si possono avere sugli algoritmi predittivi, quello che
qui importa sottolineare è la questione etica o più in generale politica,
perché l’analisi e lo sfruttamento dei Big Data è in mano a pochi, ovvero
ai grandi gruppi industriali e militari.
Moralmente il problema sta nel
fatto che nessuna organizzazione scientifica o politica è messa nella
condizione di controllare le inferenze
compiute e le loro conclusioni.
A questo punto dello sviluppo digitale
si può dire che i Big Data assomiglino a delle
forme oracolari pseudo-scientifiche a cui è comodo affidarsi, anche sotto
l’aspetto economico, evitando la ricerca e la formulazione di teorie da
verificare.
In altri termini i Big
Data
invece di essere usati per avanzare delle tesi e cercare verifiche sul campo,
sono usati (soprattutto quelli commerciali) per convincere senza dimostrare, partendo dal presupposto che i dati
parlano da sé, basta saperli interrogare e ascoltare.
°°°°°°°
Approfondiamo meglio il tema dei dati spostando l’ottica con cui ne
parliamo.
La loro caratteristica – oltre alla
loro quantità – sta nel fatto che essi provengono da fonti diverse e sono
“estratti” con metodi diversi, in questo modo costituiscono un datasetcomplesso
e, allo stesso tempo, destrutturato, che richiede, per
essere sfruttato, elevate capacità di calcolo e di efficienza algoritmica.
Va aggiunto che i dati non provengono solo dagli addetti
ai lavori, ma anche dalle azioni
quotidiane di milioni di utenti digitali che non ne sono consapevoli o non ne
comprendono le implicazioni.
Tutto questo va poi considerato
tenendo presente il carattere pervasivo (che tende a diffondersi in
tutte le direzioni) delle nuove tecnologie, delle quali non siamo, per ora,
capaci di immaginare gli scenari.
Non è un caso che la sociologia
critica parla di una “dittatura
planetaria degli algoritmi” che nella sostanza favorisce le disparità economiche e i soprusi sociali.
Vediamone un esempio. La polizia di Los Angeles da qualche anno a
questa parte sta implementando un programma chiamato Predpol che grazie
all’analisi dei dati dovrebbe riuscire a prevedere i crimini.
Per ora i risultati sono stati grossolani
e il più delle volte sono stati distorti dai pregiudizi razziali che hanno
accompagnato la raccolta dei dati, torneremo su questo importante tema dei bias
che affligge gli archivi di raccolta dei dati digitali.
Implementare, dall’inglese (to) implement, a sua volta
del lat. implēre “condurre a termine”, si usa quando si rende eseguibile un programma attraverso
la formalizzazione dell’algoritmo risolutivo.
Per tornare ai dati. La digitalizzazione (e quindi
l’automazione dei processi) richiede capitali enormi tale da renderla un’attività
altamente selettiva e qualificata,
ma non immune da danni collaterali, il più grave che produce è nel comparto
della precarizzazione del lavoro cultuale e cognitivo individuale.
In altri termini la digitalizzazione
rende sempre più simbiotico il rapporto tra mente e macchina e accentua l’importanza del lavoro
eterodiretto.
Ma c’è di più.
La data e sentimental analysis
mostra come, oggi, l’estrazione dei dati, che disegnano e prevedono i
comportamenti fino a modellarli, un lavoro complesso che produce un ingente plusvalore.
Nella
terminologia marxiana il plusvalore è la differenza tra il valore del prodotto
del lavoro e la remunerazione dei lavoratori, differenza della quale, nei regimi
capitalisti, si appropriano esclusivamente gli imprenditori.
Questo plusvalore, nel digitale, si
forma non solo a partire dal singolo individuo, ma dal valore aggiunto di
milioni e milioni di corpi e di menti messi in relazione.
Proviamo a concludere su questo
punto:
NELLA CULTURA DIGITALE SE NON PAGHI, IL
PRODOTTO SEI TU!
Facebook e Google sono gratis, ma solo per il fatto che a lavorarci siamo anche noi quando
li usiamo.
______________________________________________________________________________
La
cessione delle informazioni sulla persona dovrebbe essere una scelta personale
per molte ragioni.
Cedere
i propri dati significa cedere
alcuni diritti e per questo dovrebbe
essere una scelta consapevole. Nella
modernità le informazioni hanno un valore economico e sono commercializzate
nonostante che le persone non ne abbiano la percezione.
Gli
utenti del digitale vengono considerati de meri consumatori dai quali estrarre
i dati per usarli o rivenderli. Sono una
merce.
Per
consuetudine e da tempo i dati correlati a un individuo sono considerati – nell’linguaggio
economico-burocratico – una commodity è una merce che si possiede e che, a
ragione della sua natura, non si può vendere ma solo usare come merce di
scambio.
In altri termini, non si possono vendere i propri dati, ma si possono
cedere in cambio di un servizio a chi invece – se vuole – potrà
rivenderli.
Vediamo un caso di specie.
Quando nel 2014 Facebook ha
comprato WhatsApp per 19 miliardi di
dollari, di cui 4 in contanti, non ha
certo comprato un software, ma ha
acquistati i dati appartenenti a 400milioni di utenti. Se proviamo a fare due conti ogni persona è
stata valutata circa 40 euro. E oggi? In
ogni modo io non ho visto un centesimo e voi?
______________________________________________________________________________
In altri termini. L’utente è – allo stesso tempo – risorsa da
cui estrarre la materia prima dei dati e obiettivo su cui realizzare la
valorizzazione dell’informazione prodotta a partire dai dati estratti.
In sostanza siamo in presenza di
una sorta di neo–potere, caratteristico delle piattaforme, che ha dato vita a un
nuovo potere politico ed economico organizzato in modo tale che le proprie policydi utilizzo finiscono per essere
considerate alla stregua di leggi internazionali.
Con policy, nei paesi di lingua inglese, si indica un insieme di azioni (ma
anche di nonazioni) poste in essere da soggetti di carattere
pubblico e privato, in qualche modo correlate ad un problema collettivo.
A
questo proposito, nel 2008 uno studio universitario statunitense ha calcolato
che per leggere in modo adeguato tutte le policy
sulla privacy che si incontrano in
un anno sarebbero necessari 76 giorni lavorativi con un costo per gli USA di
781 miliardi di dollari. Cosa se ne
deduce? Che le aziende, di fatto,
acquisiscono dei diritti senza contrattazione e impongono delle pratiche senza
che gli utenti si accorgano di quanto accade.
Va anche detto che queste piattaforme, grazie alla loro
tecnologia, forniscono servizi basati su standard
che quasi sempre sono superiori a quelli dei servizi classici – sia privati che
pubblici – innescando, senza che ce ne rendiamo appieno conto, processi di privatizzazione consensuale,
silenziosi e inavvertiti.
Tra l’altro, questa è la ragione
per la quale chi controlla il web fa di tutto per imporsi nella
ricerca scientifica e nella formazione sia sviluppandola in proprio che
finanziandola dietro lo schermo della ricerca pro-bono.
Ma questa è anche la causa di un conflitto di cui non siamo
in grado di prevedere le proporzioni e l’esito, inedito nella storia moderna –
quello tra gli Stati nazionali e le piattaforme
transnazionali.
C’è da aggiungere che – in virtù
della sua deterritorializzazione – si è anche sviluppata una sorta di etica hacker che potremo
definire “anarco-capitalista” e che ha come obiettivo un mercato digitale
libero da ogni regolamentazione e assolutamente reddituale.
Non va dimenticato che l’enorme capacità
di calcolo e di elaborazione dei dati consente alle grandi aziende
dell’informatica – spesso in regime di monopolio, quasi sempre di oligopolio –
di fornire analisi in qualunque settore
della conoscenza, potendo attingere non solo alle risorse del proprio recinto
di dati, ma anche alle fonti ad accesso libero.
In quest’ottica la produzione di dati a mezzo di dati
fa si che la volontà di offrire piattaforme
aperte è più che altro una forma
avanzata di capitalismo travestito di buonismo,
nel quale il lavoro individuale si muta in una opportunità di contribuire al
loro progresso.
Perché?
Perché il meccanismo alla base
delle nuove forme di intelligenza artificiale è il cosiddetto apprendimento automatico o machine
learning.
Per comprendere i termini della
questione va ricordato che nell’algoritmica classica la macchina esegue
determinati compiti prefissati da un ordine.
Di contro nel machine learning l’algoritmo si nutre in
modo autonomo dei dati che elabora.
Per esempio, se vogliamo creare un
programma che sappia distinguere le foto degli asini da quelle dei cavalli,
occorre metterlo in condizione di esaminare un enorme dataset di immagini di
asini e di cavalli.
L’algoritmo studierà queste foto
contrassegnate da un etichetta che li distingue ricomponendo in continuazione la propria esperienza in modo da
commettere sempre meno errori possibili di riconoscimento.
Alla fine questo programma sarà in grado di distinguere, con una buona
approssimazione, un asino da un cavallo, ma quello che è straordinario DA UNA FOTO
CHE NON HA MAI VISTO.
L’ampiezza di questo processo è che può essere applicato a qualunque cosa
inerte o vivente,
sia esso il software per riconoscere
una traccia musicale, sia esso un programma per identificare una persona
partendo da come cammina o per come parla.
L’unica cosa di cui abbiamo bisogno
è un dataset
sufficientemente grande di informazioni adatto al contesto.
Lo stesso processo può poi essere
applicato al sentiment analysis
ovvero a quei sistemi sviluppati soprattutto per determinare il livello di “positività”
o di “negatività” di un testo.
Un’analisi importantissima e
invasiva sia nel mondo della pubblicità, come in quello della politica e della
diplomazia.
°°°°°°°
“Quo facto, calculemus”
Come abbiamo gia visto, è stato Leibniz ilprimo a cercare di elaborare un modello logico capace di
risolvere per mezzo di calcoli qualunque problema.
Oggi, per gli ingegneri della
Silicon Valley, ma soprattutto per i proprietari dei dati e delle macchine di calcolo, questo è un mito che appare se
non vicino, perlomeno pensabile.
Un po’ di cronaca. Nel 2008 su Wired fu pubblicato un articolo di Chris
Anderson che annunciava l’era dei Petabyte.
Wired è una rivista
mensile statunitense con sede a San Francisco in California dal marzo 1993, e nota
come “La Bibbia di Internet”, tra i suoi fondatori annovera Nicholas
Negroponte.
Il Petabyte è un’unità di misura dell’informazione o della quantità di
dati.
Il termine deriva dalla unione del
prefisso peta con byte e ha per simbolo PB.
Il prefisso peta deriva dal termine greco penta
e sta ad indicare 1000 alla quinta.
Perché sono importanti i Petabyte?
Perché hanno reso obsoleto molti aspetti del metodo
scientifico classico, così come l’elaborazione di molti modelli teorici, sostituendoli con l’analisi dei dati.
In questo modo hanno creato una
nuova forma di fiducia acritica verso gli algoritmi
e la correlazione statistica delegando
– di fatto – alla macchina la capacità di analisi indipendentemente dalla loro
obiettività.
Il problema è che gli algoritmi sono nella nostra vita,
valutano l’efficacia dei manager o degli insegnanti.
Come investire in borsa.
Quando ci ammaleremo e, con buona
approssimazione, perché.
Come ci comporteremo nell’acquisto
di un casa o di un auto.
Ci ricordano cosa ci piace, quale
musica ascoltare, quali libri acquistare, in quale ristorante andare.
Dov’è la zona oscura?
In prima istanza nel fatto che l’algoritmo
diventa il nostro critico, il nostro esperto, il nostro giudice, in seconda
istanza colui che ci precede nei desideri e nelle decisioni perché ci conosce.
Per dirla in maniera più
tecnologica l’algoritmo apprende, elabora, costruisce una “scatola nera” capace di valutazioni, vale a dire di fornire risultati senza che il programmatore abbia la necessità di
conoscere i criteri che portano al risultato finale.
Che cosa interessa di questo
processo alla sociologia?
La circostanza che nella fase di apprendimento la macchina si appropria
anche dei bias, delle distorsioni e degli errori che potrebbero trovarsi nel
dataset
di partenza.
È un caso di scuola il caso di Tay,
il Twitter–bot
di Microsoft che fu ritirato perché antisemita.
In
informatica il significato di bot (da robot) si è trasformato
nel tempo.
Inizialmente
indicava un software usato per svolgere
automaticamente attività ripetitive su una rete, ad esempio un mailbot risponde con messaggi automatici a e-mail inviati a uno
specifico indirizzo di posta elettronica.
Oggi
il bot descrive anche programmi che possono interagire in modo automatico con
i sistemi o gli utenti, come i bot
sui social che simulano persone reali.
I bot
di Twitter (Twitterbot) gestiscono automaticamente account e sono programmati per
comportarsi come utenti umani: seguono altri account, ri-twittano e generano automaticamente contenuti
e se malevoli possono anche diffondere notizie false e sfruttare hashtag e parole chiave degli argomenti più
popolari per inserirsi in scambi tra persone reali e provocarne le
reazioni.
L’opinione
pubblica americana sospetta che siano quelli che sono intervenuti e modificato
in modo significativo il risultato delle elezioni presidenziali americane.
In altri termini, il problema di
fondo, anche se in questo momento in fase embrionale, è quello di una pseudo-oggettivazione
del giudizio che appare veritiero e non è controllabile.
Al pari di un qualsiasi individuo –
le cui capacità di analisi e di valutazione sono influenzate dalla sua cultura
e da ciò che gli è capitato di vivere – l’algoritmo
di machine learning si sviluppa
apprendendo.
È questa la ragione per la quale
sia la politica che le scienze sociali hanno cominciato a considerare con
attenzione le implicazioni politiche di
un dataset,
di comepossa essere confezionato, per
esempio, ignorando le minoranze etniche, culturali, politiche, sottovalutando
le diversità o le circostanze. Chi lo
controlla e con quali fini.
In questo momento l’algoritmo di machine learning opera imbevendosi di opinioni e gusti che
riflettono le opinioni dominanti e sono in grado di dar vita a una retorica che
appare oggettiva.
Come sostengono gli scettici: Gli algoritmi di deep learning sono intelligenti o stupidi tanto quanto chi li
programma e, a causa di questo loro natura, sono spesso destinati a
confondere la correlazione di causalità, ma come abbiamo visto imparano
velocemente
Prima di concludere queste note, vanno rilevate due cose.
La prima mostra come lo
scontro tra apocalittici e integrati, nell’ambito delle nuove tecnologie
digitali, appare più che altro un conflitto emotivo legato alla sensibilità
culturale.
Di contro, non si può dimenticare che
la tecnologia digitale è una realtà autonoma e quindi non si può sottovalutare
il fatto che essa è, da una parte, modellata
sui rapporti di proprietà e di produzione, dall’altra dipendente dalle
relazioni tra i poteri e dalle loro logiche.
Un esempio di scuola che risale al primo secolo prima dell’era comune può essere illuminante.
In questo secolo il matematico Erone di Alessandria concepì una specie
di macchina a vapore che se
sviluppata avrebbe potuto anticipare la tecnologia a vapore di almeno diciotto
secoli.
Questa macchina, però, non aveva
– allora – nessuna applicazione pratica perché la grande quantità di schiavi a
disposizione rendeva superfluo studiare questa tecnologia.
La seconda cosa è che il mito della neutralità algoritmica
discende dal mito della neutralità scientifica.
In realtà come da tempo ha mostrato
la teoria critica della società ci sono condizionamenti
reciproci tra scienza e rapporti sociali di produzione.
Il concetto di neutralità, in quest’ambito, appare una forma
particolare di feticismo che attribuisce a proprietà oggettive, proprie dei
prodotti dell’attività intellettuale e manuale degli uomini, ciò che discende
dai rapporti sociali che tra di essi intercorrono.
Molti studiosi di scienze sociali, a
proposito di algoritmi, denunciano un’autorità algoritmica sull’informazione
e la conoscenza.
Parlano di algocrazia (potere degli
algoritmi) sul mondo del lavoro, così come di identità algoritmiche,
calcolate in modo bio-politico, e assegnate, a loro insaputa, agli utenti dei social
media.
Queste circostanze rivelano una
preoccupazione sulle conseguenze politiche micro-sociali e culturali del
digitale, ma soprattutto sulla trasparenza
dei processi computazionali.
Secondo molti sociologi americani
la cultura del mondo occidentale si sta progressivamente trasformando in una algorithmic culture
caratterizzata da un forte determinismo tecnologico.
Per semplificare al massimo, quello
che preoccupa di più le scienze sociali non è l’input – i Big data estratti
dall’attività di miliardi di consumatori – né l’output, ma la non
trasparenza che sta nel mezzo, vale a dire le righe di codice che guidano il
processo con cui gli algoritmi on
line ingeriscono i dati sui comportamenti degli utenti.
Algoritmi che, abbiamo sottolineato più volte, rappresentano un investimento – insieme ai dati – da custodire con grande cura perché gran parte
dei profitti di colossi come Netflix
e Amazon derivano proprio dai
suggerimenti automatici che acquisiscono.
Infatti, anche se molti degli algoritmi delle nostre tracce digitali sono progettati da
privati per scopi soprattutto commerciali, le
ricadute sono pubbliche e spesso inquietanti.
Un caso esemplare è quello del recommender
algorithm
di Amazon
che in piena stagione di terrorismo suggeriva le componenti per fare una bomba
artigianale in quanto “spesso comprate
insieme”.
In questo aneddoto – tragicamente vero
– per riprendere un’espressione di Hanna Arendt, sta quella che si potrebbe
chiamare la banalità dell’algoritmo.
Uno strumento che appare semplice, utile e apparentemente neutrale, che
si limita a eseguire gli ordini, ma può produrre esiti indesiderati e devastanti.
°°°
La Profilazione Digitale.
Nelle scienze sociali il concetto
di identità personale si riferisce all’insieme delle caratteristiche
dell’individuo, ed è materia di autodeterminazione.
Vale a dire, questa identità è auto-costruita e discende dal processo
di identificazione con uno o più modelli proposti dall’ambiente familiare,
socio-culturale e politico in cui l’individuo si trova a vivere. Va sottolineato che l’identità per sua
natura non può che essere molteplice e meticciata. L’idea di un identità pura e statica è
un’illusione.
L’identità digitale è, invece, la
rappresentazione di un
individuo.
Un’identità disegnata da coloro che
creano e usano i dataset (cioè le collezioni di dati) in cui questa identità è
memorizzata.
In sostanza, una persona digitale è la rappresentazione digitale di un individuo
reale.
Una sorta di persona astratta che può
essere connessa a un individuo reale e che comprende una quantità di
dati sufficiente per essere usata in ambiti specifici.
In pratica è una delega di cui si
può essere coscienti o che si realizza a nostra insaputa.
Roger Clarke, un esperto di cultura
digitale australiano, ha definito due tipi di identità digitale: quella progettata e quella imposta.
La progettata è costruita dallo stesso individuo, che la trasferisce
ad altri per mezzo di dati.
Ad esempio: con la creazione di un Blog
personale o di una pagina personale su un social network, o luoghi
digitali simili.
Quella imposta è quella proiettata sulla persona. In un certo senso è quella illuminata per
mezzo dei dati collezionati da agenzie
esterne, quali sono le società
commerciali o le agenzie governative (dati che hanno molteplici scopi, come, per
esempio, valutare di una persona il suo grado di solvibilità ai fini della
concessione di mutui, il suo stato di salute a fini assicurativi o creditizi, definire
le sue preferenze politiche, i suoi gusti musicali, eccetera.
In una conferenza a Roma di qualche
anno fa, Roger Clarke – affrontando
il il tema dell’Identità Digitale – ha definito quattro categorie di persona digitale modellate
sull’individuo reale come forme di un
inconscio digitale:
– alla prima categoria troviamo una
persona che non è a conoscenza degli archivi che conservano i suoi dati
sensibili.
– alla seconda, una persona che è a
conoscenza degli archivi dati, ma non può accedere ad essi.
– alla terza, una persona che è a
conoscenza degli archivi e ne ha accesso ma non conosce i codici per
decodificare le informazioni su tali archivi.
– all’ultima categoria troviamo una
persona che nonostante abbia accesso ai suoi dati sa che ad essi sono state
sottratte o aggregate molte delle informazioni che la profilano, senza
conoscerne il motivo.
In quest’ottica il profiling è l’insieme di
quelle tecniche che servono per disegnare il profilo di un utente in base al
suo comportamento.
Questo modello di profiling
deriva direttamente da quello in uso da tempo dalle forze dell’ordine e reso
popolare dai film e dalle serie televisive.
Si tratta di una tecnica che ha
l’obiettivo di portare alla luce dei pattern,
cioè, degli schemi ricorrenti nel modo di agire di un indiziato. L’obiettivo del profiling è di prevedere
il momento del reato e intervenire per evitarlo.
Per analogia, come il criminale
identifica il comportamento di un delinquente, allo stesso modo il profiling
commerciale identifica il comportamento di un utilizzatore di servizi.
Ha rappresentato un grosso passo in
avanti qualitativo rispetto al
meccanismo della fidelizzazione
(dall’inglese fidelity, fedeltà),
perché si tratta di un monitoraggioche non riguarda solo i consumi
correnti, ma è in grado di anticipare i desideri di consumo, così
come il profiler criminale anticipa il momento e il modo del reato.
Oggi il profiling commerciale è
ancora più sofisticato perché non si limita ad anticipare i desideri di
consumo, ma li orienta e in molti casi li crea.
Più in generale il campo di studio
del profiling
commerciale, applicato ai consumi, non riguarda solo l’area degli acquisti, ma
l’insieme delle interazioni e dei sentimenti (dei processi emotivi) che un individuo sviluppa in un ambiente
sociale predisposto per mezzo del web.
L’obiettivo è quello di tracciare
un’area esplicativa dei legami sociali e, per conseguenza, dell’identità che si
“costruisce” entrando in relazione
con gl’altri.
Quest’area di studi oltre a essere
complessa è delicata da valutare perché in genere – per motivi politici e
culturali – siamo abituati a pensare che il tema del controllo sia di esclusivo appannaggio delle istituzioni – più o
meno legittime – che detengono il potere e non
una nuova prerogativa commerciale legata alla diffusione del digitale.
Qui siamo in presenza di un
paradosso. Se un governo spia la
popolazione o settori di essa si rende colpevole per l’opinione pubblica di un
comportamento scandaloso e antidemocratico.
Di contro e fino ad oggi, invece, non c’è scandalo, né riprovazione morale se
questo controllo è esercitato dalle multinazionali del digitale.
E questo nonostante il fatto che, da
un punto di vista fenomenologico, il
profiling
è una delle tecniche più sofisticate per reificare un individuo, cioè renderlo
simile a una cosa, in questo caso, una cosa valutabile e sfruttabile.
In genere nessuno pensa mai di
essere sottoposto alla profilazione e, questo,
indipendentemente dall’uso che facciamo
dei servizi gratuiti in rete ma, come abbiamo gia ricordato, i critici digitali a questo proposito dicono:
SE E’ GRATIS VUOL DIRE CHE LA MERCE SEI
TU.
Questo perché l’obiettivo dei
servizi che ci offrono è il profitto
e non certo quello di metterci in contatto con altri o di condividere con noi
le esperienze della vita.
Diciamo che il segreto di
Pulcinella del digitale è il suo potere
di estrarre valore economico dalla capacità umana di incontrarsi,
comunicare, mostrarsi, generare senso e articolare i legami sociali.
In altri termini la profilazione può
anche essere definita l’insieme delle tecniche che consentano di identificare e
classificare gli utenti in base al loro
comportamento.
Quello che viene raccolto e
conservato non è, come nelle indagini di mercato classiche, una sorta di istantanea scattata in un dato momento,
ma è un flusso di dati in movimento che
aumenta costantemente e si modifica
in continuazione, realizzando una sorta di controllo continuo.
In sostanza, ogni utente che è in
rete sviluppa e acquisisce un’impronta identitaria unica e in perenne
metamorfosi.
Il tracciamento di questa impronta
avviene in vari modi e per mezzo delle applicazioni che ci mettono in contatto
con i servizi.
Il più importante è il browser,
cioè il navigatore, con cui surfiamo nel
Web.
Il browser è un programma per
navigare in Internet che inoltra la
richiesta di un documento alla rete e ne consente la visualizzazione una volta
arrivato.
Il modo più conosciuto per
tracciare un’impronta è il sistema dei cookie, che tutti conoscono perché
per legge deve essere segnalato sul sito dove si sta navigando.
Va però aggiunto che questi cookie
sono quasi sempre soggetti a domini esterni rispetto a quello su cui il cookie
si trova.
Ma che cos’è un cookie?
E’ una stringa di codice, diversa per ciascuno, che ci viene assegnata
ogni volta che siamo su un sito e al cui interno sono contenute le impostazioni
dell’utente relative al sito Web
visitato.
Quando si ritorna su questo sito i cookie
impostati in precedenza vengono di nuovo inviati al sito.
A cosa servono?
Se sul sito di una compagnia aerea
effettuiamo una ricerca con la frase: Voli
per Londra o treni per Berlino, sul nostro browser viene istallato
un cookie
con questa richiesta (query).
Il
termine query viene
utilizzato per indicare l’interrogazione da parte di un utente di
un database, strutturato. L’analisi
del risultato della query è
oggetto di studio dell’algebra relazionale.
Poi, in seguito a questa richiesta,
un software
istallato sul sito consultato farà uso di tale informazione (Voli per Londra, treni per Berlino) per
offrirvi della pubblicità legata alla ricerca, come hotel, noleggio auto,
ristoranti centri di shopping,
eccetera.
Questo perché, in genere, il cookie
istallato è un cookie di proliferazione.
In ogni modo ci sono sistemi di
tracciamento anche più sofisticati come gli LSO (Local Shared Object) più conosciuti con il nome di flash
cookie,
e gli e-tag, una sorte di database nascosti dentro il browser
e usati soprattutto dalle grandi compagnie come Google, Yahoo, Amazon e così via.
Il
tag è una sequenza di caratteri con
cui si marcano gli elementi di un
file per successive elaborazioni. Da qui
la sua definizione più popolare, di sigla apposta come firma dall’autore di un
graffito.
Perché tutto questo ci riguarda da
un punto di vista sociologico?
Perché il nostro browser
generalmente è farcito di software di cui non sospettiamo
l’esistenza e che hanno lo scopo di
tracciarci.
La pratica di ripulire il proprio browser
è importante, ma non risolve il problema.
In linea di massima ogni volta che
una tecnologia Web permette a un server di salvare qualche dato
all’interno del browser,questo può
essere usato come sistema di tracciamento.
Ma oggi c’è anche una
proliferazione di tipo attivo.
Quando utilizziamo Google
Doc o Gmail condividiamo con il servertutte le informazioni sui contenuti, le condivisioni e le modalità
d’uso che ne facciamo.
E’ un tracciamento di tipo attivo
di cui abbiamo accettato le condizioni, vale a dire, quei “Termini del Servizio” che nessuno legge mai e che, in sostanza, ci
comunicano che, per esempio, Google, con ciò che mettiamo a sua
disposizione, si riserva di farne quello
che vuole al fine di migliorare il servizio (sic).
Per concludere, dobbiamo PRENDERE ATTO – e molti faticano a crederlo –
che i servizi che ci vengono promessi come gratuiti non lo sono affatto.
LA MONETA DI SCAMBIO E’ RAPPRESENTATA
DALLA NOSTRA IDENTITA’ – CHE SI COSTRUISCE ATTRAVERSO IL WEB – E DAL CONTENUTO DEI
NOSTRI PROCESSI DI INTERAZIONI CON GL’ALTRI.
Per interazione sociale intendiamo
qui una relazione di tipo cooperativo svolta da due o più attori
detti soggetti agenti, che orientano le loro azioni in riferimento ed in
reazione al comportamento di altri attori.
Queste relazioni sono
caratterizzate da una certa durata, intensità e ripetitività nel
tempo.
Il
termine trae origine dalla scuola sociale americana ed è in qualche modo
l’equivalente di relazione sociale. Vedi:
Modelli di interazione, Erving Goffman, Bologna, Il Mulino, 1971. (Contiene in trad. italiana: Interaction ritual. Strategic interaction.)
Come abbiamo detto, l’identità digitale è, di fatto, la base
dei profitti del Web 2.0.
Il termine, apparso nel 2005, indica la seconda fase di
sviluppo e diffusione di Internet, caratterizzata da un forte
incremento dell’interazione tra sito e utente.
Vale a dire:
(uno) Maggiore
partecipazione dei fruitori, che
spesso diventano anche autori (blog, chat, forum, wiki).
(due) Più efficiente
condivisione delle informazioni, che possono essere facilmente recuperate e
scambiate con strumenti peer to peer o con sistemi di
diffusione di contenuti multimediali come Youtube.
(tre) Sviluppo e
affermazione dei social network.
Possiamo dire che l’architettura
del Web
2.0 ha avuto come obiettivo principale quello di pensare l’identità
degli utenti e, come abbiamo visto, la raccolta delle informazioni sulle
identità, attraverso le tecniche del profiling, costituisce la
piattaforma su cui si fondano i profitti delle società di servizi gratuiti online.
In termini sociologici, come si fa
a trasformare un utente in merce?
Come abbiamo detto con la reificazione,
un concetto che sotto un’altra forma costituisce uno degli argomenti della
teoria critica della società elaborata nel secolo scorso soprattutto dalla Scuola di Francoforte.
In pratica, rendendo l’utente un oggetto di studio misurabile.
Creando di esso un modello semplificato sul quale poter compiere elaborazioni come si fa con
un insieme di dati.
Ma c’è un aspetto di questo
problema che non va sottovalutato.
L’identità – come è mostrato dalle scienze sociali – è un concetto
complesso, costituisce il frutto delle relazioni sociali in cui viviamo.
Come si fa a renderla
misurabile?
Come abbiamo visto con la profilazione,
vale a dire con quella tecnica che permette di identificare i singoli utenti e
catalogarli in base al loro comportamento.
Dove sta il trucco? Nella
capacità di far si che l’utente venga reificato
(messo a nudo) attraverso il suo stesso comportamento.
In particolare analizzando la nostra
condotta e registrando le nostre azioni il cui significato è calcolabile attraverso la costruzioni
di parametri.
In altri termini, sul web
commerciale noi siamo considerati per quello che facciamo.
Dal più piccolo movimento del mouse
fino al tempo che trascorriamo senza far nulla sulla schermata di una pagina web.
Va anche osservato che nei panottici
digitali
del web
il credito e la visibilità sono direttamente proporzionali a quanto noi
riversiamo sui framework, la piattaforma che funge da strato intermedio tra un
sistema operativo e il software che lo utilizza.
Più il nostro account è raffinato, più
ci personalizziamo, maggiore sarà il dettaglio della nostra immagine profilata sui data center delle aziende che
conservano i nostri dati.
L’account è il complesso
dei dati identificativi di un utente.
Quei dati che gli consentono
l’accesso a un servizio di rete.
L’account di posta elettronica,
in particolare, è il nome e la parola d’accesso per poter usufruire del
servizio di posta.
Esistono da questo punto di vista due
copie della nostra identità.
Una è quella che vediamo sullo
schermo del nostro computer, che
aggiorniamo, attraverso la quale ci rapportiamo con gli altri. È, di fatto,
l’identità con la quale ci presentiamo nell’infosfera.
L’altra è quella che sta sul server,
è molto più estesa e complessa perché conserva in memoria ogni nostro dettaglio
a partire dalle interazioni, dalle correzioni e dalle osservazioni passive che
abbiamo svolto.
°°°°°
Una
nota sul data mining.
Definiamolo prima di
analizzarlo.
Il data mining riguarda l’estrazione
di informazioni – eseguita in modo automatico o semi-automatico – da grandi
quantità di dati – conservati nei DataBase
– per la ricerca di pattern e/o relazioni
non note a priori.
Implica l’uso di tecniche di
analisi che si avvalgono di modelli matematici e statistici per
l’interpretazione e la previsione dell’andamento di serie temporali, tecniche
che mirano ad implementare le
capacità analitiche di tipo predittivo.
Va
rilevato che gli algoritmi di data
mining costituiscono una svolta rispetto a quelli usati nei calcoli
statistici. Infatti, mentre la
statistica permette di elaborare informazioni generali riguardo ad una data
popolazione – per esempio, il numero di disoccupati rispetto agli occupati – il
data mining viene utilizzato per
cercare correlazioni tra più variabili relativamente ai singoli individui.
Per questo da tempo il data
mining
è massicciamente usato per orientare le opinioni e i processi decisionali.
Va osservato che questo lavoro sui
dati non si limita alla pura constatazione e osservazione di fatti, perché il
suo fine è quello di mettere in atto
azioni capaci di produrre valore.
Ci sono quattro misure – dette le quattro V – che consentono di
catalogare i dati raccolti e di poterne individuare una grandezza.
Queste misure sono:
– Il Volume, è una misura
facile da intuire in quanto riguarda l’accumulo dei dati, ma va apprezzata.
Ogni minuto vengono caricate sulla
piattaforma di sharing Youtube più di quattrocentocinquanta
ore di video.
Facebook genera più cinque
petabyte
di dati al giorno.
Twitter gestisce oltre 700
milioni di tweet ogni 24 ore.
Il numero di mail scambiate ogni
giorno nel mondo è più di duecento miliardi di unità.
(Sono
dati del 2018 e sono per la nostra esperienza impensabili e in difetto.)
– La Velocità. Concerne la necessità di ridurre al minimo i
tempi di analisi delle informazioni cercando di processarle in real time
o quasi e distinguendo quelle che potrebbero essere o diventare in tempi
brevi obsolete.
– La Varietà. È una delle caratteristiche più importanti e
ricercate in quanto incide sul valore di rete generato.
I dati – per una classificazione di
massima – possono essere dati strutturati
(costituiscono il venti per cento di tutti i dati). Dati non strutturati sono i dati conservati senza alcuno schema, composti
da un elevato numero di meta-dati, ossia di informazioni che specificano il
contenuto e il contesto di una pagina web.
Dati semi–strutturati. Come i dati XML.
In
informatica, l’Extensible Markup
Language (XML) è un linguaggio di markup
che definisce un insieme di regole per la codifica dei documenti in un formato
che sia leggibile dall’uomo e leggibile dalla macchina.
– La quarta misura è la Veridicità. Indica il grado di accuratezza e di
attendibilità dei dati. È la condizione
chiave e insieme la più delicata per poter estrarre valore dai dati.
Queste quattro misure sono legate
tra di loro da processi di interdipendenza.
Partendo da esse possiamo definire
i Big data
( per quello che interessa la sociologia) come un patrimonio informativo caratterizzato da velocità, volume e
variabilità elevati, che richiede forme innovative di analisi e di gestione
finalizzate a ottenere una più accurata comprensione dei processi
decisionali.
Questo fenomeno dei Big data
ha smesso da tempo di essere un argomento specialistico per diventare un tema
ricorrente sui social network.
Su LinkedIn, per esempio, ci
sono più di duemila gruppi dedicati all’argomento, può sembrare strano, ma non
dimentichiamo che i data sono il nuovo
petrolio, o se preferite uno dei
temi centrali della contemporaneità.
Alla base di questa situazione ci
sono le tecnologie digitali oramai essenziali a innumerevoli attività
professionali, dalla comunicazione all’economia, all’industria, alla cultura, alla
difesa.
Così come ci siamo noi, sempre più
dipendenti da una serie di dispositivi digitali necessari per svolgere un
numero sempre più elevato di compiti quotidiani e dotati di un numero sempre
crescente di sensori e strumenti di registrazione.
In breve, questo è il motivo per
cui la natura dei dispositivi digitali è di essere delle macchine che in prima istanza producono
dati.
Il più famoso di essi lo chiamiamo
ancora “telefonino”, ma lo smartphone è, a tutti gli effetti,
un computer portatile di dimensioni
ridotte, ed è proprio la sua vera natura
di device che produce dati che lo fa
costare così poco.
Oramai sono gesti automatici che facciamo
senza pensarci, ma la mattina, quando lo accendiamo, o, meglio, lo avviamo – sempre che non lo lasciamo
acceso in continuazione – il nostro smartphone avvisa più di un soggetto,
con i quali ci collega, che il device è attivo.
Quali sono?
Il produttore del telefono, il produttore del sistema operativo, quelli
delle app che abbiamo installato e ad
altri a essi collegati.
Poi, se sul nostro smartphone è attivata la geo-localizzazione, verranno registrati
anche i nostri tragitti quotidiani che finiranno con il far parte di quel
insieme di dati che trasmettiamo a tutti i soggetti a cui siamo legati per suo
tramite.
In altri termini, se una mezzora
dopo essere usciti di casa il nostro smartphone raggiunge un indirizzo
che corrisponde a quello di un’azienda o di una scuola, come nel nostro caso, e
da qui non si muove per un certo periodo di tempo, sarà piuttosto facile per
chiunque abbia i mezzi per raccogliere questi dati, di processarli e trarne
delle conclusioni.
In passato questa acquisizione di
dati creava spesso ingorghi, oggi avviene in modo automatico, senza
interferenze, perché ogni dispositivo che noi utilizziamo crea una traccia
digitale
fatta di dati che sono aggregati, analizzati e letti.
Questa situazione è oggi accentuata
dall’Internet delle cose (Internet of Things) – che abbiamo già
definito come l’implementazione di connettività all’interno di elettrodomestici,
autovetture e di oggetti di uso comune – che ha fatto crescere le
dimensioni della nostra traccia digitale trasformandola
in modo radicale.
Poeticamente potremmo dire dando
vita all’ombra delle nostre abitudini di consumo.
A parte questo, con la mole di dati
raccolti si può fare un vero e proprio
profilo virtuale della nostra esistenza, esistenza di cui senza una piena
consapevolezza cediamo la proprietà e il controllo ai produttori di device e ai fornitori di servizi
digitali.
Dunque, al centro del problema ci
sono i dati, la cui importanza –
come fenomeno della modernità – fu messa in luce qualche anno fa dalle
discussioni sulla post–fattualità.
Post–fattuale(in inglese post–truth) è un termine inventato da David Roberts,
un blogger ambientalista
americano.
Serve
a spiegare la crescente inclinazione di parte della società moderna a prestare
fede a notizie false o fortemente alterate, cioè, alle “bufale”, come si
dice in italiano corrente.
Semplificando, quello che stiamo vivendo è un passaggio da una modalità o schema di
giudizio basato sull’osservazione diretta e la testimonianza dei fatti a una
modalità di giudizio basata sulla raccolta, l’aggregazione e l’analisi dei
dati.
La domanda che, per conseguenza,
dobbiamo porci è questa:
In che modo il passaggio dai fatti ai dati come modalità di giudizio
cambia il modo in cui vediamo le cose?
In primo luogo va compreso il ruolo
che i dati rivestono nel determinare il giudizio che diamo sulla realtà che ci
circonda è la loro pretesa oggettività rispetto ai fenomeni che
descrivono.
Basta fare un giro sui social
network
per costatare il modo in cui gli utenti gestiscono i dati, le statistiche, le inchieste
di data
journalism
e di altre forme di presentazione delle informazioni, come se fossero un vangelo,
con il solo obiettivo di far accettare all’interlocutore l’evidenza della
propria posizione.
Inchieste sul campo hanno
dimostrato che nel sentire comune, soprattutto dei nativi digitali, ciò che viene presentato e supportato
attraverso i dati assume la forza di un’evidenza sostanzialmente
incontestabile.
O, per dirla in altro modo, sembra
che il dato abbia assunto uno statuto simile a quello degli elementi naturali.
Vale a diresembra che i dati abbiano acquisito
uno statuto comparabile a quello dei fatti osservabili che per secoli hanno
costituito l’unica base possibile di giudizio.
Questa credenza del dato come un paradigma di oggettività è il prodotto di due fattori.
– Da una parte è il risultato dell’abbassamento delle soglie d’ingresso
alla produzione e alla distribuzione delle informazioni, condizione che ha reso
possibile un mondo caratterizzato dalla parcellizzazione delle opinioni e dei
punti di vista competenti, generando quello che i sociologi chiamano un
panorama liquido e mutevole.
– Dall’altra è l’effetto ideologico che presiede alla
costruzione di un discorso o di un punto di vista che ha come obiettivo di
nascondere e rimuovere la reale natura dei dati. Un effetto che potremmo anche chiamare
semiotico.
Di fatto, quelli che siamo abituati
a considerare come fatti che si danno in modo spontaneo all’analisi e che
chiamiamo comunemente dati, sono, in realtà, una selezione da un catalogo
infinito di possibilità che coinvolgono i nostri sensi.
Per cui, considerato che l’azione di
selezionare delle differenze tra le cose che ci circondano è un atto di per sé culturale,
anche i dati che raccogliamo e
analizziamo ne portano impresso il segno.
Considerati in questo modo, cioè
come un elemento culturale, i dati perdono il carattere dell’oggettività per diventare – come le opinioni – il prodotto delle condizioni
e del contesto in cui vengono sviluppati.
In pratica ed è il problema, i dati portano impresso i bias culturali di chi progetta i sistemi
per raccoglierli e le cornici concettuali per analizzarli, mettendo così in
luce alcuni aspetti a discapito di altri, a seconda dei punti di vista da cui
vengono creati.
°°°°°°
Per spiegare che cos’è un algoritmo
e illustrare il meccanismo del SE/ALLORA siamo ricorsi al gioco della mora
cinese.
Oggi non siamo più in grado di
battere le ICT neppure a questo gioco poiché un robot è così veloce da riconoscere in un millesimo di secondo la
forma che assumerà la nostra mano e scegliere la mossa vincente.
Oggi, per comprendere quello che
molti chiamano il nostro destino informazionale dobbiamo
tenere presente la distinzione tra tecnologie
che migliorano e tecnologie che aumentano le prestazioni.
Impugnature, interruttori,
manopole – che caratterizzano in genere
le tecnologie che migliorano (come
ieri erano martelli, leve, pinze…) – sono interfacce volte a consentire
l’applicazione dello strumento al corpo dell’utente in modo ergonomico.
Le tecnologie che migliorano
richiamano – se si vuole – l’idea di cyborg.
Invece, i dati e i pannelli di controllo delle tecnologie che aumentano, sono interfacce
tra ambienti diversi.
Da un punto di vista narrativo possiamo
dire che le vecchie tecnologie analogiche creavano
ambienti funzionali al loro scopo, ambienti raccolti, com’è l’interno
acquoso e insaponato di una lavatrice o l’interno bianco e freddo di un
frigorifero.
Le ICT, invece, sono forze
che modificano l’essenza del nostro mondo, creano o ricompongono realtà che
l’utente è in grado di abitare.
DICIAMO CHE NON SONO CHIUSE SU SE
STESSE, MA SONO AVVOLGENTI, COSTRUISCONO INTORNO A NOI.
Facciamo un passo in avanti.
La nuova storia, la storia nell’era digitale, dipende in
modo considerevole dai big–data, ma ci sono molti aspetti
da considerare.
Uno riguarda la qualità della memoria digitale perché le tecnologie
dell’informazione e della comunicazione digitale hanno una memoria che dimentica.
Cosa vuol dire?
Che queste tecnologie – costi di
produzione a parte – divengono rapidamente
obsolete e rendono tutto molto
volatile.
Già da oggi vecchi documenti
digitali sono diventati inutilizzabili perché la loro tecnologia non è più
disponibile.
Basti pensare al destino dei floppy.
In Internet ci sono milioni
di pagine abbandonate, pagine create e poi mai più aggiornate o
modificate.
Nel 1998 la vita media di un documento, prima dell’abbandono, era di 75
giorni, nel 2008 si è ridotto a 45 giorni, nel 2018 a 37 giorni.
Molti studiosi hanno osservato che
la nostra memoria digitale appare volatile come la nostra memoria orale anche se
l’impressione che ci trasmette la memoria digitale è diversa.
Realisticamente possiamo dire che, in
questa alba del digitale, le ICT non conservano il passato per
metterlo a disposizione del futuro, dal momento che – da un punto di vista
fenomenologico – le strategiedigitali tendono a farci vivere in un eterno
presente.
Conservare la memoria, del resto,
non è facile, occorre saper cogliere le differenze significative e saper
stabilizzare le sedimentazioni in una serie ordinata di cambiamenti.
Qual è la sostanza del problema?
Il fatto che lo stesso sistema dinamico – che ci consente di riscrivere migliaia di volte lo
stesso documento – è quello che rende altamente improbabile la conservazione delle versioni precedenti per un esame
futuro.
“Salva questo documento”
significa sostituisci le versioni precedenti.
In questo modo ogni documento
digitale di qualsiasi genere è condannato a questo destino tecnico-storico.
Con quali rischi?
Che le differenze finiscano per essere cancellate e dimenticate e le
alternative amalgamate.
Così, il passato appare costantemente
riscritto e la storia ridotta a un perenne qui-ora.
Come dicono gli scettici, quando la
maggior parte della nostra conoscenza è nelle mani di questa memoria che dimentica, rischiamo di trovarci e senza
volerlo imprigionati in un eterno presente.
Questo è uno dei motivi per cui si
sono formate molte organizzazioni volte a conservare la nostra eredità
culturale digitale come la “National
Digital Stewardship Alliance” o l’”International
Internet Preservation Consortium”.
En
passant si può dire che il lavoro di custode delle informazioni
digitali è una delle nuove professioni di questo secolo.
Un altro aspetto importante del
problema è che la quasi totalità dei dati è stata creata in pochi anni e tutti
questi dati stanno invecchiando nello stesso tempo.
Invecchiano insieme ai nostri attuali supporti digitali, hard disk
e memorie di vario genere.
MTBF – Mean Time Before Failure
ovvero “il tempo medio prima del fallimento” è un programma che indica
l’aspettativa di vita stimata di un sistema.
Più elevato è il MTBF
più a lungo dovrebbe durare un sistema.
Un MTBF di cinquantamila ore
– vale a dire di cinque anni e mezzo – è la vita media di un hard disk.
La questione è che, per come si è sviluppato sul piano
commerciale il sistema digitale, le aspettative di vita dei supporti dei
nostri dati sono, al momento, sincronizzate.
Praticamente, i Big-Data
invecchieranno e diventeranno dati morti pressappoco nello stesso
momento.
Va da sé, molti saranno salvati e
trasferiti su altri supporti, ma il punto è chi stabilirà quali dati dovranno vivere e quali dovranno sparire?
Per capire meglio questo problema
c’è un’analogia.
È quella che ha riguardato il
passaggio dai film in bianco e nero e muti, ai film a colori.
Questo passaggio fu fatto senza un
criterio o delle direttive condivise e oggi noi sappiamo che più della metà
delle pellicole girate nei primi tre decenni del Novecento sono andate
distrutte, soprattutto per recuperare il nitrato d’argento.
C’è anche un altro problema, nel
2007, per la prima volta, il mondo ha
prodotto più dati di quanti ne poteva immagazzinare e ciò a dispetto del
fatto che la densità di immagazzinamento degli hard disk stia crescendo
rapidamente.
Per fare un esempio, si prevede che
entro il 2023 un hard disk di 14 terabyte misurerà circa tre
centimetri di diametro e non costerà più di una cinquantina di dollari.
Per fronteggiare queste situazioni
è importante capire questo.
Nella cultura analogica il problema è cosa salvare.
Nella cultura digitale il problema è cosa cancellare e con quali
conseguenze.
Nel digitale, infatti, il nuovo spinge via il vecchio o, meglio, il primo
che entra è il primo che esce.
Le pagine web aggiornate cancellano
quelle vecchie, le nuove foto rendono obsolete le vecchie, i nuovi messaggi si
sovrappongono ai precedenti, le e-mail
recenti sono conservate a spese di quelle dell’anno prima.
Vediamo un altro argomento in
qualche modo connesso: il Quantified Self.
È un movimento nato in rete per
incorporare la tecnologia necessaria all’acquisizione di dati relativi a ogni
aspetto della vita corrente.
Il motto di questo movimento è: self
knowledge through numbers.
Nata nel 2007 su iniziativa della
rivista Wired la pratica del lifelogging (la pratica
di registrare le immagini della vita materiale) grazie alla diffusione di dispositivi bio-metrici connessi alla rete
globale ha consentito un balzo in avanti nel monitoraggio delle attività biologiche.
Ogni aspetto vitale è definito in
termini di input, stati o condizioni,
performance, quantità di cibo
consumato, qualità dell’aria respirata, umore, eccitazione, eccetera.
I sensori sono fatti in modo da poter essere indossati e sono in
grado di monitorare l’attività fisico-chimica dell’organismo così come sequenziare
il DNA e le cellule microbiche che abitano il corpo.
Il desiderio e la ricerca della
verità del sé – che ha la sua culla nell’insegnamento delfico GNOTHI SEAUTON (conosci te stesso) si sta
trasformando in uno strumento di auto-addestramento o, come molti ricercatori
scrivono, di autocondizionamento.
Di fatto, misurare le
manifestazioni fisiologiche del proprio corpo con gli strumenti che offre il monitoraggio
digitali, così come tenere una traccia costante del proprio corpo organico di
fatto serve solo al confronto profilato.
______________________________________________________________________________
Una nota tratta dal quotidiano La Repubblica, Roma.
In
principio fu il blog. Ma adesso, dopo che i socialnetwork come Facebook e Twitter hanno elevato il “web–log”,
ossia il “diario online”(questo il significato del termine) a fenomeno
universale, è arrivato il momento del lifelog: il diario della propria vita per immagini da postare tutto intero su internet.
Una
nuova micro-video-camera digitale che
si può attaccare ai vestiti e in grado di effettuare automaticamente due foto
al minuto.
Ciò
permette di mettere in rete tutto quello che facciamo nelle 24 ore del
giorno.
Prodotta
dalla Memoto, una start–up
americana, crea se uno la “indossa” per più o meno dodici ore al giorno (ovvero
se la si tiene sempre accesa, tranne quando si dorme) quattro gigabyte di nuovo materiale ogni 24 ore.
La mini macchina fotografica scatta 10 mila
immagini alla settimana, 40 mila al mese, mezzo milione all’anno.
Volendo,
si può fare in questo modo la “cronaca fotografica” di una vita intera, due
foto al minuto dalla culla alla tomba, pari all’incirca a 40 milioni di
fotografie: mentre mangiamo, studiamo, lavoriamo, chiacchieriamo, giochiamo,
facciamo l’amore.
Sarà
il “lifelogging”, si è chiesta la Bbc illustrando il nuovo fenomeno, la prossima mania
del web?
Per
gli ottimisti, come Martin Kallstrom,
fondatore e presidente della Memoto,
significa che non avremo più bisogno della memoria cerebrale per ricordare
la nostra esistenza: basterà scaricare su internet e salvare l’archivio digitale di parole, suoni e immagini che scorre
come un doppione, come una “secondlife”, accanto alla nostra vita reale, di cui è
lo specchio fedele.
Per
i pessimisti, tuttavia, questa “informationoverload”, questo carico
eccessivo di informazioni digitali, può diventare una minaccia sociale, perché
ogni parvenza di privacy va in
frantumi nel momento in cui viene condiviso con altri utenti sul web.
In
altri termini, può funzionare una società in cui, perlomeno teoricamente, tutti
sanno tutto di tutti (o almeno possono saperlo) con un semplice clic del mouse o semplicemente premendo i polpastrelli su
uno schermo?
Una cosa è certa: le nuove frontiere della comunicazione digitale si spingono
sempre più avanti, sempre più in fretta.
La
Memoto ha prodotto il congegno per
ora più piccolo, ma non è certo l’unica azienda dell’it, cioè dell’information
technology, a operare nel campo del lifelogging.
La
Microsfot ha creato i una
minivideocamera chiamata SenseCam che
scatta automaticamente una foto ogni 30 secondi in maniera analoga.
GoogleGlass e Twitter offrono strumenti per filmare e postare in
modo simile ogni attimo della nostra giornata.
“L’osservazione
di massa sta diventando una tendenza globale”, osserva il professore Henry Jenkins, docente di studi sui nuovi media alla University
of Southern California. “Viviamo in una
cultura più esibizionistica ma al tempo stesso ci sono persone a disagio
davanti a tutta questa mole di informazioni”.
Il
timore è quello che il GrandeFratello immaginato da George Orwell nel suo romanzo
futuristico “1984” non sia più un
occhio che vigilia dal di sopra sull’esistenza umana, ma un minuscolo gadget
che ciascuno di noi porterà volontariamente all’occhiello.
Tuttavia
vanno considerati anche gli aspetti positivi: le immagini digitali riprese con
i telefonini da centinaia o migliaia di spettatori hanno aiutato la polizia a
individuare rapidamente gli autori dell’attentato all’arrivo della maratona di
Boston.
E’
un fenomeno che gli esperti chiamano “sousveillance”,il contrario di surveillance
(sorveglianza).
Invece
di un governo che ci guarda dall’alto, ci sono gli individui che guardano dal
basso, magari per mettere su internet
il lifeblog della propria vita.
______________________________________________________________________________
Vediamo adesso di chiarire alcuni
equivoci.
Quando si parla di intelligenza
artificiale
occorre intenderci.
È un’espressione che potrebbe far
pensare a macchine dotate di una qualche forma di conoscenza, in grado di
ragionare e, soprattutto, consapevoli di
ciò che stanno facendo.
Le cose, in realtà, sono diverse.
Il fatto che un software
impari a riconoscere – scannerizzando un’immagine – se su di essa ci sono dei
gatti non significa che sappia che cos’è un gatto.
O meglio, il software che ci batte
giocando a scacchi non ha la più pallida idea di che cos’è il gioco degli
scacchi, come per esempio avvenne quando Deep
Blue batté Gary Kasparov. Oppure quando un computer batté Lee Sedol, un grande maestro di GO.
Ha scritto Luciano Floridi: la nostra tecnologia per ora non è in grado
di processare alcun tipo di informazione dotata di significato, essendo impermeabile alla semantica, vale a
dire, al significato e all’interpretazione dei dati che manipola.
Diciamo, semplicemente, che i sofware
non sono in grado di pensare.
Sono capaci solo di processare una
quantità enorme di dati e di metterli in relazione tra di loro, identificando
collegamenti e differenze o valutarli statisticamente.
Nel nostro esempio, di identificare
la mossa degli scacchi che ha la maggiore probabilità di avere successo.
En
passant, ricordiamo che i primi studi sulla cosiddetta intelligenza artificiale risalgono alla metà del
secolo scorso.
I mezzi utilizzati per arrivare a
questo risultato nella fattispecie degli scacchi sono sostanzialmente due.
Il machine learning – ovvero, l’apprendimento automatico – e la sua più
recente evoluzione, il deep learning
– l’apprendimento approfondito.
In particolare il deep learning
opera su un vastissimo numero di strati interni alle cosiddette reti neurali
che simulano il funzionamento del cervello, raggiungendo così una maggiore
capacità di astrazione.
Oggi possiamo definire il machine
learning
come una branca della cosiddetta intelligenza artificiale che fornisce ai computer
l’abilità di apprendere senza essere stati esplicitamente programmati.
Di apprendere attraverso tentativi
ed errori utilizzando una sorta di calcolo statistico estremamente
evoluto.
O, più semplicemente, il machine
learning è l’abilità di apprendere di un computer senza essere stato esplicitamente programmato, a
differenza dei software tradizionali.
Il metodo probabilistico che sta
alla base del machine learning è lo stesso che sta alla base di una quantità
di operazioni che ci semplificano, apparentemente, la vita.
Può eliminare, con l’impiego di
filtri, la posta indesiderata, serve a Facebook per indovinare quali dei
nostri amici sono presenti nelle foto, permette ad Amazon e a Netflix
di suggerirci quali libri o film potrebbero piacerci, a Spotify di classificare
le canzoni in base al loro genere musicale.
Per la cosiddetta intelligenza
artificiale
i fattori fondamentali sono due. Il
potere di calcolo e i dati. Soprattutto
questi che sono la materia grezza dalla quale il network neurale
trae le sue conclusioni e le sue predizioni.
Ma come abbiamo più volte detto se
questi dati non sono di buona qualità il risultato non potrà essere che
pessimo.
In informatica la rete neurale è un sistema hardware o software, la cui struttura di base
è ricalcata sull’organizzazione del cervello in neuroni e reti di neuroni
interconnessi
Alla fine del secolo scorso, invece,
le ricerche sulla cosiddetta intelligenza artificiale erano
concentrate sullo sviluppo delle capacità simboliche.
Vale a dire si cercava di far
apprendere alle macchine tutte le regole
necessarie per portare a termine un compito.
Per tradurre dall’italiano
all’inglese – per fare un esempio – si cercava di fornire al computer tutte le regole grammaticali e
i vocaboli delle due lingue per poi chiedergli di convertire una frase da una
lingua all’altra.
Con
il risultato di tradurre merluzzi con piccoli merli.
Tra i pionieri di queste ricerche
va ricordato, Silvio Ceccato, che
per anni lavorò nel laboratorio di cibernetica dell’Università Statale di
Milano.
Oggi abbiamo capito che il modello simbolico ha grossi limiti e funziona solo in quei campi che hanno
regole chiare e rigide, come la matematica e gli scacchi.
L’atteggiamento generale iniziò a
cambiare con gli ultimi anni del secolo scorso quando diventò evidente che il machine
learnig
consentiva di risolvere problemi che l’intelligenza artificiale simbolica
non sarebbe mai stata in grado di risolvere.
Tutto ciò, grazie a una mole senza precedenti di dati a disposizione e
all’accresciuta potenza di calcolo dei computer.
Per capire il volume dei dati occorre
riflettere su questo: Nel 2013 si è valutato che il 90 per cento
dei dati prodotti nella storia dell’umanità erano stati creati nei due anni
precedenti.
Alla base del machine learning
c’è l’utilizzo di algoritmi che analizzano enormi quantità di dati, imparano da
essi e poi traggono delle conclusioni o fanno delle previsioni.
In breve, come abbiamo detto, nel caso del machine learning è la
macchina che scopre da sola come portare a termine l’obiettivo che le è stato fissato.
È una forma di intelligenza?
No.
Per imparare a riconoscere un
numero, diciamo il numero “quattro”, un’intelligenza artificiale deve essere
sottoposta a migliaia e migliaia di esempi.
A un bambino di cinque anni basta vederne cinque o sei.
In ogni modo il machine learning
è in marcia.
Guiderà le nostre automobili, ma
già adesso, per esempio, ci può assistere come se fosse un avvocato,
soprattutto nelle pratiche internazionali.
Un avvocato capace di scartabellare
in pochissimo tempo nei database
legali di tutto il mondo.
Senza dimenticare Watson
– l’intelligenza
artificiale elaborata dalla IBM – che può diagnosticare i tumori con
precisione maggiore di molti medici ospedalieri.
Dove i saperi sono consegnati al calcolo e
alla simulazione
tecnologicamente assistita. Dove dilagano le procedure di
semplificazione, spacciate per procedure d
verità. Dove ogni
conoscenza ha il suo posto e il suo compito
performativo, la filosofia
finisce per venir esautorata.
Donatella
Di Cesare
Riassumendo.
Per la cosiddetta intelligenza
artificiale i due fattori
fondamentali sono il potere di calcolo e i dati.
Quest’ultimi devono essere di buona
qualità essendo la materia grezza alla base delle conclusioni o predizioni del network.
Come
sanno bene gli informatici, se inserisci spazzatura, produci spazzatura.
Qual è il problema?
È che spesso i dati forniti alle IA
(intelligenze artificiali) includono molti pregiudizi
umani che si riflettono
inevitabilmente sui risultati ottenuti con le macchine.
L’esempio di scuola di questa constatazione
è quella del bot progettato da Microsoft
e chiamato Tay. Ne abbiamo già
parlato.
Appena ha cominciato a
immagazzinare dati si sono scatenati i troll
che hanno iniziato a comunicare con Tay dandogli in pasto una miriade di
opinioni razziste e omofobe che lo hanno fatto diventare nel giro di 24 ore il
primo esempio di intelligenza artificiale nazista.
Un aneddoto racconta che un istante
prima di essere chiuso Tay twittò: Hitler was right I hate the Jews.
Lasciando stare i troll un altro problema nella
distorsione delle IA è l’uso di training
set
facilmente accessibili e a basso rischio legale dal punto di vista del copyright.
Due esempi spiegano bene il
problema.
Una fonte per istruire i network
neurali
sono le e-mail.
In un caso famoso furono usate le mail
di una compagnia petrolifera texana.
Sembravano perfette fino a quando
questa compagnia non fu denunciata per truffa.
Quali furono le conseguenze
inattese?
Che anche l’intelligenza artificiale aveva assorbito l’arte di
truffare!
Spesso per evitare i copyright
si usano dati provenienti da opere che non sono più soggette ad esso.
Per esempio, in lingua inglese,
Shakespeare, Joyce, Scott Fitzgerald.
Ma anche in questo caso c’è un
problema non da poco.
Sono autori pubblicati prima della
seconda guerra mondiale e un dataset che faccia affidamento
sui loro scritti non farebbe altro che
riflettere i pregiudizi del loro tempo
e lo stesso farà il sistema di intelligenza artificiale nutrito con
questo dataset.
Si tratta di un problema enorme e
delicato, soprattutto per quanto riguarda l’ordine pubblico, perché, come si è già verificato, certe etnie – solo a causa di statistiche mal
impostate – sono state considerate come naturalmente più predisposte a diventare
terroristiche o a commettere crimini.
Il problema diventa ancora più
delicato con i software predittivi in mano alle forze
dell’ordine perché spesso essi finiscono per causare – come dice la sociologia
– una profezia che si auto-avvera o che si auto-adempie.
In sociologia una profezia
che si auto-adempie o che si
auto realizza, come abbiamo visto, è una previsione che si realizza per il solo
fatto di essere stata espressa.
In conclusione il pericolo sta nel
fatto che gli algoritmi – protetti dalla loro aurea di scientificità – potrebbero diventare una giustificazione
per profilazioni in sé inattendibili
e generare equivoci se non tragedie.
In sostanza, ogni sistema di profilazione predittivo è efficace solo se i dati inseriti sono corretti e privi
di bias.
Le scoperte di Einstein non si possono
spiegare
con le parole di Newton.
Ancora una nota su l’intelligenza artificiale. Can
Machines Think?
Il nucleo di partenza
dell’intelligenza artificiale è il testo di Alan Turing del 1950 intitolato, Computer
Machinery and Intelligence, nelle prime righe di questo testo Turing si domanda, “possono le macchine
pensare?”.
Una risposta articolata provò a
cercarla un gruppo di scienziati e ingegneri nell’agosto del 1956 al Dartmouth College nel New Hampshire.
Questo incontro è anche quello in
cui fu fondata la disciplina chiamata Artificial
Intelligence.
A questo incontro parteciparono i
futuri premi Nobel, Herbert Simon e John Nash, Marvin Minsky, che fonderà un
omonimo laboratorio al MIT e Claude Shannon, il fondatore della teoria
dell’informazione.
A più di sessanta anni di distanza
il tema dell’intelligenza artificiale rappresenta ancora uno dei più complessi
sforzi scientifici nella storia della modernità, uno sforzo che ha riunito
molte discipline sia scientifiche che umanistiche e che ha accelerato la corsa
della cosiddetta rivoluzione industriale.
La machine learning è oggi
un concetto centrale per fare speech recognition, image recognition o
traduzioni. Per esempio, se si vogliono
fare traduzioni come Google transale
occorre creare un sistema nelle due lingue in questione e poi fornirgli milioni
di testi in queste due lingue.
In questo modo il sistema impara a
tradurre, ma non è un problema di linguistica bensì di statistica pura.
In breve l’intelligenza artificiale
non cerca di imitare la logica umana ma sviluppa calcoli probabilistici e
traduce.
È facile capire che il problema non
è tanto quello di sviluppare algoritmi, ma trovare dati su cui imparare. Si può
dire che la caccia ai dati è oggi di vitale importanza ed è quello che fanno
tutti a cominciare da Google, Facebook, Amazon,
eccetera.
In altri termini, la Data
Collection e il machine learning sono la base
dell’Intelligenza artificiale, tutto il resto è un corollario.
Tutto questo ci dice anche che la
scienza nella modernità progredisce riformulando i suoi paradigmi, oggi il
problema non è più tanto capire che cos’è l’”intelligenza”, ma emularne il
comportamento utile. Certamente la
statistica non aiuta di certo a capire il modo di pensare umano, ma sicuramente
si possono costruire sistemi intelligenti in modo statistico.
Facciamo un esempio, Autocomplete
e Autocorrection
in Google funzionano senza
minimamente capire quello che fanno.
L’autocompletamento (autocompletion), in informatica, è una
funzionalità offerta da molti programmi di video scrittura e browser.
È la capacità di
intuire automaticamente quale parola sta per essere digitata solo in base alle
prime lettere di essa.
La parola intuita
compare sul video come suggerimento, e l’utente può confermarla (in
genere premendo un tasto come spazio o invio) oppure continuare a digitare
normalmente nel caso la parola desiderata fosse in realtà un’altra.
Quando Amazon consiglia un libro
da leggere non sa quello che dice. Nel
mondo degli affari, della sicurezza, delle assicurazioni tutto è data-driver.
In breve, siamo circondati da una
caccia ai dati e l’intelligenza artificiale
fa la sua parte, ma attenzione, non è un robot
che ci insegue o ci può perseguitare. È
peggio è un’infrastruttura.
Ricordiamo che l’intelligenza umana
non è l’unica forma di intelligenza.
Essa è così perché è il frutto di
un processo evolutivo, ma non è l’unica e se ci pensiamo è stata preceduta da
molte altre forme di intelligenza, com’era quella dei dinosauri.
Le macchine non stanno cercando di
diventare umane e se anche hanno un’intelligenza paragonabile a quella di un
topo possono fare molte cose.
È arrivato il momento di definire
in modo succinto che cos’è l’intelligenza
artificiale.
Diciamo che è lo studio degli agenti intelligenti.
Gli agenti intelligenti sono quelli
che acquisiscono informazioni dall’ambiente in cui si trovano, in cui vivono, le
processano e imparano ad usarle massimizzando il loro profitto d’uso, non
importa se è una lumaca, un gatto o un elefante. Quindi, l’intelligenza
artificiale è lo studio degli agenti intelligenti, dei processi revisionali e
dei modelli di comportamento in un determinato ambiente.
Resta un interrogativo da
fantascienza, saranno mai le intelligenze artificiali così potenti da
assoggettarci?
È una sorta di bias, non si può
ragionare con le macchine. Esse ricevono
un compito e come sistema autonomo lo realizzano.
Ricordiamo che l’intelligenza
artificiale è solo un processo statistico, più dati ha meglio
funziona.
I bias delle macchine
nascono dall’insufficienza dei dati o da fonti erronee, l’unica cosa che si può
dire è che le macchine tendono a sbagliare sempre meno nel corso del tempo.
°°°°°
Una nota sulla tecnocrazia.
Le teorie che trattano il fenomeno della tecnocrazia sono moderne, ma la loro origine
può essere individuata nella dottrina greca del governo dei custodi.
In altri termini, l’idea della monopolizzazione delle
decisioni collettive ad opera di chi possiede dei saperi specialistici (o
dotati di una qualche superiorità di tipo cognitivo) costituisce un tema sensibile
nell’ambito del pensiero politico occidentale.
Platone è
all’origine di questa tradizione quando si pose con il suo governo dei custodi in opposizione ad una concezione della politica
sviluppata da Protagora, secondo cui
la distribuzione di rispetto e giustizia, che insieme compongono le ragioni
della politica, deve, a differenza delle altre ragioni, andare a beneficio di
tutti.
Diversamente da Protagora,
che con le sue tesi contributi a legittimare il nuovo ordine democratico
di Atene, Platone era convinto
che, nella misura in cui la politica è una tecnica,
essa abbia come tutte le tecniche pochi ed esclusivi detentori.
Questa idea di un governo
dei custodi,fondato sulla coniugazione di potere e sapere, ha poi
attraversato l’intera esperienza politica dell’Occidente.
Dai consiglieri al servizio del Principe passando per i tecnici
della ragion di Stato, per arrivare agli intellettuali delle università, intese
come una sorta di vivaio di scienze utili al governo, si è venuto a costituire,
come ha scritto Michel Foucault, un
rapporto particolare “tra la politica come pratica e la politica come
sapere”, da cui è scaturita la “presunzione e il primato di un sapere
specificamente politico”.
In altri termini si è fatto strada un modello tecnicistico, in
cui lo Stato compare come una machina
machinarum, ideata dal pensiero filosofico e resa funzionante da una classe
di specialisti.
Un modello che ha fornito la base su cui si svilupperanno, spesso
nel quadro di una reazione antipolitica,
le moderne teorie tecnocratiche.
Il passaggio a queste teorie, tuttavia, si è inverato solo nel momento in cui il
progresso delle scienze e delle tecniche ha investito la sfera economica della
produzione e del consumo, rivoluzionando in profondità le modalità di esistenza
e le aspettative di jouissance degli
individui.
In breve, il governo
dei custodi si presenta, di fatto, come il governo di coloro che
sanno.
Nel corso della storia, però, questo ideale è mutato a
seconda dei modelli di sapere dominante
(la dialettica di Platone, la geometria di Thomas Hobbes, la sociologia di Auguste
Comte, la psicologia, come nel racconto utopico Walden two di B. Frederic
Skinner) e i modelli di diffusione della conoscenza e,
successivamente, di organizzazione delle informazioni e di elaborazione
dell’identità del gruppo che aspira al monopolio del potere ideologico.
Rappresenta da sempre un modello di potere (e di sapere) che
tenta di neutralizzare il peso del passato, di addomesticare la tirannia della
tradizione e, al tempo stesso, di ipotecare il futuro.
È solo alle soglie dell’età moderna che l’utopia
tecnocratica trova la sua prima formulazione nella New Atlantis di Francis
Bacon, in cui è delineato l’ideale
di una società interamente fondata sulla scienza e sulla tecnica, dai cui
progressi dipende il livello del benessere collettivo.
Entro questa cornice trovano collocazione le diverse
varianti di ‘tecnocrazia’, ‘sofocrazia’ e ‘ideocrazia’ che compongono l’immaginario utopico e ideologico
della modernità.
Tuttavia il quadro di riferimento resta sempre – per quanto
concerne la determinazione delle qualità specifiche dell’élite governante – di natura platonica.
Quando il politologo americano, Robert Dahl individua nella comprensione morale, nella virtù e nella
conoscenza strumentale le componenti della competenza politica, è facile riconoscere
in questo intreccio la connessione tra conoscenza, potere e arte, tematizzata
da Platone nella sua analisi del sapere politico.
Come abbiamo detto, l’espressione governo dei
custodi
è sempre stata carica di ambivalenze e queste ambivalenze che si sono
moltiplicate nel nostro secolo in cui l’espressione è tornata in uso e il
concetto è stato sviscerato in tutte le sue varianti autoritarie – in
antagonismo alla democrazia – sia come sistema tutelare, sia nella sua variante più moderata,
coniugabile con la democrazia liberale, che la vede come sinonimo di
“governo meritocratico”.
In particolare, la nozione platonica dei guardiani–guerrieri è riapparsa nel dibattito intorno alle decisioni sulle
armi nucleari e la deterrenza, decisioni che sfuggono al controllo democratico
e tendono a essere monopolizzate dagli specialisti militari di strategia.
In tempi più recenti, invece, si è richiamata la formula del
governo dei custodi per definire,
nelle democrazie contemporanee, l’anomalia di un (vero o presunto) governo
dei
giudici,
in relazione all’espansionismo del potere giudiziario in generale e alla
crescita delle prerogative delle corti costituzionali in particolare (nella
loro funzione di custodi delle costituzioni).
Se la figura del custode o del guardiano evocano l’azione di un
protettore armato o la decisione saggia di un sapiente qualificato da una
superiorità etica, quella del tecnocrate
ha le sue radici nel mondo della produzione e dell’economia, anche se di
un’economia non confinata ai processi elementari dell’appropriazione, della
produzione e dello scambio, ma potenziata da forme complesse di organizzazione
che incorporano la necessità di sapere.
In entrambi i casi non si tratta di funzioni propriamente
specialistiche all’interno di uno schema di divisione democratica del lavoro,
ma di una competenza che include un momento generale di sintesi.
Anche se la distanza tra il tecnocrate e il tecnico
non è più quella che intercorreva tra il custode platonico e il detentore di
tecniche creative, resta valido anche per il mondo moderno il fatto che fra i
due sussiste una differenza di fondo: Mentre
il tecnico si qualifica come un esperto del particolare, il tecnocrate va
definito (e si definisce) come un esperto del generale.
Riassumendo. La tecnocrazia è una ipoteticaformadigoverno in cui le decisioni politiche vengono
prese da “tecnici”, cioè da esperti di materie tecnico-scientifiche o
più in generale da studiosi di campi specifici.
Per definizione,poi, la tecnocrazia deve contemplare una delega
tecnocratica (cioè, operativa).
Etimologicamente la parola tecnocrazia deriva dalle
parole potere (krátos) e tecnica (techné).
L’idea di base che sta dietro questa ideologia è che la vita
corrente deve essere gestita da esperti competenti nelle varie scienze e
tecniche, considerati i soli in grado di proporre le soluzioni migliori.
Come dire l’economia agli economisti, la città agli
urbanisti, la salute ai medici.
Ma il problema è: Come si decide chi sono gli esperti di
chiara fama, considerato che il più delle volte l’appartenenza a una categoria
di esperti è determinata da gerarchie e meriti che nella cultura occidentale
sono opachi e compromessi?
Per venire a nostri giorni la caratteristica specifica della
tecnocrazia
digitale
è quella di porsi e di agire come uno strumento di delega dei nostri desideri e
di controllo delle nostre capacità cognitive.
La rete ci informa dei libri che vogliamo leggere, dei film
che vogliamo vedere, della musica che vogliamo ascoltare.
Facebook, addirittura, ci garantisce la possibilità di rimanere
“in contatto con le persone della nostra vita” – come recita la sua home-page.
Ci sono poi servizi che si occupano di trovarci un partner
sessuale, altri ancora il ristorante dove vogliamo cenare o il viaggio che
vogliamo fare.
Può apparire paradossale, ma questa delega tecnocratica è
una limitazione delle nostre libertà se pensiamo alla libertà come un problema
di scelte.
La tecnocrazia digitale ci blandisce con
il miraggio di scelte illimitate, ma poi è essa stessa a scegliere per
noi.
In cambio di cosa?
In cambio della
nostra identità, in cambio di tutti i particolari delle nostre relazioni
sociali, dei nostri gusti, delle nostre preferenze.
La tecnocrazia digitale, in sostanza,
è una forma politica che si presenta come apolitica.
Si presenta come il frutto della ricerca scientifica
oggettiva e disinteressata. Un tema che
ci riporta all’annosa e per molti versi priva di senso discussione sulle
tecnologie buone e cattive.
Ma perché la tecnologia digitale non può essere neutra?
Perché – volenti o nolenti – le macchine e gli algoritmi che
le fanno girare riproducono le
ideologie dei loro creatori.
Queste macchine sono costruite da individui mossi da
interessi economici, politici, ideologici e le interazioni tra gli operatori e
le macchine configurano relazioni di potere.
Un potere prodotto e gestito a scopi di dominio e di profitto.
Una reazione diffusa di fronte alla tecnocrazia digitale
è il luddismo digitale.
Questo luddismo ha vari
aspetti.
Uno di questi è di attribuire alle
macchine la responsabilità di aggravare certi rischi legati al loro sviluppo,
rischi che non esistevano in passato.
In altri termini, quando gli
strumenti tecnologici industriali crescono oltre una certa misura si ritiene
che la soglia della loro inutilità cresce ed essi tendono a diventare
nocivi.
É stata la posizione di Ivan Illich (Vienna 1926 – Brema 2002). Uno scrittore, storico, pedagogista e
filosofo austriaco. Personaggio di vasta cultura, poliglotta, per la sua vasta
conoscenza di svariati idiomi, e storico.
A questo proposito va anche ricordata una posizione ancora
più radicale, come quella di John Zerzan (Salem, 1943) un anarchico
americano della corrente primitivista.
______________________________________________________________________________
John Zerzan ha scritto numerosi articoli e saggi di
opposizione radicale ad ogni forma di civilizzazione, individuando ciò che occorre rifiutare nei concetti
di agricoltura, linguaggio, pensiero simbolico.
Zerzan rifiuta
l’oppressione, che ritiene funzionale alla civilizzazione, e propone la
riconquista di una libertà primordiale ispirata ad un modello di vita
preistorico basato sulla caccia e la raccolta, caratterizzato da
egualitarismo sociale e abbondanza di tempo libero, oltre che da un maggior
benessere fisico e psichico. I suoi libri più significativi sono: Elements
of Refusal (1988), Future
Primitive and Other Essays (1994), Against
Civilization: A Reader (1998)
e Running on Emptiness (2002).
Zerzan, in sostanza, individua
nell’avvento della civiltà l’origine di ogni forma di potere, ciò che ha
condotto alla domesticazione
dell’uomo, degli animali, dell’ambiente.
Si tratta di una macchinasociale che ha introdotto il principio della proprietà, della divisione del
lavoro, della legge. Tale struttura si
regge attraverso l’ausilio di alcuni artifici quali il tempo, il linguaggio, la
scrittura, il numero, la religione (funzionali all’esigenza alla classe
dominante per stabilire i confini delle proprietà, i ritmi di lavoro, la
codificazione delle norme).
°°°°°
Una nota su comunità
e condivisione. Comunità è una delle espressioni più ricorrenti della rete. Tutto ciò che si rivolge al singolo ha una community
di riferimento. È una sorta di a-priori
che garantisce la nostra collocazione sociale.
Va però notato che la parola inglese community è ambigua e non
ha nessun riferimento con il sociale o la socialità. Semplicemente, nel contesto digitale, indica
una comunità di consumatori.
L’analogia con la comunità sociale deriva dal fatto che l’architettura digitale imita lo spazio
pubblico come se fosse la piazza di una città.
In breve, l’obiettivo dei media sociali è quello di raccogliere informazioni per disegnare un
profilo identitario degli utenti il più realistico possibile e siccome
questa identità si costruisce in relazione con gl’altri – l’uomo è per
definizione un animale sociale – è essenziale che il soggetto sia inserito in
un contesto che faciliti la comunicazione reciproca.
Chiamiamo questo spazio così costruito una community.
L’obiettivo di una community è la creazione di una comfort zone che faccia sentire l’utente un
privilegiato.
Questo però non deve
farci dimenticare che le comunità mediatiche sono più simili a comunità di
sudditi che a comunità di cittadini
La community si lega a un altro
tema.
In informatica condividere significa mettere a disposizione,
da parte di chi ne ha la competenza, un’opera o un artefatto digitale da lui
creato.
La condivisione nasce negli anni Settanta, ma si diffonde
velocemente quando vengono commercializzati i primi personal computer.
È tanto popolare che diventerà una sorta di movimento
politico, poi con il free software diviene una
sorta di economia del dono.
Da qui il passaggio commerciale all’open source per arrivare all’ultima metamorfosi, quella di una sharing
economy.
Dunque, alla lettera condividere significa mettere in
comune un artefatto.
Quando “condividiamo” un file su una piattaforma
stiamo solo spostando una cosa da un posto a un altro.
Un prodotto che ha fatto la storia della condivisione in
rete è il sistema operativo Unix – l’ispiratore di Linus – nato alla fine degli anni ’70
nei laboratori della Bell.
Siccome alla AT&T (proprietaria della Bell) fu proibito di entrare nel settore dell’informatica Unix
venne venduto a un prezzo simbolico alle università le quali si ritrovarono ad
avere una piattaforma comune completa di codice
sorgente.
Per queste ragioni e in modo spontaneo si creo una rete di
collaborazioni attorno al codice di questo sistema operativo coordinata
dall’Università di Berkeley e questo può essere considerato un primo grande
momento di condivisione.
Ma poi tutto finì e furono impedite anche le pratiche del patch.
Della toppa,
ovvero di effettuare modifiche al codice per farlo funzionare meglio. Patchare un programma significa
questo.
La personalità
hacker. L’hacker, in informatica, è un esperto di sistemi e di sicurezza.
In genere è considerato capace di introdursi nelle reti
informatiche protette e di sviluppare una conoscenza approfondita dei sistemi
sui quali interviene, per poi essere in grado di accedervi o adattarli alle
proprie esigenze.
L’hacking, di conseguenza,è l’insieme dei metodi, delle
tecniche e delle operazioni volte a conoscere, accedere e modificare un sistema
hardware o software.
Il termine, tuttavia, avendo accompagnato lo sviluppo delle
tecnologie di elaborazione e comunicazione dell’informazione ha assunto sfumature
diverse a seconda del periodo storico e dell’ambito di applicazione.
Sebbene venga usato principalmente in relazione
all’informatica, l’hacking si riferisce più genericamente a ogni situazione in cui
è necessario far uso di creatività e immaginazione nella soluzione di un
problema.
Al suo nascere la cultura digitale
ha fatto spesso ricorso all’aneddotica per spiegare certi suoi singolari punti
di vista. Uno di questi aneddoti
definisce che cos’è un hacker.
Consideriamo una fontana con un
bel rubinetto. Le persone in genere sono
interessate a ciò che fuoriesce dal rubinetto.
L’hacker, invece, si interessa a come funziona questo rubinetto,
sarà tentato di smontarlo, valuterà se può aumentare il suo flusso d’acqua,
giocherà con l’acqua…
Cosa significa? Che l’hacking è una questione di attitudine.
I suoi fan si divertono a studiare le macchine, a smontarle, a ricomporle
e nel caso di macchine digitali, a scrivere codici per farle funzionare meglio,
metterle in contatto, o come dichiarò un hacker a un giudice, nutrirle e dar
loro una nuova vita.
Ci sono molti tipi di hacker.
I coder sono specialisti in
linguaggi e danno vita ai programmi informatici.
I security hacker si occupano in genere delle strategie per bucare o
aggirare le protezioni di un sistema, anche se spesso lavorano per garantire e
incrementare la sicurezza di grandi aziende, governi, istituzioni.
Gli hacker dell’hardware
sono esperti nel costruire macchine saldando, tagliando, assemblando, riparando
computer, radio, stereo, ecc. I geek (disadattati) che noi in genere
chiamiamo smanettoni, anche se non
hanno grandi competenze nella scrittura dei codici, sono capaci di muoversi nei
mondi digitali, e usare device sofisticati.
Una nota sulla società
della prestazione.
È una società nella quale si misura, si quantifica e si
restituisce una valutazione di ogni azione compiuta e senza soluzione di
continuità, con l’obiettivo di aumentare il livello delle prestazioni.
Il controllo delle prestazioni avviene attraverso sistemi di
misurazione automatici o attraverso altri utenti che provvedono a valutare la performance con i loro contributi.
Tutto questo perché la società attuale esige dagli individui
un livello di prestazioni in costante crescita.
In generale, non solo dobbiamo avere solo un reddito
adeguato, ma anche una forma fisica ottimale.
Siamo costantemente spinti a migliorare la nostra salute, a
creare nuove opportunità di amicizia, a frequentarci.
Con le debite proporzioni le stesse cose sono richieste alle
nazioni.
Devono mostrarsi in continua crescita, esibire uno sviluppo
economico senza flessioni, sapersi battere con successo sui mercati
finanziari.
Questa affermazione di una società della prestazione è stata resa possibile dal costante
miglioramento dei sistemi di raccolta e misurazione dei dati.
In questa società sfumano sempre più le distinzioni fra
digitale, analogico, online, offline, umano, meccanico.
Sappiamo anche che in una società di questo tipo cercare la
soluzione giusta modifica la soluzione come cercare l’offerta giusta modifica
l’offerta stessa.
C’è però un altro aspetto da considerare.
È la sostituzione, di fatto, dei vecchi mediatori
dell’informazione – editoria, radio, tv, cinema – con Google, Amazon, Facebook, Apple, Microsoft.
Questa sostituzione aumenta in modo esponenziale l’enorme asimmetria
di interazione tra individui e le
grandi corporazioni transnazionali.
Il risultato di queste deleghe alle organizzazioni
corporative (da parte di settori sempre più ampi della società) è che tutte le
informazioni fornite dagli individui in maniera più o meno volontaria vengono
registrate e immagazzinate per diventare una parte importante dei Big
Data.
In una tale prospettiva, le cosiddette nuvole di computer dove
si condensano i servizi sociali sono in realtà distese di macchine protette da
guardie armate.
Proviamo a riflettere.
Il costo delle nuvole
è notevole come sono costosi i servizi offerti nel Web2.0, così anche se lo
stoccaggio, il recupero e l’aggiornamento sembrano gratuiti, di fatto non lo
sono.
Il successo di questa
tecnologie sta nel fatto che si prendono cura della nostra identità, o meglio,
della nostra identità digitale.
Queste tecnologie ci conoscono meglio di quanto noi non
conosciamo noi stessi e sanno suggerirci con grande precisione i libri da
leggere, i film da vedere, i luoghi da visitare, i modelli di vacanza, i
ristoranti adatti ai nostri gusti.
Un paradosso significativo, che nessuno affronta, sta nel
fatto che le pratiche di profilazione sono antitetiche ai
principi della privacy, oltre che
opache.
Una nota sulla forma della privacy.
Ci sono quattro possibili configurazioni della privacy.
La privacy fisica, vale a dire la libertà di non subire interferenze o
intrusioni tangibili, di non vedere invaso il nostro spazio personale.
La privacy intellettuale. Riguarda il
diritto di non subire interferenze o intrusioni psicologiche.
La privacy decisionale o operativa. Di essere liberi da ogni interferenza o
intrusioni procedurali limitative.
La privacy informazionale. È la privacy
che dovrebbe garantirci che ciò che riteniamo che deve essere inconoscibile o
che deve restare sconosciuto abbia la possibilità di restarlo. Paradossalmente, oggi, la privacy
che i più non possono più permettersi è quella dell’anonimato che una volta era
favorita dagli ambienti urbani.
Va aggiunto che i sistemi
tecnosociali
sono co–evolutivi,
nonostante la loro frammentazione verso in basso – com’è quella che produce la
lingua o le abitudini legate alla tradizione – e la direzione verso la quale
muovono è una sola: l’aumento delle prestazioni dell’utente che
controllano.
Questa è la ragione per la quale siamo costantemente
chiamati a dichiarare quello che vogliamo e questo vuol dire che dobbiamo
adattarci all’ideologia della trasparenza.
La profilazione viene in genere
accettata come inevitabile.
Ma c’è di più. I
processi decisionali degli individui sono assistiti, guidati, fusi con il
dominio degli algoritmi.
Cosa significa?
Che singoli individui e gruppi delegano a queste procedure
la creazione di collegamenti tra le persone e le cose del mondo.
L’Internet of Thing, l’internet delle
cose rappresenta oggi la nuova frontiera di una socialità reificata.
Il frigorifero può fare la spesa da solo perché conosce i
gusti dei suoi proprietari, verifica che un certo prodotto consumato
regolarmente sta finendo e può collegarsi con i fornitori.
Il nostro smartphone sa come guidarci alla
scoperta di una città che non conosciamo,
come suggerirci locali o attrazioni.
Che cosa significa?
Che ci muoviamo in un
mondo di significati grazie a relazioni costruite per noi e gestite da
algoritmi. Algoritmi in mano a privati
sconosciuti e sottratti a dei controlli democratici, cioè accettati e
condivisi.
Tutto questo non significa rimpiangere un’utopica armonia e
non significa certo ignorare che la storia dell’uomo è anche la storia della
tecnica e dell’invenzione di linguaggi.
Da un punto di vista fenomenologico storia è sinonimo di età dell’informazione.
Ne consegue che la
storia, di fatto, inizia con le pitture del neolitico e prosegue con
l’invenzione della scrittura in Mesopotamia.
Ma è solo di recente
che la vita sociale e il progresso hanno cominciato a dipendere dalla gestione
del ciclo di vita dell’informazione.
Vuol dire, al contrario, mettere in luce che la società
delle prestazioni si basa su sistemi di condizionamento molto efficaci, ma di
cui ignoriamo le conseguenze.
Paradossalmente, invece di punire le infrazioni alle regole,
si premiano le prestazioni e il conformismo.
Si accettano sistemi che si presentano come giochi,
classifiche, performance.
Da un punto di vista psicologico le persone tendono sempre
più a comportarsi come macchine, vale a dire, a reagire in maniera irriflessa e
automatica.
Di contro i socialbot
che simulano gli utenti dei social network sono sempre più
indistinguibili dagli umani.
______________________________________________________________________________
Il bot (abbreviazione di robot) in
terminologia informatica è un programma che accede alla rete attraverso lo
stesso tipo di canali utilizzati dagli utenti umani (per esempio, che accede
alle pagine Web, invia messaggi in una chat, si muove nei videogiochi, e così
via).
I social bot sono dei
bot (cioè, qualsiasi software in
grado di automatizzare delle azioni normalmente compiute da utenti umani) che
vengono programmati per agire sui social network.
Ne esistono molti tipi
che è possibile raggruppare in tre macro categorie in base alla funzione
specifica per cui sono stati creati:
Spambots (quelli che
spammano contenuti vari).
Paybots (pagati per
portare traffico, spesso copiano tweet
aggiungendo una short-URL che non
c’entra con il contenuto e rimanda al sito pagante).
Influence bots (influenzano le conversazioni
relative a un determinato argomento, gonfiano campagne marketing o hashtag per motivi che possono
andare dalla semplice promozione alla propaganda politica).
______________________________________________________________________________
Per le scienze sociali la “delega tecnocratica” favorisce
l’emergere di pseudo–soggettività e di identità eteronomiche, cioè, che ci vengono
imposte e che risultano superficiali e semplificate.
Va anche osservato che gli occhi sono gli unici organi di
senso direttamente collegati al cervello e che la plasticità celebrale è
continuamente stimolata dal visuale.
In questo modo il cervello si modifica, con la conseguenza
che le persone imparano e sentono in maniera diversa.
Ciò non dipende dall’età anagrafica – l’espressione di nativi digitali e solo una formula efficace a sottolineare le nuove forme
di apprendimento tecnologico delle giovani generazioni – ma dall’utilizzo
massiccio della memoria procedurale nell’interazione con i new–media.
Più semplicemente dalle ripetizioni procedurali interattive
pensate da altri – sconosciuti – per scopi precisi – profilazione e profitto – che assumono la forma di ritualità
ossessive.
Uno degli effetti più vistosi di questo ordine di cose è l’alterazione della coerenza narrativa
che finisce per compromettere l’autonomia degli individui.
Come dicono i critici, si tratta di
imparare a gestire le sirene dell’automatizzazione per evitare di essere
mercificati.
Fine