Centinaia di milioni di risorse digitali si stanno progressivamente distruggendo nel corso del tempo, come rilevato dallo studio “The Crossing Story” che ha recuperato una mole notevole di documenti, immagini e ogni altro utile contenuto relativo ad un rilevante fatto di cronaca risalente nel tempo che era andato distrutto e che sarebbe stato del tutto dimenticato senza l’opera di ricostruzione storica compiuta per riportarne alla luce la memoria.
E così appare sempre più evidente che una delle principali criticità del processo involutivo di internet è determinata dal sistema di organizzazione delle informazioni online che, lungi dall’assicurare il mantenimento perpetuo delle risorse veicolate nello spazio virtuale, manifesta una serie di rischi che potrebbero persino culminare nella distruzione del patrimonio digitale raccolto, addirittura in controtendenza rispetto agli affidabili e resistenti sistemi di conservazione che si sono mantenuti più o meno inalterati nel corso del tempo superando indenni guerre, disastri naturali e eventi calamitosi di qualunque tipo verificatisi nella storia dell’umanità.
Reti digitali e big data per lo sviluppo sostenibile: l’innovazione dell’Agenda 2030
Come si sta sgretolando il “mito” della Rete
Il “mito” dell’accesso alla Rete, a lungo entusiasticamente celebrato come paradigma simbolico della “rivoluzione digitale” per descrivere il nuovo status di cittadini globali che affermano con l’avvento della società virtuale ICT, non ha consentito di mettere a fuoco, da subito e con consapevolezza, gli effetti indesiderati generati proprio dalla capacità di produrre, diffondere e condividere informazioni, senza costi e sforzi significativi per tutti.
Il modello “user-generated content” ha esaltato il “crisma” dell’informazione interattiva bidirezionale, orizzontale e partecipativa, consacrando, senza troppe preoccupazioni, il nuovo “potere” diffuso degli utenti in nome della conoscenza condivisa come bene comune fruibile a tutti, convinti del valore assoluto dell’abbondanza come parametro quantitativo su cui basare l’incondizionato miglioramento dello “status quo”, anche sulla spunta ottimistica di una rivitalizzazione dei processi democratici esistenti grazie alla centralità delle “agorà telematiche”.
Erano queste, senza dubbio, le premesse che hanno spinto i creatori di Internet a progettare la Rete, come spazio interoperabile, decentrato e distribuito di discussione e condivisione tra gli utenti, senza finalità di monetizzazione, evitando lo sfruttamento monopolistico dell’infrastruttura realizzabile grazie a rendite di posizioni che avrebbero determinato ingenti profitti limiti ai creatori di Internet.
Tuttavia, proprio in assenza di un controllo centrale sin dall’origine previsto nella gestione della Rete, mettendosi in secondo piano la vocazione democratica di libertà di cui la Rete si è fatta tradizionalmente portatrice, si sono progressivamente consolidate nel cyberspazio le numerose “insidie” legate al “lato oscuro” di Internet nell’ambito di una negativa metamorfosi degenerativa che ha provocato lo sviluppo di tecniche di manipolazione, sistemi di tracciamento, diffusione di fake news istigatrici di violenza e odio, aggravate dall’accentuata dimensione anarchica del mezzo difficilmente regolabile secondo i tradizionali regimi della responsabilità,
Il problema della distruzione totale delle informazioni digitali
La “damnatio memoriae” non risparmia neppure l’archivio giuridico dell’ultimo decennio, compresi i relativi link, creato dalla Corte Suprema Americana, al pari della piattaforma “Yahoo answer” che ha progressivamente accumulato domande e risposte su svariati temi e focus condivisi dagli utenti.
Tutto cancellato, per sempre. La causa sembra essere proprio il sistema di funzionamento del web che, per qualsiasi tipo di modifica e variazione dell’URL, disconnette il collegamento dalla pagina di riferimento destinata a disperdersi nell’oceano digitale senza nessuna possibilità di recupero, facendo perdere traccia dell’enorme patrimonio culturale accumulato nel corso del tempo.
Esistono servizi che si stanno specializzando al recupero dei link “rotti” associati a siti famosi con l’intento spesso di acquistare il dominio per lucrare in base ai click associati alle campagne pubblicitarie.
Le contromisure
Per tentare di arginare il generale problema della distruzione totale delle informazioni digitali è stato creato il servizio Internet Archive che, tramite la sua Wayback Machine, consente di esplorare miliardi di pagine web salvate nel corso del tempo che contengono immagini, video, script e altri oggetti web al di sopra della soglia complessiva di 510 miliardi di contenuti provenienti da 273 miliardi di pagine web associate a 361 milioni di siti web, occupando 15 petabyte di spazio di archiviazione.
Pur senza disconoscere le straordinarie potenzialità conoscitive offerte dalla Rete, il ciclo della vita della maggior parte delle pagine web è passato da 43 giorni nel 1997 a 100 giorni nel 2003, mentre nel 2011 il 30% dei collegamenti esistenti ha smesso di funzionare, ponendo il problema della selezione delle informazioni da custodire rispetto alla mole di “spazzatura” di risorse generate quotidianamente online.
Secondo uno studio sulla conservazione dei documenti accademici che si trovano nella Harvard Law Review il 75% dei collegamenti ipertestuali non funziona più, con un effetto ancora più stratificato nel tempo, poiché più vecchio è l’articolo meno è probabile che i collegamenti funzionino.
Il progetto IPFS
Per tali ragioni, considerato che la durata media di una pagina web è di 100 giorni prima che scompaia per sempre, è stato creato il progetto IPFS (Interplanetary file system) come protocollo “peer-to-peer” decentralizzato che permette di salvare una copia delle pagine presenti sul web e di crearne nuove con un risparmio fino al 60% per i video, consentendo di distribuire in modo efficiente grandi volumi di dati senza duplicazioni, grazie ad un’impronta digitale univoca chiamata identificatore di contenuto (CID) che come una registrazione permanente del file per memorizzare il contenuto.
Ma sembrano ancora soluzioni troppo esigue rispetto agli enormi rischi legati alla possibile cancellazione definitiva di un consistente patrimonio di conoscenza raccolto nel corso del tempo.
La rete delle reti come emblema della comunicazione globale
Dopo circa 50 anni dalla sua origine, l’infrastruttura che negli ultimi decenni ha influenzato la maggior parte delle nostre attività quotidiane, entrando nel linguaggio tecnico e convenzionale comune alla generalità delle persone, non esiste più nella sua originaria configurazione applicativa, anche perché sono venuti meno i principi fondanti il sistema originario di funzionamento del cd. “network of networks” come emblema della comunicazione globale ideato per accedere ad uno spazio universale di reti interconnesse tra loro e scambiare informazioni veicolate online da qualsiasi parte del pianeta.
Forse perché ogni fenomeno, anche tecnologico, ha un inizio e una fine, probabilmente anche a causa della sua architettura tecnica che ne ha originariamente determinato il suo successo esponenziale, stiamo assistendo alla progressiva distruzione della Rete Internet destinata a implodere definitivamente come catalizzatore di informazioni organizzate e raccolte nello spazio virtuale, verso nuove inedite – e insidiose – prospettive evolutive.
Del sistema originario di comunicazione risalente a Arpanet antesignano di Internet, nato per esigenze di sicurezza nazionale e per promuovere, secondo standard inclusivi, aperti e trasparenti, la ricerca scientifica della conoscenza mediante una rete decentrata e distribuita è rimasto oggi ben poco, se non soltanto il mantenimento della suite di protocolli sviluppati per facilitare lo scambio di dati insieme al servizio “World Wide Web” progettato per visualizzare attraverso link (collegamenti ipertestuali), le informazioni disponibili online e oggi, probabilmente, causa dell’inesorabile “black-out” in grado di cancellare le risorse esistenti.
La rapida diffusione di Internet su scala planetaria ha generato nel corso del tempo una mole di dati talmente elevata, che forse neanche i “pionieri” della Rete immaginavo di raggiungere, da perdere del tutto il controllo, indirizzando l’evoluzione tecnologica verso usi applicativi di massa totalmente diversi rispetto alla originaria genesi del processo di creazione di Internet limitata a servizi riservati ad una ristretta cerchia di operatori specializzati.
Conclusioni
Il paradosso, peraltro, è che alcune informazioni rimangono definitivamente cristallizzate online (specie se riferite ai contenuti immessi dagli utenti mediante social network), mentre altre informazioni provenienti da fonti “qualificate” svaniscono per sempre, peraltro senza alcun incentivo alla creazione di documenti cartacei che ne assicurino il mantenimento.
Non solo le informazioni possono essere rimosse, ma possono anche essere modificate con estrema facilità provocando la diffusione di un vero e proprio “bricolage” informativo in grado di alimentare il fenomeno di notizie false, incomplete e fuorvianti.
Piuttosto che favorire la creazione di una grande biblioteca digitale custode del “sapere” raccolto nel corso della storia dell’umanità, la Rete sta rappresentando il palcoscenico della “informazione fai da te” orientata alla diffusione di feroci commenti, critiche polarizzate e fake news per catturare il pubblico fidelizzato verso “bolle di filtro” contaminate da algoritmi di tracciamento e profilazione, dove primeggiano contenuti spesso privi di pertinenza e completezza ma in grado di stimolare la logica massiva dei “likes” e delle condivisioni.
Così mentre le grandi multinazionali private, indisturbatamente, definiscono le “regole del gioco” per disegnare un nuovo “campo di gioco” funzionale a massimizzare le proprie esigenze di crescita politico-economica, gli Stati nazionali cercano invano di predisporre politiche di sovranità digitale limitate ai propri confini territoriali, determinando la metamorfosi tecnologica da Internet a Splinternet, come possibile “balcanizzazione” dei sistemi che provocano un’inevitabile frammentazione della Rete destinata a filtrare i flussi di informazione con il risultato di discriminare dati e censurare le informazioni veicolate.