Spazi Web che garantiscono continuità nel tempo

non solo per una questione di fiducia, ma anche di ‘responsabilita’ e quindi ‘proprieta’ condivisa. Con aggiunta anche di sistemi di rating per le informazioni. Credo sia piu’ in linea con i propositi e le idee alla base del movimento pirata. Non so se altri movimenti pirata (stranieri) si siano posti lo stessa questione.

Sul fatto che non si dovrebbero usare sistemi cloud commerciali cresce il consenso, eppure allo stesso tempo il numero di persone che si buttano su github senza il minimo dubbio etico è impressionante.

La leggenda della federation, cioè che si possa mettere tutto su server privati, finalmente sta collassando sotto al peso delle promesse mai mantenute, perciò la awareness che sarebbero da usare sistemi distribuiti cresce.

git è l’esempio predominante del concetto delle Merkle Trees che sta alla base anche della blockchain, di IPFS e in un modo o un altro è presente in gran parte dei strumenti distribuiti… forse addirittura in bittorrent.

Per continuare il percorso verso sistemi distribuiti utilizzabili anche da persone normali bisogna abbandonare il P2P purista ed aprirsi ad una architettura più affine a Tor, cioè con molti nodi “relay” nel backbone che offrono servizi tipo server senza avere accesso ai contenuti dei messaggi. GNUnet si sta evolvendo in questa direzione.

Intanto nella vita pratica nelle mie cerchia stiamo usando git abbinato a Tor. Mantenendo ognuno un semplice git-daemon dietro ad un .onion (“hidden” service), abbiamo la possibilità di sharare le nostre modifiche ad ogni progetto o sito web tra di noi, senza necessitare nodo centrale – esattamente come fu originariamente concepito da Linus ma la realtà del mondo NATtato e assente da crittografia pervasiva non ce lo ha permesso…

Anni fa scrissi dei siti web basati sul concetto di pubsub distribuito. Nel frattempo, IPFS e WebTorrent hanno implementato tale concetto, ma mi pare che era già presente in freenet. Con la completazione della pubsub API di secushare possiamo realizzare siti di questo tipo finalmente anche con gnunet.

Omniscience may enable one government to catch little fish as they plan committing little crimes, but it empowers big fish to take over a future government and dismantle democracy in the process.

Mi autocito per non scordarmi le buone formule che ho utilizzato in passato… :wink:

esattamente! Per garantire la persistenza dei contenuiti e la non censurabilita, e’ indispensabile la distribuzione, ridondanza e anonimato garantito dal protocollo. Tor + git ci si avvicina :slight_smile:

1 Mi Piace

I tecnicismi non mancano e questo rende assai difficile la comprensione da parte del più vasto pubblico. Occorre trovare una forma di divulgazione abbastanza semplice e guide pratiche per mettere in piedi questo storage condiviso. Per esempio, si potrebbe comprare un RaspberryPi 2 o 3, copiare sulla rom una distro GNU-Linux predisposta a fare quello che può tornare utile ed iniziare a divulgare i benefici di un tale sistema.

1 Mi Piace

L’obiettivo che ci siamo premessi in ambito gnunet/secushare è di sfornare una immagine linux su chiavetta USB che contiene tutto pronto all’uso… un intero OS orientato a scambiarsi documenti e cose tra amici. L’idea è che tutta la gente che ha comprato computer con Windows 10 possono farne un uso migliore. ng0 sta lavorando su questa parte del progetto, ma dobbiamo trascendere lo stato prototipico…

mi sa che senza saperlo, lavoriamo piu’ o meno sugli stessi progetti :smile:

L’idea è che tutta la gente che ha comprato computer con Windows 10 possono farne un uso migliore

al di la’ degli aspetti squisitamente tecnici, credo ci sia un punto legato alla sensibilita’ delle persone relativamente alla privacy e all’uso dei sistemi che si nutrono delle informazioni personali, questo scoglia va superato insieme alla parte tecnica. Se le persone non avvertono ‘un problema’ continueranno ad usare e comportarsi nel modo piu comodo e noto. Ovvero: non cerchi una soluzione se non hai un problema :smile:

Per “lavoro” ho redatto un documento che riassume l’intero scenario di sorveglianza con un capitolo deleterio sull’operato della Microsoft… vediamo quando lo posso pubblicare…

3 Mi Piace

Intanto github sta dimostrando di essere una ditta capitalista come tutte le altre, intenzionata a non garantire uno spazio web continuato nel tempo

1 Mi Piace

Ho spostato 4 messaggi in un nuovo argomento: Mozilla e alcune ombre sul rispetto della privacy

Io ho riletto i nuovi ToS di GitHub e salvo la sezione D dove dice:

[…] GitHub si riserva il diritto di rimuovere il contenuto degli utenti e chiudere gli account se necessita di ciò [a loro insindacabile giudizio, se violano termini o politiche di GitHub].

che si traduce nel fatto che GitHub non può essere usato come archivio pubblico dove lasciare il proprio software, non vedo altri problemi. C’è anche da dire che cambiando i ToS non si sa mai cosa potrebbe accadere ai vari depositi software… Insomma, un uso temporaneo è accettabile.

Comunque, abbiamo bisogno di uno spazio pubblico e di incentivare l’uso di server casalinghi (posta elettronica, rubrica, foto, depositi software, piccoli siti, ecc.).

Dovrei capire meglio come funzionano FreeNet e Tahoe-lafs linkati da baux.

You retain ownership of and responsibility for Content you create. If you’re posting anything you did not create yourself, you agree that you will only submit Content that you have the right to post, and you will fully comply with any third party licenses relating to Content you post.

Il problema quando lavori su progetti GPL o CC è che i diritti third party a pubblicare i contributi di altra gente non ce li hai. Perciò per usare github come spazio web puoi collaborare esclusivamente con persone che hanno aderito anch’essi a github ed accettato queste ToS. Per me è un no go. Ma i due articoli che ho linkato spiegano le implicazioni molto meglio di me…

Premesso che uno spazio proprio o opportunamente pubblico, anziché appoggiarsi ad un’azienda commerciale è sempre e comunque meglio, se la gente invia contributi ovviamente dà il permesso, altrimenti non contribuirebbe, che poi veri e propri pezzi di codice è raro che arrivino da persone che un minimo non si conosco, ovvero tra collaboratori. Le licenze di terze parti sono quelle applicate sui contributi che stiamo caricando e che devono essere compatibili con la licenza sotto la quale rilasciamo il nostro progetto. È un’attenzione che ho comunque sempre fatto.

Il funzionamento di git è tale che condividi anche i contributi altrui (per esempio se fai un fork del kernel linux per cambiare due righe), perciò la licenza del progetto comune deve esplicitamente permettere che github ne faccia uso come vuole. Varie licenze GNU non permettono l’appropriamento commerciale di contenuti terzi, e di questo trattano i link in alto.

Faticavo a leggere quei link in inglese… Ora ho capito. Quindi le licenze del progetto devono comunque sottostare alle richieste della licenza di GitHub. Può essere paralizzante in particolare se si vieta l’uso a fini commerciali, tocca andare altrove.

1 Mi Piace

I sitiweb di Freenet sono incompatibili con la programmazione lato server. Infatti, sono insiemi di file distribuiti che vengono scaricati prendendo pacchetti da più peer (pari), questo facilita la velocità per sitiweb in p2p, dato che altrimenti difficilmente uno solo potrebbe fare da server con il poco upload di casa… (giusto per un’utenza minimale). Questa limitazione di ricorrere a siti statici (HTML, CSS ed al massimo un po’ di JavaScript per l’interattività), mi sembra di capire che è una condizione inevitabile per tutti i sitiweb distribuiti. Confermate?

In tal caso, tanto vale concepire un sistema di file storage condiviso, tipo Tahoe-LAFS o torrent e passarsi così eventualmente interi siti statici (al massimo con una buona interattività grazie a JS).

Un grosso problema per questi sistemi paralleli al Web in chiaro è che solo installandoli (e con diverse difficoltà sia concettuali che pratiche) puoi iniziare a cercare. Praticamente manca una dimensione pubblica dei contenuti.

Preciso che tutte queste considerazioni sono rivolte a materiale che potrebbe essere legalmente pubblicato e non penso nemmeno ai vari problemi di segretezza delle comunicazioni private. Praticamente sono alternative ai server a pagamento, con il desiderio che se uno… decede, non sparisce tutto nel nulla, ma resta in mano alla comunità con la possibilità di continuare a leggere o portare avanti quanto è stato fatto.

Si potrebbe pensare che uno spazio Web a pagamento sia la soluzione migliore (con il proprio dominio), però non è possibile fare un qualsiasi uso (es. cloud personale) o paghi cifre più importanti per avere un server dedicato, altrimenti il contratto prevede un più o meno semplice sitoweb.

A pagamento o a casa, resta il fatto che essere presenti in modo classico sul Web è più conveniente per la visibilità e facilità di accesso. Poi, occasionalmente, si fa uno snapshot di tutto il proprio lavoro e lo si carica su Web Archive se c’è il desiderio di rendere il proprio lavoro disponibile pubblicamente e in futuro.

Si, è una cosa che hanno in comune tutti questi sistemi… anche quelli che usano bittorrent, IPFS. Io lo ritengo un vantaggio per varie ragioni pratiche e per il modo come elimina l’economia del tracciamento delle persone…

Fare siti con secushare sarà più come fare un git pubblico che un sito… puoi modificare il sito tutte le volte che vuoi, ma lo strumento per accogliere il feedback del tuo utente è molto diverso, e dobbiamo vedere che tipo di protocolli vogliamo in quei casi specifici. Sarà necessario dettagliare molto i formati del protocollo, credo… per potere indicare quale tipo di interazione con l’origine del sito (il nuovo “server” in un certo senso) è accettabile e quale puzza di tracciamento.

Esatto, infatti esistono vari progetti di questo tipo.

Dipende dagli strumenti che usi. gnunet ha delle funzioni di ricerca distribuita che potrebbero essere applicati ai contenuti prima di scaricarli.

ma resta in mano alla comunità con la possibilità di continuare a leggere o portare avanti quanto è stato fatto

Esatto. Forkare un sito esistente con modificazioni proprie è simile a come funziona con git… il fatto che ci fai delle modifiche ti apre la scelta tra tenerle private o metterle a disposizione, e poi chi vuole può adottarle…

ma resta in mano alla comunità con la possibilità di continuare a leggere o portare avanti quanto è stato fatto

Solo se questo resta il web che conosciamo… un web dove la gente deve digitare un dominio per andarci… se invece il tuo sito si trova perché hai distribuito il QR code oppure perché un milione di persone ti seguono come persona, allora l’atto di pubblicare il sito ha visibilità migliore di un dominio che devi comunicare alla gente… e la facilità di accesso è anch’essa migliore, se non devi interagire con un server remoto per avere i contenuti alla mano…

Credo che un Web con siti propriamente dinamici, ovvero che si avvalgono di un linguaggio di programmazione lato server e centrali, ovvero che permettono di sincronizzare il lavoro di molte persone ed offrono a tutti la stessa base dati, sia una necessità ed una comodità che non vedremo tramontare per molto tempo e forse mai.

C’è un altro grosso problema, se esistono più luoghi per gli indici, più Web alternativi, più protocolli, nasce la necessità di installare più sistemi per navigare questo e quello, e per ricevere dati da più canali diversi. Il W3C esiste apposta per risolvere questo genere di problemi. Mi sento scettico.

L’unica cosa che mi sembra più fattibile è un buon sistema di file sharing. Trovo che torrent sia molto valido, ma dicevi che in Germania aveva seri problemi… non ricordo perché.

Necessità no, perché ogni buona idea si può risolvere anche senza sorveglianza. Comodità sì, perciò presumo che ci vorrà pressione legislativa a vietare architetture di tracciamento…

È un intervento politico drammatico, ma la scelta è tra democrazia o tecnocrazia. È di importanza costitutiva per la nostra società. Finché ogni sito può decidere di sorvegliare il movimento del mouse e la battitura della tastiera, non abbiamo una società libera.

Ma il W3C non ci capisce una mazza di questi nuovi sistemi. Troppo dominato da Microsoft ed altri interessi anche per volerli apprezzare. Se l’unione europea sceglie di difendere l’architettura democratica, e comprende che è necessario intervenire con legislazione invasiva, è chiaro che l’obiettivo sarà di fare una sola nuova rete. Un solo nuovo Internet con il suo nuovo web. E si farà una nuova associazione di ditte e scienziati per sviluppare insieme una soluzione che soddisfi le esigenze della legge.

In Germania è vietato partecipare in upload alla distribuzione di certi dati e BitTorrent non protegge gli utenti dall’esporre il fatto che stanno facendo upload. Perciò se partecipi ad un torrent sbagliato, ti viene la posta dall’avvocato dell’industria del copyright. Piuttosto si fa streaming, pagando con le pubblicità porno ed il tracciamento. I contenuti continuano ad essere piratati, ma l’atto di pirateria viene commesso fuori dalla Germania. Secondo me l’industria copyright in questo modo ha peggiorato la situazione, dato che ora c’è un mercato nero vero piuttosto che uno scambio libero tra interessati. I pirati di oggi ci guadagnano sopra veramente sul lavoro artistico di altri, e lo fanno in modo professionale con tanto di sistemi cloud all’estero e marketing elettronico per comunicare gli indirizzi d’accesso…

Mi sono letto un po’ di FAQ e spiegazioni. Praticamente è un sistema adatto per un cloud che sia almeno settimanalmente utilizzato. Infatti, ho letto che se per 1 mese nessun utente fa richiesta di rinnovo per un file, questo viene considerato abbandonato e viene cancellato… Purtroppo, ciò è incompatibile con il desiderio di preservare i dati di cui andavo in cerca. Potrebbero passare anche alcuni anni prima che uno si ricordi che esiste e decida di scaricarlo o decida di recuperare un progetto per portarlo avanti.

Q28: How to delete files/folder from Tahoe-LAFS grid?

A: Tahoe-LAFS is designed to allow multiple users to access the same files. You wouldn’t like it if one day a file of yours had been deleted by somebody else, right? Therefore, we have to solve The Garbage Collection Problem. The current solution is: do lease-renewal every month or so, and delete any files that nobody has lease-renewed in more than a month or so.

Tahoe-LAFS usa un sistema molto sicuro di conservazione: dati criptati, hashcode per verificare l’integrità dei file, più copie dei pezzi che ricostruiscono il file su vari server, così che se ne salta uno o si rompe un disco, c’è una copia di sicurezza. Ciò è basato su parametri personalizzabili e i valori predefiniti sono 3 su 10. 3 è il numero di pezzi in cui il file è diviso e 10 sono i nodi su cui è replicato con ridondanza. Quindi se vogliamo salvare 100 MB, occuperemo realmente 100 * (10/3) = 333,3 MB più altro spazio inferiore allo 0,5% del file originale per necessità varie.

C’è un sistema di link e di gestione dei permessi per permettere ad altri di scaricare il file, modificarlo, ecc. Non ho visto tutti i dettagli nello specifico.

Il programma che fondamentalmente invia e riceve dati si può avviare o arrestare quando si desidera, perché tahoe-lafs non deve essere “ostrusivo”, in ogni caso, anche avviato consuma davvero poche risorse.

Pare dunque che chiunque può mettere a disposizione lo spazio che desidera e occuparne quanto desidera… Così come offrire servizio 24 su 24 ore oppure essere molto incostante. Ho cercato domande che facessero chiarezza su questi punti, ma non ne ho trovate.