DeGoogling the PA, rimuovere la sorveglianza dai siti della pubblica amministrazione

Butto qui una proposta di azione relativamente ad una moral suasion nei confronti delle PA italiane ad abbandonare sistemi di tracking proprietari come quelli di Google. Gran parte dei siti web delle PA italiane, se non proprio tutti, incorporano il sistema di tracking Google Analytics e questo è potenzialmente lesivo per le libertà ed i diritti civili dei cittadini: Google sa se tizio ha visitato lo sportello SUAP o l’Anagrafe. O se consulta l’Albo Pretorio oppure lo sportello TARI. Potenzialmente, quindi, Google riesce a tracciare un profilo anche sulle inclinazioni civiche dei cittadini: la PA dovrebbe evitare l’uso di questi strumenti, visto che non ne ha alcun vantaggio economico se non quello di sapere quanti visitano una certa pagina (ma a quale pro ?).

Quindi, la mia proposta di azione è:

  1. mappatura di tutti i siti web delle PA italiane
  2. verifica della presenza di Google Analytis sulle pagine web
  3. in caso positivo, invio al presidente del Consiglio Comunale/Provinciale/Regionale di una bozza di MOZIONE da girare a tutti i consiglieri, per una loro valutazione ed eventualmente discussione nell’assise.

E’ necessario imbastire la mozione nel modo più efficace possibile, perché non è affatto escluso che questa iniziativa possa essere un volano mediatico in vista delle Elezioni e relativa campagna elettorale.

Quindi, operativamente:

  1. elenco siti web PA
  2. sistema di verifica tracking code
  3. redazione MOZIONE

Forza !

4 Mi Piace

Salve, questa iniziativa mi piace. Ho scritto due piccoli script che controllano quali siti della Pubblica Amministrazione incorporano Google Analytics e li stampa su console (con una semplice redirezione dell’output si avrà un file con gli esiti). Non avevo troppo tempo, quindi non è il massimo dell’efficienza ma ho visto che funziona. Se dovesse essere utile potrei provare a migliorare l’efficienza.

Formatter.py si occupa di popolare un database SQLite3 (chiamato “amministrazioni.db”) con i dati ricavati dall’Indice delle Pubbliche Amministrazioni (per una questione di migliore gestione dei dati). Scraper.py si occupa di capire quali siti web incorporano Google Analytics.

Link al file .zip --> DeGoogling the PA (link MEGA)

1 Mi Piace

Grazie @sailor per il contributo, gradito. Ho qualche problema a far andare il tuo script “Scraper”:

Traceback (most recent call last):
  File "./Scraper.py", line 36, in <module>
    main()
  File "./Scraper.py", line 23, in main
    with requests.get(url, stream=True) as response:
AttributeError: __exit__

ma non è questo il punto del thread. Vorrei capire dall’assemblea quale valore e quanto valore politico vogliamo dare all’iniziativa.

Anche a me sembra un’ottima iniziativa il cui valore politico è sensibile e i risultati potrebbero essere utilizzati dentro una nostra campagna (anche elettorale)… Quanto cuba in termini di lavoro?

1 Mi Piace

Dipende, si può fare un semplice report da mandare alla stampa oppure, come avevo proposto, predisporre una mozione da inviare ai consiglieri comunali dei comuni “incriminati” da depositare e poi discutere (e magari approvare) in aula. Era questo il motivo per il quale la campagna era diretta ai comuni: c’è tutta una sequenza di azioni di alto valore politico da poter perseguire…

Sto guardando un po la normativa, necessaria per mettere i riferimenti nella mozione, e devo dire che c’è roba davvero interessante: https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=uriserv:OJ.L_.2018.256.01.0108.01.ITA&toc=OJ:L:2018:256:FULL

1 Mi Piace

Strano, a me non capita (lo script è pensato per essere eseguito con l’interprete Python 2.7 e non con Python 3.x). Prova questa versione --> DeGoogling the PA - 2

Bella roba. Scusate, sarebbe interessante disegnare un grafo di tutte le dipendenze da terze parti? Chissà cosa ci troviamo nascosto al 2°, 3°, 4° livello…?

Strategicamente partirei con un primo allarme con la lista dei siti compromessi, poi mentre la campagna stampa è in corso lanciamo il mailing ai responsabili… così dopo tot tempo lanciamo gli aggiornamenti, quanti comuni ecc hanno rimosso gli elementi di tracciamento commerciale e quanti non.

Quest’idea mi interessa molto, ci sono aggiornamenti? esiste un gruppo di lavoro?

ecco, per chi è forte in front-end insieme a qualcuno del reparto data-mining potrebbe dare un’occhiata a questo progetto per generare un grafo dinamico come lo intende lynX -----> https://github.com/controversial/wikipedia-map; si potrebbe fare un sito che sovrapponga i siti delle P.A. ad una mappa geografica, impliementiamo un call to action che faccia in modo di dare i mezzi ai volontari per mandare un’email alle P.A. piu vicine al volontario del momento.

1 Mi Piace

Piccolo aggiornamento: Il sito dei risultati elettorali necessita Javascript, contiene Google Fonts & Analytics e vieta l’accesso anonimo via Tor.

Diretto: https://elezioni.interno.gov.it/europee/scrutini/20190526/scrutiniEE

Copia archiviata in Tor: https://archivecaslytosk.onion/GnEyO

Secondo il GDPR dovrebbero chiederci il permesso prima di regalare i nostri dati a Google, inoltre dubito sia legale pubblicare i dati con precondizioni commerciali.

E pensare che in Italia abbiamo una legge specifica sulla accessibilità che lo imporrebbe*

*) la capacità di accedere ai dati senza dipendere da Javascript.