Panama papers e altri numeri

Conto corrente estero e conto offshore

da l’Espresso

Per lo Stato italiano, e per l’Europa, è possibile possedere un conto corrente all’estero a patto che venga dichiarato fiscalmente, inserendolo nella dichiarazione dei redditi (nell’apposito quadro RW della dichiarazione dei redditi a partire da una giacenza o movimentazione annuale pari o superiore a 15 mila euri). La banca estera nella quale si apre il conto è obbligata a comunicare allo stato di residenza del correntista tutte le informazioni relative al conto corrente.
Il correntista, di conseguenza, verserà un’imposta (Ivafe) sul suo valore del deposito pari al 2 per mille, oltre alla normale tassazione sulle plusvalenze realizzate.
Sostanzialmente è come tenere un conto in una banca italiana, l’unica convenienza potrebbe essere rappresentata da migliori condizioni sulla tenuta del conto, da servizi più efficaci ed efficienti o dalla convinzione di aver depositato i propri soldi in una banca più solida e più sicura ma, credo, niente di più.
Chi mira, invece, a risparmiare sul pagamento delle tasse dovrà eludere tutta la procedura ufficiale e seguirne una “offshore”, ovvero aprire un conto estero sul quale le tasse non vengono pagate grazie alla segretezza dell’identità del correntista.

Panama papers

Questo è proprio il punto nodale di un conto offshore: la segretezza. Ma non è cosa semplice da realizzare. Considerato l’obbligo della trasparenza delle aziende e il grande impegno dell’OCSE nella lotta contro i paradisi fiscali, diventano indispensabili almeno due cose: primo rivolgersi a uno dei 14 paesi dove è ancora possibile richiedere segretezza (Belize, Brunei, Isole Cook, Costa Rica, Guatemala, Filippine, Liberia, Isole Marshall, Montserrat, Nauru, Niue, Panama, Uruguay e Vanuatu) e poi affidarsi a società o agenzie specializzate che riescono a far arrivare il denaro sul conto corrente di questa banca estera senza lasciare tracce. Anche tracce come le “ Panama papers”. Quasi dodici milioni di documenti, relativi a transazioni finanziarie segrete, sottratti allo studio Mossack Fonseca da un anonimo whistleblower che, come dice l’Espresso, li ha forniti al quotidiano tedesco Suddeutsche Zeitung che, a sua volta, si è rivolto al ICIJ (l’International Consortium of Investigative Journalists che ha condiviso il lavoro e la scoperta con le 378 testate partner tra cui l’Espresso).
Siccome stiamo parlando di 2,6 terabyte di dati, c’è chi sostiene che non si tratti di una semplice gola profonda ma crackers che hanno sfruttato la vulnerabilità di un vecchio plugin su WordPress (“Revolution Slider” che in una sua versione non aggiornata fa caricare una shell remota – corretta già da due anni da Wordfence) e di un server di posta, al quale accedevano tutti i clienti dello studio, che risedevano sullo stesso network.
Insomma una grossolana leggerezza che ha permesso di scaricare, per mesi, tutto l’archivio dello studio Mossack Fonseca. Infatti, dopo il 3 aprile, il loro dominio è passato a Incapsula che ha trasferito tutto su server neozelandesi.

Crackers?

Crackers perché l’operazione è stata pagata (non si sa se commissionata o offerta) e la filosofia hacker non collima con questa tipologia di finalità; e poi perché nella rete hacker non c’è stata nessuna eco dell’impresa.
Pagata dagli americani perché l’ICIJ è stato fondato da un giornalista americano (Chuck Lewis) ed è sostenuta da: Adessium Foundation, Open Society Foundations, The Sigrid Rausing Trust, Fritt Ord Foundation, Pulitzer Center on Crisis Reporting, The Ford Foundation, The David and Lucile Packard Foundation, Pew Charitable Trusts and Waterloo Foundation.
Tant’é che, al momento, tra tutti gli americani presenti nei documenti, non è ancora saltato fuori nessun nome eccellente a fronte dei 140 politici e uomini di Stato del resto del mondo.

I numeri

215 mila le società coinvolte, riferite a 204 nazioni diverse e 511 banche (tra cui le italiane Ubi e Unicredit);
378 giornalisti, in un forum chiuso, analizzano un database di 2,6 terabyte lungo 38 anni di registrazioni.
800 sono gli italiani coinvolti e tutto quello che ne verrà fuori continueremo a leggerlo sulle maggiori testate giornalistiche del mondo.

La Cura. Ritrovare la sintonia con l’universo

E’ appena uscito in libreria (da qualche giorno anche in ebook) “La cura”, l’ultimo libro di Salvatore Iaconesi e Oriana Persico pubblicato da Codice Edizioni.

Un libro straordinario, come dice Biava nella prefazione, per ciò che ci insegna e rappresenta, e  per il coraggio e la volontà mostrati dai due autori nel percorrere una via nuova e completamente ignota in una situazione drammatica e pericolosa, che solitamente si conclude in modo triste e doloroso.

Ne parlo con gli autori per i quali, in rete, c’è una infinità di definizioni, ma a me piace vederli semplicemente come due hackers che di questa filosofia (alcuni direbbero etica) ne hanno fatto l’unico modo di vedere e vivere il mondo.

Salvatore, partiamo dalla scoperta della malattia e dalla ribellione verso lo status di malato.

Un banale incidente in piscina nel 2012 si trasforma in un incubo: facendo lastre e accertamenti mi diagnosticano un cancro al cervello. Da lì nasce una riflessione immediata: appena avuta la diagnosi ed entrato in ospedale sono scomparso. L’essere umano Salvatore Iaconesi svanisce, rimpiazzato da dati medici, immagini, parametri corporei. Il linguaggio cambia, e subentra una separazione netta, sia nei dottori che nelle persone, amici e parenti: divento a tutti gli effetti la mia malattia. Nessuno parla più di te, ma dei tuoi dati, che oltretutto non sono per te. Un giorno, mentre ero in ospedale, ho chiesto una immagine del mio cancro, perché volevo vederlo, parlarci, stabilirci un rapporto. È stato difficilissimo ottenerla. Ma deve pagare un ticket per ottenerla? E la privacy? Ci deve firmare una liberatoria? E cosa succede se gli diamo una immagine del “suo cancro” e poi esce fuori che non si trattava, dopotutto, di un tumore e poi ci denuncia? E tanti altri problemi. L’immagine del mio corpo non era per me. Come tutti gli altri dati. Era un segnale della mia scomparsa: Salvatore Iaconesi messo in attesa, rimpiazzato dal paziente X, entità amministrativo-burocratica destinatario di servizi e protocolli di cura.
Questa sospensione, questa separazione dall’essere umano dal mondo, dalla società, mi sembrava una cosa gravissima.
Per ottenere la mia cartella clinica digitale mi sono dovuto dimettere dall’ospedale. Mi sono dimesso da paziente.
Appena ricevuta la cartella, qualche giorno dopo, ho avuto una sorpresa amara: il paziente X mi aveva seguito fino a casa. Aprendo i file ho scoperto che erano in formato DICOM, un formato che è tecnicamente aperto, ma che non è per persone ordinarie: è per tecnici, radiologi, chirurghi, ricercatori. Non è qualcosa che posso usare in maniera semplice e accessibile dal mio computer, che posso inoltrare in una mail o condividere sui social network. È un file per tecnici: per aprirlo devo installare software differenti, imparare i linguaggi e le pratiche della medicina. Semplicemente, di nuovo, le immagini del mio corpo non erano per me: era il paziente X, destinato ad essere amministrato dai tecnici.
In questi due momenti, la richiesta dell’immagine del mio cancro e l’arrivo della cartella clinica, è iniziata La Cura. Ho aperto i file, li ho tradotti in formati “per esseri umani” e li ho pubblicati online, aprendo la cura a tutti. L’atto di tradurre quei file in formati per “esseri umani”, per le persone comuni, cose che puoi mandare via mail, o condividere sui social network, è corrisposto al riappropriarmi della mia umanità, all’uscire dalla separazione e a far rientrare la malattia nella società.

Chi vi conosce sa che la Cura va oltre la storia personale, anzi è una piccola cassetta degli attrezzi per facilitare la comprensione di un dislivello di potere.

Noi la chiamiamo performance partecipativa aperta, nel senso che il suo scopo è il creare uno spazio sociale interconnesso, usando le tecnologie, le reti, ma anche la prossimità, la solidarietà, le relazioni umane, in cui abbia senso costruire soluzioni collaborative per i problemi del mondo. In questo caso è il mio cancro, ma potrebbe essere applicato a tanti altri, come mostrano ad esempio i nostri altri lavori in questo senso.
Il libro, in questo senso è un elemento fondamentale, perché è non è solo una storia, ma anche uno strumento.
La cura è una piattaforma per l’immaginazione, per aumentare la percezione di ciò che è possibile, per costruire senso, nella società. E le persone hanno compreso perfettamente: è difficile contare quanti sono stati e quanti sono ad oggi i contatti che abbiamo avuto, che sono avvenuti in centinaia di modi differenti, dalla rete, al venirci a bussare a casa e tutto quel che c’è nel mezzo, ma si parla di circa 1 milione di persone.

Continuate a occuparvi di osservazioni delle dinamiche sociali all’interno delle comunità, in che senso è un “ecosistema”?

Per noi diventa sempre più difficile capire cosa sia lavoro e cosa sia “vita”. Certo è che con l’una costruiamo significato per l’altro e viceversa. In tutto questo il concetto di “ecosistema” assume un ruolo fondamentale. L’ecosistema è il luogo della coesistenza. L’ecosistema non è lo spazio/tempo in cui tutti vanno d’accordo, ma il contesto in cui tutti si rappresentano e in cui, attraverso i conflitti e le tensioni tramite cui ci si posiziona nel mondo, si creano le dinamiche per la coesistenza. In qualche modo si può dire che ogni cosa che facciamo, che sia un progetto o un’opera d’arte, sia dedicata allo studio degli ecosistemi. Anche La Cura è un ecosistema: è il contesto in cui la malattia viene tirata fuori dall’ospedale e aperta alla società, in modo che tutti possano rappresentarsi e rappresentare, sviluppando discorsi e interazioni da cui possa essere costruito il senso: la malattia, qui, diventa un ambiente aperto, in cui tutti partecipano alla cura, che siano medici, artisti, ingegneri, hacker o altri tipi di persone. Proprio come non ci si ammala da soli – perché quando ci ammaliamo la vita cambia per i nostri amici e parenti, i datori di lavoro, i commercianti presso cui andiamo a fare la spesa, la previdenza sociale e, quindi tutta una nazione – non ha senso cercare la cura solo all’interno dell’ospedale. Sarebbe ingenuo e incompleto. Ha molto senso, invece, cercarla nell’ecosistema, nella società, con la partecipazione di tutti. Non solo ha senso, crea senso, con la possibilità di scoprire nuove forme di solidarietà e collaborazione, trasformando la cura da qualcosa che compri in qualcosa che fai, con gli altri.

Foucault parla di biopolitica riferendosi al potere del capitale sulla vita, sul corpo umano (come specie) e sul suo controllo, voi parlate di biopolitica dei dati.

I dati sono una cosa complessa. Abbiamo, ormai, imparato a parlarne con toni e atteggiamenti che in altre epoche si dedicavano agli argomenti religiosi. Stiamo diventando molto ingenui quando si parla di dati, presupponendo che valga in qualche modo una equivalenza tra dati e la realtà. Ovviamente, non è così. I dati sono tra le cose meno obiettive che conosco. In sociologia si dice che il dato è “costruito”, indicando il fatto che raccogliere dati corrisponde ad effettuare delle scelte: quali sensori scegliere, dove posizionarli, quali domande fare, quali dati catturare, quali scartare, come interpretarli, come visualizzarli. Sono scelte, non verità di qualche genere. Operando su questi parametri è possibile, in linea di principio, osservare lo stesso fenomeno e generare dati anche diametralmente opposti, in contrasto. E qui interviene la biopolitica, ovvero l’insieme di modi in cui i poteri operano per esercitare il controllo e per determinare corpi e soggetti. Il controllo avviene per classificazioni: classificando determino la realtà. Decido se stai bene o male, se puoi guidare o meno, se puoi fare un certo lavoro o no, se sei a rischio o meno, quanto paghi l’assicurazione, se puoi avere un conto in banca o acquistare una casa. Tutte queste cose hanno a che fare con i dati: pochi soggetti, dotati di potere, scelgono parametri e soglie e, in questo modo, definiscono la realtà. La cosa incredibile è che nulla di tutto ciò ha a che vedere con le persone, con le relazioni umane, con la società. La salute è particolarmente evidente in questo: qualcuno stabilisce dei protocolli e delle soglie per i parametri corporei in modo da determinare se sei malato o no. Io magari ho un valore di 1.4 per un certo parametro di misurazione del mio corpo, e la soglia della malattia è a 1.5. Se, domani, dovessero cambiare la soglia e impostarla a 1.3, io, senza che sia intervenuto alcun cambiamento nel mio corpo, diverrei ufficialmente malato. Sarei la stessa persona di ieri. Non mi farebbe male una spalla, un braccio o il fegato. Non sarebbe cambiato nulla in me. Ma, per i dati, io sarei malato. Sperando oltretutto che chi varia la soglia non lo faccia solo per “generare” potenzialmente milioni di “malati” aggiuntivi, per poter piazzare prodotti e servizi.
Questo è un potere enorme. E questi processi avvengono di continuo: nella scuola, nel lavoro, nella salute, nella finanza, nelle banche, nelle assicurazioni, con i prezzi di cibo, acqua, medicine, energia, su Facebook e Google, dovunque.
Il dato diventa uno strumento di controllo, di definizione della realtà per poterla controllare, in modo algoritmico. Questa è la biopolitica del dato.

Qual è il racconto di Oriana?

Nel libro la storia (della performance) è raccontata da due punti di vista, come vedere la stessa stanza ma da due inquadrature differenti, naturalmente tutto cambia anche se la stanza è la stessa. Non racconto una storia differente, è la mia “posizione” a essere diversa.
Nel corso della scrittura siamo arrivati a definire mano mano la struttura: il libro della Cura è diviso in sezioni (7 a voler essere precisi). Ogni sezione è divisa in tre tipologie di capitoli, contrassegnati da tre icone. Quelli “S” sono la storia dal punto di vista di Salvatore, quelli “O” di Oriana, gli “R” sono la ricerca: attraversando discipline e argomenti molto differenti fra loro, affrontano i temi che emergono attraverso la storia. Infine ci sono le parti “W”, come workshop: non dei capitoli, piuttosto dei box, degli inserti che contengono una sintetica descrizione dei workshop che completano la sezione. Ogni workshop è collegato a un link che rimanda su Github, dove è possibile trovare i materiali di approfondimento, discutere e creare nuovi workshop o versioni diverse dello stesso workshop: tutto questo è accessibile dal sito alla sezione “Conoscenza“.
Tornando alla tua domanda, nel libro abbiamo moltiplicato i punti di vista per due (“S”+”O”). In realtà gli “autori” del racconto della Cura, come ogni storia o ogni evento, potrebbe essere moltiplicati all’infinito, almeno per quanti sono stati i partecipanti: nel nostro caso partiamo da una base di 1.000.000 di autori.
Nella forma libro (sequenziale e basata su una economia della scarsità) questo tipo di moltiplicazione è impossibile (e tutto sommato indesiderabile). E’ vero il contrario quando la narrazione può esplodere nella forma rizomatica, ubiqua, polifonica ed emergente della rete: non siamo più tecnicamente di fronte al “libro” della galassia Gutenberg, ma senz’altro a forme narrative e di pubblicazione. Già nel 2012 il sito della Cura conteneva visualizzazioni in tempo reale sulla vita della performance: stiamo lavorando ad una nuova e più articolata versione che sarà presto visibile.
In sintesi, Salvatore e Oriana non sono e non saranno i soli autori di questa storia, come non lo sono mai stati.

Quale sarà il futuro dell’informazione nelle nostre comunità?

Non mi piace fare previsioni, o pensare al “futuro” al singolare: preferisco “futuri”, plurale.
Certo è che, ora e a breve, ci troveremo costretti a cercare e implementare modi per costruire senso. Siamo invasi dall’informazione e dalle opportunità di informazione, tanto che il “contenuto” sta perdendo senso (se non l’ha già perso) e l’unica cosa che diventa importante è capire come costruire senso, possibilmente insieme a comunità di persone, se non insieme a tutta la società.
Questa ricerca potrebbe andare a finire in tanti modi differenti, lungo due direzioni principali. Da un lato l’algoritmo. Dall’altro la fiducia e la relazione. Da un lato l’intelligenza artificiale e la possibilità di comprendere algoritmicamente le informazioni e le persone e, di conseguenza, di suggerire alle persone cosa potrebbe essere rilevante per loro, cosa avrebbe senso. Dall’altra parte la possibilità di conoscersi, fidarsi, stabilire relazioni significative e, di conseguenza, poter stabilire processi in cui la costruzione del senso possa avvenire nella società delle relazioni, costruendo capitale sociale oltre che servizi.
A me interessa più questa seconda interpretazione. Oltretutto la prima direzione potrebbe molto convenientemente essere messa al servizio della seconda. Questo è, per me, lo scenario più desiderabile.

Ci sono una serie di iniziative, spesso messe in campo dai governi istituzionali, che scimmiottano la cultura hacker. E’ come se volessero dimostrare che il senso del “buono” è stato già recuperato e ciò che resta è cattivo o controproducente. Penso a esperienze consumate intorno a idee di produzione e industrializzazione collegate a startup e a fablab che ripropongono, in definitiva, nuovi modelli di capitale.

Nel mondo del digitale, dell’immateriale, della globalizzazione ogni industria diventa per forza di cose una industria culturale. Quando il focus non è più sulla produzione di prodotti, ma nella costruzione di idee, l’industria ha un solo prodotto: la creazione della percezione del futuro, di che forma avrà il mondo, del senso. In questo la “trasgressione”, intesa come l’oltrepassare i confini del “normale”, gioca un ruolo importantissimo: sono i “trasgressori” gli unici a essere capaci di innovazione radicale. Per questo l’industria deve imparare ad avere a che fare con i “troublemakers”, come li chiamava Enzensberger, e con l’”Excess Space”, come lo definisce Elizabeth Grosz. I modi sono tanti, inclusa la cooptazione, l’assunzione, il mettere hacker e “rivoluzionari” (secondo la narrativa di “cambieremo il mondo”) sul palco o in esposizione, o l’appropriazione di linguaggi e immaginari (come è avvenuto e sta avvenendo per gli hacker).
Noi, per esempio, puntiamo a modelli differenti per assicurare un ruolo alla “trasgressione” negli ecosistemi dell’innovazione. Prendendo in prestito un fraseggio da Massimo Canevacci Ribeiro la potremmo chiamare “indisciplina metodologica”, e la attuiamo con la metafora del “giardino”, alludendo al Terzo Paesaggio di Gilles Clément.

A proposito di Clément, a Potenza qualche tempo fa, sono state sperimentate forme di “giardino in movimento” come spazio possibilistico.

In tutta quest’ottica Clément cerca risposta a una domanda fondamentale: “com’è fatto il giardiniere di un giardino senza forma?”
È una domanda difficile e richiede non solo di trovare strumenti e saperi adatti (com’è fatto un giardiniere che invece di usare il rastrello usa il vento? che mestiere fa?), ma anche e soprattutto nuove sensibilità e nuove estetiche: occorre imparare a riconoscere il “bello” in ciò che interconnette e in ciò che crea la “differenza”, come diceva Bateson.
In questo senso può essere di aiuto Marco Casagrande che, quando descrive la sua città di Terza Generazione parla delle “rovine” come di qualcosa da riscoprire: la città di Terza Generazione è la “rovina organica” della città industriale, e diventa “vera” quando la città riconosce la propria conoscenza locale e permette a sé stessa di essere parte alla natura. È una idea nuova di architettura e di pianificazione urbana, in cui l’architetto e l’urban planner assomigliano al giardiniere di Clément: non decisori, normatori o progettisti, ma soggetti capaci di “farsi piattaforma” perché emergano i desideri, l’immaginazione e le visioni delle persone, che diventano a tutti gli effetti co-progettisti.
Questo è anche un parallelo incredibilmente potente con La Cura: la cura è un prodotto sociale, che emerge dalla capacità dei membri della società di autorappresentarsi, osservare sé stessi, e di costruire significato interconnettendosi, che si sia medici, ragionieri, artisti, ingegneri, ricercatori, politici o commessi al supermercato.

Ritornando a “La Cura”, possiamo dire che la condivisione e l’open source, funzionano anche e soprattutto con la medicina?

Nel libro ci siamo trovati a dover avere a che fare con tante discipline differenti per rispondere a questo tipo di domanda. È questo il senso delle sezioni di ricerca del volume. È interessante come l’”apertura”, l’”interconnessione” e la “differenza” siano concetti fondanti in questo genere di processo. Sono le porte che aprono la via ad una innovazione differente, capace di tanti tipi di tempo (non solo la ipervelocità che, ingenuamente, pensiamo di dover assumere per essere competitivi), di pensiero, di atteggiamento, e di orientare verso la possibilità per la coesistenza di tutti questi approcci differenti, di trasformarli in opportunità, in una nuova sensibilità, in una nuova estetica, capace di riconoscere la bellezza dell’interconnessione e della relazione, dell’alterità, della differenza (e, quindi, anche del conflitto).
Occorre rivoluzionare l’immaginario.
Questo è funzionale a tutti i settori, inclusa la medicina.
La “crisi” è innanzitutto una crisi di immaginario, della progressiva impossibilità di immaginare e desiderare modi radicalmente diversi di operare.

Che ne è stato di quel progetto di legge che si ispirava al vostro progetto artisopensource?

Quello che era originato dall’interrogazione parlamentare sulla Cura e sui formati aperti per i dati medici? Non se ne è saputo più nulla nel dettaglio, ma sono anche cambiate tante cose. Ad esempio La Cura costituirà un caso rilevante nel position paper presentato dagli Stati Generali dell’Innovazione alla Commissione Interparlamentare sull’Innovazione. Ed è solo l’inizio.

Laura Gelmini ha scritto che la vostra iniziativa “è un esempio importante del rapporto fra un sistema sociale, la medicina, e un altro: l’arte.” Qual è il legame?

Come dicevamo nell’altra domanda, il ruolo dell’arte è fondamentale e forte. E non siamo i primi a immaginarlo. Già Marshall McLuhan vedeva l’artista come la persona capace di creare ponti tra l’eredità biologica e gli ambienti creati dall’innovazione tecnologica. O come Derrick de Kerckhove, che attribuisce agli artisti la capacità di predire il presente. Roy Ascott che descrive l’artista come IL soggetto capace di confrontarsi con un mondo in cui significati e contenuti sono progressivamente creati tramite relazioni e interazioni, in modo instabile, mobile e fluttuante. O come Gregory Bateson, che vede nell’arte il solo modo possibile per soddisfare la necessità di trovare soluzioni attraverso cambiamenti radicali nel nostro modo di pensare e di conoscere.
Ma anche rimanendo nel business: già Pine e Gilmore nel loro libro in cui introducevano per la prima volta il concetto di Experience Economy, descrivevano l’arte come una necessità.
Nell’arte scienza, tecnologie, ambiente e società trovano il sensore e l’attuatore per introdurre nuovi immaginari, nuovi modi di leggere il mondo, di costruire significati e di agire, insieme.

Ultima domanda. Se dovessi proporre un tema o un warmup per l’Hackmeeting che si terra a Pisa dal 3 al 5 giugno?

“Trasgressione e Innovazione!”

Non accettate taralli da blogger sconosciuti

tarallo aviglianese
tarallo aviglianese

il Garante della Privacy,  con un provvedimento che risale all’otto maggio 2014 (numero 229/2014, pubblicato sulla G. U. n. 126 del 3 giugno 2014), ha stabilito le modalità semplificate per dare l’informativa e acquisire il consenso per l’uso dei cookie.

In pratica entro il 2 giugno 2015 tutti i siti web dovranno predisporre una procedura che preveda l’accettazione o diniego del consenso all’utilizzo dei cookies da parte del visitatore del sito.

Cookie, questi sconosciuti
I cookie sono dei file di testo che vengono scaricati sul browser del visitatore del sito web per poi essere ritrasmessi al server, nelle visite che questo farà successivamente allo stesso sito.
Esistono, ovviamente,  diversi tipi di cookies con differenti funzioni. La maggioranza dei blogger utilizza, quasi esclusivamente,  cookie di tipo statistico (tipo Google Analytics) che raccolgono i dati del navigatore come esperienza all’interno del blog.
Quelli di “profilazione”, invece,  raccolgono informazioni un po’ più accurate tali da riuscire a individuare le preferenze del visitatore in modo da far apparire sul suo browser banner pubblicitari personalizzati.

Cosa deve fare il blogger?
“L’obbligo di informare l’utente sull’uso dei cookie e di acquisirne il preventivo consenso”  è a carico del gestore del sito, in qualità di titolare del trattamento, quindi del blogger.
Praticamente i cookies tecnici posso essere utilizzati e inviati, l’importante è inserire un messaggio che avverte il navigatore sull’utilizzo dei cookie, seguito da due link: uno per la concessione del consenso e l’altro che indirizzi a una pagina contente le informazioni ulteriori, anche su cookies di terze parti (per esempio quelli usati da Facebook, da Google, ecc….).

Ricordatevi che i cookies non “tecnici” (quelli di profilazione e marketing) non possono essere inviati se l’utente non abbia prestato il suo espresso e valido consenso.

Se usate WordPress e volete inserire un’informativa breve, potete utilizzare qualche plugin come:  Cookies Law Info o Cookie Notice by dFactory.
Se invece avete voglia di lavorare, ma giusto un pochino, potete seguire le indicazioni contenute in questa pagina di Google.

Il futuro è della chat ?

keyGreta Sclaunich, qualche tempo fa sul Corriere,  diceva che il futuro dei social è tutto nelle chat.

Chi si ricorda di IRC ? e di ICQ ?  In Italia forse molti ricorderanno C6…  e ce n’erano anche di più vecchie.   Se non li ricordate  oppure non ne avete mai sentito parlare, sappiate che viviamo ancora nella loro scia. Quando messaggiamo o chiacchieriamo on line,  stiamo usando lo stesso paradigma comunicativo.  LOL, IMHO, AKA, per esempio, facevano parte dello “slang” di queste chat.  Anche la parte “social”, che può sembrare una novità, non è altro che una piccola modifica (ma a pensarci bene neanche tanto) dell’ordinamento di gusti e tendenze che avveniva con i gruppi di discussione e con le “stanze” private.  A parte il maggior numero di emoticon, è quasi tutto uguale. Il grosso cambiamento è stata  la  velocità della rete e poi una immersione più continua.  Le nuove piattaforme hanno fatto il resto e così  le vecchie chat rinvigorite, hanno preso il posto anche degli SMS (Deloitte  ha stabilito che negli ultimi due anni i messaggi in chat sono stati più del doppio degli sms); degli MMS, poi, non ne parliamo proprio.

Qualche numero

I dati Audiweb dicono che a dicembre 2014, in un giorno medio, i giovani da 18 a 24 anni navigano per 2 ore e 22 minuti (con un’ora di incremento rispetto al 2013), nel 67% dei casi da smartphone e l’88% dei quali su chat.
Per aggiungere un’altra manciata di numeri prendiamo il caso di un client fortunato come WhatsApp che (pur se a pagamento) nel 2014 ha superato il mezzo miliardo di utenti, i quali: per prima cosa si scambiano foto, poi messaggi e infine dei video.

Quale futuro?

Se  qualche anno fa mi avessero chiesto  quale sarebbe stato il futuro dei social, avrei risposto, senza esitazioni, “il metaverso” (Second Life, tanto per intenderci).  Un social immersivo e  corporale tutto in divenire  che in breve avrebbe spazzato via  tastiera, mouse,  monitor e chissà cos’altro.   E invece…  a dieci anni di distanza ancora non è pronta quell’interfaccia immaginata da tanti.  Uno schermo indossabile come  Oculus  che avrebbe dato un nuovo impulso a quel mondo immersivo non è ancora pronto. Come se non bastasse, è stato acquistato da Zuckerberg che, dicono i maligni, potrebbe essere interessato alla distribuzione di films o, forse, a collegarlo ai suoi social e a WhatsApp in particolare.

Dunque  la chat è il nostro loop storico?

Philip Rosedale pensa di no e la sua risposta è High Fidelity. Un nuovo metaverso che integrerà Oculus ad altri sensori di movimento e, più in la, a una webcam 3D. Se  non sarà Matrix sarà qualcosa di molto simile, assicura Rosedale nella postfazione al libro di Giuseppe Macario “Il passato, il presente e il futuro del mondo virtuale Second Life“.

 

Le tendenze del cyber-crime


Una storiella

Tutti quelli che raccontano storie intriganti e interessanti spesso amano arrotondare gli spigoli e non lesinare sulle misure.
Emblematici sono i pesci che i pescatori allungano in proporzione al numero di birre bevute o a quelle delle reiterazioni del racconto.
Anche i cracker non scherzano…  ma capita che la cronaca, a volte, sia ancora più spettacolare.
Una di queste è quella capitata a dicembre del 2013 alla grande catena americana Target che nel giro di 2 settimane si è vista sottrarre i codici di circa 40 milioni di carte di credito.
I cracker sono partiti dall’infettare il Point Of Sale di un’azienda che cura la manutenzione dei banchi frigoriferi della Target, attraverso la quale sono riusciti a installare un malware,  del tipo BlackPOS, sui tutti i sistemi POS  di centinaia di negozi della catena. Il malware ha intercettato i dati che transitavano sulle macchinette (circa 11 GB) prima che queste li cifrassero (la crittografia end-to-end viene usata per proteggere i dati raccolti sui POS prima di inviarli a un server back-end e poi al processore di pagamento) per poi inviarli via FTP su server virtuali (VPS) in Russia.  La Target, infatti, dopo tutte le verifiche del caso, ha ammesso che insieme ai numeri di carte di credito/debito sono state rubate anche le informazioni personali appartenenti a 70 milioni di persone.

Il rapporto Clusit

Questa’azione “epica” della storia del cyber-crime, insieme a quella più complessa contro le banche e le televisioni sud coreane (operation “Dark Seoul”),  trovano posto nel nuovo Rapporto Clusit  che analizza i crimini informatici avvenuti nel 2013 e i primi mesi del 2014.
L’analisi mostra, dati alla mano, che gli attacchi informatici di tipo grave (di pubblico dominio), sono aumentati del 245% rispetto al 2011, con una media di 96 attacchi mensili.
Di 2.804 attacchi gravi di pubblico dominio ne sono stati analizzati 1.152 (il 41%) e di questi solo 35 sono su bersagli italiani.  A prima vista sembra confortante questo piccolo 3% ma sicuramente non rappresenta bene la realtà italiana. Confrontando il dato con quelli di altri paesi occidentali con economia e dimensioni similari  si è indotti a pensare che tale percentuale sia dovuta alla cronica mancanza di informazioni pubbliche al riguardo e, in qualche misura, al fatto che le aziende italiane spesso non hanno neanche gli strumenti idonei e/o la tecnologia necessaria per rendersi conto di essere state compromesse.
Dall’analisi sembra che il cyber-crime sia un fenomeno piuttosto marginale dal momento che rappresenta meno di un terzo (il 17 %) di quelli derivanti da azioni di hacktivism; ma su questo bisognerebbe fare almeno tre riflessioni: la prima è che delle azioni derivanti da hacktivism  se ne ha notizia perché fa parte proprio della loro politica darne comunicazione; la seconda che buona parte delle aziende preferiscono non dichiara di aver subito un attacco criminale e la terza che un’altra parte di aziende neanche si accorge di essere attaccata. Infatti una nota di Fastweb rivela che nel 2013 oltre 1.000 attacchi DDos sono stati rivolti a suoi clienti.

Una breve analisi è dedicata anche all’area dell’hacktivism che, secondo il rapporto, sta passando da una collaborazione sporadica o eccezionale  con il cyber-crime, a un vero e proprio percorso unitario, quantomeno in senso “tecnico” e di condivisione degli obiettivi.  Questo perché le frange di attivisti digitali più oltranzisti iniziano ad utilizzare le modalità operative proprie del cyber-crime per autofinanziarsi.

La tendenza futura

L’aumento delle vendite di smartphone e tablet vede, ovviamente, in crescita la scrittura di malware per questo tipo di sistemi (con una prevalenza per la piattaforma Android) e  anche se Google e Apple tengono alte le difese una buona percentuale di utenti utilizza App-Store non ufficiali dove i controlli sono più bassi.
Ad ogni modo il numero di insidie sui dispositivi mobili sono ancora un pericolo molto basso per il semplice fatto che su questi dispositivi è ancora difficile rubare una quantità di denaro sufficiente.

Un bersaglio importante, invece, sembra essere il cloud e l’espansione di applicazioni e di servizi basati su tali piattaforme dovranno, necessariamente, indurre le aziende a investire in sistemi di controllo della sicurezza che, tra le altre cose, sembrano anche più economici.

Il diritto all'oblio secondo Google

Il 13 maggio di quest’anno la Corte di Giustizia dell’Unione Europea ha emesso una sentenza inappellabile nei confronti di Google che, in quanto responsabile del trattamento dei dati di tutti i suoi utenti, è obbligata a cancellare i dati personali e la loro indicizzazione  a chiunque lo richieda.
Google invece, richiamandosi al “Digital Millenium Copyright Act“, ritiene di dover essere liberata da tale onere (tranne per il  copyright) nel momento in cui riesce a dimostrare di aver fatto tutto il possibile.
Tralasciando il complesso tema sul delicato equilibrio tra diritto alla cronaca e privacy (e non considerando il fatto che non basta eliminare il link nelle pagina dei risultati del motore di ricerca se poi restano on-line i contenuti), c’è un problema che ha a che fare con il futuro di internet: se, come dice David Meyer, in futuro i motori di ricerca anziché essere centralizzati come Google fossero distribuiti? chi sarebbe il responsabile?
A tal proposito Google ha costituito un Comitato consultivo per il diritto all’oblio che ha avviato un tour europeo per rendere note le problematiche legate alla sentenza della Corte  e la tappa italiana sarà mercoledì 10 settembre presso l’Auditorium Parco della Musica a Roma.
Qui, oltre ad ascoltare i relatori invitati, sarà possibile porre domande attraverso delle apposite cartoline che Google distribuirà al pubblico presente ma, se volete, potete farlo anche on-line.

Nuove socialità per la coppia Foursquare-Swarm

E’ dal 2009 che Foursquare  fa condividere la propria posizione geografica, in tempo reale, con gli amici.  I numeri, almeno fino a qualche mese fa, parlavano da soli: 50 milioni di utenti e 6 miliardi di check-in in tutto il mondo.
Adesso ve ne sarete accorti, almeno dalla sua nuova icona, che Foursquare è cambiato.
La partenza fu un consiglio, trasformatosi subito in un obbligo, ad installare Swarm (che per gli utilizzatori fu un mistero inspiegabile) e poi una definitiva suddivisione di compiti.
Adesso il nuovo Foursquare  trova i “posti” intorno a te, con lo schema del vecchio e rodato di Aroundme,  utilizzando anche filtri intuitivi (cibi, caffé, vita notturna, shopping,  posti a sedere all’aperto, Wi-Fi, ecc…), dove puoi lasciare un consiglio o una recensione e se poi devi fare un check-in ecco che rispunta Swarm: la nuova map che prima ti mostrerà i posti più “caldi” e poi curerà tutta la parte social con tanto di “emotività”.
Tecnicamente la differenza consiste nel condividere la posizione con un’approssimazione ottenuta dalle reti (Wi-FI o rete mobile) e non dalla propria posizione GPS e social-mente spariscono definitivamente i “sindaci” e con loro anche quell’odiosa battaglia nell’accaparrarsi luoghi.
Personalmente ho controllato che fossero ancora in piedi le vecchie “liste”, certo bisogna scavare ma poi le ritrovate tra i posti salvati.
Che dire….  un cambiamento, almeno lato social, era necessario ma sul successo di questa “accoppiata” rimane qualche dubbio.

Mohiomap organizza la tua discarica info

Dice Catherine Shu che dopo essersi accorta di aver usato Evernote come una discarica di informazioni, ha provato ad usare Mohiomap, una web app che trasforma tutte le note e i file di Evernote, di Google Drive e Dropbox in mappe mentali.
In sostanza si passa da un concetto lineare (liste o elenchi) ad uno rizomatico (rete o mappa) di organizzazione delle informazioni archiviate sui diversi cloud.
La nuova forma semantica delle informazioni, secondo Christian Hirsch,  dovrebbe aiutare le persone ad organizzare meglio i loro contenuti e collegarli tra loro.
Al momento la versione gratuita permette solo di visualizzare e navigare tra le proprie mappe ma se si vogliono creare delle connessioni trai i vari nodi, accedere a una dashboard di analisi e aggiungere commenti alle note o ai file,  ci vuole un account “Premium” e 5 dollari al mese.

Ninux e la rete libera

map-ninuxE’ dagli inizi degli anni duemila che nelle aree rurali americane si collegano tra loro scuole, uffici e abitazioni  per condividere servizi vari tra cui internet che diventa bene comune grazie all’abbattimento dei costi di connessione.
Stiamo parlando di una infrastruttura, una sorta di “maglia” sociale, i cui “punti” sono i cittadini coinvolti nella rete. Questa maglia è appunto la rete mesh e dei suoi nodi (punti) e ovviamente senza il wireless sarebbe stato tutto molto più complicato.
Certo di tipi di connessione ce ne sono altri ma il vantaggio di queste reti risiede nella semplice idea che essa sia libera e indipendente dai suoi stessi nodi, nel senso che l’affidabilità della rete non viene compromessa dal malfunzionamento di un suo punto. Ogni nodo conserva al proprio interno tutta la memoria e la storia tecnologica della rete e indirizza semplicemente “pacchetti” ai nodi vicini.
Queste reti sono costituite da antenne wi-fi che dai tetti delle abitazioni trasmettono ad alta frequenza radio e con ridotte emissioni elettromagnetiche. La loro realizzazione aderisce a un modello di sviluppo di condivisione dal basso dove i cittadini sono i soli proprietari e vi partecipano,  più che con i soldi, con la volontà di generare una comunità connessa. Ogni partecipante è responsabile del proprio nodo con la messa a disposizione dell’apparato di rete ricevendone in cambio servizi telefonici (VoIP), gaming, webmail, scambio di contenuti e accesso a Internet.  Anzi nella comunità Ninux si parla proprio della creazione di un nuovo pezzo di Internet con l’Autonomous System n° 197835.
L’hardware utilizzato è abbastanza economico, viene consigliata una lista della spesa per non sbagliare, e un embedded con poca RAM e qualche mega di memoria su cui far girare un firmware (Ubiquiti AirOS o Openwrt) modificato appositamente dalla comunità.
Loro ci tengono a sottolineare che “la parte più importante della rete sono le persone che la compongono” e sulla Mapserver ci si può fare un’idea della diffusione e/o potenzialità della rete. La community mette comunque a disposizione le proprie esperienze e il proprio saper fare condividendo il tutto attraverso mailing list,  wiki e un blog  (oltre all’ovvia presenza sui social).
Se tra gli obiettivi della community Ninux c’è anche la risoluzione di situazioni di Digital Divide la stessa filosofia ha ispirato, dal lontano 2008, la lucanissima rete Neco di Vietri di Potenza che, sempre attraverso una rete mesh con circa 30 nodi, offre connettività a costi popolari. Con una quota associativa annua di 90 euri si può usufruire della connettività Internet e di servizi offerti nella intranet.
Certo la filosofia di base non è la stessa di Ninux ma è meglio di niente.

Foursquare è una smart per la city

Possibile che Foursquare sia ancora inesplorato? Forse si e Natalia D’angelis riflette su un rapporto possibile tra Fourquare e la Pubblica Amministrazione; ovvero sul fatto che la PA può aprirsi meglio al cittadino offrendo una comunicazione più efficace.
Per esempio, dice Natalia, un Comune attraverso una Brand Page su Foursquare può promuovere meglio il turismo locale attraverso coloro che quella città conoscono, scoprono e raccontano ad altri.
Si può raccontare la storia e la cultura di un luogo attraverso peculiarità personali, foto, itinerari, eventi;  oppure si possono suggerire cose da fare o da vedere creando liste di luoghi o locali organizzandoli per genere o per argomento. In questo modo si realizzerebbero delle vere e proprie guide digitali per smartphone, senza alcuna necessità di studiare apposite app e poi diffonderle (Foursquare è un social network con qualche milione di utenti).
Per rendersene conto basta dare uno sguardo al social e se volete trovare qualche vostro amico potrete sempre usare Facebook; anzi giacché ci siete potete  unirvi al gruppo di lucani su Facebook che usano Fourquare:  https://www.facebook.com/groups/foursquare.basilicata/.

🙂

FaceBUG risponderà al Garante?

fbugA giugno un bug nel sistema di Facebook ha diffuso, a destra e a manca (anche a chi non era iscritto al social network), una serie di informazioni personali di circa 6  milioni di utenti.
Il Garante della Privacy aveva chiesto a Facebook  di conoscere il numero esatto degli utenti italiani colpiti dal bug; se e come il loro diritto di opposizione al trattamento dei dati è stato garantito; quanto tempo è durata l’esposizione di dati e quali rimedi tecnici sono stati adottati.
La scadenza intimata dal Garante è il 20 luglio, ma Facebook risponderà?