immagine-preview

Mar 29, 2018

Come difendersi dalla profilazione sui social. Nimrod Kozlovski: “Non scambiate mai la libertà con la sicurezza”

L'esperto di cybersecurity ha partecipato a “How computer predict us” evento di lancio di Data Driven Innovation (DDI) organizzato in collaborazione con Maker Fair Rome e Innovacamera. L'intervista

I recenti accadimenti legati all’uso dei dati degli utenti americani di Facebook in relazione al caso di Cambridge Analytica, hanno fatto emergere in modo eclatante verso l’opinione pubblica, l’importanza della protezione dei dati e della loro diffusione non autorizzata.

Il caso della Cambridge Analytica rientra nel più ampio ambito dell’algorithm profiling, cioè la profilazione algoritmica effettuata in base ad enormi set di dati sulle persone fisiche per poterne modellizzare i comportamenti, utilizzandoli sia per modelli previsionali che permettano di anticipare e influenzare le scelte, oppure per labeling e categorizzazione nella classificazione, come se si trattasse di una segmentazione marketing-like, utilizzabile per gli scopi più disparati: finanziari, politici o commerciali o combinazioni di questi ambiti. Tutto questo comporta pericolosissime derive di controllo e manipolazione di massa che si configura come un rischio non più fantascientifico, ma concreto.

How computer predict us, l’evento a Roma

Si è parlato di tutto questo all’evento “How computer predict us” grazie alla lezione di Nimrod Kozlovski, esperto di cybersecurity, Big data analytics, internet law e new Media, cofondatore di Jerusalem Venture Partner , responsabile di Tech & Regulation presso HFN, professore all’Università di Tel-Aviv, Professore a contratto presso il programma Kellogg Global MBA e fellow dello Yale Information Society Project (ISP).

La giornata è stata ospitata presso il Dipartimento di ingegneria dell’Università degli studi di Roma Tre come evento di lancio dell’evento Data Driven Innovation-DDI (in programma dal 18 al 19 maggio) organizzato in collaborazione con Maker Fair Rome (The European Edition) di Innovacamera.

L’obiettivo del DDI sarà discutere tematiche riguardanti l’industria 4.0, startup, agrifood, fintech, blockchain, social media analytics, Predictive analysis, data journalism, robotica, machine learning, Internet of Things passando per l’etica dei dati e il tema della privacy, ma anche approfondire l’impatto dell’utilizzo dei dati alla luce del processo di digitalizzazione in tutti i settori della società che porta i cittadini ad essere consumatori ma anche produttori di dati. Che il controllo di questi dati possa sfuggire, con le conseguenze emerse dal Caso Cambridge Analytics, è stato invece l’oggetto del discorso di Kozlovski, per far capire fino a che punto la manipolazione possa ritorcersi contro la popolazione, quando il fulcro di tale profilazione algoritmica dei comportamenti delle persone venga gestita da organi centrali dello Stato, o da organismi commerciali che potrebbero influenzare scelte degli individui.

L’influenza della vita digitale su quella reale

“Il rapporto fra le nostre vite e l’ambito digitale dei computer che possono apparentemente predire i comportamenti degli individui, può influenzare la sicurezza degli individui stessi” ha affermato in apertura il Rettore di Roma Tre, Luca Pietromarchi. È importante osservare che in questa accezione la sicurezza non è solo riferita alla sottrazione non autorizzata dei dati digitali, ambito che afferisce alla sicurezza informatica, ma si intende proprio quella sfera della sicurezza di ogni individuo all’interno di un tessuto sociale.

Importante in questo senso l’esempio del National Social Trust Index che la Cina sta portando avanti partendo da un progetto di ricerca per arrivare a gestire fasce di popolazione assegnando uno score (punteggio n.d.r.) a ciascun individuo sula base di analisi automatizzate di dati, con la complicità delle big tech e dei social; uno score che poi condizionerà tutte le scelte di servizi alla persona in relazione a tutti gli ambiti della sua vita, quali ad esempio il lavoro ed i servizi medici.

Una schedatura di massa per prevenire i comportamenti aggressivi

Entro il 2020 questa sorta di social engineering di massa, o di schedatura di massa, dovrebbe portare ad un indice nazionale le cui conseguenze erano finora rilegate ai film di fantascienza per gli scenari più estremi di controllo e manipolazione del popolo. Anche il progetto FAST in America, votato alla raccolta di ogni elemento acquisibile mediante sensori (immagini, intercettazioni ambientali, misurazioni del calore corporeo, face recognition), all’interno di aree critiche (porti, aeroporti, luoghi pubblici affollati, etc) per prevenire comportamenti aggressivi e bloccarli prima che si verifichino, costituisce un esempio di algorithmic profiling per profilare ogni singola persona che in uno spazio aperto possa manifestare atteggiamenti valutabili come pericolosi e propedeutici alle ricerche di fedina penale, ambiti social ed elementi medici o finanziari che possano costituire una motivazione potenziale valutabile come premessa di un atto criminoso.

L’associazione al film “Minority Report” è stata esplicita da parte di Nimrod Kozlovski, come anche l’asserzione di diffidare esplicitamente da queste valutazioni automatizzate che sembra possano predire il comportamento umano. Diffidare in base a leciti dubbi: e se il profiling contenesse errori, fosse incompleto oppure fosse a sua volta alterato artificialmente per danneggiare dolosamente un individuo? Se il metodo stesso del profiling non fosse completo e non il suo esito non fosse veritiero? E se un individuo non volesse essere profilato non avrebbe il diritto di sapere che viene fatto oggetto di uno score da cui poi dipenderanno alcune scelte che lo riguardano?

Asserire con forza il “right to know”, la trasparenza sulla raccolta e gestione dei propri dati, le finalità, sono diritti che devono essere pretesi dai singoli e regolamentati a norma di legge. In particolare, si plaude al GDPR come inizio di ragionamento sui temi dell’algorithmic profiling e delle sue conseguenze anche estreme, ma il ragionamento dovrebbe continuare ed evolvere e completarsi.

Il “right to know”, la trasparenza sulla raccolta e gestione dei propri dati, le finalità, sono diritti che devono essere pretesi dai singoli

Se gli esseri umani possono essere considerati prevedibili in base a modellizzazione e con la tecnologia della data analytics e grazie all’uso dell’apprendimento su grandi masse di dati che gli esseri umani stessi immettono in rete, allora è altrettanto necessario che vi sia una trasparenza nell’utilizzo di questi dati e nelle derive di controllo manipolatorio che ne scaturiscono proprio come nel caso della Cambridge analytics che ha permesso a Trump di influenzare il voto di fasce di popolazione.

Una famosa citazione sui dati recita che “se torturi abbastanza i dati, essi ti diranno tutte quello che vuoi sapere”, ma oltre a questo, i dati sono largamente disponibili in vari posti e senza che siano raggruppati in un unico luogo per essere interrogati. E molte aziende hanno tool che li collezionano creando un profilo che può essere utilizzato a seconda dell’obiettivo di quell’azienda e del tipo di interesse commerciale politico, finanziario. Il rischio è quello di una strumentalizzazione dei dati e poi di una manipolazione diffusa e generalizzata degli individui.

 

L’Intervista a Nimrod Kozlovsky

A questo proposito abbiamo raccolto alcune dichiarazioni dal dott. Kozlosky soprattutto per capire cosa fare e come reagire correttamente a questo insieme di rischi diretti alla persona ed intermediato dai suoi dati digitali.

 

Come reagire alla potenziale predizione dettata dalla profilazione algoritmica, come ci si difende?

La regolamentazione ha un ruolo importante, il GDPR è un inizio nella giusta direzione per controllare le informazioni e il loro utilizzo. Purtroppo questa regolamentazione non sta avvenendo in altri Paesi. Le persone dovrebbero alzarsi e reclamare i loro diritti pretendendo una maggiore enfasi sui criteri di trasparenza sia della tecnologia di profilazione, sia per fissare criteri di utilizzo ed anche per la gestione di valutazioni di indici numerici risultanti da queste analisi sui dati. Questo soprattutto per evitare la formazione di un profilo generale di riferimento che sia usato a scopo massivo e per prevenire usi discriminatori di questi indici e di questi dati. La tecnologia della blockchain rappresenta la direzione giusta da prendere per il controllo dei propri dati e per la gestione dei diritti sui consensi (right management n.d.r.) e per aumentare il trust generale sulle piattaforme di collezione dei dati.

 

Franklin diceva che se qualcuno scambia la propria libertà per la propria sicurezza, non merita né la, libertà né la sicurezza. Lei cosa ne pensa? Esistono scenari in cui la sicurezza preclude e giustifica la diminuzione di privacy?

Io sono completamente d’accordo con la citazione, mai scambiare la propria libertà per la sicurezza, perché alla fine devono avere priorità i propri diritti; i diritti dei singoli, devono avere la priorità su tutto, senza casi particolari.

 

Non c’è un problema etico per chi abilita queste tecnologie come fu per Nobel e la scoperta della dinamite? Si potrebbe risolvere con un codice etico o deontologico per evitare di censurare o limitare lo sviluppo delle tecnologie?

L’etica gioca sicuramente un ruolo importante in questo dilemma, e si dovrebbe avere lo stesso tipo di approccio che oggi viene adottato da alcuni medici obiettori di coscienza in relazione all’uso di alcune pratiche rispetto all’essere umano. Per i data scientists, per coloro che studiano i sistemi autonomi di guida o di combattimento, il problema principale è anche comprendere o sapere con esattezza, come i loro modelli e set di dati potranno essere utilizzati come fine ultimo; quindi dovrebbero anche loro invocare una maggiore trasparenza sul progetto a cui partecipano, per evitare che la scusa della sicurezza industriale o il brevetto proprietario, possano impedire la piena presa di coscienza degli aspetti successivi della propria ricerca o del proprio lavoro. A questo proposito vorrei ricordare il caso del giudice americano che si era basato su un sistema automatizzato per supportarlo nel giudizio e che quando ha chiesto notizie sul sistema e sul suo funzionamento gli è stato risposto che non poteva avere alcuna informazione proprio perché il progetto era coperto da segreto industriale.

 

Maker Faire Rome e l’interesse per la data economy di Israele 

L’evento è stato anche l’occasione per parlare della nuova edizionde di  Maker Faire Rome  che è in programma dal 12 al 14 ottobre alla Fiera di Roma. L’edizione romana è la prima edizione in Europa e seconda nel mondo con un successo che si consolida fra gli addetti ai lavori e che rende merito al lavoro della Camera di Commercio nella produzione degli effetti sperati al processo di digitalizzazione anche sulle piccole e medie imprese. L’ambasciatore Israeliano ha invece raccontato come Israele, in qualità di Startup Nation, stia puntando alla open innovation e allo sviluppo di startup anche perché la loro economia è principalmente basata sul mercato americano e si vorrebbe diversificarla verso la collaborazione con l’Europa, Italia in testa.

 

Il motivo di tanto interesse da parte del mondo economico e commerciale riguarda il valore potenziale di questa parte dell’economia mondiale. Infatti, la “data economy” avrà un valore pari al 4% del PIL europeo entro il 2020.

Il dato deriva dallo studio “L’economia dei dati: tendenze di mercato e prospettive di policyrealizzato da ITMedia Consulting con il contributo scientifico del Centro di Ricerca ASK Università Bocconi. I dati hanno un valore complessivo passato dai 247 miliardi di euro nel 2013 a quasi 300 miliardi di euro nel 2016 (pari al 2% del PIL europeo), cifre destinate ad aumentare a 739 miliardi di euro con un impatto complessivo del 4% sul PIL in uno scenario di crescita elevata caratterizzato da un ruolo più forte dell’innovazione digitale e con maggiori investimenti ICT complessivi.

 

La protezione dei dati, ma anche un loro uso regolamentato, non possono prescindere dall’accompagnare l’inarrestabile sviluppo dettato dalle leggi di mercato, senza vi siano conflitti o senza che ciascuna di queste componenti soverchi l’altra, impedendone il corretto svolgimento. Trovare un appropriato equilibrio fra queste forze in campo sarà la sfida dei prossimi anni.

Rimani sempre aggiornato sui
temi di StartupItalia!
iscriviti alla newsletter