Mobilità: per essere green più della classe Euro conta lo stile di guida
Più della classe di emissione conteranno lo stile e il comportamento di guida. Nella pletora delle proposte avanzate per ridurre l’impatto del traffico veicolare sulla qualità
Crescono le criticità sulla crescente raccolta e sullo sfruttamento commerciale dei dati dei bambini. Come difendere la privacy? Changes ne ha parlato con Veronica Barassi, autrice di Home life data and children’s privacy.
Crescono le criticità sulla crescente raccolta e sullo sfruttamento commerciale dei dati dei bambini. Come difendere la privacy? Changes ne ha parlato con Veronica Barassi, autrice di Home life data and children’s privacy.
Il regolamento europeo sulla protezione dei dati (GDPR) entrato in vigore a maggio 2018 fornisce protezione per i dati e la sicurezza dei bambini, ma crescono le criticità sulla crescente raccolta e, soprattutto, sullo sfruttamento commerciale dei dati dei bambini, che ledono il diritto alla privacy dei dati dei minori e delle loro famiglie. A lanciare l’allarme è stato un recente rapporto del Consiglio dei consumatori norvegese che mette in guarda dall’utilizzo da parte delle grandi aziende tecnologiche di psicologi capaci di progettare meccanismi che utilizzano anche dark pattern, ovvero schermi oscuri, che spingano i bambini a trascorrere più tempo online, lasciando tracce a discapito della loro privacy. Per sensibilizzare i propri dipendenti sul tema, il 23 Maggio 2019, il Gruppo Unipol aprirà le porte a tutti i colleghi del Gruppo e ai propri figli (0-12 anni) delle sedi di Bologna, Milano, Torino e Firenze, Roma, Verona per la tradizionale iniziativa “Bimbi in ufficio” che quest’anno festeggia la 12ma edizione.
La festa si pone da sempre come obiettivo quello di favorire l’integrazione di famiglia e lavoro, per far sì che i bambini possano portare a casa «un pezzo di mondo» dei genitori e questi ultimi portarsi un «pezzo di casa» in ufficio, oltre a testimoniare la vicinanza dell’azienda verso i colleghi e le loro famiglie, e la riprova dell’attenzione del Gruppo verso temi di grande attualità, come l’impatto delle tecnologie sulla società nel suo insieme.
Al centro dell’iniziativa del Gruppo quest’anno c’è la privacy dei minori, un problema che è diventato sempre più rilevante dopo l’avvento dei social network. Per primi gli Stati Uniti, dove le principali piattaforme hanno sede, hanno affrontato la questione normandola: il Children’s Online Privacy Protection Act (COPPA) prescrive che:[MOU1]
La normativa europea non prevede alcun limite e anche dopo il GDPR che è un passo decisivo vero la tutela della privacy resta un problema di “consenso” sul rilascio dei dati. Changes ne ha parlato con Veronica Barassi, ricercatrice del Dipartimento di Media, Comunicazione e studi culturali della Goldsmiths University di Londra, autrice di Home life data and children’s privacy, un report che fa parte della strategia portata avanti dall’Information Commissioner’s Office (ICO), il garante della privacy inglese, che partendo dalla GDPR ha lanciato una consultazione pubblica che arrivi a un Codice di condotta e di design unico per i prodotti web rivolti ai minori.
Home life data and children’s privacy si inserisce in un percorso di tutela dei dati dei minori su cui il Regno Unito si sta muovendo da qualche tempo. Può dirci come è nato e come funziona?
Il report Home Life Data and Children’s Privacy è nato da un progetto che ho iniziato nel 2016 che si chiama Child | Data | Citizen, con il supporto della mia università, di una advisory board di esperti e della British Academy che investe in progetti di ricerca nelle scienze sociali. Si tratta di un progetto antropologico che punta ad analizzare la quantità di dati che vengono prodotti fin dalla nascita di un individuo e comprendere i rischi emergenti determinati dal fatto che le nostre vite di cittadini si stanno trasformando in dati. L’idea è di dimostrare che molto spesso i business dell’Intelligenza artificiale e dei i Big Data raccolgono dati imprecisi, che non sono lo specchio della realtà e che li puo portare a raggiungere conclusioni affrettate, decontestualizzate e in molti casi non obbiettive sulle persone.
Cosa analizzate?
Il progetto si basa su una analisi delle tecnologie e piattaforme che raccolgono i dati dei bambini e combina quest’ analisi con uno studio etnografico di famiglie a Londra e Los Angeles con bambini in età compresa da 0 a 13 anni, i cui dati personali sono regolati da COPPA. Il progetto dimostra che i bambini entrano in un processo di datafication, ovvero di raccolta di dati, già prima della nascita e che questo cambiamento storico-tecnologico e culturale sta rimodellando il concetto stesso di “cittadino” e dei suoi diritti personali.
In che modo?
Basta pensare a un bambino nato oggi. Questa è la prima generazione che cresce nell’era del big data e la quantità di dati personali che le aziende possono raccogliere subito sui bambini di oggi è impressionante: 1) dati sulla salute (baby apps or health apps, o softwares utilizzati da dottori) 2) dati sull’educazione (nel Regno Unito e in America adesso molte scuole usano piattaforme come Google Classroom) 3) dati sui social media (e questi dati, nel mondo degli adulti, vengono spesso utilizzati per identificare predisposizioni psicologiche, o valori sociali politici e culturali) 4) dati sulla casa e la famiglia ( se si pensa all’uso di virtual assistants e altre smart technologies). Ma quello che sta emergendo chiaramente in relazione agli adulti è che alcune aziende (per esempio Google e Amazon) non stanno solo raccogliendo i dati personali, li stanno aggregando in profili unici digitali che poi rivendono. Inoltre, è chiaro che molte compagnie stanno creando profili sempre più complessi perché stanno comprando dati della vita quotidiana per integrarli con le informazioni dei profili digitali (per esempio, Facebook). La domanda su come queste aziende usino i dati dei bambini rimane aperta, e ci sono molti lati oscuri.
La salvaguardia e la gestione responsabile dei dati digitalizzati è un tema su cui si discute ormai da anni a livello europeo e che ha trovato una prima risposta con l’arrivo del GDPR. Qual è la sua opinione a quasi un anno dall’entrata in vigore? A quali quesiti di privacy soprattutto per i bambini non assolve?
Io credo che la GDPR sia un importantissimo passo avanti, in termini di regolamento. Alla base però c’è un problema fondamentale ed è il problema del consenso. La GDPR si basa molto sull’idea della trasparenza sul fatto che le data policy debbano essere chiare e trasparenti in modo che individui e genitori possono dare il loro consenso informato. Purtroppo, però cercare di regolarizzare la raccolta di dati sulla base delle terms and conditions o l’informed consent non tiene in considerazione il fatto che viviamo in un periodo storico dove tutto quello che facciamo è digitalizzato ed il consenso nella maggior parte dei casi non è volontario, ma obbligatorio. Molte volte veniamo costretti fisicamente a rilasciare i nostri dati (per esempio, il riconoscimento facciale negli aeroporti) altre volte ci sentiamo obbligati a firmare “termini e condizioni” perché il tessuto sociale intorno a noi lo richiede.
La nostra quotidianità e quella dei nostri figli sono circondate dai Big Data anche dentro casa…
Nel report facciamo vedere come i dati raccolti dai i Big Four del segmento casa domotica (Amazon, Google, Samsung e Apple) non sono solo personali, ma di vita quotidiana e includono una varietà di informazioni diverse sulla famiglia: dai dati sul funzionamento della casa fino alle abitudini di consumo. Una cosa è importante: queste tecnologie non sono disegnate per bambini e quindi non devono aderire ai regolamenti per la tutela dei dati dei bambini tipo COPPA e GDPR. I dati decontestualizzati arrivano spesso a un ritratto sbagliato della famiglia: per esempio, se una mamma fa molte domande ad Alexa sulle cause del diabete nei bambini, potrebbe essere identificata come interessata a questa patologia e il figlio come soggetto a rischio diabete[MOU2] . Ma le domande potrebbero essere fatte per conto di un’amica o di un parente, ed è un dato che sfugge all’Intelligenza artificiale.
Quali sono gli accorgimenti che una famiglia può adottare per proteggere i dati, in particolare quelli dei propri figli?
Ogni giorno quando i genitori si iscrivono a nuovi servizi, scaricano nuove App, si connettono con gli altri sui social media o acquistano i dispositivi domestici più recenti, spesso firmano i termini e le condizioni che decidono come utilizzare i dati dei loro figli senza leggerli. Quello che sto scoprendo quando parlo con i genitori è che la ragione per cui non leggono i Termini e le Condizioni non è semplicemente perché “non hanno tempo” o perché le politiche sono spesso troppo lunghe, oscure e non trasparenti, anche se con il GDPR molto è cambiato in termini di trasparenza, ma perché sentono di non avere “scelta”. Che scelta avrebbero se la scuola di loro figlio utilizzasse un’App con un’ambigua politica sui dati oltre alla firma dei Termini e condizioni? O se altri genitori comunicano tramite un gruppo Facebook? E ancora, come possono decidere se il loro pediatra più fidato memorizza informazioni mediche su una piattaforma in outsourcing e di proprietà privata? Cambiano il dottore? Chiedono alla scuola di utilizzare un’altra App? Decidono deliberatamente di non aderire al gruppo Facebook? La GDPR non tiene in considerazione questo cambiamento storico sociale, ma rimane comunque un importantissimo passo avanti che ci permette di pensare all’importanza di creare leggi e policies per la salvaguardia dei dati.
In pratica la vita quotidiana è costantemente registrata, archiviata e condivisa. Il confine della privacy si è spostato e pone un tema etico per i bambini. Cosa ne pensa?
Il confine della privacy si è spostato notevolmente, ma il problema etico non è solo un problema di data privacy, ma di “data justice”, ovvero giustizia dei dati. Al momento non solo una grande quantità di dati vengono raccolti, archiviati e condivisi, ma vengono anche aggregati per creare dei profili digitali delle persone che vengono poi venduti a diversi enti. Da un punto di vista etico e sociale il problema maggiore sta nel fatto che questi profili digitali non sono mai oggettivi – gli algoritmi come sta emergendo recentemente sono spesso razzisti e sessisti – e in più sono basati su dati che vengono continuamente estrapolati dal contesto. Quindi il problema non è solo il fatto che le aziende sappiano molto di noi, ma il fatto che vendano l’idea che i profili che creano sono oggettivi e possono dare una chiave di lettura precisa sulle caratteristiche psicologiche e personali di un individuo. In questo contesto è molto difficile cercare di cambiare questi profili, anche se sono sbagliati.
I dati dei bambini al momento possono essere venduti esattamente come degli adulti. Quale pensa debba essere il percorso normativo a livello europeo per garantire una maggiore protezione dei dati dei bambini?
Penso sinceramente che non sappiamo molto su come gli algoritmi vengono utilizzati per creare profili dei bambini e su come questi dati vengano venduti. Come dice il teorico americano Frank Pasquale, viviamo in una “black box society” dove non ci è concesso sapere come funzionano gli algoritmi, anche se questi algoritmi hanno un impatto fondamentale sulla nostra vita. Sinceramente l’unica maniera di proteggere e difendere i bambini e noi stessi da questa trasformazione è quella di riconoscere cosa sta accadendo e richiedere che le aziende forniscano maggiori indicazioni sui profili che costruiscono.
Può indicare delle regole base per i genitori che vogliano proteggere i dati dei loro figli?
Non credo ci siano regole di base per i genitori, a parte quella di cambiare i privacy settings delle tecnologie che usano. I dibattiti sulla privacy si concentrano sempre sulla responsabilità individuale dei genitori. Ma il problema è un problema sociale e dovrebbe avere una risposta collettiva, sono le nostre scuole, le nostre istituzioni che dovrebbero fare un passo indietro e pensare strategicamente alle tecnologie che vengono utilizzate.
Al di là della famiglia, quali azioni dovrebbero fare le aziende che fanno business con i Big data e l’Intelligenza artificiale per proteggere i bambini?
I big data e l’Intelligenza artificiale possono portare molti sviluppi positivi alla società. Ma dobbiamo smettere di pensare e vendere l’illusione che questi dati sono in grado di concepire la complessità della psicologia umana. Le grandi aziende tecnologiche devono tenere in conto che i dati digitali non sono lo specchio della realtà individuale e che gli automated systems non possono sostituire l’intelligenza umana. Queste idee possono avere un impatto incredibile sui diritti umani. Per questo è importante pensare ai bambini, proprio per il buon vecchio cliché che i bambini rappresentano il nostro futuro.