5 min read

Siamo coscienti di come il mondo ci giudica?

Siamo coscienti di come il mondo ci giudica?

Tra tutte le opportunità introdotte alla fine dello scorso millennio, Internet è stata quella più eclatante e impattante nell’immaginario collettivo. Com’è naturale che sia, un’improvvisa apertura nei confronti di un così radicale cambiamento nelle nostre abitudini ha determinato tutta una serie di benefici prima nemmeno immaginabili, ma anche degli effetti collaterali con cui, specialmente durante le crisi del nuovo millennio, ci siamo trovati a dover fare i conti. Oggi ci focalizzeremo in particolare su uno di questi effetti dai tratti vagamenti disturbanti e distopici: il mondo degli algoritmi che misurano le persone. Prima però occorre fare una premessa: uno dei valori più grandi che identificano una persona agli occhi delle grandi società del web sono i dati che essa fornisce o rende possibile ricavare. Se si moltiplicano queste informazioni per circa 6,5 miliardi di persone attualmente immerse nel mondo della rete, è possibile rendersi conto della enormità del fenomeno che ci troveremo ad analizzare.

Premesso ciò, si può dedurre come l’umanità ai tempi del 2021 sia quindi costantemente pervasa da un flusso di informazioni invisibile e dalle dimensioni spropositate, impossibili da quantificare per una mente umana anche solo a livello numerico. Dentro questo flusso c’è un po’ di tutto: dal colore delle scarpe che potrebbe piacerci di più fino alle rilevazioni dei sensori dei nostri telefoni, dal modo in cui rispondiamo a certe notifiche sui social al numero di volte con cui rimuoviamo un prodotto dal carrello di un sito di e-commerce prima di deciderci a comprarlo definitivamente.

Che cos’hanno in comune tutte queste informazioni? Sono dati essenzialmente grezzi, che di per sé non forniscono nessuna informazione, se non quella nominale per cui sono raccolti. Un po’ come dei ritagli di carta sparsi casualmente all’interno di una scatola: se non sono ordinati con un metodo preciso e contestualizzati rispetto a ciò che se ne vuole fare, non rappresentano nessuna informazione degna di nota. Qui entra in gioco la Data Science. Il data scientist, cioè la persona che si occupa di manipolare, pulire e visualizzare questi elementi al fine di renderli rilevanti per la comprensione umana, ha la responsabilità di far coesistere allo stesso tempo sia lo scopo per cui sta manipolando le informazioni, che potenzialmente può essere sia nobile che ripugnante, sia le considerazioni etiche che sempre più spesso sono state lasciate da parte nella società attuale. Qualche esempio di ciò? Spostiamoci per un momento negli Stati Uniti d’America.


LA SPIETATA GEOMETRIA DELLO SFRUTTAMENTO DELLA POVERTA’

Inquadrando per un momento l’equilibrio sociale che regola la vita negli states, ci accorgiamo che non pende di certo a favore degli emarginati e dei più poveri. La struttura che regola il Welfare è ridotta ai minimi termini e i costi necessari a sostenere una vita dignitosa sono a dir poco ingenti. In questo particolare scenario, la Data Science è stata introdotta non per mitigare le differenze sociali a vantaggio dei più deboli, ma per prestare il proprio servizio nelle fila dei più forti: del resto, se i matematici e gli ingegneri assunti per manipolare i dati appartengono alle stesse aziende che poi a fine anno devono presentare una relazione sul fatturato, come biasimare questa scelta? Le conseguenze però sono tragiche: l’inasprimento delle condizioni di povertà si palesa sotto diversi fenomeni nei quali intervengono gli algoritmi, a partire persino dai percorsi che un individuo sostiene per andare al lavoro. È noto ormai come le compagnie di assicurazione stradale si servano di dispositivi dotati di GPS con i quali tracciare quali sono i percorsi maggiormente soggetti a incidenti e verificare se il guidatore tenda a percorrerli più o meno assiduamente. Le conseguenze di questa analisi dei dati? Ad esempio, un maggior premio da pagare sull’assicurazione qualora queste strade siano effettivamente percorse dall’utente stradale, che rischia di essere quindi persino penalizzato sulla base del posto in cui si trova il suo ufficio. Questo è solo uno dei molteplici esempi che si possono fare sull’argomento, che spaziano dall’assicurazione sanitaria - a partire da quanto una persona si è tenuta in salute facendo o meno camminate durante la giornata, aumentare o diminuire il premio sull’assicurazione - alla misura della concentrazione sul posto di lavoro (misurata da Amazon, per esempio, mediante una specie di smartwatch tenuto al polso dei dipendenti). Espressi così, questi fenomeni non sembrano riguardare di certo solo la fascia meno abbiente della popolazione. Quindi, dove sta il trucco? Il problema è che molti di questi sistemi di tracciamento vengono proposti sotto forma di agevolazione per avere inizialmente un risparmio sulle spese delle assicurazioni o dei servizi di cui si ha bisogno. Così facendo, a tutti gli effetti solo chi può permettersi di spendere di più può mantenere una sorta di privacy sui dati che lo riguardano. Citando Cathy O’ Neil, eminente matematica specializzata proprio nel settore della raccolta dei dati, “nel mondo delle armi di distruzione matematica, la privacy è sempre più destinata ad essere un lusso che solo i ricchi si potranno permettere”.


LO SCUDO EUROPEO CHE CI PROTEGGE DALL’UTILIZZO IMPROPRIO NEI NOSTRI DATI

Se simili sistemi di monitoraggio e personalizzazione dello sfruttamento sono ancora relegati in altre parti del mondo e non sono stati introdotti nell’unione europea dobbiamo ringraziare fondamentalmente un acronimo: il GDPR. Infatti, il General Data Protection Regulation pone dei paletti fondamentali nella raccolta dei dati degli utenti finali di un sistema, sia esso un’applicazione, un istituto bancario o una società pubblicitaria. Tra di essi, si può annoverare il concetto per cui il consenso al rilascio dei dati e agli scopi per cui essi verranno utilizzati deve essere obbligatoriamente volontario. Addio, quindi, a condizioni d’uso ambigue oppure a inganni usati nei confronti degli utenti al fine di raccogliere dati profittevoli e pericolosi. Come conseguenza di queste parole, per esempio, dal 2016 in avanti abbiamo cominciato a trovarci di fronte agli occhi le richieste di consenso in merito alla raccolta dei cookies da parte di quasi tutti i siti o social network che frequentiamo abitualmente. Un simile giro di vite fa parte di un progresso nell’etica del trattamento dei dati che al momento solo in Europa è stato applicato con serietà e con gli occhi puntati sull’intimità che i dati rappresentano per gli esseri umani che li generano. L’intimità di questi dati, riassumendo, è un fattore di rilevante importanza per moltissime società a scopo di lucro che puntano a metterci le mani sopra coi fini più disparati, dal cercare metodi più profittevoli per ricavare denaro dalle persone più svantaggiate fino alle pratiche pubblicitarie innocue per spingere all’acquisto di un prodotto.

In mezzo a questa nebbia spaventosa ma anche piena di opportunità che è la miniera dei big data, dovremmo tutti guardare con più saggezza ad una considerazione che appare ormai evidente in un mondo in cui il percorso di ricerca del benessere globale guarda più al profitto che alla situazione delle persone: prima di chiedere agli algoritmi di ricerca sui dati di migliorare nel modo in cui misurano le persone, dovremmo prendere atto del fatto che non possono fare qualsiasi cosa.