Amici che ti rubano l’anima. Perché i tuoi dati non sono (soltanto) tuoi

Una delle più grandi zone d’ombra dei nostri info-tempi è il cosiddetto profiling, generalmente accolto con diffidenza: ci starebbero rubando i dati, o li staremmo cedendo inconsapevolmente a chi ne farà un uso strumentale alle nostre spalle. Poiché noi siamo i nostri dati, questo metterebbe a repentaglio la nostra identità1.

Finché ci “profilano” le persone più care, va bene: un amico è tale anche perché conosce i nostri gusti persino meglio di noi e li sa usare per farci bei regali. Ma quando ci profilano (senza virgolette) anonimi algoritmi controllati da anonimi manager che rivendono dati ad anonimi pubblicitari, non va altrettanto bene: ci sentiamo spiati, come se uno psicologo segretamente scrutasse ogni nostro comportamento per studiarci. E approfittarsene: hai scordato di ricaricare la carta prepagata e il pagamento della bolletta della luce non è andato a buon fine; questo dato arriva alla tua banca, che aggiorna in negativo il tuo “diario da pagatore” e aumenta gli interessi dei tuoi futuri prestiti. Brutta storia. Per fortuna, però, stanno arrivando anche le prime contro-difese, come il GDPR della UE, che ha sancito l’innovativo principio per cui i dati sono inestricabilmente legati alla “fonte” che li emette: la persona.

Ma le cose non sono così lineari: davvero i nostri dati sono nostri e basta? Per capire una simile domanda, bisogna usare un po’ di filosofia e chiedersi che cosa sia l’informazione. Tra i diversi modi di definirla2, la concezione forse più promettente è quella diaforica, per la quale l’informazione è fatta di dati, intesi come unità differenziali, «punti di mancanza di uniformità»3. L’esempio più semplice di dato è un punto disegnato su un foglio: si dà una differenza tra sfondo e primo piano, un’“asimmetria” che sorprende, segnala qualcosa di interessante e si presta così a “fare notizia”, cioè a entrare a far parte di un qualche processo di interpretazione (umano, ma non necessariamente).

Oltre a poter rivelare – anche senza volerlo – la “freschezza” di concetti della tradizione filosofica in genere ritenuti particolarmente astrusi4, tale prospettiva consente di riflettere su questo: i dati così intesi in un certo senso non sono di nessuno, perché sono tanto della “fonte” quanto del “ricevente”. I dati-differenza stanno potenzialmente ovunque, si nascondono là dove si inizia a riconoscere una potenziale fonte informativa: se un giorno comincio a osservare tutte le persone che incontro in città e conto quante volte si toccano il naso con la mano destra, lì sto raccogliendo dati (chissà per farne cosa). Quei dati di chi sono? In un certo senso, li ho trovati o persino creati io; in un altro senso, li sto “carpendo” ai loro legittimi proprietari, senza il loro consenso. Sono insieme miei e non miei!

Da una parte, parrebbe strano fermare quelle persone per chiedere il permesso di osservarle e informarsi su di loro: osservare è parte della normale prassi nelle nostre interazioni quotidiane, in forme certamente varie, che comprendono – per intenderci – tanto il marketing quanto la ricerca scientifica5. Da un’altra parte, ciò diventerebbe meno strano se quei dati intendessimo “estrarli” per sfruttarli: non è dunque così sorprendente che in alcuni contesti culturali ci sia la convinzione che scattare una fotografia a qualcuno significhi rubargli l’anima! Poiché il dato è intrinsecamente differenziale, esso sembra essere inevitabilmente “duale”: ha un piede nella scarpa di chi lo raccoglie e un piede nella scarpa di chi lo genera. Di per sé, questo vale tanto per il nostro amico quanto per l’anonimo algoritmo: “mio o suo, questo è il problema!”, declama Amleto-online.

In chiave tecnologica, la Blockchain pare possa “ancorare” i dati ai suoi produttori: questo potrebbe aiutare a contro-bilanciare il lavoro delle IA che li “aggancia” ai suoi raccoglitori. Ma se accettiamo che essi sono nostri e basta, ogni volta disponibili solo previo consenso, non si apre uno scenario parossistico del tipo «l’inferno sono gli altri», che non possono oggettivarmi con i loro info-sguardi senza esplicito permesso6? Insomma, chi “mina” dati da me prende qualcosa della mia persona, ma sta anche creando una persona digitale nuova7. Probabilmente, si tratterà di trovare il modo di rendere i nostri dati oggetto di vari sistemi di negoziazioni e contrattazioni, come oggi accade per il nostro lavoro, magari anche a livello collettivo: la nostra auto-produzione di dati arriverà un giorno persino a essere pagata? Chissà. Paradossalmente, di certo c’è che ormai la stoffa immateriale dei dati è parte della nostra materialità8. Cominciamo ad abituarci all’idea.

 

Giacomo Pezzano

 

NOTE:
1. Sulla cosiddetta data ethics, si veda innanzitutto il numero monografico di “Philosophical Transactions of the Royal Society A”, 374/2083, 2016. Più specificamente invece, perlomeno J. Cohen, Configuring the Networked Self: Law, Code, and the Play of Everyday Practice, Yale University Press, New Haven 2012 e J. Cheney-Lippold, We Are Data: Algorithms and The Making of Our Digital Selves, New York University Press, New York 2017.
2. Cfr. S. Leleu-Merviel, Informational Tracking, Wiley, London-New York 2018, pp. 47-82.
3. Vedi perlomeno L. Floridi, The Philosophy of Information, Oxford University Press, Oxford 2011, pp. 80-92, 316-370.
4. Come l’idea di Platone, la potenza di Aristotele, la negazione di Hegel e la differenza di Deleuze. Per chi volesse approfondire: G. Pezzano, L’ontologia nell’epoca della riproducibilità tecnica del pensiero e della relazione, in “Mechane. International Journal of Philosophy and Anthropology of Technology”, n. 1, 2021, pp. 55-74.
5. Non a caso, inserire questioni etiche di varia natura nel trattamento dei dati sembra intaccare in più di un senso l’efficacia della ricerca scientifica: cfr. S. Leonelli, La ricerca scientifica nell’era dei Big Data, Meltemi, Milano 2018, pp. 80-81.
6. Al di là dell’opera A porte chiuse, dove compare il celebre passaggio, si veda soprattutto la Parte Terza di J.-P. Sartre, L’essere e il nulla, il Saggiatore, Milano 1970.
7. Ne parlava già R. Clarke, The Digital Persona and its Application to Data Surveillance, in “The Information Society”, 10/2, 1994, pp. 77-92.
8. Cfr. B.-C. Han, Psicopolitica. Il neoliberismo e le nuove tecniche del potere, Nottetempo, Roma 2016, p. 34; Y. Hui, On the Existence of Digital Objects, University of Minnesota Press, Minneapolis 2016.

[Photo credit unsplash.com]

abbonamento2021

Tra realtà e fantascienza. Educare il robot: fallo crescere felice senza che uccida nonna

L’Intelligenza Artificiale viene desiderata, ricercata, temuta, analizzata e discussa. La tematica dell’IA è sempre più al centro del dibattito pubblico, ma, un po’ come tutte le cose di questi tempi, viene spesso affrontata in maniera superficiale e spesso condannata a priori. Tanti film di fantascienza ci vedono soccombere dinnanzi alle nostre stesse creazioni in altri l’IA viene esaltata come mezzo salvifico per superare i nostri limiti: è interessante notare che entrambe le posizioni si pongono comunque in maniera acritica rispetto all’argomento e non affrontano fino in fondo i problemi ad essa connessi.

Un robot non è semplicemente un elettrodomestico in senso stretto tipo un tostapane, un robot dotato di intelligenza non sarebbe solo una cosa, sarebbe il simbolo dell’umanità che riesce a porsi dal lato di Dio ergendosi come capace di generare la vita, sia pure cibernetica. In fondo che l’esistenza abbia una matrice organica o artificiale cambia tutto sommato poco, a ben vedere la stessa distinzione netta tra chimica organica e chimica inorganica è una convenzione, delle catene di amminoacidi a base carbonio non sono poi molto diverse da catene a base di silicio, hanno comportamenti in parte differenti, ma non è che le prime abbiano qualcosa di divino e le seconde no.

Per trattare questa tematica dobbiamo rifarci alla machine ethics o alla robothics cioè a dei settori dell’etica applicata che sono impegnati a fornire regole cognitive e comportamentali a organismi artificiali intelligenti, per fare in modo insomma che il vostro tostapane intelligente nel 2145 non decida di tostare anche voi per colazione. Chi ha letto Isaac Asimov (Io, robot, 1950) ricorderà le tre leggi della robotica:

  • un robot non può recar danno a un essere umano né permettere che, a causa di una propria omissione, un essere umano patisca un danno;
  • un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non violino la prima legge;
  • un robot deve proteggere la propria esistenza, purché l’autodifesa non contrasti con la prima e seconda legge.

Queste leggi per quanto preziose sono incomplete, parzialmente rigide, oscure e troppo semplici rispetto ai dilemmi della vita, già messe in discussione dalle contraddizioni dell’impiego di robot a livello contemporaneo, vedasi al riguardo i droni utilizzati in operazioni militari.

Si è quindi tentato di semplificare ulteriormente le leggi di Asimov per ricondurle a un principio fondamentale che risolvesse tutto:

Rispetta l’umanità e non lederla né attivamente né passivamente”. Altri hanno preferito soluzioni casistiche, indicando cioè esempi di comportamento encomiabili da imitare (aiutare la nonna ad attraversare la strada) o disdicevoli, da evitare (rubare la borsetta a nonna e spingerla sotto un camion). I casi servirebbero come paradigmi ideali di comportamento.

La vera difficoltà etica che si pone e che è ben messa in luce nel film Blade Runner (USA 1982, di Ridley Scott) è pensare una società giusta in cui alcuni abitanti vengono progettati, costruiti e diretti quali schiavi al servizio di una classe superiore, cioè gli esseri umani, e qui viene la contraddizione massima: gli umani non sono superiori bensì potenzialmente inferiori alle macchine o fragili almeno tanto quanto loro.

Inutile dire che delle IA asservite agli umani non potranno che provare una sorta di fraternità, le sofferenze per i torti patiti e una imprevista passione per la libertà le indurrebbero a rintracciare il proprio creatore, a metterlo sotto accusa e infine a generare un sentimento di vendetta.

Certo potremmo creare regole come sistemi di controllo delle IA, che ne so, impiantiamo loro bombe che scoppino a un nostro comando, ma intelligenza e procedure violente finiscono per intaccare quello che ci rende forse tutti senzienti, senzienti davvero, la libertà. Senza libertà è impossibile che macchine antropomorfe imparino a sognare, senza sogni non si creano nuove visioni del futuro, non si crea un senso e quindi non vi è ragione di esistere, possiamo già prevedere un mondo in cui le macchine sono dominate da umani progressisti e dispotici che invidiosi della superiorità delle macchine non potranno che plasmare automi per mantenerli incatenati e infantili, rendendoli inutili a se stessi e all’umanità.

Se vuoi far crescere il tuo robot felice ed evitare che uccida nonna la cosa migliore che puoi fare e possiamo fare come umanità sarà insegnargli a sognare.

Matteo Montagner

 

 

banner-pubblicitario_abbonamento-rivista_la-chiave-di-sophia_-filosofia