“L’uomo flessibile”: ansia esistenziale tra capitale e smart working

Ciascuno di noi è a conoscenza non solo delle conseguenze drammatiche ma anche delle svolte, dei cambiamenti e dei fenomeni nuovi che la pandemia, che ci accompagna ormai da più di un anno, ha portato con sé. E, qualsiasi sia il posto che attualmente occupa nella società, ognuno si è reso conto di quanto l’emergenza sanitaria abbia modificato profondamente dinamiche sociali e lavorative che sembravano più che consolidate.

L’avvento dello smart working ha permesso a milioni di lavoratori di continuare a svolgere le loro mansioni da casa, senza particolari rischi per la salute e con la possibilità, soprattutto per coloro che sono genitori, di gestire la famiglia; dal canto delle aziende, lo smart working ha consentito comunque di mantenere una certa produttività, limitando i danni da totale chiusura.

E se è giusto considerare gli aspetti positivi di un evento, è altresì auspicabile riflettere sulle difficoltà e le contraddizioni che inevitabilmente lo accompagnano, tanto più quando esso rimarca alcune impronte su un percorso già segnato. Infatti, il lavoro a distanza si inserisce perfettamente nel più grande insieme del lavoro flessibile – e flessibilità è uno dei termini che abbiamo sentito più spesso negli ultimi tempi: quando il lavoro stabile, tradizionalmente individuato in quello dell’operaio, ha iniziato a deludere le aspirazioni di molti impiegati, ecco che il Capitale si adegua alla voglia di evasione dalla routine fordista, tramutando la catena di montaggio in un “flusso di informazioni”.

In questi termini si articola, tra gli altri, il pensiero di Mark Fisher, una delle menti più interessanti della contemporaneità che, nel suo illuminante Realismo Capitalista (2018), spiega come lavoro e vita siano diventati inseparabili: «il sistema nervoso viene ristrutturato allo stesso modo della produzione e della distribuzione. Per funzionare, in quanto elemento della produzione just in time, devi saper reagire agli eventi imprevisti e imparare a vivere in condizioni di instabilità assoluta (o «precarietà», come da orribile neologismo)»1.

La prima, ovvia conseguenza di questo stato di completa incertezza è lo sviluppo di un malessere di tipo ansioso nel migliore dei casi, di depressione e sindrome bipolare nelle situazioni di più profonda fragilità. La “leggerezza” del nuovo mondo del lavoro, infatti, segue la stessa dinamica di alti e bassi tipici del Capitale, condizionando la psiche della popolazione: dall’euforia del guadagno e dalla speranza di far carriera nei momenti di espansione, si cade nella cupa disperazione dei periodi di contrazione e crisi economica.
Lo psicologo britannico Oliver James sviluppa questa intuizione nel libro Il capitalista egoista sostenendo, sulla base di studi e dati degli ultimi decenni, che le condizioni di morbilità psichiatrica siano aumentate esponenzialmente proprio nei paesi con politiche neo-liberali, a causa dell’effetto “montagna russa” del sistema economico vigente.

Un ulteriore aspetto da considerare è quello che riguarda la dimensione del controllo. Lavorando da casa in smart working, infatti, è molto complesso per il datore di lavoro supervisionare l’operato e la produzione del suo dipendente, rischiando che egli utilizzi parte del suo tempo pagato per questioni personali (cosa mal vista quand’anche questo comportamento non infici la produttività, anzi in alcuni casi l’aumenti); in questo senso il controllo periodico è stato soppiantato da un monitoraggio capillare e continuo che comporta, come sosteneva il filosofo francese Michel Foucault, una vera e propria «interiorizzazione del controllo e autosorveglianza» che, oltre a incrementare l’ansia generalizzata, comporta «una strana forma di confessionalismo maoista in salsa postmoderna-capitalista, nella quale ai lavoratori viene chiesto di impegnarsi in una costante autodenigrazione simbolica»2, quindi di lavorare se non di più, in maniera più smart.

Quello che è richiesto al lavoratore in smart working, in sintesi, non è più solo un impegno produttivo, ma addirittura emotivo, tale per cui egli diventa tutt’uno con la sua professione e tutto il suo tempo, in maniera conscia o inconscia, diventa dominio del Capitale. Il solo modo per uscire da questa condizione di minorità, come suggerito da Fisher, è quello di leggere i disturbi psichici correnti e sempre più diffusi non come condizioni mediche personali da curare singolarmente, ma come sintomo di un problema sociale e di un antagonismo reale che vanno assolutamente ripoliticizzati e, quindi, risolti in pubblica piazza, svelando ciò che veramente li causa, ossia il Capitale. È un compito assolutamente difficile ma necessario, se è vero ancora che sarebbe sempre meglio lavorare per vivere e non vivere per lavorare.

 

Vittoria Schiano di Zenise

 

NOTE:
1- M. Fisher, Realismo Capitalista, Produzioni Nero, Roma 2018, p.79.

2- Ivi. p.108.
[Immagine di copertina proveniente da Pixabay]

abbonamento2021

Il nuovo spirito di Hegel e la grandezza del negativo

Georg Wilhelm Friedrich Hegel è stato uno dei più grandi filosofi che la storia del pensiero ricordi. Facendosi largo ad ampie bracciate fra altri giganti dei suoi tempi – come Kant, Fichte e Schelling – è riuscito a costruire un sistema teoretico estremamente articolato e complesso, ma con la facciata inscalfibile di un monolita. Sebbene potesse sembrare che altre proposte filosofiche, come quelle di Schopenhauer, Kierkegaard e Marx, in aperta rottura con quella hegeliana, avessero minato le basi del pensiero del maestro di Stoccarda – facendolo cadere in disgrazia per decenni e che tale stato di sfortuna fosse destinato a perdurare con il rifiuto dei grandi sistemi da parte del postmoderno novecentesco – in realtà, nonostante tutto, Hegel non è mai stato superato.

Per questo motivo, allora, perché non tentarne una breve sintesi, che possa magari servire da nuovo strumento per leggere la contemporaneità, interpretare il nostro momento storico universale, declinato nel particolare quotidiano di ciascuno?
Quale occasione migliore per svecchiare la lettura di questo pilastro del pensiero occidentale e riprenderne gli spunti teoretici più affini al nostro momento dello Spirito?

Slavoj Žižek (uno dei più famosi interpreti viventi di Hegel) spiega che nessun pensatore, dopo Hegel, è stato veramente post-hegeliano, quanto, piuttosto, anti-hegeliano. Così, in questo tentativo di negazione del pensiero di Hegel, si pongono le basi non solo per il post-hegelismo, ma anche per una riproposizione del parere filosofico del maestro. Hegel, allora, risulta essere non più un fossile di un’era arcaica del pensiero.Piuttosto, un intellettuale attualissimo e pronto nel fornire utili strumenti per interpretare la realtà a chi riesca a ri-leggerlo senza la difficoltà di dover abbandonare le classiche esposizioni manualistiche.

Ebbene sì, il vero Hegel non è quello del banale sistema triadico, nel quale tesi e antitesi, risolvendosi nella sintesi, permettono un passaggio relativamente semplice e indolore dal negativo al positivo; piuttosto è il filosofo del superamento del principio di non contraddizione, dell’Aufhebung nel quale gli opposti non solo sono conviventi e compatibili, ma la loro compresenza rappresenta addirittura la condizione di determinabilità degli enti e costituisce intimamente tutto ciò che esiste nella realtà: ogni cosa materiale, evento storico, processo mentale ha in sé delle determinazioni e quelle a esse opposte e, proprio tale caratteristica, è ciò che permette di definire e circoscrivere cose, eventi e processi in un modo piuttosto che in un altro.

La dialettica, quindi, non è più solo la legge del pensiero, ma diventa anche quella dell’essere e il negativo, lungi dall’essere la macchia nera nel processo di realizzazione dello Spirito, diventa il punto di partenza, nonché di forza di un’Idea che ha come cifra originaria la ferita, ma che porta avanti un percorso infinito di automedicazione.

In questa prospettiva, l’Assoluto, essendo internamente contraddittorio, vive in un continuo stato di conflitto, che si manifesta nelle declinazioni concrete e particolari del mondo degli enti e, quindi, nella storia. È allora possibile operare una revisione interessante anche del processo storico concreto, nel quale la contingenza precede sempre, quasi paradossalmente, la necessità: se è vero il primato del negativo, la necessità non è un qualcosa di positivo che sussume le cose contingenti, ma il rovescio negativo di queste; è ciò che nasce sempre retroattivamente e a seguito di determinazioni storiche: la caduta dell’Impero Romano, per esempio, potrebbe essere vista come un avvenimento inevitabile, date le cause retrostanti; nella prospettiva hegeliana, invece, il crollo dell’Impero appare necessario solo perché è effettivamente avvenuto e, guardando indietro e non potendo immaginare altri scenari, viene classificato come ineluttabile.

A questo punto, anche il momento precedentemente definito di “sintesi” è opportuno che prenda un altro nome: vista la centralità della negazione, il terzo traguardo dello spirito sarà la negazione della negazione, definizione che ribadisce quanto ciò che può sembrare un ostacolo nel percorso della storia dell’Intelletto, sia, invece una condizione positiva di possibilità. Nel medesimo lume interpretativo, infine, può essere inserito anche il concetto hegeliano di ripetizione: ciò che sembra riproporsi non è un semplice ritorno dell’uguale, ma un ripresentarsi di situazioni con caratteri così radicalmente nuovi da non poter non interferire con lo svolgersi degli eventi.

Il pensiero di Hegel, comunque, al di là di ogni tentativo di semplificazione, resta di complessità e profondità uniche e impressionanti; tuttavia potrebbe fornire utili spunti per perlustrare anche il fondale dei nostri eventi quotidiani, individuando nelle nostre singole esistenze concrete barlumi particolari della luce universale dello Spirito, come ferita che si automedica: già partire dalla rinnovata centralità riconosciuta alla contraddizione, accettare la negatività – o, addirittura, renderla una conquista – ci permette di inquadrare il male del mondo e delle nostre vite in una prospettiva più ampia, come il dorso di una medaglia che ha bisogno del suo retro per completarsi e determinarsi.

 

Vittoria Schiano di Zenise

 

[Photo credit Nenad Milosevic via Unsplash]

lot-sopra_banner-abbonamento2021

Cronache dall’era (post)ideologica

Poche parole hanno un significato così vago e dai contorni così sfumati come quello di ideologia. Da un lato, tale caratteristica potrebbe apparire normale per un termine che nasce, di fatto, verso la fine del Settecento in ambiente illuministico e attraversa i secoli mutando il suo statuto: esso passa dall’indicare, letteralmente, lo studio della storia delle idee, a essere caricato dispregiativamente di un senso antifilosofico e antiscientifico. Con l’avvento del marxismo, la nostra parola ideologia si orienta a indicare l’insieme di dottrine etiche, religiose, politiche e filosofiche adoperate dalla classe borghese per esercitare il dominio sui rapporti di produzione e regolarne le dinamiche. Nel Novecento, poi, diventa senso comune utilizzare ideologia per indicare le grandi visioni del mondo contrapposte, nonché per riferirsi a ciò che i complessi apparati propagandistici dei regimi totalitari tentavano di inculcare nelle popolazioni loro sottomesse.

Oggi, se parliamo di ideologia, pur volendo indicare in maniera neutrale e generica un insieme di valori e credenze appartenenti a un determinato gruppo sociale o politico, sottintendiamo, inevitabilmente, un giudizio negativo nei confronti dell’argomento che stiamo trattando. Questo è, in parte, dovuto a un residuo inconscio che il termine in questione porta con sé; d’altro canto non manca la presunzione di definire dispregiativamente ideologico un atteggiamento da cui ci siamo assicurati di essere a debita distanza: serpeggia, infatti, tra pensatori e gente comune, la percezione e l’idea di essere, finalmente, in un’epoca che si potrebbe definire post-ideologica. Pare che con l’avvento della post-modernità, ci si sia liberati dalle catene delle grandi narrazioni, dai macigni delle complesse impalcature di pensiero e che tutta la fluidità dell’identità relativista scorra come un fiume in piena, diramandosi in effluenti di molteplici visioni che spiegano parti della realtà in cui viviamo oggi.

Con una certa dose di kinismo1, per dirla alla Sloterdijk2, siamo convinti di agire in maniera composta e distaccata a ciò che ancora si propone sotto forma di pensiero ideologico, spesso facendoci beffe di coloro i quali ci appaiono come ingenui e creduloni. Lo stesso Sloterdijk, però, ci fa notare come oltre ad essere soggetti kinici, siamo soprattutto soggetti cinici: sappiamo benissimo, in realtà, che l’ideologia (o le ideologie?) non sono assolutamente sorpassate, che in realtà siamo immersi fino al collo in qualcosa che ci governa e ci manipola, e nonostante ciò, lasciamo a questo qualcosa le redini, quasi rassegnatamente.
Se consideriamo il punto di vista di un altro grande pensatore contemporaneo, Slavoj Žižek, che ha fatto della critica all’ideologia uno dei suoi vessilli filosofici, potremmo persino arrivare ad ammettere che non accettiamo l’ideologia perché ne siamo semplicemente sopraffatti, ma viviamo costantemente in essa poiché è il solo modo, per noi, di vedere e interpretare la realtà. Tutto intorno a noi è ideologico, poiché tutto il nostro mondo risponde a una necessità di simbolizzazione e l’entrata nell’Ordine Simbolico presume un prezzo da pagare.

Secondo Žižek, inoltre, la modalità ironica che utilizziamo per prendere le distanze dalla dinamica ideologica, non solo è già contemplata e accettata in questa stessa dinamica (quindi è ideologia anch’essa!), ma contribuisce ad avvilupparci ancora di più nel gomitolo ideologico, rendendo non solo vano, ma addirittura dannoso il nostro tentativo di fuga.
In questa prospettiva viene da chiedersi: si potrà mai uscire dall’ideologia e vedere le cose come realmente sono? Se vogliamo fidarci della risposta dello stesso Žižek, alquanto pessimisticamente, dovremmo affermare che non è per niente facile o scontato cambiare prospettiva. Uscire dall’ideologia significa anche essere disposti ad abbandonare il nostro terribile quanto rassicurante orizzonte di senso e fronteggiare quello che Žižek, sulla scia di Lacan3, individua come il Reale delle cose, ossia quel nocciolo angosciante e terrificante che si cela dietro la fantasia inconscia della nostra realtà quotidiana.
La passione per il Reale è un atto eroico e, in quanto tale, comporta il rischio di ricevere una sferzata mortale: quanto coraggio abbiamo per imbarcarci nell’impresa e quanto non-senso siamo in grado di sopportare?

 

Vittoria Schiano di Zenise

 

NOTE:
1- Con questo termine si vuole indicare l’insieme di comportamenti che mirano a canzonare l’autorità, rispondendo ai suoi dettami con sarcasmo e ironia; il kinismo vero e proprio affonda le sue radici nell’omonima scuola filosofica dell’antica Grecia, il cui capostipite fu Antistene.
2- Peter Loterdijk è un filosofo tedesco contemporaneo, autore della “Critica della Ragion Cinica”, uno dei saggi filosofici che ha riscosso il maggior successo mondiale, a partire dal secondo dopoguerra.
3- Jacques Lacan è stato un filosofo e psicoanalista francese, che contribuì allo sviluppo della psicoanalisi con le sue teorie sul godimento, il linguaggio e i tre Ordini secondo cui sarebbe strutturata la realtà umana. DI difficile interpretazione, dato il suo stile ermetico e oscuro, è ancora molto controverso, benché goda di importanti interpreti, tra i quali spunta, per l’appunto, anche Slavoj Žižek

[Photo credit pixabay]

copertina-abbonamento-2020-ultima

Definizione e accertamento della morte tra filosofia e scienza

Cosa sappiamo della morte? Sicuramente che è un evento. Benché la trasformazione sostanziale che permette di definirla come tale non sia visibile immediatamente, possiamo comunque identificarla come immodificabile e irripetibile, se confrontata con tutti gli altri accadimenti nella vita di un individuo. Al netto di queste caratteristiche, su cui tutti possono concordare, fornire una definizione corretta della morte con termini che non siano equivoci e possibilmente validi per tutte le discipline che se ne occupano può apparire tutt’ora un’impresa non di poco conto. Eppure un terreno comune sarebbe auspicabile da trovare soprattutto per filosofia e scienza medica, poiché entrambe definiscono le questioni generali di bioetica e, praticamente, decidono della vita di ogni paziente.

Tradizionalmente i parametri per accertarsi della morte di un individuo erano due: quello anatomico (ossia la distruzione del corpo) e quello cardio-polmonare (la cessazione del battito cardiaco e della respirazione naturali). Con l’avvento e la diffusione del respiratore artificiale, precedentemente utilizzato in casi eccezionali, ma poi entrato a far parte delle pratiche salvavita comuni, le cose si sono complicate. Molti pazienti, infatti, mantenevano battito, temperatura corporea e altre caratteristiche fisiche “da vivente” se supportati da respirazione artificiale, ma non presentavano più alcuna attività a livello cerebrale. Erano da considerare effettivamente ancora in vita oppure si aveva a che fare già con cadaveri? Era così necessario introdurre un parametro neurologico, che affiancasse i due unanimemente riconosciuti.

Nel 1959 i neurologi francesi Mollaret e Goulon tentarono di risolvere la questione almeno sul piano pratico introducendo la definizione di coma dèpassè: per un paziente che non presenti attività cerebrale né superficiale né profonda, passate 24 ore, è possibile sospendere ventilazione. I due però non specificarono se il paziente fosse da considerare effettivamente morto, cessata l’attività cerebrale, oppure no. Quasi dieci anni dopo, la Commissione della Harvard Medical School equipara il coma dèpassè alla morte, fornendo quattro criteri di diagnosi: assenza di attività cerebrale, assenza di movimento spontaneo o indotto, assenza di respirazione spontanea e assenza di riflessi nel tronco encefalico. Escludendo condizioni cliniche che potessero trarre in inganno e senza necessità di elettroencefalogramma di verifica, solo sulla base di queste valutazioni era possibile dichiarare morto il paziente e procedere addirittura all’espianto degli organi, pur mantenendo la ventilazione artificiale.

Benché scientificamente venissero lasciati pochi dubbi, alcuni filosofi tra cui Hans Jonas, contestavano la decisione di equiparare la morte cerebrale alla morte effettiva del paziente, tanto più che le definizioni di morte troncoencefalica e morte corticale si affacciarono a complicare la questione.

Per Jonas, una persona muore quando perde completamente la sua unità funzionale, quindi considerare la morte del cervello come parametro quasi unico e definitivo appare una scelta teorica arbitraria, viziata da una concezione antropologica errata e da esigenze pratiche utilitaristiche (come si diceva, prelevare organi in un corpo che mantiene ancora le sue funzioni di vivente, ad esempio, garantisce una qualità dei tessuti maggiore rispetto ad un prelievo effettuato su di un cadavere).

Per i sostenitori del parametro della qualità della vita una persona senza cervello funzionante, che quindi abbia perso le sue capacità cognitive e relazionali, ha concluso la propria vita umana degna di essere vissuta, conclusa quindi in egual maniera può dirsi anche la sua vita biologica. Ma può esistere vita umana senza vita biologica? Inoltre il rischio di un errore teoretico nel considerare il cervello come centro di tutto l’uomo, a discapito di un intero organismo sistemicamente organizzato e complesso, appare solo come una riproposizione di un indigesto dualismo millenario che, invece di insistere sulla dicotomia anima-corpo, si struttura su quella più moderna di cervello-resto del corpo.

Appare chiaro che la morte cerebrale è la morte di un essere umano a un certo stadio del suo sviluppo (ciò comporta il riconoscimento di dignità umana antecedente anche alla formazione del cervello e sono quindi da considerere esseri umani anche anencefalici, individui con malformazioni et similia). La definizione va inoltre integrata con tutti gli altri criteri ma costituisce una diagnosi di morte a sé stante solo se si riesce effettivamente a provare che con la perdita delle funzionalità cerebrali si assiste anche alla perdita dell’unità organica. Finché l’individuo è tenuto in vita, anche se dalle macchine, sarà sempre considerato inviolabile.

 

Vittoria Schiano di Zenise

 

[Photo credit Alina Grubnyak su unsplash.com]

copertina-abbonamento-2020-ultima

Guarire con la filosofia

Fin dall’antichità, filosofia e medicina sono apparse come materie strettamente collegate, affondando sin da subito le radici l’una nell’altra: Aristotele, Ippocrate e Galeno sono alcuni tra i più famosi esempi del sodalizio tra queste due discipline. Epicuro definisce la filosofia come pharmakon, rimedio per raggiungere la felicità dell’anima, così come in seguito Seneca e Cicerone; Boezio la immagina come una bella e austera donna  venuta a portare consolazione al suo spirito provato.

Pare che attualmente i legami tra filosofia e medicina risiedano più nell’ambito della bioetica e della morale in generale, volti a giudicare come giusti o sbagliati prassi strettamente cliniche, le quali risultano però, sul piano pratico, difficilmente influenzabili e modificabili: il tutto comporta una spiacevole gerarchizzazione in senso piramidale delle discipline, che vede il pensiero filosofico occupare il gradino più basso.

Eppure c’è una disciplina, forse non unanimamente accettata come scienza naturale dalla comunità degli esperti, che medicalmente cura i disturbi che le competono con un percorso terapeutico che pone l’individuo a confronto con gli aspetti più profondi dell’esistenza umana: la psicoanalisi. Nata dalla mente e dalla penna di Sigmund Freud e diramatasi in tante correnti e applicazioni pratiche quasi quante ne furono le teste che la studiarono per prima, la psicoanalisi è la teoria che ricerca le spiegazioni dell’agire umano nell’inconscio, ovvero quella parte della psiche che contiene impulsi, emozioni, modelli comportamentali e tutto ciò di cui il soggetto non ha consapevolezza ma che contribuiscono a costituirlo. Tale teoria rappresenta la terza grande “umiliazione narcisistica” per l’uomo (dopo la rivoluzione copernicana e il darwinismo), forse la più grave, perché è quella che toglie la centralità all’Io nelle dinamiche di composizione e azione del soggetto.

Sebbene in un primo momento il modello di studio neurobiologico, l’avvento della psichiatria con la prescrizioni di farmaci e la liberalizzazione della sessualità sembrava avessero smontato i presupposti della dottrina di Freud, in realtà proprio attraverso questi elementi, la piscoanalisi iniziava il suo processo di rivoluzione interna, analizzando il nucleo di quella svolta freudiana che al suo stesso creatore era rimasta velata. Autore di questo cambiamento è senza dubbio Jaques Lacan, psicoanalista e psichiatra sì, ma anche e soprattutto filosofo che ha individuato, nel percorso di analisi dell’inconscio, non solo un metodo per combattere problematiche psichiche sul piano clinico, quanto piuttosto un percorso d’avvicinamento a una verità traumatica che libera la propria voce. L’inconscio non grida frasi senza senso, ma si esprime attraverso un linguaggio; l’Io non deve mirare a dominare l’Es, pensandolo come un guazzabuglio di eventi rimossi, ma può cercare di avvicinarsi per disvelare e accettare una realtà che è già. Per Lacan nevrosi, psicosi e perversioni non sono, quindi, unicamente patologie ma veri e propri atteggiamenti filosofici che il soggetto malato assume nei confronti della realtà e che modificano la sua personalità.

Lo scopo della terapia psicoanalitica, quindi, come quello della filosofia, non è unicamente quello di portare il paziente al raggiungimento di benessere, soddisfazione personale o successo sociale, quanto piuttosto condurlo di fronte a quella sua verità, che include anche le coordinate del suo desiderio. E così, proprio come la ricerca filosofica, quella piscoanalitica alla scoperta di se stessi dura, come minimo, tutta una vita.

A questo punto, però, qualcuno potrebbe chiedere: perché mai intraprendere un percorso potenzialmente infinito e sicuramente indefinito di analisi di sé, che non comporta vantaggi immediati o che, addirittura, potrebbe condurre l’individuo che scava in se stesso a vivere momenti di crisi profonda? Non tutti potrebbero voler scoprire la propria verità, soprattutto a costo di attraversare i sentieri della sofferenza e del dubbio. Sicuramente la strada non è spianata, ma il rischio di vivere in superficie è anche quello di vivere immersi nel non-senso e nell’inautenticità. Psicoanalisi e filosofia insieme potrebbero invece restituirci pienezza e consolazione, comprensione e quindi maggiore capacità di accettazione di noi stessi, del mondo e soprattutto dell’Altro: “chi ha un perché per vivere può sopportare quasi ogni come”.

 

Vittoria Schiano di Zenise

 

[Photo credit Paxabay]

copertina-abbonamento-2020_nuovo

Mangiare o non mangiare? L’etica del pluralismo dei corpi

Obesità e magrezza estrema sono le due facce della medaglia del mangiare. Oltre a essere condizioni patologiche da affrontare con adeguato supporto clinico e psicologico, rappresentano nodi etici non indifferenti per una filosofia pratica che punta a fornire strumenti di riflessione accessibili a tutti.

La grassezza è, da un lato, icona sociale dell’abbondanza, dall’altro emblema di fallimento e debolezza morale. Il primo caso non è difficile da spiegare: il nutrimento è sempre stato il pensiero primario dell’uomo, la fame lo spettro inquietante da tenere a distanza; primum vivere deinde philosophari: senza aver soddisfatto i bisogni primari, occuparsi d’altro è impossibile. Per questo motivo il grasso e il sovrappeso hanno sempre rappresentato l’abbondanza e la prosperità, una vita scevra di preoccupazioni materiali. Numerose sono anche le rappresentazioni artistiche e letterarie della prosperità, o quanto meno, del desiderio dell’uomo di attrarre a sé – spesso come favore divino – abbondanza materiale: si ricordi la celeberrima statuetta della Venere di Willendorf, risalente intorno al 20.000 a.C., oppure la descrizione biblica della città di Babilonia.

Ma è proprio in contesto religioso che nascono, sotto una luce negativa, gli alter ego dell’abbondanza: il peccato e la colpa. La città ricca è promessa d’opulenza e sicurezza, ma è anche luogo dove si fanno spazio i vizi, primo tra tutti quello della gola, che si pone all’origine di ogni lussuria e quindi di ogni abbruttimento nella ricchezza e nel possesso materiale. Anche qui l’arte ci viene in soccorso: numerose sono le rappresentazioni dell’uomo grasso, circondato da lauti banchetti e otri, di cui spesso sembra prenderne le sembianze, a evidenziare quanto il macrocosmo del corpo sociale si rispecchi nelle forme individuali, quasi a sancire effettivamente che siamo ciò che mangiamo.

La risposta a questa tendenza “ingrassante” del mangiare diventa quindi il digiuno, il non mangiare. Sebbene anche questa pratica abbia derivazione ascetica (il digiuno religioso è sempre stato una rinuncia-per, il privarsi di qualcosa in vista del raggiungimento di un bene superiore), nel corso dei secoli è arrivato a mutarsi in rinuncia fine a se stessa. Esempio contemporaneo di privazione estrema di cibo, apparentemente senza motivo, è l’anoressia. Benché inquadrata nello spettro delle patologie, così come l’obesità, l’anoressia è un male più subdolo perché meno evidente e, in un certo senso, socialmente “accettato”: generalmente si provano pena e pietà per un corpo molto magro, ma non di rado c’è una certa ammirazione per la forza di volontà e il rigore nel rispettare un regime alimentare ferreo.

Il mondo vuole, ottiene e consuma sempre più cibo, indipendentemente dalla sua qualità ma, intanto, sviluppa ostilità nei confronti del nutrimento: meglio essere estremamente magri che pagare il prezzo del pubblico ludibrio per non essere stati in grado di resiste alla tentazione di ingurgitare più del necessario; meglio il digiuno che l’abbuffata perché di entrambi saranno visibili gli effetti sul corpo.

Qualcuno potrebbe affibbiare la colpa della “mortificazione” del corpo proprio a una qualche dinamica ascetica già menzionata, all’orfismo, al dualismo origine di tutti i mali e di tutte le discriminazioni. In questo caso invece, il corpo non è da maltrattare in favore dello spirito, ma è maltrattato perché è spirito, è in un certo senso mentalizzato e deve portare avanti un’etica del rigore, deve garantire forza di volontà, prestanza e resistenza alla stregua delle macchine con cui lavora. Se proprio si vuol parlare di dualismo, ne possiamo considerare uno in cui l’anima è assente e l’unico modello è rappresentato dall’efficienza delle creature tecnologiche. Sia l’ingordigia che il digiuno estremi possono essere letti, quindi, anche come tentativi di ribellione volontaria, episodica o continuata, al macrocosmo cittadino e sociale che ci spinge a divorare e consumare: c’è chi si tuffa a capofitto nella possibilità di decidere come, quanto, cosa vuole mangiare, convinto che la vasta gamma di scelta sia sinonimo di libertà e chi, schiacciato dal peso dell’abbondanza promessa, decide di difendersi rinunciando a tutto.

Come al solito, la via maestra è quella che si colloca tra i due eccessi del mangiare, ma è pur vero che, affinché la si percorra, occorre cambiare prospettiva morale: sarebbe auspicabile un’etica del pluralismo dei corpi, della tolleranza della diversità e della comprensione reciproca che non si fermi a una mera rivendicazione o richiesta di riconoscimento, ma che liberi sinceramente dal disgusto per il corpo (e non solo corpo) “diverso”, o malato o sano o semplicemente umano.

 

Vittoria Schiano di Zenise

 

[Photo credits Tim Mossholder su unsplash.com]

copertina-abbonamento-2020-promo-primavera

Uccidere o lasciar morire: cos’è davvero l’eutanasia?

Le parole cambiano spesso di significato, nell’uso e nel contesto, e ciò è fonte di equivoci. Una delle difficoltà principali, quando si parla di filosofia, è sicuramente rappresentata dal linguaggio specifico: già è difficile capirsi tra esperti del settore e le cose si complicano quando si tenta l’approccio con il grande pubblico.
Per appianare le difficoltà e aprire la strada a un reale dialogo non occorre altro che chiarire a sé e agli altri l’uso del proprio linguaggio. Questo risulta tanto più necessario quando i temi da discutere riguardano valutazioni di tipo etico e, nel caso specifico, la questione dell’eutanasia.

Innanzitutto è bene ricordare che in ogni discorso sull’agire umano è possibile distinguere un piano descrittivo (che spiega ciò che si fa) e uno valutativo (che chiarisce le motivazioni e le intenzioni per cui si agisce) e che il linguaggio ordinario spesso confonde i due livelli: una valutazione implica sempre una descrizione, ma non è sempre vero il contrario.
Per dare una valutazione morale occorre, quindi, chiedersi: in cosa consiste l’eutanasia e quali sono i criteri che ne garantiscono la legittimità? La sua descrizione e valutazione coerenti permetteranno di approvarne o meno la messa in opera.

Per eutanasia (letteralmente “buona morte”) si intende l’atto con il quale si provoca direttamente e volontariamente il decesso di una persona affetta da gravi malattie o disabilità e può essere esercitata su individui consenzienti e coscienti (da qui la formula di suicidio assistito) oppure no.

Altri casi da considerare sono l’abbandono terapeutico e assistenziale (che indica l’omissione di tutti quegli atti proporzionati alla situazione clinica del paziente ma che, in quanto omessi, ne favoriscono la morte) e la cessazione dell’accanimento clinico (che intende l’interruzione di tutti quei trattamenti che causano più danni che benefici e quindi non sono più considerabili terapie). Tra i due casi si colloca la perseveranza terapeutica, ossia la modalità con cui ci si prende cura dell’individuo malato adeguatamente: con terapie, laddove ci siano possibilità di miglioramento, o con cure palliative, qualora lo si debba accompagnare alla morte nel modo meno traumatico possibile.

Chiariti i termini del discorso, appare evidente che la distinzione tra atti che uccidono e altri che lasciano morire non può e non deve essere fatta né riferendosi all’esito dell’azione (che è sempre la morte), né alla sola volontà del paziente. Se un furto diventa un prestito qualora le due parti si accordino, l’eutanasia non smette di essere un omicidio se c’è consenso o richiesta, poiché la differenza sta nel fatto che la vita non è un bene di scambio, ma il modo d’essere di una persona. Sebbene occorra sempre ricordare che la morte è un evento naturale e avviene al di là della volontà dell’uomo e delle sue scelte, ogni atto nei riguardi dell’altro dev’essere fatto preservandone fino alla fine la persona, tenendo conto della sua condizione concreta: la valutazione deve avvenire sempre in situazione.

Ebbene: in tutti i casi causare direttamente la morte equivale a piena colpevolezza dal punto di vista morale; in altri omettere atti salvavita rende colpevoli moralmente per non aver agito al fine di evitare volontariamente un determinato esito, anche se non è imputabile la causazione diretta del morire (quella che provoca la morte, in fondo, è la malattia); in altri ancora l’atto della sospensione dei trattamenti è moralmente doveroso, così come la volontà di rinuncia del paziente in simili casi. È infatti necessario tenere a mente che, anche quando pare che non ci sia più nulla da fare, c’è ancora molto da fare, perché è necessario assistere il morente, non prolungandone l’agonia, né provocandone la morte, ma riducendone quanto più possibile la sofferenza.

In ogni caso, al netto di definizioni e argomentazioni, resta da tener presente il criterio cardine della vita morale: il rispetto della persona impone, infatti, il dovere di rispettarne la coscienza morale e le decisioni, quand’anche fossero considerate come moralmente errate.

 

Vittoria Schiano di Zenise

 

copabb2019_ott

Sapere e libertà: per una scienza eticamente (non) neutra

“Libertà della ricerca” è uno dei motti preferiti della civiltà occidentale e occupa un posto relativamente alto nel contesto delle varie libertà che il mondo moderno civilizzato ci garantisce. Se consideriamo la ricerca per quello che dovrebbe essere il suo fine interno, ossia il conseguimento del sapere, ci si ritrova tutti d’accordo: conoscere la verità è un diritto (se non addirittura un dovere) non solo del singolo, ma anche della comunità, presupponendo che il conseguimento da parte di uno di una certa porzione di verità non solo non ne pregiudica il raggiungimento da parte degli altri, ma addirittura contribuisce all’accrescimento del sapere comune. Ma è proprio vero che la scienza può disporre del terreno della ricerca come vuole?

Hans Jonas, uno dei maggiori filosofi del ‘900, nonché tra gli iniziatori del dibattito bioetico, nella prima parte della raccolta di saggi Tecnica, medicina ed etica. Prassi del principio di responsabilità1 afferma che per la scienza l’unico valore è il sapere e l’unico suo compito è raggiungerlo. A questo punto principale, fanno da corollario una serie di doveri del ricercatore (onestà e rigore intellettuale, trasmissione dei risultati ottenuti alla comunità), meglio ancora se sostenuti da particolari virtù personali (tenacia, disciplina e capacità di constrastare i propri pregiudizi). E finché nel panorama delle scienze la dimensione contemplativa era nettamente separata da quella pratico-attiva, come nell’epoca premoderna, la teoria poco aveva a che fare con la vita quotidiana.
Con la rivoluzione scientifica del ‘600, però, il rapporto tra teoria e prassi si modificò con l’avvento dell’esperimento e della tecnica, intesa come esercizio del potere umano e forma dell’agire pratico che, in quanto tale, doveva essere sottoposto a un attento esame morale.
A questo compito valutativo è chiamata, ovviamente, la Filosofia che si attesta però in ritardo su un caso tutto nuovo da valutare: ritardo dovuto non solo alla mancata capacità predittiva dei filosofi dell’epoca, ma anche all’inganno del pensiero comune che, nonostante tutto, continuava a portare avanti l’idea di scienza come pura teoria dall’innocenza intatta.

La filosofia della tecnologia non deve occuparsi di valutare quale scienza sia buona o cattiva, ma degli effetti buoni o dannosi della scienza stessa: se il progresso si attribuisce i benefici come un merito, allora è meglio che renda conto anche dei danni.
Le difficoltà valutative in ambito etico, sottolinea Jonas, derivano da un insieme di fattori: in primis le responsabilità non sono imputabili a un’unica persona, in quanto il ricercatore singolo non ha potere sull’applicazione delle sue scoperte e magari non ne prevede intenzionalmente un uso immediato; inoltre i confini tra teoria e prassi sono abbastanza impalpabili, in quanto non pare resti fuori nessuna branca delle scienze della natura le cui conoscenze non possano avere risvolti pratici; infine è necessario rendersi conto del circolo in cui scienza (e sua applicazione tecnica) e feedback derivante dalla stessa applicazione pratica delle scoperte sono incatenate: la ricerca vive di fondi, in larga misura stanziati come contropartita in vista di un futuro vantaggio pratico. Inoltre, dato che appare assolutamente inevitabile qualsiasi risvolto pratico di una nuova conoscenza acquisita, bisogna tener conto non solo delle applicazioni intrinsecamente malvagie di un risultato teorico, ma anche di quelle che, per quanto sorrette da buona volontà, conducono a esiti tutt’altro che buoni.

Data l’intrinseca ambivalenza di scienza e tecnica e l’impossibilità evidente di vagliarne i confini sia a livello d’estensione che d’intenzione, ecco la risposta al nostro quesito iniziale: la scienza non può essere incondizionata, ma deve avere dei limiti e che essi, molto verosimilmente, prima ancora che all’ambito più strettamente pratico, devono essere rispettati anche nella scelta e nell’uso dei mezzi e delle vie per l’acquisizione del sapere.
La filosofia della tecnologia nega quindi alla scienza e alle sue applicazioni la zona franca della neutralità etica. «Per amore dell’autonomia umana – concluderebbe Jonas –, della dignità la quale richiede che noi possediamo noi stessi e non ci facciamo possedere dalle nostre macchine, dobbiamo porre la corsa tecnologica, sotto controllo extratecnologico».

 

Vittoria Schiano di Zenise

 

1. H. Jonas, Tecnica, medicina ed etica. Prassi del principio di responsabilità, 1985

copabb2019_ott

Trucco e parrucco nell’era tecnologica: la macchificazione di Anders

S’è vero che l’abito non fa il monaco, è altrettanto vero che il priore del tuo convento potrebbe avere qualcosa da ridire al riguardo.

Spesso mi chiedo quanto davvero conti l’aspetto esteriore di un individuo e se influisce così tanto nel costituire la percezione che gli altri hanno di lui. Ma soprattutto, da quando è diventato importante apparire? È sempre stato così sin dall’inizio della storia dell’uomo?

Günther Anders, filosofo tedesco e autore de L’uomo è antiquato (opera del 1956), ritiene che le cose in fatto di cura della propria immagine abbiano preso una piega diversa con l’avvento della Seconda Rivoluzione Industriale. Tra un aneddoto e l’altro, Anders racconta di come abbia notato crescere, di pari passo allo sviluppo tecnico della macchina, un certo stato di soggezione inquieta dell’uomo nei confronti delle cose da egli stesso fatte: una vergogna prometeica, dice. In soldoni, il creatore di tutto il panorama artificiale terrestre, in grado di sviluppare macchine complesse e intelligenti in continuo e instancabile miglioramento, l’uomo moderno che può innalzare città, sorvolare oceani e bucare l’atmosfera alla volta della Luna, arrossirebbe di fronte alle macchine e ai computer prodotti dalle sue stesse mani e che gli permettono di fare tutto ciò che fa?

Ebbene, sì.

L’uomo è a disagio perché non è macchina: è nato da donna, è mortale e sostituibile nel ruolo che occupa nel mondo (ma non nella sua unicità di individuo), è poco resistente, reattivo, agile e mal verniciato, se messo a confronto con i congegni di ultimissima generazione. L’uomo è uomo e ne soffre.

Anders, a questo punto, rincara la dose: siamo talmente sopraffatti dall’inadeguatezza di questo tipo d’esistenza troppo umana che facciamo di tutto per autoridurci a cosa e, a suo avviso, make-up, trattamenti estetici e nascita di mode kitsch sempre più spinte ne sono l’esempio. La vergogna effettiva dell’homo artifex non sta tanto nell’apparire disadorni o sciatti, quanto nel non sembrare lavorati e rifiniti. Pelle perfetta, muscolatura scolpita, unghia laccata come l’hardware del cellulare che sfiora: vogliamo essere alla pari degli arnesi che dobbiamo maneggiare, delle macchine con cui dobbiamo interagire, della vita soda e levigata della plastica con cui abbiamo a che fare. Il vero corpo nudo non è più quello svestito, ma quello non lavorato e che non contiene indizi di una riduzione a cosa: quando sarà privo di peli superflui e grasso in punti non strategici, allora sì che potrà mostrarsi senza vergogna e senza veli.

La carne è un vezzo vintage, il corpo umano dev’essere superato.

Insomma, Anders ci offre un buffet di spunti notevoli su come sia cambiata la cura del sé carnale nel corso di una certa parte di modernità, ma manca d’analizzare molti aspetti: non si trovano, infatti, riflessioni sull’industria (piuttosto che la singola macchina) della moda e del make-up all’interno di un sistema consumista e volto a influenzare l’utente con massiccia pubblicità; nessun cenno alla massificazione dell’estetica quale disciplina non più legata a doppio filo con l’arte colta, ma materia giornaliera a cui si richiedono canoni di bellezza da suggerire; infine neanche una parola sulle cause-conseguenze psicosociologiche di tutto questo enorme sistema aggrovigliato. Insomma, per quanto interessante possa essere il suggerimento di riflessione, Anders parla da miope: trucco e parrucco sono stati fondamentali sin dopo la preistoria dove, finita la necessità del mero coprirsi, abiti e polveri colorate iniziarono a segnare dei distinguo tra classi sociali, mansioni sacerdotali e militari.

Allora il fulcro del pensiero di Anders potrebbe essere un altro: ci sta dicendo del desiderio dell’uomo di superare e superarsi, d’essere oltre. E non si tratterebbe di un oltreuomo solo in senso morale, ma di un vero e proprio ente ibridato con la macchina, potenziato dal punto di vista fisico e intellettuale, un post-uomo. Appare quindi evidente il motivo del nostro volerci ridurre a cosa: non perché invidiosi della perfezione estetica della macchina, ne bramiamo invece la freddezza razionale, l’infinita memoria, il talento nel di far di conto, l’incapacità di soffrire per il vuoto essenziale che ci riempie e l’inettitudine alla libertà. Credete siano ragioni sufficienti per voler diventare macchina?

 

Vittoria Schiano di Zenise

 

[Photo gradits Ekaterina Kuznetsova su Unsplash.com]

banner 2019