Dalla parte di chi prende una parte

Da qualche tempo a questa parte è diventato una specie di mantra: “Smetta di occuparsi di politica e si limiti a fare x”, dove “x” è volta volta scrittore, giornalista, magistrato, capitano navale, attore, storico, presentatore televisivo, calciatore e chi più ne ha più ne metta. Il punto è sempre lo stesso: la politica, a quanto pare, è appannaggio esclusivo dei suoi protagonisti, e chiunque non rientri nella specifica categoria professionale (ma anche in quel caso sono necessari dei distinguo) deve astenersi da qualsivoglia commento e ancor più critica (sono curiosamente ben tollerati invece i plausi).

Intellettuali e figure pubbliche, insomma, devono astenersi dall’influenzare le opinioni dell’elettorato usando la propria autorità per entrare in un ambito che non compete loro. Il problema della politica, però, è che non si tratta di un ambito in senso stretto, ma piuttosto di un macro-contenitore, in cui rientrano economia, scienza sociale, comunicazione, psicologia, e soprattutto etica. Vietare, più o meno ufficialmente, prese di posizione pubbliche nei confronti della politica da parte di personalità più o meno esperte, vuol dire di fatto proibire qualsiasi voce contraria che richiami a un bene e a un male, a un giusto e a uno sbagliato, che esulino dalla dimensione partitica e si ricolleghino invece a un ambito più umano e universale. Quando poi manovre, leggi e provvedimenti sono controversi e rischiano di marginalizzare o addirittura danneggiare parti della popolazione, l’imparzialità non solo è impossibile, ma diventa criminale: come diceva Elie Wiesel, «la neutralità favorisce sempre l’oppressore, non la vittima. Il silenzio incoraggia sempre il torturatore, mai il torturato»1.

La principale falla logica, però, è un’altra: i personaggi pubblici richiamati alla mitologica neutralità sono invitati non tanto a non parlare di politica in senso assoluto, quanto piuttosto a non esprimere dissenso nei confronti di una determinata politica. Quello che si vuole evitare non è una sbandierata invasione di campo da figure professionali esterne, ma un dissenso che possa fregiarsi di un’autorevolezza e una competenza pari se non superiore a quella dei funzionari criticati. In questi casi, il silenzio non è affatto definibile “imparziale”, ma assume anzi in sé una forte presa di posizione. Già nel 1932 Gaetano Salvemini aveva capito che la tanto invocata neutralità, semplicemente, non esiste, e che l’unica forma di imparzialità possibile in chi si rivolge a un qualsivoglia pubblico è quel tanto di onestà intellettuale sufficiente a mettere subito in chiaro le proprie posizioni: «Noi non possiamo essere imparziali. Possiamo essere soltanto intellettualmente onesti: cioè renderci conto delle nostre passioni, tenerci in guardia contro di esse e mettere in guardia i nostri lettori contro i pericoli della nostra parzialità. L’imparzialità è un sogno, la probità è un dovere»2.

Questo tipo di imparzialità, che sia sbandierata, richiesta o imposta, non è che una trappola: parlare di etica, di società, di relazionalità, non può essere accomunato a fare propaganda, proprio perché i temi in questione sono e devono essere trasversali a qualsiasi programma partitico. La coscienza critica, unita a un minimo senso di responsabilità, porta inevitabilmente a prendere posizione, che non vuol dire automaticamente sfociare nella faziosità, ma semplicemente rivelarsi capaci di pensiero autonomo e coscienza morale.

Tutto quello che si può pretendere da qualunque giornalista, persona di spettacolo, sportivo, intellettuale che voglia affacciarsi sulla scena pubblica, è la stessa promessa trovata al punto 184 delle Massime e riflessioni di Goethe: «Posso impegnarmi a essere sincero, ma non a essere imparziale».

 

Giacomo Mininni

 

NOTE:
1. In REGAN Tom, Gabbie vuote, Ed. Sonda, 2005, p. 6.
2. G. Salvemini, Mussolini diplomatico, ed. Laterza, 1952, Prefazione

copabb2019_ott

La T.A.Z. come tattica insurrezionale: Bey, i rave e le prove di liberazione

Un dizionario storico un po’ acritico chiamerebbe “insurrezione” quel moto di rivolta spentosi ancor prima di poter produrre qualche cambiamento. Una sorta di spasmo fuggiasco. Della “rivoluzione” direbbe invece che è un totale riassestamento dei volti della Storia, una febbre efficiente, qualcosa al limite del necessario.

Se queste sono le definizioni però, un saggio che si trovasse a soppesarle sarebbe diffidente: cosa apporta in effetti la rivoluzione se non un’altra idea di paradiso? È solo Stato che sostituisce lo Stato, cosa storica perché giustificata dalla sua vittoria. Il movimento dell’insurrezione invece è diverso: se all’inizio si profila come una curva uscente, poi però si ripiega e torna nella via principale. Fallisce, non fa Storia e non viene giustificata. La rivoluzione è valida perché ha il consenso burocratico dei suoi stessi nemici; l’insurrezione è invece scalzata da qualsiasi ufficiosità perché considerata alla stregua di un brivido della Retta.
La rivoluzione allora delude; l’insurrezione invece ci si avvicina. C’è chi addirittura la privilegia alla prima come mezzo per ridimensionare il potere, come l’eclettico Hakim Bey nel suo saggio sulla T.A.Z., la Temporary Autonomous Zone (H. Bey, T.A.Z.). Con questo acronimo Bey si riferisce a degli spazi liberati dalla Mappa dello Stato che per un periodo indeterminato di tempo offrono la riscoperta dell’immaginazione e del contatto non mediato tra esseri umani.

Le T.A.Z. sono zone iconoclaste, anarchiche, generatesi per improvvisazione, partecipi di uno spirito a un tempo festante e sedizioso, vissute da organizzazioni più o meno orizzontali che agiscono lontano dall’occhio della Legge. Sono come “reti nella Rete”. A titolo d’esempio, citeremo gli spazi urbani che negli anni ’90 venivano occupati dai raver per coltivare la loro contro-cultura e inselvatichire un luogo reso civile dalla tassazione. Non vi era però violenza nei loro atti (auspicabilmente), dacché queste sono le conseguenze di un moto rivoluzionario, dedito alla realizzazione di un ennesimo Programma, mentre nessuna T.A.Z. ha mai creduto in esso, né nella Storia, né tantomeno nello Stato. Chi vive la T.A.Z. crea soltanto un’alternativa spirituale all’uniformità della scolarizzazione; va dietro le quinte e armeggia con quello che era stato lasciato là dietro.

La T.A.Z. è dunque uno strumento insurrezionale nel senso di una tattica ninja. Bey non tarda a definirla, quando conscia, un’arte marziale, nel senso di una coreografia del movimento che lascia il nemico disorientato. Allo stesso modo l’insurrezione è nomade, imprevedibile, psichicamente maliziosa, e più che attaccare il nemico gioca con lui, trasformando le sue armi in punti deboli. Un collettivo di dj diffonde la notizia di una festa abusiva (ossia gratuita) giù alla spiaggia e cominciando a montare l’attrezzatura disobbedisce. Lo Stato-Storia non riesce a prevederlo; la sua dialettica riferisce questi atti alla memoria di sommosse fallimentari che non ha avuto l’accortezza di studiare; così, nel momento in cui interviene per sedarli, questi si son già dissolti, i princìpi già nascosti, l’insurrezione ha già smarrito i suoi provocatori, ma solo per restare a covare e riapparire all’improvviso da un’altra parte.

Il techno-raver ci insegna che la libertà positiva sta in noi, che la T.A.Z. è l’individuo. In queste interzone l’individuo usa se stesso e genera la discordia del Bene – interroga il Maestro. Lo guida lo spirito musicale, perché ogni ribelle si s-catena quando sente la musica. Ora che non appartiene più allo Stato-Storia, ricorda a questo che non può agire impunemente e a se stesso che la pienezza è possibile. Si avventura nella ricerca di un senso nuovo dell’Umano che tradisca quanto confezionato dalla Fabbrica e mostri quanto buono sia questo tradimento (da qui il filone dell’insurrezione trans-umanista). L’individuo-T.A.Z. è l’eccezione cosciente di se stessa, il tempo liberato dal ticchettio.

Dovrebbe essere garantito universalmente il “libero diritto alla festa” come compromesso con lo Stato-Storia – aiuterebbe lo spirito ad amarsi. L’insurrezione intanto prepara quel che sarà. Non ci sono ancora i mezzi per una rivoluzione, ma c’è la capacità di comportarsi come virus. Forse il vero dramma sta nel fatto che non ci sarà mai tempo per una rivoluzione; crollerà tutto prima. Ma ballando con le Streghe, navigando coi Pirati e sognando coi Mutanti, impareremo almeno a essere spiriti che conoscono il mondo.

 

Leonardo Albano

 

[Photo credit Spencer Imbrock via Unsplash]

copabb2019_ott

Sapere e libertà: per una scienza eticamente (non) neutra

“Libertà della ricerca” è uno dei motti preferiti della civiltà occidentale e occupa un posto relativamente alto nel contesto delle varie libertà che il mondo moderno civilizzato ci garantisce. Se consideriamo la ricerca per quello che dovrebbe essere il suo fine interno, ossia il conseguimento del sapere, ci si ritrova tutti d’accordo: conoscere la verità è un diritto (se non addirittura un dovere) non solo del singolo, ma anche della comunità, presupponendo che il conseguimento da parte di uno di una certa porzione di verità non solo non ne pregiudica il raggiungimento da parte degli altri, ma addirittura contribuisce all’accrescimento del sapere comune. Ma è proprio vero che la scienza può disporre del terreno della ricerca come vuole?

Hans Jonas, uno dei maggiori filosofi del ‘900, nonché tra gli iniziatori del dibattito bioetico, nella prima parte della raccolta di saggi Tecnica, medicina ed etica. Prassi del principio di responsabilità1 afferma che per la scienza l’unico valore è il sapere e l’unico suo compito è raggiungerlo. A questo punto principale, fanno da corollario una serie di doveri del ricercatore (onestà e rigore intellettuale, trasmissione dei risultati ottenuti alla comunità), meglio ancora se sostenuti da particolari virtù personali (tenacia, disciplina e capacità di constrastare i propri pregiudizi). E finché nel panorama delle scienze la dimensione contemplativa era nettamente separata da quella pratico-attiva, come nell’epoca premoderna, la teoria poco aveva a che fare con la vita quotidiana.
Con la rivoluzione scientifica del ‘600, però, il rapporto tra teoria e prassi si modificò con l’avvento dell’esperimento e della tecnica, intesa come esercizio del potere umano e forma dell’agire pratico che, in quanto tale, doveva essere sottoposto a un attento esame morale.
A questo compito valutativo è chiamata, ovviamente, la Filosofia che si attesta però in ritardo su un caso tutto nuovo da valutare: ritardo dovuto non solo alla mancata capacità predittiva dei filosofi dell’epoca, ma anche all’inganno del pensiero comune che, nonostante tutto, continuava a portare avanti l’idea di scienza come pura teoria dall’innocenza intatta.

La filosofia della tecnologia non deve occuparsi di valutare quale scienza sia buona o cattiva, ma degli effetti buoni o dannosi della scienza stessa: se il progresso si attribuisce i benefici come un merito, allora è meglio che renda conto anche dei danni.
Le difficoltà valutative in ambito etico, sottolinea Jonas, derivano da un insieme di fattori: in primis le responsabilità non sono imputabili a un’unica persona, in quanto il ricercatore singolo non ha potere sull’applicazione delle sue scoperte e magari non ne prevede intenzionalmente un uso immediato; inoltre i confini tra teoria e prassi sono abbastanza impalpabili, in quanto non pare resti fuori nessuna branca delle scienze della natura le cui conoscenze non possano avere risvolti pratici; infine è necessario rendersi conto del circolo in cui scienza (e sua applicazione tecnica) e feedback derivante dalla stessa applicazione pratica delle scoperte sono incatenate: la ricerca vive di fondi, in larga misura stanziati come contropartita in vista di un futuro vantaggio pratico. Inoltre, dato che appare assolutamente inevitabile qualsiasi risvolto pratico di una nuova conoscenza acquisita, bisogna tener conto non solo delle applicazioni intrinsecamente malvagie di un risultato teorico, ma anche di quelle che, per quanto sorrette da buona volontà, conducono a esiti tutt’altro che buoni.

Data l’intrinseca ambivalenza di scienza e tecnica e l’impossibilità evidente di vagliarne i confini sia a livello d’estensione che d’intenzione, ecco la risposta al nostro quesito iniziale: la scienza non può essere incondizionata, ma deve avere dei limiti e che essi, molto verosimilmente, prima ancora che all’ambito più strettamente pratico, devono essere rispettati anche nella scelta e nell’uso dei mezzi e delle vie per l’acquisizione del sapere.
La filosofia della tecnologia nega quindi alla scienza e alle sue applicazioni la zona franca della neutralità etica. «Per amore dell’autonomia umana – concluderebbe Jonas –, della dignità la quale richiede che noi possediamo noi stessi e non ci facciamo possedere dalle nostre macchine, dobbiamo porre la corsa tecnologica, sotto controllo extratecnologico».

 

Vittoria Schiano di Zenise

 

1. H. Jonas, Tecnica, medicina ed etica. Prassi del principio di responsabilità, 1985

copabb2019_ott

Medioevo e mass media: parliamo ancora di “secoli bui”?

Un recente articolo, comparso su “L’Espresso”, a firma di Helena Janeczek, titola: Febbre da Medioevo: Ritorna in tv “Il trono di spade” con stupri, tradimenti e torture. Una saga sul passato che intercetta lo spirito dei nostri tempi: incertezza sul futuro e predominio del più forte. Da alcuni mesi, articoli come questo si ritrovano su tutti i principali quotidiani italiani (a prescindere dall’orientamento politico), in rubriche che spaziano dalla critica culturale all’attualità politica, fino al commento su fatti di cronaca. Un fenomeno trasversale, certamente variegato, ma che può essere ascritto sotto la generica categoria di un “ritorno di moda” del Medioevo. Un fenomeno peculiare, che suscita stimolanti interrogativi: quali sono le sue caratteristiche? Qual è il suo nucleo d’origine? E ancora, come la stampa italiana ne viene influenzata?

Innanzitutto, alcune precisazioni. Primo: molte delle conoscenze sedimentate nell’opinione pubblica riguardo il Medioevo sono stereotipi, generalizzazioni, verità parziali. Quando non esplicite distorsioni ideologiche e ricostruzioni fittizie. Vale la pena citare l’esempio più eclatante: il medioevo dei “secoli bui”, un’età dominata da oscurantismo, immobilismo, assenza di cultura, violenza, in cui popolazioni “barbare” e arretrate vivevano sotto il giogo della superstizione e l’autorità di una Chiesa persecutrice e corrotta. In secondo luogo, è necessario sottolineare quanto tutte queste ricostruzioni fantasiose siano ormai completamente estranee agli orientamenti di storici di professione ed esperti di medievistica. Quale percezione invece hanno del periodo medievale i “non addetti ai lavori”? Nel 1979, una storiografa italiana notava quanto, benché l’accezione negativa del termine Medioevo fosse ormai stata estirpata dalla critica storica, essa fosse ancora in voga nel linguaggio giornalistico. A distanza di quarant’anni è interessante valutare se e in che misura le cose siano cambiate, ovvero se un atteggiamento pregiudiziale verso il medioevo possa dirsi eliminato a livello di mass media e cultura divulgativa. 

Apparentemente la tendenza giornalistica a utilizzare la parola Medioevo con accezione dispregiativa può sembrare in aumento, soprattutto nell’ultimo anno e soprattutto in Italia.  Ad una più attenta analisi tuttavia, in modo particolare nell’ambito della stampa online, è presente un approccio maggiormente consapevole alla questione. È significativo il drastico calo a livello mondiale dal 2004 a oggi della digitazione sui motori di ricerca di termini quali “secoli bui” (dati Google Trend). Ad articoli d’opinione che paragonano le storture del XXI secolo a un regresso verso l’anno mille, fanno da contraltare numerose analisi e fact checking che smascherano stereotipi e pregiudizi. Tutto ciò non esclude che permanga un ampio uso del termine “medioevo” in modo distorto. Inoltre, non siamo ancora in grado di valutare quanto questa tendenza sia radicata nel linguaggio colloquiale e presso le fasce meno istruite della popolazione. 

L’aggettivo medievale viene comunque utilizzato in modo diffuso, nel senso di regresso verso l’inciviltà, per numerosi titoli “caldi” da parte della stampa non specialistica. Il sussistere stesso di questa scelta presuppone che il lettore medio condivida l’equazione fra medioevo e decadimento di ogni manifestazione dello spirito umano. Una significativa opposizione contro l’irreggimentazione del medioevo si infrange sulla complessità, sulla poliedricità di un periodo lunghissimo (fra la caduta dell’Impero Romano e la scoperta dell’America trascorrono esattamente 1.016 anni!), costruito a posteriori, in modo artificiale sulla base dei differenti indirizzi storiografici.

In conclusione, il concetto di medioevo mostra con evidenza una peculiarità, ovvero il suo essere caleidoscopico. Proprio questa sua struttura intrinseca ci pone di fronte a un rischio: derubricare a mere sottigliezze erudite le tante, variegate interpretazioni – e strumentalizzazioni – riguardanti l’età di mezzo. È una tentazione forte, in particolar modo per il lettore non specialistico. Eppure, è una tentazione a cui bisogna resistere. Rifiutare la semplificazione è infatti un antidoto potente contro la manomissione delle parole (Carofiglio). Chi impiega il paradigma medievale per stigmatizzare l’attualità, non dimostra esclusivamente ignoranza del passato, né meramente distorce un vocabolo. Tramite preconcetti “storici”, infatti, sclerotizza il presente, per generare, a sua volta, nuovi stereotipi. 

Si può ipotizzare su quale terreno germini questo fenomeno di medievalizzazione del presente. Possiamo interpretare questa operazione come un tentativo di esorcizzare le paure della contemporaneità, nell’ottica di quello “spirito dei nostri tempi” citato in apertura. Stiamo innegabilmente vivendo un’epoca di profonde trasformazioni. Come in ogni periodo storico di cambiamento, si vedono i germogli di nuovi sistemi di valori, vengono generandosi nuovi ordinamenti politici, sociali ed economici. È inevitabile che la società risponda a queste modificazioni dell’ambiente circostante, rivedendo i propri metri di giudizio. L’adattamento, più o meno consapevole, è, in alcuni casi, incentivato dal riferimento, come modello da adottare o come esempio da rifiutare, a determinati periodi storici; è il caso del medioevo, il quale negli ultimissimi anni ha subito un vero e proprio revival. Come afferma lo storico Alessandro Barbero «ogni cosa che non ci piace ci fa gridare: ritorna il Medioevo. È il sollievo che il Medioevo sia finito che ce lo fa piacere».

 

Edoardo Anziano

Nato a Firenze, studia Filosofia all’Università di Bologna. È redattore del mensile culturale Edera e collabora con la testata online LucidaMente.

La guerra del tortellino: il senso della tradizione

Tradizione: trasmissione nel tempo, da una generazione a quelle successive, di memorie, notizie, testimonianze. Questa è la definizione più comune che troviamo nei vocabolari e, con altre parole, nei discorsi della gente.
La tradizione è, secondo l’opinione comune, una cosa immutata che nasce ad un certo punto della nostra Storia collettiva, attraversa i secoli sfuggendo a qualsiasi rimaneggiamento, giunge fino a noi con l’obiettivo di rimanere immutabile e di riprendere il suo cammino per il futuro.
Su tale convinzione si è strutturato un metodo di pensiero monolitico, incapace di elaborare il concetto di variabilità – fondamentale nello sviluppo dell’Uomo così come della società – e portatore di tensione sociale o individuale.

Di esempi pratici, grandi e piccoli, ce ne sono parecchi non appena apriamo un giornale, un social network, o se accendiamo la televisione. Dibattiti classici e ormai calendarizzati sono quelli relativi al crocifisso nelle aule scolastiche: settembre-ottobre; alla festa di Halloween: fine ottobre; al presepe nelle scuole: dicembre; ai matrimoni omosessuali: variabile come la Pasqua… Di tanto in tanto spunta qualche dibattito nuovo utile a dare una scossa al logorio della vita moderna: recentemente è comparso quello sul sacro tortellino, che la tradizione vuole ripieno di carne suina e che qualche losco signore delle tenebre vorrebbe farcire con della carne di pollo.

Se si trattasse di una semplice guerra civile tra ‘guancialisti’ e ‘pancettisti’ per la carbonara ci sarebbe da sorridere, ma in questo caso la questione è molto più profonda perché coinvolge tematiche trasversali che partono dalla cultura culinaria italiana, agli effetti dell’integrazione etnica. Quando due culture differenti entrano in contatto infatti, è sul cibo che si spendono maggiori energie e vengono a galla tutti i preconcetti descritti sopra relativi alla tradizione.

Il controsenso evidente, ma soffocato dal rumore delle polemiche, è che proprio il cibo è stato l’elemento umano a subire più variazioni nel corso del tempo, di conseguenza molti piatti sono considerati tradizionali, lo sono solo di nome, per renderli più belli o per dare loro quel tocco in più che spesso serve al settore gastronomico italiano esportato in tutto il mondo.
In sostanza ciò che mangiamo oggi, nel 2019, non è frutto della tradizione tramandata da generazioni e generazioni di abitanti della penisola, ma un continuo mutare di differenti interpretazioni e usi del cibo, che a loro volta derivano dallo stretto rapporto che riscontriamo in molte parti del mondo tra cibo e religione.

Tale rapporto meriterebbe un approfondimento a parte, ma per riassumere basti anche solo pensare ai cibi considerati impuri, ai digiuni prolungati, alle diete rigorose degli interpreti della religione (monaci, eremiti, sacerdoti, sciamani ecc). Da tutto questo insieme di cose si sono generati cibi che successivamente sono entrati in contatto con diverse culture, alcuni piatti poi sono stati adottati in sostituzione di altri, mentre alcuni ingredienti sono giunti addirittura solo dopo le grandi esplorazioni transoceaniche.
Se al dibattito del tortellino ci inventassimo il dibattito sul pomodoro o sulla patata, quali argomentazioni potremmo portare sulla tradizionalità di questi due ingredienti sconosciuti ai nostri antichi padri romani?
Ma soprattutto, se domani decidessi di fare dei tortellini ripieni al tonno, dite che imploderemo?

 

Alessandro Basso

 

[In copertina immagine tratta da Google, contrassegnata per essere riutilizzabile]

banner 2019

“Facciamo che…”: quando il gioco si fa serio

“Facciamo che…”: è la formula che introduce più o meno qualsiasi gioco tra bambini, un brevissimo incipit che ha il potere di sospendere la realtà ed aprire porte su nuovi mondi, trasformando i giocatori, gli oggetti con cui interagiscono e l’ambiente in cui si muovono in qualunque cosa sia accessibile alla fantasia. “Facciamo che questa scopa era un cavallo e che noi eravamo cavalieri che dovevano uccidere il drago”; “Facciamo che il pavimento è lava e noi non dobbiamo caderci”; “Facciamo che siamo esploratori su una montagna e che lo scivolo è la cima da raggiungere”. Gli adulti che osservano dei bambini giocare si stupiscono spesso dell’assoluta serietà che accompagna la finzione ludica: il “facciamo che…” modifica la percezione del reale con una forza unica, e il giocatore ne è totalmente assorbito. Il guastafeste che, annoiato o stanco di perdere, interrompe l’illusione con “Ma tanto non è vero che noi siamo esploratori/cavalieri/astronauti” è colpevole di “aver rovinato il gioco”, un vero e proprio crimine che a volte si sconta con l’esclusione dal gruppo.

La tenerezza e la sorpresa con cui si guarda ai giochi dei bambini è ironica, però, considerato il numero di giochi in cui gli adulti sono immersi da tutta una vita, in maniera talmente profonda da non riuscire più neanche a riconoscerli come tali. “Facciamo che questo pezzo di carta (o tondino metallico, o sasso luccicante) vale quanto un chilo di pane” è uno dei più evidenti. Ciò che è considerato prezioso e che diviene moneta di scambio è tale per convenzione, e per più o meno tacito e unanime accordo, ma non ha alcuna giustificazione reale. Rimane famoso l’espediente con cui i mercanti portoghesi supplirono alla difficoltà di trasportare oro fino alle colonie del sud dell’Africa per acquistare schiavi dai negrieri locali: sdoganarono anche tra gli europei l’uso della conchiglia cauri come moneta di scambio, facendo tra l’altro impennare il valore e il prezzo di una “valuta” che poteva letteralmente essere trovata sotto i piedi di chi poi vendeva anche familiari e merci di valore in cambio di essa.

“Facciamo che ci sono delle linee invisibili che dividono la terra, e che tutti quelli che vivono da una parte o dall’altra di quelle linee si chiamano in maniera diversa”: questo gioco, tra i più antichi del mondo, è lo stesso che nella sua forma più estrema diventa “Facciamo che tutti quelli che vivono al di là della linea invisibile sono nemici e tu devi sparargli”. Se gli interessi reali di chi dichiara guerra e muove gli eserciti sono il più delle volte comprensibili e in certa misura razionalizzabili, tutto ciò che concerne gli attori principali, i soldati stessi, dalle uniformi al gergo militare, dalla gerarchia alle medaglie-premio, ricorda, più che una tanto declamata “arte” della guerra, un gioco di gruppo dalle regole ferree, che richiede una sospensione dell’incredulità (“Una persona che non ho mai visto ma che ha un costume diverso dal mio è mio nemico e devo sconfiggerlo”) accessibile solo grazie alla ferrea autodisciplina percettiva che tanto colpisce nei bambini.

Di giochi come questo se ne possono riconoscere a decine nella vita “seria” e “razionale” degli adulti, giochi talmente interiorizzati e immersivi che non possono neanche più venir messi in questione nella loro realtà effettiva, pena l’esclusione dal gruppo, o peggio. Il problema sta tutto nel fatto che la maggior parte di questi giochi, portati all’eccesso, ha portato disuguaglianze, ingiustizia, morte, perfino squilibri planetari, premiando ciecamente i vincitori e punendo spietatamente i perdenti.

A ben guardare, c’è una sola, grande differenza che separa il mondo dei giochi dei bambini e quello degli adulti: per i primi, dopo un pomeriggio al parco giochi, arriva sempre qualche genitore a interrompere la finzione e riportare gli esploratori, i cavalieri o chi per loro alla realtà, con una lezione che andrebbe riscoperta e reimparata prima di causare troppi danni con le conseguenze della nostra immaginazione. “Il gioco è bello quando dura poco”.

 

Giacomo Mininni

 

copabb2019_set

I limiti della morale biopotenziata

Il progresso cognitivo dell’uomo ha determinato uno sviluppo tecnologico estremamente potente. Le nuove tecnologie hanno un potenziale enorme: nel bene e nel male. Se prendiamo in considerazione l’assunto secondo cui nuocere è più facile che giovare, è possibile, a causa dello sviluppo esponenziale tecnologico, porre fine per sempre alla nostra esistenza. Basti pensare alle armi di distruzione di massa.

Sebbene vi sia stata questa inevitabile evoluzione, il nostro progresso morale è modesto in confronto ai due progressi sopracitati. Il rischio segnalato poc’anzi è indiscutibilmente alto e accessibile a più persone. Per arginare tale problema abbiamo bisogno di diventare più saggi e morali. Dalla ricerca condotta da due filosofi, Ingmar Persson e Julian Savelscu, si evince che il nostro comportamento morale ha delle significative influenze biologiche. Abbiamo delle euristiche1 e dei bias2 morali, dei limiti, che in parte derivano dalla nostra conformazione biologica e sono costituiti da più fattori: tempo, spazio, quantità.

Non manifestiamo un bias spaziale verso di noi né verso i nostri conoscenti più stretti, tuttavia la preoccupazione che mostriamo per un estraneo in difficoltà varia a seconda della distanza. Siamo inclini a manifestare maggior preoccupazione per un estraneo in difficoltà che sappiamo essere vicino, rispetto a uno sconosciuto lontano da noi. Il secondo bias che prendiamo in considerazione è quello temporale.

«Il nostro bias temporale per il futuro prossimo fa sì che rinviamo irrazionalmente la nostra sofferenza anche a costo di renderla peggiore»3.

Il bias relativo all’ampiezza determina un ulteriore ostacolo: il gran numero di soggetti ai quali dobbiamo rispondere può costituire un ostacolo alla nostra adozione di una risposta morale appropriata; fenomeno chiamato “insensibilità all’ampiezza”. Questi limiti morali potrebbero così fornire una spiegazione ad alcuni nostri comportamenti, quali la xenofobia, una mancanza di interesse verso il fenomeno del cambiamento climatico ecc. Tali comportamenti potrebbero essere indeboliti dai sistemi tradizionali, come l’educazione, tuttavia non è possibile aspettarsi un risultato celere quindi l’esigenza di rivolgersi a una soluzione alternativa: il biopotenziamento morale. Il comportamento morale, definito come ogni altro comportamento umano, può essere potenziato.

Paradossalmente l’uomo, dopo aver trasformato radicalmente l’ambiente circostante attraverso la tecnologia, dovrà applicare la stessa alla sua natura per poter continuare a vivere nell’ambiente creato. La biologia potrà consegnarci delle tecniche per il biopotenziamento morale come farmaci o delle modificazioni genetiche.
Sicuramente un’analisi interessante quella fornita dai due filosofi in quanto si pone una questione essenziale: l’adeguatezza delle nostre capacità morali rispetto ai problemi che ci troviamo ad affrontare oggi, eppure potrebbero delinearsi degli scenari allarmanti; innanzitutto le tecniche per il biopotenziamento saranno sviluppate da esseri umani nello stato attuale di “inetti morali”. Inoltre, chi definisce la morale secondo cui dovrà essere
sviluppato il biopotenziamento?

La morale denominata “del senso comune”, che definisce un insieme di atteggiamenti morali che fungono da denominatore comune di morali diverse non è detto che siano universali, ovvero riconosciuti in tutti i contesti del mondo. E anche fosse comune potrebbe non essere immune da critiche. Il biopotenziamento morale, inoltre, potrebbe minare la libertà umana, la quale è un prerequisito a un’azione veramente morale. È vero che i valori di libertà e autonomia non sono valori assoluti, ma trovano una loro ragione d’essere e un proprio equilibrio insieme a tutti gli altri. Ma perdere la libertà ci farebbe perdere anche la nostra identità? Se è vero che non siamo necessariamente ciò che facciamo è anche vero che ciò che facciamo è una manifestazione del nostro essere.
Che cosa comporterebbe pertanto tutto questo? Una perdita di noi stessi?

 

Jessica Genova

 

NOTE:

1. Le euristiche sono procedimenti mentali intuitivi che permettono di effettuare un’idea generica su un argomento, giungendo così a una conclusione in modo rapido.
2. Bias significa errore di interpretazione, giudizio arbitrario o distorto.
3. I. Persson, J. Savulescu, Inadatti al futuro. L’esigenza di un potenziamento morale, Rosenberg & Sellier, 2019.

[Immagine tratta da google immagini]

copabb2019_set

Una prospettiva etico-filosofica della magia

La magia oggi non riveste alcun ruolo nella cultura. È scaduta a prodotto di nicchia per creduloni e ambito di perizia per ciarlatani. L’unica magia che si salva è quella oggetto di studio dell’antropologia. È di qui che dobbiamo passare se vogliamo interrogarci sull’eventualità che la magia abbia ancora qualcosa da dirci.

L’universo del pensiero magico potrebbe avere un importante messaggio filosofico da darci. Esso ha a che fare con una domanda cruciale: perché la mente umana, fin dalle sue manifestazioni più remote, ha creato un mondo simbolico immenso? Dall’oscuro serbatoio dei pensieri umani in cui germinano sogni di gloria e incubi di dissolvimento si espande un cosmo di proiezioni cariche di inesauribili contenuti. Questo accade almeno da quando alcuni esseri umani hanno iniziato a trasferire i loro pensieri sui dipinti all’interno delle caverne in cui vivevano. Un mondo in cui magia, spiritualità e conoscenza erano solo sfaccettature della stessa impresa: la fabbricazione di senso.

Il pensiero magico ha sempre accompagnato la vita degli umani, ma ad un certo punto non ce l’ha più fatta, non è riuscito a sopravvivere a due fatali eventi: l’Inquisizione e la Rivoluzione scientifica. Il mondo è cambiato molto da allora, per molti aspetti in meglio, ma non per tutti. Ma torniamo all’antropologia.
Dobbiamo a Frazer, agli inizi del ‘900, il primo importante approccio antropologico alla magia. Sebbene laureato in giurisprudenza, Frazer era molto più interessato agli studi sul folclore e sulle culture cosiddette “primitive”. La sua più famosa opera è Il ramo d’oro1, in cui partì dall’idea di confrontare la singolare pratica, secondo un’antica leggenda italica, di sottrarre un ramo dall’albero nel santuario della dea Diana, a Nemi, per poi procedere all’uccisione del sacerdote in carica e prenderne il posto. Da qui continuò allargando l’indagine su pratiche magiche in culture di tutto il mondo.
Il suo lavoro diventò il punto di riferimento, nonché di critica, per molti autori successivi, come Wittgenstein2 , ad esempio, il quale denunciò come l’idea di “selvaggio” e il punto di vista sulla magia fossero permeati di forte etnocentrismo. Fatto sta che sia Frazer, sia Wittgenstein, ma in generale l’antropologia, sentirono il bisogno di esplorare e spiegare la magia perché fondamentalmente, da un bel po’, non siamo più in grado di capirla. Eppure lei era qui, in mezzo a noi, è stata lume della nostra relazione con il mondo fino qualche secolo fa.
Ma che cos’è la magia? Detto con le parole di Guidorizzi, la magia è “un orientamento del pensiero” che si presenta «come visione obliqua e perturbante del mondo, come una possibile risposta al tentativo di indirizzare la realtà affidandone la guida all’Uomo»3.

La magia come guarda al mondo? In questa risposta credo risieda il potenziale valore etico di questa modalità del pensiero. Secondo la magia l’universo è un tessuto la cui fitta trama lega tutti gli elementi, visibili e invisibili. Potremmo dire che la magia vede a priori quei collegamenti che la scienza cerca di discernere man mano, organizzandoli in termini deterministici. Nella magia tutto è connesso e le formule magiche servono a sollecitare l’intercessione di forze occulte per fini pratici umani.

Nella nostra epoca di sapere parcellizzato e fortemente dominato da un approccio riduzionistico, fatichiamo a cogliere la preziosità della complessità che la magia invece dava come presupposto dell’esistenza. È proprio l’incapacità di vedere la complessità che ci porta a infliggere danni ormai irreversibili all’ecosistema, insensibili alle intime connessioni che tengono in vita il nostro pianeta e noi stessi.
Molte analogie e contrapposizioni sono state evidenziate tra magia e scienza. La seconda, lungo tutto il corso della sua emancipazione, si è resa autonoma proprio a partire dalla magia. Il primo a voler depurare un approccio “proto-scientifico” da uno magico fu Ippocrate, il quale affermò che ogni malattia ha una causa naturale e le pratiche di cura basate su esorcismi, ad esempio, sono fuorvianti se non dannose. In questo caso la superstizione, come la chiamiamo noi ora, era il risvolto di una modalità di visione iper-connessa. Il fatto è che se tutto è potenzialmente interconnesso, è possibile che il risultato sia il caos. Vedere lo spirito maligno al posto di un difetto di conduzione nervosa a carico del cervello, come aveva già compreso Ippocrate nel caso dell’epilessia, distoglieva da più concrete possibilità di cura. Questo accade purtroppo ancora oggi, quando persone che professano poteri guaritivi anti-scientifici arrivano a plagiare alcuni malati, con il risultato di allontanarli da possibilità di cura più efficaci. I veri maghi di un tempo – naturalmente esistevano anche gli impostori – non erano affatto dei ciarlatani: la magia era piuttosto una forma di sapere pre-scientifico.

Dunque, è chiaro che la capacità di orientarsi nella realtà deve essere un compromesso tra una visione eccessivamente “iperconnessa” e una totalmente “sconnessa”, cioè riduzionista e anti-complessa.
Un altro grande pensatore che si dedicò all’antropologia fu Ernesto de Martino. Muovendosi da un background filosofico, egli si approcciò allo studio della magia con l’intento di comprenderne lo sfondo esistenziale. Anche lui la confrontò con la scienza, definendo quest’ultima come un sapere che ha gradualmente ritirato la “psichicità” dalla naturalità4.
Tutte le proiezioni che la mente magica vedeva stagliarsi nell’universo, la scienza le ha man mano dissipate, lasciando solo la materia con le sue connessioni causali. Chiarezza al prezzo della perdita di complessità. La magia, per de Martino, è una risposta all’angoscia prodotta dall’incertezza della propria presenza, quotidianamente messa alla prova dal rischio di scomparire.
Insomma, è lo stesso motivo per cui esiste la filosofia.

La magia è la risposta al rischio di non esserci e lo sciamano è il grande esploratore del limite, colui che possiede le virtù per sfidare il rischio, portarsi alle soglie del caos e porsi come ordinatore della labilità.
E noi progrediti occidentali, digiuni di pratiche collettive e sguarniti di visioni di armonia universale, come ci poniamo di fronte alla nostra angoscia di scomparire? La scienza è preziosa, ma non possiede i requisiti per placare la nostra naturale inquietudine. La magia si è estinta, certamente aveva i suoi difetti, ma non la filosofia. È lei che ci può ancora guidare nell’esplorazione del perduto terreno delle sconfinate connessioni tra gli elementi del cosmo, costruendo significati, mentre la scienza è ormai fondamentale per scartare alcune connessioni rivelatesi fuorvianti. Un approccio complesso alla realtà sulla scorta della capacità “visiva” del pensiero magico è quanto di più etico la filosofia può desumere dalla storia della magia. Con una certa urgenza, oserei dire, visto che cogliere la complessità è la premessa per salvarci.

 

Pamela Boldrin

 

NOTE:
1 J. G. Frazer, Il ramo d’oro, Newton Compton Editori, 1992, Roma.
2 Note sul Ramo d’oro di Frazer. Ludwig Wittgenstein. Adelphi, 1975, Milano.
3 G. Guidorizzi, La trama segreta del mondo. La magia nell’antichità, Il Mulino, 2015, Bologna.
4 E. de Martino, Il pensiero magico. Prologomeni a una storia di magismo, Boringhieri, 1973, Torino.

[Immagine tratta da Google immagini]

copabb2019_set

Il Seicento, secolo dei dotti e dei geroglifici

Che secolo è stato, il Seicento? La domanda nasce dal fatto che delle epoche successive serbiamo un sunto mentale sufficientemente nitido e condiviso: il Settecento, si sa, fu regno dei Lumi, l’Ottocento industriale e globalizzante partorì l’ebbrezza del capitalismo, mentre del Novecento cominciato solido e terminato fluido conosciamo oramai ogni più recondito anfratto, denudato come l’abbiamo di tutti i suoi drammi e delle sue esaltazioni. Ma del Seicento, che cosa ci rimane?

A questo secolo «astruso e inabissato»1 è dedicato I geroglifici di Sir Thomas Browne (Adelphi 2018), la tesi di laurea con cui Roberto Calasso si congedò nel 1965 da una fugace e mai troppo sentimentale sortita accademica. Un manoscritto rimasto a lungo inedito, e ora riproposto da Adelphi con l’aggiunta di un saggio deuteroscopico buono a corroborare il luogo comune secondo cui «il nostro secolo e il Seicento siano [epoche] affini»2, separate soltanto dallo squarcio purulento della modernità.

Ad accomunare il pre- e il post-moderno sarebbe soprattutto la tensione ibridizzante di natura e cultura, di arte e scienza: «proprio quegli elementi che [la modernità] vorrà tenere separati con ogni cura»3. Se il Seicento è così lontano dal nostro immaginario – lo è molto di più, ad esempio, del Medioevo – è proprio per via dell’occultamento che l’illuminismo esercitò su quell’epoca anfibia, «fertile al tempo stesso di scienza ed empietà»4, come ebbe a dire uno dei suoi più eminenti rappresentanti, Gottfried Wihelm von Leibniz. «Stolidità e illuminazione vi si alternano, e non è possibile districare l’una dall’altra»5.

È Calasso a ricordare come «la forza del dimenticare [abbia] operato potentemente sulla cultura del Seicento», a lungo sommersa e approdata ai giorni nostri sotto forma di relitto esotico e indecifrabile. Eppure, questa zona franca della storia in cui «il più alto e il più basso si mescolano e si confondono»6, fu per antonomasia il «secolo dei dotti»7, dei “pansofisti” capaci di passare con disinvoltura da un ordine delle cose all’altro, per fare germinare la propria vastissima intelligenza su ogni campo del sapere possibile e immaginabile.

I giganti di quest’epoca incestuosa e meticcia di fisica e di metafisica furono il sopracitato Leibniz, il gesuita Athanasius Kircher e, appunto, l’inclassificabile Sir Thomas Browne, che per i suoi contemporanei fu «un grande antiquario, un medico illustre e, soprattutto, un wit»8, naturalista eclettico ed eccentrico. Calasso precisa che fu quest’ultimo a introdurre per primo il saggio come genere letterario e modalità di trasmissione della conoscenza, e fu sempre Browne a inventare parole come electricity e computer. Ci troviamo infatti nella fase embrionale di quell’immane mutazione storica che dal linguaggio analogico avrebbe condotto al digitale, dal reale più tellurico alla sua più astratta rappresentazione.

Una transizione di tale portata storica, ancor oggi tutta da misurare, ebbe convenzionalmente inizio quando Leibniz venne invitato in Cina per tradurre i tetragrammi dell’I Ching, il Libro dei Mutamenti. In quelle linee unite e spezzate, un tempo emblemi dell’arte divinatoria, il matematico di Lipsia lesse il primo esempio storico di numerazione binaria, di informazione linguistica sotto forma di bit. Kircher, dal canto suo, divenne esperto di alfabeti a valenza pittorica e di scritture analogiche come gli ideogrammi cinesi e i geroglifici egiziani, che per primo provò a decifrare. Anche Browne prese parte a quella che fu definita “rinascenza geroglifica”, un ritorno d’interesse delirante ed estenuato per la scrittura egizia che proprio nel Seicento raggiunse il suo acme.

In quell’epoca di “misticismo sperimentale”, infatti, andava maturando la convinzione che tutto fosse artificiale, essendo la natura stessa arte di Dio. «I primi microscopisti, ai quali apparivano regioni segrete e fino allora invisibili della natura, incontravano legioni di minuscoli automi»9, organismi cellulari che si pensava essere manovrati da un’intelligenza immateriale e superiore. L’alchimia, altra Ars Regia che nel Seicento accarezzò lo zenit, nacque proprio per rendere visibili le forze occulte della “Natura Artificiale”, mentre si pensava che la lingua geroglifica fosse il viatico espressivo più adatto a descriverle.

Dal momento che i geroglifici rappresentano le cose così come sono, e dunque «significano la loro forma»10, Kircher e Browne s’erano persuasi che essi fossero il corrispondente più approssimato alla conoscenza divina: «come gli dèi sdegnano le proposizioni e contemplano immagini, così i geroglifici si offrono immediatamente alla contemplazione, saltando la mediazione del linguaggio articolato»11. La natura parla dunque una lingua analogica, immediata, non discorsiva, che impone se stessa istantaneamente e senza ambiguità. Una lingua necessariamente muta, poiché «non si dà traduzione fonetica di quelle immagini, che si offrono solamente alla contemplazione silenziosa»12.

La rinascenza seicentesca dei geroglifici rappresentò così il momento di massima vitalità del pensiero analogico e, al tempo stesso, l’inizio della sua decadenza. Oggi diguazziamo nel guado del grande fiume digitale, attorno a noi continua senza sosta la proliferazione cieca dell’immagine, e perciò la sua più completa svalutazione. Il trionfo del polo sostitutivo su quello connettivo – etichette mai dome con cui Calasso va chiamando ormai da decenni il digitale e l’analogico – è tale che bastano due segni soltanto, lo zero e l’uno, per rendere conto della realtà in tutta la sua estensione. Il «delicato equilibrio tra occulto e manifesto»13 è tutto lì, nel potere spropositato e inesorabile della sostituzione digitale. Con buona pace dei pansofisti seicenteschi e della loro ossessione analogica per i geroglifici.

 

Alessio Giacometti

 

NOTE:
1. R. Calasso, I geroglifici di Sir Thomas Browne, Adelphi, Milano 2018.
2. Ivi p. 23
3. Ivi p. 114
4. Ivi p. 41
5-6. Ivi p. 63
7. Ivi p. 182
8. Ivi p. 14
9. Ivi p. 49
10. Ivi p. 76
11. Ivi p. 79
12. Ivi p. 130
13. Ivi p. 146

[Immagine tratta da archivio personale dell’autore, dettaglio di stampa planisfero del XVII secolo]

banner 2019

Tutti dovremmo stare con i ragazzi del Cinema America

Prima della politica e della passione per il cinema c’è un grande insegnamento che pulsa sotto le magliette dei ragazzi del Cinema America. È la voglia di vivere con estrema consapevolezza il nostro presente senza smettere mai di provare a rendere migliore il piccolo angolo di mondo in cui ci troviamo. La loro storia, dunque, non deve riguardare solo chi ama il cinema ma ognuno di noi, senza alcuna distinzione.

Una breve premessa è doverosa: tutto ha avuto inizio nel 2012, grazie all’occupazione di una sala simbolo del centro di Roma. Con grande caparbietà, tenacia e un po’ di follia, i ragazzi sono riusciti a mettere in piedi in pochi anni uno degli eventi culturali più importanti e popolari della Capitale. Dopo aver occupato abusivamente il cinema America nel quartiere di Trastevere, hanno iniziato ad organizzare incontri e proiezioni autonome per tenere viva la sala, salvandola, per un periodo, dal fallimento della gestione Cecchi Gori. L’intento iniziale non era legato necessariamente ai film ma a creare incontri e occasioni di dibattito che potessero unire e far riflettere chi viveva nei dintorni della sala. Sgomberati nel 2014 dalle forze dell’ordine, i ragazzi sono riusciti ad allestire una loro personale rassegna cinematografica nella vicina piazza San Cosimato, coinvolgendo ancora una volta i residenti del quartiere e mettendo di fatto in piedi una rassegna estiva di cinema all’aperto in cui è il pubblico a essere il vero protagonista dell’evento, partecipando attivamente e riappropriandosi di fatto degli spazi pubblici grazie al potere aggregativo del grande schermo. Li hanno chiamati “giovani supereroi della cultura”, hanno portato nelle piazze il buon cinema nonostante l’opposizione delle istituzioni e le mille difficoltà burocratiche che non gli hanno impedito di far dialogare con il pubblico i più grandi registi e protagonisti del cinema internazionale. Partendo dall’idea che si può lasciare un luogo migliore di come lo si è trovato, dal 2018 il loro progetto “Cinema in Piazza” ha visto coinvolti anche il parco del Casale della Cervelletta a Tor Sapienza e il Porto Turistico di Roma, ad Ostia. Circa 150mila gli spettatori coinvolti nella restituzione, a Roma e dintorni, di autentici “polmoni” per la cultura in città.

Pochi giorni fa la loro storia è finita sotto i riflettori della cronaca internazionale per due ignobili aggressioni ai danni di un gruppo di giovani la cui unica “colpa” è stata quella di essere vestiti con la maglietta dell’associazione. Sono stati chiamati “antifascisti” e sono stati picchiati perché si sono rifiutati di togliere la maglia del cinema America. Due episodi di questo genere devono essere condannati senza esitazioni e necessitano di tutta la solidarietà possibile nei confronti di chi porta ancora avanti il progetto del “Cinema in Piazza”. Quello su cui dobbiamo riflettere però è il fatto che oggi, in tutta Italia, i ragazzi del cinema America non sono soli. Persone di ogni età provano ogni giorno, con tutti i mezzi a loro disposizione, a diffondere cultura in modo costruttivo, mettendo in pratica lo stesso insegnamento che muove da sempre i ragazzi del Cinema America: renderci consapevoli che, con la partecipazione di tutti, le cose possono cambiare per davvero. La lotta contro l’immobilismo e l’indifferenza che stanno facendo scomparire sempre più sale cinematografiche nel nostro Paese si può combattere seguendo il modello del Cinema America. Come già detto però, questa non è solo una storia di ragazzi che amano il cinema. È il racconto di chi, traboccante di sogni, lotta ogni giorno per unire le persone attraverso la cultura per dirci che l’unione e la condivisione di determinati valori sono il motore unico che può condurci verso una consapevolezza civica più attiva e ragionata sia nelle piazze delle nostre città che davanti alla magia di uno schermo cinematografico.

 

Alvise Wollner

 

[immagine tratta da Facebook]

 

banner 2019