La crisi del realismo nella filosofia della scienza contemporanea come esito ultimo della crisi della modernità

Paolo Musso

Prima di qualsiasi discussione sul tema del realismo nella filosofia della scienza contemporanea è necessario un breve excursus storico per capire come è stato possibile che il realismo scientifico, che sembrerebbe dover essere un presupposto di qualsiasi discorso epistemologico sensato, sia diventato invece un problema e, più ancora, per capire la causa profonda di tale paradossale fenomeno, che a mio giudizio sta nel progressivo affermarsi di una particolare idea “chiusa” di ragione, che però, come vedremo, non ha nulla a che vedere con la scienza reale, ma è nata invece in ambito filosofico, provenendo da una lunga tradizione, che ultimamente fa capo a Cartesio. Peraltro quello che cercherò qui di fare sarà essenzialmente delineare le linee fondamentali del problema e mostrare alcuni esempi emblematici di ciò che si sta muovendo (o, al contrario, sta restando bloccato) nell’ambito dell’epistemologia contemporanea, senza pretendere di darne un quadro esauriente e completo, per la qual cosa occorrerebbe uno spazio molto più ampio di quello di cui qui dispongo1.

1. Il neopositivismo logico e l’origine dell’epistemologia moderna

Benché in quasi tutti i manuali l’inizio della filosofia della scienza venga fatto coincidere con la nascita, attorno a Moritz Schlick, del celeberrimo Circolo di Vienna e del movimento del neopositivismo logico che ne scaturì (da cui poi a sua volta nacque la filosofia analitica), essa è in realtà antica quanto la scienza stessa. Né avrebbe potuto essere diversamente, dato che era semplicemente impensabile che la riflessione umana avesse per ben tre secoli evitato accuratamente di misurarsi col fenomeno più caratteristico dei tempi moderni, la cui imponenza, non solo teorica, ma anche pratica e sociale, era diventata evidente già prima del XX secolo (si pensi solo allo sviluppo del motore a vapore e poi dell’elettricità). E di fatto pare difficile negare che il primo e in certo senso il più grande filosofo della scienza sia stato il suo stesso fondatore, vale a dire Galileo Galilei. Allo stesso modo, molti grandi scienziati dopo di lui sono stati certamente anche grandi filosofi della scienza: basti solo pensare a Newton, a Darwin, a Bohr e, ovviamente, ad Einstein, la cui stessa teoria della relatività nacque in un certo senso da una riflessione epistemologica a proposito di come facciamo in concreto a misurare il tempo e lo spazio.2 Ma anche nel campo filosofico quasi tutti gli autori più importanti (così come, ovviamente, molti dei minori, nonché moltissimi altri che non sono mai entrati in nessun libro di storia della filosofia) non hanno mancato di riflettere sia sul metodo che sul significato della scienza moderna.

Tuttavia il luogo comune di cui sopra non è nato dal nulla, ma riflette la pretesa dei neopositivisti di essere i “veri” iniziatori della riflessione epistemologica, in quanto sarebbero stati i primi a possedere un metodo rigoroso. Tale metodo non era in realtà nient’altro che il vecchio empirismo radicale di David Hume, che si presentava però ammantato di una pretesa “scientificità” grazie all’uso massiccio della moderna logica matematica, che proprio pochi anni prima aveva raggiunto la piena maturità grazie alla prima monumentale sintesi operata da Bertrand Russell e Alfred North Whitehead nei loro Principia Mathematica.3 In realtà il formalismo logico non cambiava in nulla i termini essenziali del problema, giacché esso poteva servire solamente a comporre e scomporre i vari concetti, mentre il vero problema era la loro natura. I neopositivisti infatti, in perfetto stile humeano (anche se le loro idee erano desunte prevalentemente dal Tractatus logico-philosophicus di Ludwig Wittgenstein), pretendevano, secondo il loro celebre “principio di verificazione” per cui “il senso di una proposizione è il metodo della sua verifica”,4 che ogni proposizione dotata di senso o corrispondesse a un fatto empirico assolutamente semplice (proposizione atomica) o fosse riconducibile ad una somma di proposizioni di tal fatta (proposizione molecolare). L’analisi logica del linguaggio scientifico avrebbe dovuto appunto dimostrare che le cose stavano così anche quando a prima vista pareva il contrario. Ma naturalmente il problema erano i presupposti, tanto espliciti che, soprattutto, impliciti, che stavano alla base di tale concezione. A parte infatti l’evidente assurdità dell’idea che delle proposizioni, che sono per definizione delle entità composte (come minimo di soggetto e predicato), potessero corrispondere a fatti assolutamente semplici (e infatti il neopositivismo andò in crisi, ben prima delle critiche di Popper, proprio a causa dell’ossessiva quanto disperata ricerca di tali – inesistenti – “fatti semplici”),5 l’errore di fondo stava nel non rendersi conto (o, più probabilmente, nel non voler rendersi conto) che una proposizione universale può essere scomposta in un insieme di proposizioni semplici solo se si è già prima assunto, almeno implicitamente, che essa si riferisce sempre e soltanto ad un numero finito di fatti e non invece ad uno infinito (almeno potenzialmente), come pare essere il caso, per esempio, delle leggi di natura: nessuna logica, per quanto raffinata, potrebbe infatti mai ottenere l’infinito a forza di sommare quantità finite.6

In realtà questo vale per qualsiasi proposizione universale, ma il caso delle leggi di natura era particolarmente imbarazzante per i neopositivisti, giacché essi si proponevano di esaltare la scienza come unica forma di conoscenza valida e non potevano quindi accettare di dichiarare che proprio le sue proposizioni più importanti erano prive di senso. Tuttavia proprio questa era la conseguenza inevitabile della loro posizione, e proprio questa fu l’obiezione di fondo che mosse loro Popper.

2. Popper e il falsificazionismo

Basandosi su tale obiezione, alla quale i neopositivisti non seppero mai replicare adeguatamente, Popper propose la sua celeberrima teoria del falsificazionismo, secondo la quale tra la verifica e la falsificazione esisterebbe una asimmetria logica, in quanto una proposizione universale, per esser vera, dovrebbe esserlo, appunto, di un numero infinito di casi, il che richiede un numero altrettanto infinito di controlli; mentre per falsificarla ne basta uno, che si può sempre riuscire a trovare entro un numero finito (benché talora molto grande) di controlli.7 Questo, naturalmente, se un tale fatto falsificante esiste. Se invece non esiste, i controlli ovviamente andranno avanti all’infinito: tuttavia neanche in questo caso potremo mai sapere che la proposizione in questione è vera, giacché in qualsiasi momento avremo controllato sempre e soltanto un numero finito di casi e non potremo quindi escludere che un controllo successivo porti alla sua falsificazione. Di qui l’altra celebre teoria popperiana del progresso scientifico come approssimazione asintotica alla verità, che tuttavia, essendo indimostrabile, era destinata a restare un mero oggetto di fede – o, più esattamente, di fideismo. Per questo Popper tentò di precisarla meglio in termini di crescita del contenuto empirico di una teoria,8 idea che però si dimostrò inconsistente, al punto che egli stesso finì per abbandonarla.

La conseguenza più grave del non poter mai sapere se una proposizione è vera, tuttavia, è che ciò porta il falsificazionismo a distruggere se stesso. Popper stesso infatti, dopo aver proclamato in lungo e in largo che basta un solo fatto falsificante perché una teoria debba essere gettata via, e dopo aver criticato duramente gli scienziati che (giustamente) si guardano bene dal farlo finché la teoria produce nuove scoperte e non ne è disponibile una migliore, dovette riconoscere, già all’interno della stessa Logica della scoperta scientifica, che le cose in realtà non sono così semplici. Infatti per ottenere una falsificazione definitiva sarebbe necessario che almeno l’esistenza del fatto falsificante fosse stabilita con certezza. Ma per Popper «le asserzioni possono essere giustificate solo da altre asserzioni»:9 il ricorso all’esperienza sensibile (che egli significativamente chiama «psicologismo»10) non può farlo perché in ogni caso sarà necessario interpretare o quantomeno descrivere ciò di cui si è avuta esperienza e «ogni descrizione fa uso di nomi (o di simboli, o di idee) universali»;11 di conseguenza, non è mai “puramente osservativa”, come volevano i neopositivisti, bensì a sua volta «ha il carattere di una teoria, di un’ipotesi»,12 che riguarda ambiti almeno in parte diversi da quello della teoria che si voleva controllare originariamente (le cosiddette teorie ausiliarie, che per esempio descrivono il funzionamento degli strumenti e specificano le condizioni al contorno). Per questo nel momento in cui si trova un risultato non corrispondente alle previsioni si sa che una falsificazione è avvenuta, ma non si può sapere dove è avvenuta, cioè se la teoria falsificata è proprio quella che stavamo controllando. Ciò sarebbe infatti possibile solo se potessimo sapere con certezza che le teorie ausiliarie sono vere: ma poiché per Popper di nessuna teoria si può mai sapere che è vera,13 la pretesa asimmetria tra verifica e falsificazione si perde (giacché anche per ottenere una falsificazione definitiva occorrerebbe un numero infinito di controlli) e la modifica che andremo a fare nel nostro apparato teorico finisce per dipendere da una nostra decisione, cioè è in ultima analisi convenzionale.14

Il falsificazionismo quindi, già nella versione originaria di Popper e più ancora in quella del suo allievo Imre Lakatos,15 finì per divorare se stesso e si ritrovò privo di difese di fronte alla marea montante del relativismo, il cui atto di nascita può essere considerato la pubblicazione del celeberrimo La struttura delle rivoluzioni scientifiche di Thomas Kuhn nel 1962, benché alcuni contributi fondamentali fossero già apparsi un po’ prima.

3. La svolta relativista

All’origine della “svolta relativista” (relativistic turn) dell’epistemologia contemporanea ci furono molteplici fattori. Anzitutto il radicale capovolgimento delle proprie idee da parte di Wittgenstein, il quale rinnegò tra l’altro la sua tesi originaria che la struttura logica del linguaggio sia uno “specchio” della struttura del mondo e cominciò invece a sostenere che il significato delle parole è determinato dall’uso e quindi, ultimamente, dal contesto sociale. Poi le tesi sulla psicologia della percezione di Thomas Hanson, il quale sosteneva che le nostre idee influenzano le nostre stesse percezioni, al punto che persone che hanno teorie diverse su determinati aspetti della realtà vedono letteralmente cose diverse. Quindi le critiche di Willard Van Orman Quine ai “dogmi dell’empirismo”, soprattutto alla possibilità di determinare univocamente la verità di una proposizione in base all’esperienza, in quanto il significato di ciascun termine dipende dalle sue relazioni con tutti gli altri, per cui in ogni momento è sempre tutta la nostra “rete concettuale” che viene messa in rapporto con l’esperienza. E infine la tesi di David Bloor, Steven Woolgar e Bruno Latour che la conoscenza scientifica è determinata da fattori sociologici e non da ragioni obiettive, poiché anche gli esperimenti devono essere interpretati e alla fine l’interpretazione che si afferma è quella che viene scelta per la pubblicazione sulle riviste più importanti da parte di chi detiene il potere all’interno della comunità scientifica.

Tutti questi differenti filoni finirono però per convergere in due tesi fondamentali: a) quella della sottodeterminazione delle teorie, secondo cui uno stesso insieme di dati può sempre essere spiegato altrettanto bene da più teorie (al limite infinite) differenti tra loro dal punto di vista concettuale; b) quella della incommensurabilità delle differenti teorie, secondo cui non esiste nessun criterio oggettivo per stabilire che una teoria è migliore di un’altra.

Tali tesi trovarono la loro espressione più compiuta ed emblematica nell’opera di Thomas Kuhn, che riuscì anche a corredarla di un lessico di successo, tanto che oggi è diventato di uso comune, anche da parte di molti che Kuhn non sanno nemmeno chi sia, generando la celebre distinzione tra scienza normale, in cui si affrontano problemi non fondamentali seguendo i concetti guida, le regole metodologiche e i criteri valutativi stabiliti da un paradigma accettato da tutti, e appunto rivoluzioni scientifiche, in cui si affrontano invece problemi così fondamentali da mandare in crisi il paradigma stesso, facendone nascere uno nuovo. Poiché la razionalità scientifica si basa interamente sui paradigmi, ovviamente la fase di transizione da un paradigma all’altro non può basarsi su argomenti razionali, giacché gli argomenti che saranno ritenuti validi secondo il vecchio paradigma non lo saranno secondo il nuovo e viceversa. Per questo i due paradigmi sono appunto incommensurabili tra loro e di conseguenza il passaggio dall’uno all’altro si spiega in base a fattori psicologici (che Kuhn paragona ad un’esperienza mistica o ad un cambio di Gestalt) e sociologici (soprattutto il fatto che i sostenitori del vecchio paradigma un po’ alla volta muoiono e vengono soppiantati dai fautori del nuovo) e non può essere giustificato razionalmente,16 ma solo attraverso argomentazioni retoriche. Ovviamente ciò portava a negare l’esistenza stessa di un progresso scientifico (che spesso da questi autori viene chiamato “concezione accumulativa della scienza”, secondo un assai radicato vizio tipico della filosofia analitica di dare nomi stravaganti e/o altisonanti a cose ovvie e risapute per farle sembrare nuove e profonde), poiché se i diversi paradigmi sono incommensurabili non è evidentemente possibile stabilire che quello che si afferma spieghi “meglio” la realtà, ma solo “diversamente”. Non ancora contento, Kuhn si spinse fino ad affermare che i cambiamenti teorici modificano la realtà stessa, sicché «dopo una rivoluzione, gli scienziati lavorano in un mondo differente».17 Per non parlare poi di Paul Feyerabend, che eliminò del tutto la “scienza normale”, vedendo praticamente in ogni scoperta una “rivoluzione” che seguiva un suo proprio “paradigma”18 ed era perciò incommensurabile con tutte le altre.

Naturalmente queste tesi non mancarono di suscitare reazioni, sia da parte dei popperiani che anche all’interno dello stesso campo dei relativisti, finché gli aspetti più estremi vennero messi da parte, giungendo ad una sostanziale “pacificazione”, così riassunta nel 1988 da Richard Rorty: «Le due parti contendenti […] sono ormai d’accordo che l’intraducibilità non implica la non-apprendibilità (unlearnability) e che la possibilità di apprendere è tutto quel che si richiede per rendere possibile la discussione. La maggior parte dei critici di Kuhn ha ammesso che non vi è nessun metavocabolario astorico nei cui termini formulare algoritmi per la scelta delle teorie. [...] La maggior parte dei difensori di Kuhn ha ammesso che le teorie vecchie e le nuove trattano entrambe dello “stesso mondo”. Non c’è dunque più molto che giustifichi il perdurare della controversia».19 Tuttavia, come si vede chiaramente anche da questo passo, ancora una volta tutta la discussione si era concentrata esclusivamente sull’aspetto linguistico e teorico, lasciando completamente da parte la questione del rapporto con la realtà: e ciò a dispetto del fatto che, come proseguiva Rorty, «lo spostamento di attenzione che ne è derivato ha fatto sì che la discussione si accentrasse attorno a [...] diversi temi, discussi sotto l’etichetta generale di “realismo scientifico”».20 Ma il modo in cui ciò è avvenuto ha reso perlopiù impossibile venire a capo del problema, o anche solo impostarlo correttamente. E infatti, se la tesi dell’incommensurabilità può considerarsi almeno in parte superata, quella della sottodeterminazione, con l’antirealismo che inevitabilmente ne consegue, è più viva che mai, al punto che oggi è veramente difficile trovare un filosofo della scienza disposto ad ammettere senza ambiguità che le teorie scientifiche possano essere vere. D’altra parte, anche ammettere la mera traducibilità delle teorie prescindendo dalla loro verità rende in gran parte illusorio lo stesso superamento del problema dell’incommensurabilità: se infatti tutta la discussione rimane interna alle teorie stesse, senza far riferimento ad una realtà esterna, si potrà discutere finché si vuole, ma la cosa sarà fine a se stessa, giacché alla fine mancherà sempre un criterio veramente oggettivo per stabilire quale teoria è migliore.

A ben vedere, dunque, il relativismo epistemologico non fece altro che portare alle estreme conseguenze la tesi di Popper per cui le teorie finiscono sempre per essere paragonate con altre teorie e mai con la realtà. Ciò, beninteso, parlando esclusivamente in senso teoretico, giacché dal punto di vista storico i relativisti giunsero ai loro risultati indipendentemente da lui, a parte Paul Feyerabend, che di Popper fu addirittura allievo. Ma proprio la pressoché assoluta coincidenza delle sue tesi21 con quelle degli altri relativisti dimostra come le due linee di pensiero si basavano oggettivamente sugli stessi concetti di fondo. E, soprattutto, sulla stessa idea di ragione.


4. Il dogma centrale della modernità

Non c’è dubbio, infatti, che Rorty abbia ragione a dire che “non vi è nessun metavocabolario astorico nei cui termini formulare algoritmi per la scelta delle teorie”. Il punto è che non vi è nemmeno bisogno di tale metavocabolario, perché, semplicemente, la “scelta” delle teorie non è una questione di vocabolario, ma di rapporto con la realtà. Allo stesso modo, è altrettanto vero che non esistono nemmeno proposizioni “puramente osservative”, ma, di nuovo, non vi è neanche bisogno di esse: è sufficiente riconoscere che per quanto la teoria penetri e condizioni la pratica sperimentale22 essa tuttavia non la esaurisce, giacché nelle nostre operazioni rimane sempre una componente irriducibile alle nostre idee, che determina il risultato degli esperimenti e, attraverso di essi, a sua volta penetra e condiziona la teoria. Come ha notato giustamente Marco Buzzoni, «nell’applicazione di una teoria al mondo reale […] possiamo legittimamente presupporre soltanto il suo significato, non invece la sua verità […]. Il soggetto determina il genere o il tipo di operazioni che debbono venir eseguite, ma il processo determinato che ha luogo fra gli strumenti […] e l’ambito reale ha caratteristiche proprie, indipendenti».23

Riconoscere l’esistenza di questo rapporto ineludibile e originario tra componente teorica e componente materiale nella scienza sembrerebbe (e in effetti è) la cosa più ovvia e naturale del mondo. Perché allora i moderni epistemologi la trovano così difficile, al limite (e spesso anche oltre il limite) dell’impossibile? La risposta a mio avviso è tanto semplice quanto significativa: perché ammettere tale nesso obbligherebbe ad ammettere anche l’esistenza dell’altro nesso, non meno ineludibile e non meno originario, tra ragione e realtà, che è invece, da almeno quattrocento anni, la vera “bestia nera” della filosofia moderna, non solo di quella della scienza. Prendere posizione in tal senso appare quindi (e in effetti è) come un mettere in discussione la modernità in quanto tale. Senza contare poi che il riconoscere l’esistenza di una intuizione intellettuale e non meramente sensibile, cioè di una facoltà della ragione non riducibile alla logica e quindi non riproducibile da un sistema meccanico, sembra aprire (e in effetti apre) la strada al “pericoloso” riconoscimento dell’esistenza nell’uomo di una componente immateriale, il che appare inaccettabile alla stragrande maggioranza di questi autori, che sono abituati ormai da tempo a dare per scontata (benché non lo sia affatto) l’equivalenza “scienza = materialismo”.

Che questo e non altro sia il vero cuore del problema, tuttavia, avrebbe dovuto esser chiaro già con Popper, che in effetti, avendo giustamente obiettato ai neopositivisti che le leggi di natura, essendo universali, non possono essere ricavate per via logica a partire da fatti o insiemi di fatti, che sono sempre e solo particolari, avrebbe dovuto concludere che evidentemente la nostra ragione non si riduce alle sue sole capacità logiche. Invece, come è noto, Popper ne trasse la conclusione opposta, che cioè l’ideazione delle teorie scientifiche (e, più in generale, di qualsiasi proposizione autenticamente universale)24 è irrazionale. È molto istruttivo rileggere il celebre passo in cui egli enuncia questa tesi: «Il mio modo di vedere la cosa […] è che non esista nessun metodo logico per avere nuove idee, e nessuna ricostruzione logica di questo processo. Il mio punto di vista si può esprimere dicendo che ogni scoperta contiene un “elemento irrazionale”».25 Qui si vede infatti con la massima chiarezza che egli, pur criticandoli, condivide la stessa idea di ragione ridotta a logica dei neopositivisti:26 l’unica differenza è che Popper, più obiettivamente di loro, riconosce che la logica non basta per avere nuove idee, ma proprio per questo ne conclude che tale processo, non essendo logico, è per ciò stesso irrazionale.27 In sostanza dunque, come ha ben chiarito Dario Antiseri (seppur involontariamente, essendo un popperiano convinto), Popper non ha fatto altro che operare «un capovolgimento pressoché totale dell’impostazione e della soluzione dei problemi discussi dai membri del Kreis».28 Ma un bicchiere capovolto resta pur sempre un bicchiere, anche se finché si trova in quella posizione non lo si può più usare per la sua funzione originaria, cioè per bere (anche se lo si potrà usare per altre cose, per esempio appoggiarvi sopra degli oggetti); e d’altra parte la situazione è per sua natura instabile, poiché basta un nuovo capovolgimento per ritornare al punto di partenza. Allo stesso modo, la visione nepositivista messa a testa in giù da Popper restava sostanzialmente se stessa, anche se non era più in grado di svolgere la funzione per cui era stata originariamente pensata, cioè dare una spiegazione integralmente materialista della conoscenza scientifica. Cionondimeno, non per questo essa diventava capace di fondare realmente una spiegazione non materialista,29 giacché la critica al materialismo era stata ottenuta a prezzo di negare lo status di conoscenza alla scienza; e d’altra parte il ri-rovesciamento della situazione, almeno per alcuni aspetti, è effettivamente accaduto in molti autori relativisti posteriori a Popper, che pur non avendo restaurato sic et simpliciter l’ortodossia neopositivista dura e pura sono nondimeno tornati in gran parte a posizioni scientiste e materialiste.

Inoltre, l’epistemologia posteriore al relativistic turn,30 pur avendo tendenzialmente “liberalizzato” la rigida identificazione neopositivista e popperiana tra ragione e logica, ne ha tuttavia mantenuto il nocciolo, ovvero l’idea che la razionalità consista essenzialmente in un adeguamento a determinate regole, con l’inevitabile conseguenza che dunque la razionalità stessa può esistere solo all’interno di uno schema già dato, per cui tutto ciò che non si inquadra in esso è automaticamente relegato nell’ambito dell’irrazionale. Come poi un tale schema possa arrivare a “darsi”, non potendo (per definizione) essere opera della ragione, è il grande punto problematico irrisolto di tutta questa tradizione epistemologica. Ma, in effetti, è il grande punto problematico irrisolto di tutta la filosofia moderna.

Tale idea chiusa di ragione non è infatti nata col neopositivismo, ma viene da una lunga tradizione filosofica che ultimamente fa capo a Cartesio, il quale non solo ne fu l’iniziatore, ma anche colui che espresse nella maniera più chiara i veri termini della questione: e per questo egli è giustamente ritenuto il padre della modernità,31 cioè dello “stile” di pensiero oggi largamente dominante, che ha ormai da tempo ampiamente travalicato i ristretti confini del mondo dei filosofi “professionisti” per farsi mentalità comune, che determina ogni aspetto della nostra cultura, dagli editoriali dei giornali ai talk show televisivi, dai libri di scuola alla concezione dell’arte, fino alle chiacchiere da bar e al modo di intendere i rapporti personali. Egli non fu invece affatto il padre della scienza moderna, a dispetto di un luogo comune pressoché universalmente diffuso, non avendo capito nulla del metodo galileiano e avendo sempre continuato a far scienza a priori alla maniera degli antichi, pretendendo di derivare la fisica dalla metafisica, il che in un certo senso, paradossalmente, fa di lui, che li aveva sempre avversati, l’ultimo degli aristotelici.32 Alla base di tutto sta il razionalismo, ovvero l’idea che la ragione se vuol giungere alla verità deve fare da sé, senza basarsi su nulla di esterno ad essa. Tuttavia tale presa di posizione non nacque affatto, come in genere si dice, dalla fiducia nella ragione, diventata finalmente “adulta” (peraltro secondo un’idea di “adulto = privo di legami” che è a sua volta conseguenza, e non causa, di tale concezione), bensì da una profonda, profondissima sfiducia nell’esperienza, tanto quella sensibile come quella altrui, come Cartesio stesso ha tanto chiaramente quanto ripetutamente affermato,33 fino al punto di giungere all’assurda pretesa di “dimostrare” l’esistenza stessa del mondo materiale. Da qui deriva quello che ho recentemente proposto di chiamare il «dogma centrale della modernità»34 e che ho definito come «la convinzione che la ragione non può mai incontrare la verità dentro l’esperienza, comunque la si voglia intendere».35 L’espressione può suonare un po’ strana, ma l’ho scelta pensando a quanto è avvenuto in campo teologico, dove, in modo del tutto simmetrico e per le stesse ragioni, si è giunti a negare non tanto il cristianesimo come sistema di credenze e valori, ma come avvenimento storico reale, in virtù del quale la Verità eterna, tramite l’Incarnazione, è diventata appunto incontrabile dentro l’esperienza. Qui non è ovviamente possibile approfondire questo tema, peraltro fondamentale, tuttavia il legame tra le due cose36 si può almeno intravedere senza bisogno di troppi ragionamenti se solo si pensa che anche nel caso della scienza la verità universale (espressa dalle leggi di natura) si incontra nell’esperienza sempre e solo dentro un fatto particolare (attraverso l’esperimento). Ora, proprio il fatto che dentro un particolare si possa scoprire una verità che vale universalmente37 è il vero “scandalo” che l’epistemologia contemporanea, e più in generale la modernità tutta, non vuole accettare. E non vuole accettarlo perché ciò implicherebbe di aprire il sistema e quindi di “perdere il controllo” della situazione, non potendo più determinare a priori cosa si può conoscere e cosa no, o meglio, e ancor più radicalmente, cosa può accadere e cosa no. La mania del controllo è la vera (e tragica, perché illusoria) ossessione che sta a fondamento della modernità.

Se ciò è corretto, come credo che lo sia e come del resto è del tutto evidente proprio nel suo capostipite Cartesio,38 la ragione profonda di tale atteggiamento teorico è dunque pre-teorica ed esistenziale, consistendo ultimamente nella paura del rischio e dell’apertura all’altro da sé, all’imprevisto e al mistero:39 e proprio questo lo rende così difficile da superare, per quante argomentazioni teoriche si possano fornire. Eppure superarlo è necessario, se si vuole uscire dalla gravissima impasse in cui è sprofondata l’epistemologia contemporanea: perché la scienza ha per suo oggetto una natura imprevedibile e misteriosa e soprattutto profondamente “altra” da noi, a cui occorre adeguarsi e ubbidire se si vuole andare avanti, giacché, come ci ricorda Galileo, essa «si burla delle costituzioni e decreti de i principi, degl’imperatori e de i monarchi [nonché, mi permetto di aggiungere, dei filosofi], a richiesta de’ quali ella non muterebbe un iota delle leggi e statuti suoi».40 Al contrario, l’aspetto più paradossale dell’epistemologia moderna, assieme alla già rilevata riduzione all’insignificanza della dimensione sperimentale, sia nelle teorie di Popper che dei relativisti (ma in realtà già anche dei neopositivisti),41 è proprio il quasi totale oblio del ruolo dell’imprevisto nella scienza, quando invece è cosa ben nota che quasi tutte le grandi rivoluzioni sono nate da qualche avvenimento inatteso e non da un cambiamento teorico deciso a tavolino, come parrebbe a leggere i libri di molti filosofi.

5. L’impasse

Che proprio questo sia il problema è del resto dimostrato proprio dal sistematico fallimento dei peraltro non molto numerosi tentativi di andare in direzione di un maggior realismo senza tuttavia mettere veramente in discussione il suddetto “dogma centrale”.

Anzi, in alcuni casi ciò ha perfino peggiorato le cose. Per esempio, se si cerca di superare il dualismo tra quadro concettuale e realtà senza tuttavia ammettere che la ragione possegga un’apertura originaria alla realtà stessa che le permette di adeguarsi ad essa, si sarà irresistibilmente spinti a sostenere, magari anche solo implicitamente e contro le proprie stesse intenzioni, ma tuttavia realmente, che è la realtà che si deve adeguare alla ragione, cioè, nel nostro caso, ai cambiamenti teorici: si finirà cioè per ricadere nell’idealismo, già adombrato, come abbiamo visto, dalla posizione kuhniana. È molto significativo, per esempio, ciò che ha scritto Donald Davidson, uno di quelli che più ha lottato contro quello che chiama “il mito del quadro”: «Se ammettiamo il dogma di un dualismo di schema e realtà, otteniamo la relatività concettuale, la verità relativa a uno schema. Rinunciando al dogma, questo tipo di relatività vien meno. Certamente la verità degli enunciati resta relativa al linguaggio, ma è quella tutta l’oggettività che essa può avere».42 Ma se la verità degli enunciati è relativa al linguaggio e d’altra parte, non sussistendo più il dualismo, essa riguarda anche la realtà stessa, ne segue che un cambiamento nel linguaggio comporta inevitabilmente un cambiamento nell’oggettività degli enunciati, il quale a sua volta, per quanto appena detto, comporta inevitabilmente un cambiamento nella realtà stessa.

Il caso più impressionante, comunque, è forse quello di Hilary Putnam, che ha più volte sottolineato l’importanza cruciale dell’intenzionalità, arrivando a dire che essa rappresenta «il problema della filosofia analitica del XX secolo»43 e addirittura «il problema principale della filosofia»,44 eppure neanche lui ha saputo pensarla come un’apertura originaria della ragione alla realtà, ma l’ha sempre intesa come un’abilità linguistica appresa socialmente, e quindi socialmente condizionata. Ciò ha fatto sì che anche il suo celebre “realismo interno” finisse per negare di fatto proprio il realismo. Putnam infatti, basandosi su un risultato logico piuttosto tecnico45 (e dunque riducendo ancora una volta ingiustificatamente46 la ragione alla logica), è convinto che possano sempre darsi più descrizioni diverse dello stesso mondo, senza che possiamo stabilire qual è quella corretta. Non per questo tuttavia egli ritiene che si debba rinunciare del tutto al realismo, in quanto, se è vero che «tutto ciò che diciamo è convenzionale nel senso che avremmo potuto dire qualcosa d’altro, forse qualcosa di letteralmente incompatibile»,47 è non meno vero che «tutto ciò che diciamo è fattuale nel senso che non avremmo potuto dire qualsiasi altra cosa. Il fatto che diciamo X piuttosto che Y può essere convenzionale, del tutto o in parte, mentre il fatto che diciamo X piuttosto che Z non è affatto convenzionale».48 Dunque, egli conclude, «ci sono “fatti esterni”, e noi possiamo dire quali sono. Quel che non possiamo dire – perché non ha senso – è ciò che i fatti sono indipendentemente da ogni scelta concettuale».49 Ora, qui basterebbe riconoscere che questo è certamente vero, ma tali scelte concettuali possono essere fatte a partire dalla realtà, per trovarci in una posizione autenticamente realista. Ma la concezione meramente linguistica dell’intenzionalità putnamiana gli impedisce di farlo, col risultato che le scelte concettuali possono essere fatte solo a partire dal linguaggio, sicché i fatti esterni, un attimo dopo essere stati riconosciuti come realmente esistenti, vengono nuovamente sospinti nell’ambito dell’inconoscibile.

Ma il “dogma centrale” ha finito per condizionare anche quelle correnti che hanno cercato di tener fermo l’aspetto materiale degli esperimenti. Così, per esempio, l’operazionismo di Percy W. Bridgman, dopo aver cominciato bene, sottolineando correttamente l’importanza delle “definizioni operative” nella scienza, ha finito per cadere nell’equivoco di prendere alla lettera tale celebre quanto ambigua espressione einsteiniana, giungendo a pretendere che i concetti possano essere integralmente definiti dalle (e quindi ridotti alle) operazioni che servono per misurare le grandezze fisiche ad essi corrispondenti, cosa che ricorda molto il principio di verificazione dei neopositivisti e che peraltro non è in realtà possibile fare nemmeno con le stesse definizioni einsteiniane. Infatti, se definiamo per esempio il tempo come “quella cosa che si misura con gli orologi”, perché la definizione sia completa dobbiamo ancora definire che cos’è un orologio. Ora, nella sua forma più semplice un orologio è essenzialmente un moto periodico. Ma che cos’è un moto periodico? È un moto che percorre spazi uguali in tempi uguali… Quindi, come si vede, la definizione operativa di tempo in realtà presuppone una precomprensione intuitiva della nozione di tempo, che certo è ancora imprecisa e in parte sbagliata, ma in parte anche giusta e comunque indispensabile per la formulazione stessa della definizione operativa, la cui vera funzione è quindi quella di precisare e rendere univoco il concetto, ma non di renderlo superfluo riducendolo all’operazione.50 Anzi, se si insiste con tale pretesa, si finisce in realtà, esattamente all’opposto, per rendere completamente equivoco il concetto da definire, giacché si è costretti ad ammettere che se misuriamo la stessa grandezza con operazioni differenti non si tratta più della stessa grandezza: Bridgman stesso riconobbe l’esistenza del problema, ma non fu mai in grado di risolverlo, proprio perché per farlo avrebbe dovuto mettere in discussione il fondamento stesso della sua concezione.

Allo stesso modo, perfino un autore fortemente legato alla scienza reale quanto sospettoso verso l’epistemologia neopositivista, Gaston Bachelard, alla fine, a causa del suo materialismo di fondo, non è riuscito a porre correttamente il rapporto tra ragione e realtà, invertendo la direzione «del vettore epistemologico […] dal razionale al reale e non, inversamente, dal reale al generale, come professarono tutti i filosofi, da Aristotele a Bacone. In altri termini, l’applicazione del pensiero scientifico ci sembra essenzialmente realizzante. Cercheremo perciò di indicare […] quello che chiameremo il realizzarsi del razionale o, più generalmente, il realizzarsi del matematico»,51 che viene da lui visto come una sorta di “a priori evolutivo”, certo molto diverso da quello kantiano, ma che comunque conserva la pretesa di dettare le sue leggi alla realtà. Così finì col ridurre alla matematica non solo la ragione,52 ma anche la realtà stessa, giungendo a dire che «la sostanza chimica non è altro che l’ombra di un numero».53

Quanto al pragmatismo, che sostiene che la misura della verità di una teoria è la sua efficacia pratica, ha certamente contribuito a mettere in luce un punto importante e troppo spesso trascurato dagli antirealisti, che pensano di poterla liquidare banalmente sostenendo che anche teorie sbagliate possono risultare efficaci a livello pratico. Così infatti si trascura proprio l’aspetto più caratteristico della scienza moderna, ovvero la sua straordinaria precisione,54 che in certi casi, specialmente nella fisica quantistica, è arrivata a verificare le proprie previsioni teoriche col margine di errore quasi disumano di una parte su un miliardo. Di fronte a ciò, continuare a sostenere la tesi suddetta è altrettanto irragionevole che pretendere che sia possibile aprire la cassaforte di Fort Knox usando una chiave sbagliata sol perché qualche volta questo ci è riuscito con la porta di casa nostra.55 Se poi ciò accade non una volta sola, ma miliardi di volte, come accade con le applicazioni tecnologiche della scienza (poiché ogni volta che facciamo funzionare un qualsiasi oggetto costruito in base ad una teoria scientifica stiamo facendo a tutti gli effetti un esperimento che ne conferma la validità), pretendere ancora di sostenere tale tesi diventa semplicemente folle. Dove però il pragmatismo mostra tutti i suoi limiti è nello spiegare come si giunge alla formulazione delle teorie. Ciò si vede in maniera particolarmente evidente nel suo esponente più noto, Charles Sanders Peirce. La sua celebre teoria dell’abduzione, infatti, che egli presenta come un metodo logico, in definitiva significa semplicemente che la scienza procede proponendo delle ipotesi a partire dalle quali determinati fatti altrimenti sorprendenti possono esser dedotti in modo naturale: tutto ciò però non ci dice ancora come sia possibile arrivare a proporre tali ipotesi, benché nel suo pensiero vi siano alcuni spunti interessanti in tal senso. Ancora una volta una giusta intuizione non riesce a prendere forma compiuta per l’incapacità di superare realmente la concezione logicista della ragione.

Proprio questo ha invece cercato di fare Rom Harré in Varieties of Realism,56 dove ha dato un’interessante descrizione del progresso scientifico in cui ha evidenziato il ruolo cruciale giocato dai modelli, i quali intrattengono relazioni di analogia con gli enti reali che intendono descrivere e che sempre in modo analogico evolvono, dando così origine alle diverse teorie scientifiche.57 Harré ha qui colto con grande acutezza il principale problema dell’approccio logicistico, che in fondo sta alla base di tutti gli altri che abbiamo visto, vale a dire la sua incapacità di chiarire come una teoria possa essere al tempo stesso vera eppure rivedibile, cosa che invece si spiega assai bene nella sua ottica, giacché in una relazione di analogia la corrispondenza tra il modello e la realtà è per definizione sempre e solo parziale. Tuttavia egli è poi caduto nell’eccesso opposto, respingendo completamente il concetto di verità, giudicato “logicistico” in se stesso (e non solo nell’uso fattone da neopositivisti e popperiani), e pretendendo che almeno in linea di principio le teorie siano completamente rivedibili (e non solo in parte, come invece dovrebbe essere secondo il suo approccio), col che però non si capisce più come si possa ancora parlare di una stessa teoria che cambia nel tempo. Harré ritiene di poter superare tale problema grazie all’aspetto operativo della scienza, per cui le previsioni teoriche servono a guidarci nella ricerca di enti del mondo reale: pertanto una volta che li abbiamo scoperti non importa se la loro definizione teorica cambia, perché possiamo continuare a ritenerla “la stessa” in quanto continua a fare riferimento agli stessi enti. Ciò che però gli è sfuggito è che le definizioni teoriche non servono solo per conseguire la referenza, ma anche per mantenerla, giacché in effetti “mantenere la referenza” significa “essere in grado di conseguirla nuovamente” in qualsiasi momento. Per rifarci ad un suo esempio, non è che una volta scoperto Plutone gli abbiamo messo un guinzaglio per cui possiamo riferirci ad esso semplicemente dicendo: “Plutone è ciò che si trova all’altro capo della catena”; al contrario, noi manteniamo la referenza con Plutone perché la stessa teoria che ci ha permesso di scoprirlo ci permette di ritrovarlo ogni volta che lo desideriamo.

Un problema analogo, infine, affligge anche l’unica vera novità58 emersa in campo epistemologico negli ultimi vent’anni, ovvero il cosiddetto “nuovo sperimentalismo”, inaugurato alla metà degli anni Ottanta da Ian Hacking, Allan Franklin, David Gooding, James Robert Brown, Peter Janich, Nancy Cartwright e altri. Partita per ribellarsi al «neglect of experiment»59 dell’epistemologia contemporanea e sottolineando come «experiment has a life of its own»,60 anche tale corrente ha però finito di nuovo per impantanarsi in posizioni convenzionaliste e antirealiste, paradossalmente per l’eccesso di autonomia attribuito all’aspetto operativo dell’esperimento. Paradossalmente, ma in realtà non troppo, giacché a ben vedere, come ha notato Marco Buzzoni, il più acuto critico di tale tendenza (in cui pure parzialmente si riconosce), «in tal caso […] il momento sperimentale e tecnico, proprio perché separato e indipendente, non potrebbe in alcun modo dirimere un conflitto che sarebbe solo ed esclusivamente teorico […], sarebbe insomma del tutto irrilevante per la questione della verità o della falsità delle ipotesi scientifiche in competizione».61

6.Bagliori di speranza

Come si vede, alla base di tutti i problemi riscontrati c’è sempre il rifiuto di riconoscere la capacità della ragione di “vedere” l’universale e il necessario dentro il particolare e il contingente, e il tentativo di sostituirla con qualcos’altro. Non è quindi certo un caso che l’unico filosofo della scienza contemporaneo (almeno tra quelli noti a livello internazionale) che abbia sempre difeso senza riserve mentali il realismo scientifico e l’irriducibilità dell’aspetto operativo della scienza, cioè Evandro Agazzi, sia anche lo stesso che ha sempre affermato senza ambiguità di sorta, fin dall’inizio della sua carriera,62 la vera natura dell’intenzionalità (che anzi, dopo essersi inizialmente adeguato all’uso ormai invalso, negli ultimi anni ha cominciato a chiamare sempre più spesso in maniera esplicita “intuizione intellettuale”).63 Sintetizzando efficacemente elementi della tradizione classica e di quella moderna, Agazzi ha proposto una forma di realismo basata sul concetto di “oggetto” in quanto distinto da quello di “cosa”, per cui «ciascuna disciplina scientifica si presenta come un discorso che intenziona la realtà sotto un certo “punto di vista”, ossia proponendosi di indagarne soltanto certi aspetti o qualità; in ragione di ciò essa seleziona un certo numero circoscritto di “predicati” e, al fine di avere successo nel suo sforzo referenziale, li associa ad alcune operazioni standardizzate, che possiamo chiamare indifferentemente “criteri di oggettivazione”, “criteri di protocollarità” o “criteri di referenzialità”».64 Ciò spiega in maniera molto naturale il cruciale problema del cambiamento teorico: infatti l’avvento di una teoria più avanzata non rende necessariamente falsa quella precedente, che, nella misura in cui era stata controllata con successo, resta vera a proposito dei suoi oggetti, cioè delle proprietà identificate dai propri criteri di referenzialità, venendo ricompresa nella teoria più avanzata come un suo caso particolare, come in effetti abbiamo visto più volte accadere nella storia della scienza.

Allo stesso modo, non è un caso che tra i pochi difensori del realismo più d’uno provenga proprio da pensatori formatisi alla scuola di Agazzi, come per esempio, oltre al sottoscritto, il già citato Marco Buzzoni e Fabio Minazzi, che hanno anch’essi sempre sottolineato con forza l’importanza essenziale tanto dell’aspetto tecnologico che dell’intenzionalità, anche se gli ultimi due la “rileggono” attraverso il kantismo, per quanto si tratti di un kantismo per così dire “dekantizzato”,65 in sostanza ridotto a poco più che l’affermazione della necessità e irriducibilità del trascendentale, in un modo che specialmente in Buzzoni rende lecito il dubbio che forse la sua posizione si esprimerebbe più correttamente in termini aristotelici.66

Un altro segnale positivo è altresì venuto dall’evoluzione del pensiero di Harré, che negli anni Novanta, insieme a Jerrold Aronson e ad Eileen Way, ha proposto un “argomento induttivo” a favore del realismo, basato sul fatto che la storia della scienza dimostra che quando una teoria è dotata di una buona “efficacia manipolativa” (cioè consente di intervenire efficacemente sulla realtà) è anche dotata di una buona “verosimiglianza”, nel senso che le entità teoriche da essa previste, una volta scoperte, si sono sempre dimostrate simili alla rappresentazione data dal modello: è dunque ragionevole pensare che lo stesso valga anche per quelle teorie i cui enti teorici non sono ancora stati osservati o perfino non potranno mai esserlo in linea di principio.67 Resta tuttavia una curiosa reticenza da parte di Harré ad accettare pienamente il concetto di verità, se non, paradossalmente (visto che certo popperiano non è), nel senso di Popper, come termine ideale a cui le teorie asintoticamente tendono, senza tuttavia mai raggiungerlo. In questo Harré dimostra di non essersi ancora del tutto liberato dell’idea di ragione tipica del positivismo e del popperismo, che intende la verità come corrispondenza (o non corrispondenza) puramente meccanica e senza sfumature, anziché, come sembrerebbe più in sintonia anche col suo stesso modello analogico, come “adeguatezza” alla realtà.

E proprio a questa diffusissima quanto irragionevole “paura della verità” è dedicato il recente Per la verità68di Diego Marconi, che contiene una tanto concisa quanto puntuale e convincente (nonché coraggiosa) difesa della nozione di verità contro le varie forme di relativismo che cercano di negarla, che ha generato un vero e proprio “caso” all’interno del mondo filosofico italiano.69 Ciononostante, anche nell’ammirevole argomentazione di Marconi c’è un punto debole: è dove critica quella che ritiene essere la “confusione” tra conoscenza e certezza, che certo vanno distinte, ma non possono realmente essere separate, come lui invece vorrebbe. Se infatti può accadere che uno ritenga vero, senza tuttavia esserne certo, qualcosa che è vero realmente, cionondimeno, quando noi affermiamo di conoscere qualcosa intendiamo che siamo certi che quella cosa è vera e non solo che “abbiamo buone ragioni” per ritenerla tale. E infatti Marconi dice che «fintantoché […] ragioni in senso contrario non vengono prodotte e non risultano prevalenti sulle nostre attuali giustificazioni, […]

siamo autorizzati a trattare le nostre credenze giustificate2 come conoscenze»70 (per Marconi una credenza è “giustificata2” se «è derivata in modo convincente da premesse plausibili»).71 Ora, dire che siamo autorizzati a trattare come una conoscenza una data credenza non equivale a dire che essa sia una conoscenza. Come Marconi stesso nota più oltre, infatti, «una ragione per cui possediamo il concetto di verità è precisamente perché ci serve a distinguere tra il modo in cui le cose stanno e il modo in cui pensiamo che stiano, magari con ottime ragioni».72 Ma se riteniamo che tutte le nostre credenze potrebbero, almeno in linea di principio, essere false, anche la posizione di Marconi finisce per essere ultimamente relativista, come anch’egli implicitamente riconosce quando afferma: «Sia chiaro: non sto sostenendo, contro Quine, Popper e il senso comune di oggi, che alcune nostre conoscenze sono “assolutamente fondate” […]. Sto semplicemente traendo le conseguenze di quello che sembra essere il nostro uso comune di ‘conoscere’ e ‘sapere’. Chi sostiene la posizione alternativa, secondo cui non si può parlare di conoscenza in assenza di “certezza oggettiva”, vorrebbe vietarci di dire che sappiamo che Torino è in Italia e Parigi è in Francia: dovremmo dire che avanziamo la congettura che sia così».73 Ma questa affermazione di Marconi non sembra affatto corrispondere al nostro uso comune di “conoscere” e “sapere”. Infatti quando noi affermiamo di sapere che Torino è in Italia e Parigi è in Francia intendiamo proprio dire che abbiamo la certezza oggettiva che le cose stanno così, e non solo intendiamo dirlo, ma lo pensiamo realmente, tant’è vero che se qualcuno cercasse seriamente di persuaderci del contrario non tenteremmo di produrre argomenti razionali in difesa del nostro punto di vista, ma ci preoccuperemmo piuttosto della sua salute mentale e, se insistesse eccessivamente, chiameremmo il Pronto Soccorso per farlo ricoverare: e credo che nessuno possa negare che questa sarebbe l’unica cosa razionale da fare. Dunque, contro Quine, Popper e “il senso comune di oggi” (che poi tanto comune non è, essendo in realtà limitato ad una ristretta casta di intellettuali che scambiano le proprie personali opinioni per il sentire di tutti) dobbiamo invece affermare che non solo è possibile avere certezze, ma che di fatto ne abbiamo moltissime, e che la stragrande maggioranza delle cose che riteniamo certe lo sono davvero. Per esempio, io sono assolutamente certo che in questo momento sono seduto al tavolo e sto scrivendo al computer a proposito delle opinioni di Diego Marconi sulla verità, che fuori è notte e non piove, che mi chiamo Paolo Musso, che ho due mani e due piedi, che faccio parte del genere umano, che vivo in un paese chiamato Italia, su un pianeta chiamato Terra che orbita intorno a una stella chiamata Sole, che la materia che compone tutti gli oggetti suddetti e il mio stesso corpo è fatta di atomi, e così via. Nessuna di queste affermazioni (e dei milioni di altre simili che chiunque potrebbe elencare senza sforzo) è da me ritenuta vera “fino a prova contraria”, bensì in senso assoluto, irrevocabile e definitivo: e questo non perché io sia un pericoloso intollerante o un “realista ingenuo” che non conosce le sofisticate argomentazioni della filosofia contemporanea, ma semplicemente perché non soltanto non ci sono di fatto argomenti in contrario, ma non è neanche immaginabile che ce ne possano essere. E per questo ritengo anche di conoscere le verità suddette. Se invece ritenessi possibile, anche solo in linea di principio, che un giorno siano dimostrate false, non penserei affatto di “sapere” che le cose stanno così, ma solo di avere delle buone ragioni per pensarlo: il che (e su questo Marconi ha ragione) non è lo stesso che avanzare semplicemente una congettura; ma (e su questo Marconi ha invece torto) non è neanche lo stesso che conoscere.

Perché dunque c’è oggi tutta questa “paura della certezza?” In primo luogo, credo che vi sia una “drammatizzazione della certezza” del tutto analoga a quella «drammatizzazione della verità»74 che sta alla base dell’analoga «paura della verità»75 tanto opportunamente denunciata da Marconi (salvo poi non riconoscere lo stesso meccanismo all’opera a proposito della certezza): vale a dire che si considerano solo le “certezze difficili”, a proposito delle quali è più facile sbagliarsi e quindi è effettivamente lecito dubitare che siano tali. Ma, proprio come nota ancora giustamente Marconi a proposito della verità,76 il quadro cambia radicalmente se si considerano tutte le credenze che consideriamo certe, la stragrande maggioranza delle quali sono “umili” e perfino banali, ma tuttavia essenziali, perché senza di esse semplicemente non potremmo vivere.

Tuttavia al fondo c’è ancora e sempre il solito problema. Anche Marconi infatti ritiene che le proposizioni possano essere giustificate solo da altre proposizioni e non dall’evidenza:77 cioè, in altre parole, anche Marconi nega l’esistenza di un nesso originario tra ragione e realtà. Col che però, come la vicenda di Cartesio dovrebbe aver reso chiaro a tutti (e invece, evidentemente, così non è), la realtà non la si ricupera più, per quanti sforzi si facciano e per quante teorie si escogitino.



Conclusione


Benché siano passati esattamente 50 anni dalla pubblicazione della Struttura delle rivoluzioni scientifiche di Kuhn, si può ben dire che, almeno nelle sue linee di fondo, la sua visione rappresenti tuttora l’orizzonte intrascendibile della quasi totalità dell’epistemologia contemporanea. E non perché non ci siano stati, in tutti questi anni, autori che si sono resi conto dei limiti e delle conseguenze paradossali di tale impostazione, o tentativi di ricuperare un maggior realismo; ma piuttosto perché, a parte alcune lodevoli ma isolate eccezioni, mai tali tentativi sono andati veramente al fondo della questione, muovendosi sempre al di qua del problema del rapporto tra ragione e realtà.

Questo spiega non solo perché tutti questi tentativi sono sempre stati riassorbiti senza scosse, ma, più in generale, come mai nell’ambito della filosofia della scienza si assista ormai da tempo ad un singolare fenomeno, per cui ad un proliferare addirittura esagerato di questioni di secondaria importanza, in cui ci si spinge a spaccare il capello in quattro su ogni minimo dettaglio, corrisponde invece una pressoché totale assenza di novità al livello delle questioni fondamentali.

Tuttavia, paradossalmente, proprio questa assenza di vere novità costituisce la vera novità. Che, si spera, continuando a perpetuarsi indurrà prima o poi qualcuno ad andare di nuovo alla radice delle cose.

Riferimenti bibliografici

Agazzi Evandro

[1961] Introduzione ai problemi dell'assiomatica, Vita e Pensiero, Milano.

[1967] Alcune osservazioni sul problema dell’intelligenza artificiale, in “Rivista di filosofia neoscolastica”, n. 59 (1967), pp. 1-34.

[1985] La questione del realismo scientifico, in Mangione Corrado (ed.), Scienza e filosofia. Saggi in onore di Ludovico Geymonat, Garzanti, Milano.

[2007] Idealization, intellectual intuition, interpretation and ontology in science, in Brzeziński Jerzy, Klawiter Andrzej, Kuypers Theo A.F., Łastowski Krzysztof, Paprzycka Katarzyna, Przybysz Piotr (eds.), The Courage of Doing Philosophy. Essays Presented to Leszek Nowak, Rodopi, Amsterdam - New York, pp. 303-314.


Antiseri Dario

[1972] Karl R. Popper. Epistemologia e società aperta, Armando, Roma.


Bachelard Gaston

[1934] Le nouvel esprit scientifique, Presses Universitaires de France; trad. it. 1951, Il nuovo spirito scientifico, Laterza, Bari.

[1940] La philosophie du non. (Essai d’une philosophie du nouvel esprit scientifique), Presses Universitaires de France; trad. it. 1978, La filosofia del non. Saggio di una filosofia del nuovo spirito scientifico, Pellicanlibri Edizioni, Catania.


Bersanelli Marco, Gargantini Mario (eds.) [2003], Solo lo stupore conosce, Rizzoli, Milano.


Buzzoni Marco

[2004] Esperimento ed esperimento mentale, FrancoAngeli, Milano.


Davidson Donald

[1988] Sull’idea stessa di uno schema concettuale, in Egidi Maria Rosaria (ed.) [1988], La svolta relativistica nell'epistemologia contemporanea, FrancoAngeli, Milano, pp. 151–167.


Descartes René

[1637]Discours de la Méthode, Leida; trad. it. 1986, Discorso sul metodo, in Opere filosofiche (4 voll.), Laterza, Bari. I, pp. 289-342.


Feyerebend Paul Karl

[1970] Consolations for the specialist, in Lakatos, Musgrave (ed.) [1970]; trad. it. 1976, Consolazioni per lo specialista, in Lakatos, Musgrave (ed.) [1970], pp. 277-312.


Franklin Allan

[1986] The neglect of experiment, Cambridge University Press, Cambridge (Mass.).


Galilei Galileo

[1624] Lettera a Francesco Ingoli in risposta alla Disputatio de situ et quiete Terrae, in Edizione Nazionale delle Opere di Galileo Galilei (20 voll.), Giunti Barbera, Firenze, 1890-1909, VI, pp. 509-561


Hacking Ian

[1983] Representing and intervening: introductory topics in the philosophy of science, Cambridge University Press, Cambridge (Mass.).


Harré Rom

[1986] Varieties of Realism. A Rationale for the Natural Sciences, Blackwell, Oxford.


Harré Rom, Aronson Jerrold, Way Eileen

[1995] Realism Rescued. How Scientific Progress Is Possible. Illinois: Open Court.


Lakatos Imre

[1970] Falsification and the metodology of scientific research programs, in Lakatos Imre, Musgrave Alan (eds.) [1970], pp. 91-196; trad. it. 1976, La falsificazione e la metodologia dei programmi di ricerca scientifici, in Lakatos Imre, Musgrave Alan (eds.) [1970], pp. 164-276.

Lakatos Imre, Musgrave Alan (eds.) [1970], Criticism and the Growth of Knowledge, Cambridge University Press, Cambridge; trad. it. 1976, Critica e crescita della conoscenza, Feltrinelli, Milano


Marconi Diego

[2007] Per la verità. Relativismo e filosofia, Einaudi, Torino.


Minazzi Fabio

[1994a] Galileo “filosofo geometra”, Rusconi, Milano.

[1994b] Il flauto di Popper. Saggio critico sulla “new philosophy of science” e la sua interpretazione di Galileo, FrancoAngeli, Milano.


Musso Paolo

[1993] Rom Harré e il problema del realismo scientifico, FrancoAngeli, Milano.

[2004] Forme dell’epistemologia contemporanea. Tra realismo e antirealismo, Urbaniana University Press, Città del Vaticano.

[2011] La scienza e l’idea di ragione. Scienza, filosofia e religione da Galileo ai buchi neri e oltre, Mimesis, Milano - Udine.


Oldroyd David

[1986] The Arch of Knowledge. An Introductory Study of the History of the Philosophy and Methodology of Science, Methuen, New York e Londra; trad. it. 1989, Storia della filosofia della scienza, Il Saggiatore, Milano.


Popper Karl Raimund

[1934] Logik der Forschung, Springer, Vienna; trad. it. 1970, Logica della scoperta scientifica, Einaudi, Torino.

[1943] The Open Society and Its Enemies, 2 voll., Routledge, Londra; trad. it. 1977, La società aperta e i suoi nemici, (I) Platone totalitario, (II) Hegel e Marx falsi profeti, Armando, Roma.

[1963] Conjectures and Refutations. The Growth of Scientific Knowledge, Routledge & Kegan Paul, Londra; trad.it. 1972, Congetture e confutazioni. Lo sviluppo della conoscenza scientifica, Il Mulino, Bologna.


Popper Karl Raimund, Eccles John C.

[1977] The Self and Its Brain, Springer, Berlino e Londra; trad. it. 1981, L’io e il suo cervello, 3 voll., Armando, Roma.


Putnam Hilary

[1983] Realism and Reason, Philosophical Papers, 3 voll., Harvard University Press, Cambridge (Mass.).

[1984] After Ayer, After Empiricism, in “Partisan Review”, 54 (1984), pp. 265-275; trad. it. 1995, Dopo l’empirismo, in Putnam [1990], pp. 159-172.

[1987] The Many Faces of Realism, La Salle, Illinois; trad. it. 1991, La sfida del realismo, Garzanti, Milano.


Rorty Richard

[1988] La scienza della natura è un genere naturale?, in Egidi (ed.) [1988], La svolta relativistica nell'epistemologia contemporanea, Angeli, Milano, pp. 225-246.


Russell Bertrand, Whitehead Alfred North

[1910] Principia Mathematica, 3 voll., Cambridge University Press, Cambridge.

note

* Università dell’Insubria di Varese e Universidad Católica Sedes Sapientiae di Lima (Perù). E-mail: paolo.musso@uninsubria.it

1 Per approfondimenti sugli autori qui citati, che dovrò per forza di cose trattare con una brevità quasi ingiuriosa, rimando al mio Musso [2004], dove ho proposto per la prima volta la chiave di lettura qui adottata.

2 Per avere un’idea di quanto sia diffusa la riflessione epistemologica e, più in generale, filosofica tra gli scienziati si veda per esempio Bersanelli, Gargantini [2003].

3 Russell, Whithead [1910-1913].

4 Già adombrato nel Tractatus di Wittgenstein e poi reso esplicito, sia pure in forma meno lapidaria di quella poi divenuta celebre, da Schlick, esso fu definitivamente fissato nella sua formulazione canonica nel 1930 da Friedrich Waismann.

5 È questa la famosa “polemica sui protocolli” (un altro modo in cui i neopositivisti chiamavano gli enunciati atomici), che coinvolse soprattutto Rudolf Carnap e Otto Neurath e di cui si può trovare un vivace resoconto in Oldroyd [1986], p. 315.

6 Se non poteva risolvere il problema, la logica tuttavia serviva almeno a nasconderlo: infatti «la logica formale (compresa la logica simbolica) [...] tratta queste due asserzioni nel medesimo modo» (Popper [1934], p. 47).

7 Cfr. Popper [1934], p. 23.

8 Il contenuto empirico di una teoria sarebbe dato dal numero di fatti che essa vieta, cioè di cui proclama l’insussistenza. Parrebbe a prima vista naturale pensare che quanto più una teoria si avvicina alla verità, tanto più “ritagli” con precisione l’insieme dei fatti reali all’interno dell’insieme più vasto di quelli meramente possibili, “vietando” quindi tutti gli altri, il cui numero quindi dovrebbe crescere sempre più nel tempo. Questo è anche, ridotto all’osso, il ragionamento di Popper. Tuttavia si tratta di un modo di ragionare astratto, che non considera il fatto che le teorie realmente innovative (che sono un bel po’ diverse dagli esempi da lui dati, tipo “Tutti i corvi sono neri” o “Tutti i cigni sono bianchi”) non si limitano a proibire o asserire proposizioni a proposito di fatti già noti, ma generano nuove proposizioni a proposito di fatti che prima erano semplicemente impensabili (cfr. Musso [2004], pp. 72-75).

9 Cfr. Popper [1934], pp. 86-87 (in corsivo nell’originale).

10 Cfr. Popper [1934], pp. 86-87.

11 Cfr. Popper [1934], pp. 86-87.

12 Cfr. Popper [1934], pp. 86-87.

13 Per esempio, il resoconto del risultato di un esperimento potrebbe consistere nell’asserzione che sul display di un potenziometro si legge un certo valore: ma, obietta Popper, «che lo strumento sia di fatto un potenziometro, non può essere definitivamente stabilito e verificato» (Popper [1963], p. 658).

14 Anche se non arbitraria, sottolinea Popper, perché si possono comunque dare dei criteri orientativi, che tuttavia (e questo è il punto) non sono mai determinanti.

15 Lakatos aveva proposto una versione “liberalizzata” del falsificazionismo in cui a venire controllate non sono singole teorie isolate, bensì dei vasti “programmi di ricerca”, le cui parti non hanno tutte la stessa importanza e possono quindi sopravvivere a numerose falsificazioni, purché queste ultime riguardino solo le parti secondarie (la cosiddetta “cintura protettiva”) e non il “nocciolo”, e purché il programma continui ad essere “progressivo”, cioè, in sostanza, a risolvere più problemi di quanti ne crea (cfr. Lakatos [1970]). Benché la versione lakatosiana del falsificazionismo sia certamente più realistica di quella popperiana, si imbatte in un problema del tutto analogo, giacché, come ha notato Feyerabend, dire che il programma va abbandonato quando è da tempo in fase regressiva non è sufficiente se non si specifica da quanto tempo, il che però risulterebbe in ogni caso arbitrario («se è lecito attendere, perché non attendere ancora un po’?»; cfr. Feyerabend [1970], p. 296). All’origine di tale difficoltà, tuttavia, sta ancora e sempre il voler giudicare le teorie in base a criteri formali e non invece al loro rapporto con la realtà, come vedremo meglio più avanti.

16 Stranamente, Kuhn ha però sempre negato che tale passaggio sia irrazionale, anche se non si vede come si possa evitare tale conclusione, dato che razionale, come ci dice lui stesso, certamente non è.

17 Kuhn [1962], p. 165.

18 Ovviamente l’abolizione del concetto (centrale in Kuhn) di “scienza normale” fa sì che non si possa neanche più parlare di paradigmi nel senso kuhniano del termine: tuttavia credo che il paragone renda l’idea.

19 Rorty [1988], p. 228.

20 Rorty [1988], p. 228.

21 Perlomeno quelle del “primo” Feyerabend, perché nella seconda parte della sua vita egli prese a sostenere di non aver mai veramente pensato che la scienza sia irrazionale e che il suo relativismo voleva solo essere una reductio ad absurdum del razionalismo. Mentre è impossibile stabilire fino a che punto tale “interpretazione autentica” sia corretta, è però innegabile che il “secondo” Feyerabend si dedicò per anni a cercare una diversa idea di ragione, più flessibile e ampia di quella propria del razionalismo, e, pur se non arrivò mai a definirla chiaramente, ci ha comunque lasciato molte preziose riflessioni al riguardo (insieme, beninteso, ad un vasto campionario di paradossi e provocazioni al limite dell’assurdo, a cui non seppe mai rinunciare).

22 Che in effetti sarebbe anche il giusto modo di intendere l’espressione inglese theory-ladeness, che di per sé significa appunto che l’osservazione è sempre permeata di teoria, ma non che è completamente assorbita da essa.

23 Buzzoni [2004], p. 93.

24 Come egli stesso scrisse, infatti, «esiste una perfetta analogia tra il problema degli universali e il problema dell'induzione» (Popper [1934], p. 52). Purtroppo però tale interessante intuizione, calata nel contesto generale della sua filosofia, finisce per portare nella direzione opposta a quella che sarebbe auspicabile.

25 Popper [1934], p. 11.

26 Di cui peraltro ancora nel 1959 scriveva di loro che «oggi come allora [...] sono importanti per me e non soltanto come oppositori, ma anche come alleati, perché sembrano i soli filosofi rimasti a tener vive alcune tradizioni della filosofia razionale» (Popper [1934], p. XXI).

27 C’è un unico passo (curiosamente appartenente alla sua unica opera non epistemologica, La società aperta e i suoi nemici) in cui Popper riconosce che «possiamo senz’altro ammettere di possedere qualcosa che si può definire come “intuizione intellettuale”. […] Chiunque comprende un’idea, o un punto di vista, o un metodo aritmetico, per esempio la moltiplicazione, nel senso che ha per così dire “acquisito familiarità” con essi, si può dire che comprenda intuitivamente quella data cosa» (Popper [1943], p. 265). Ma subito egli si affretta a chiarire che «queste esperienze […] non possono mai servire a stabilire la verità di qualsivoglia idea o teoria, per quanto fortemente uno possa sentire, intuitivamente, che essa dev’essere vera o “evidente”» (Popper [1943], p. 265). Il passo è molto significativo perché mostra chiaramente la riduzione popperiana dell’intuizione intellettuale a mero fatto psicologico (il riconoscimento razionale della corrispondenza tra un costrutto mentale e aspetti oggettivi della realtà scambiato per un semplice “sentire fortemente”), anche se, a differenza dei neopositivisti, egli dimostra almeno di distinguere tra significato e verità.

28 Antiseri [1972], p. 30.

29 A dispetto delle convinzioni personali dello stesso Popper, che era un convinto sostenitore dell’esistenza di un Io spirituale, benché inteso in maniera fortemente dualistica (cfr. Popper, Eccles [1977]), così come fortemente dualistica era la sua concezione della conoscenza.

30 A volte si parla anche di un sociological turn dell’epistemologia contemporanea, che afferma che ciò che viene considerato “conoscenza scientifica” non dipende da ragioni obiettive, bensì dalle decisioni (e quindi dagli interessi e dai valori) di coloro che detengono il potere nella comunità scientifica. Tuttavia, almeno dal nostro punto di vista, tra le due cose non c’è molta differenza, perché anche questi autori riducono la scienza al confronto tra opinioni, dimenticando quello con la realtà, giungendo così alle stesse conclusioni antirealiste.

31 Qui non è possibile giustificare adeguatamente tali affermazioni, per le quali rimando al mio Musso [2011], pp. 177-195. Cartesio fu anche il padre (insieme a Pierre De Fermat) della matematica moderna, cosa che in genere non gli viene riconosciuta in maniera adeguata proprio a causa dell’ansia ideologica di accreditarlo a tutti i costi come il padre della scienza.

32 Su cui pesa soprattutto, spesso in modo drammatico, la spaccatura tra sentimento e ragione, che del cartesianesimo è una delle più dirette conseguenze ed è ormai diventata una vera e propria malattia cronica del nostro tempo (cfr. Musso [2011], § 9.3.

33 Valga per tutte questa citazione dalla sua opera più nota, il Discours de la méthode: «Dato che i sensi a volte ci ingannano, volli supporre che nessuna cosa fosse tal quale ce la fanno immaginare» (Descartes [1637], p. 312). Per quanto riguarda il secondo aspetto, è ben noto il radicale rifiuto della tradizione, affermato da Cartesio sempre nel Discours. Meno noto, ma non meno significativo, è forse l’altrettanto radicale rifiuto della cooperazione da egli proclamato, in base al fatto che solo lui poteva realmente capire il proprio metodo

34 Musso [2011], p. 197. Il nome è ovviamente ispirato al “dogma centrale della biologia”, quello per cui “l’informazione fluisce sempre e soltanto dal DNA alle proteine e mai viceversa” e che peraltro sta cominciando a mostrare un po’ la corda, esattamente come quello qui considerato.

35 Musso [2011], p. 197.

36 Che peraltro Galileo non avrebbe trovato affatto strano, data la sua nota insistenza sui “due libri” attraverso cui Dio ci parla, la Natura e le Rivelazione.

37 O, per dirla con Marco Buzzoni, «l’atto di cogliere strutture nomiche in re, che è la prestazione più generale della nostra mente in quanto connessa ad un corpo organico» (Buzzoni [2004], p. 90).

38 Cfr. Musso [2011], pp. 198-203 e 214-217.

39 È impressionante notare come questi valori non sono mai stati tanto dibattuti come oggi, ma al tempo stesso non sono mai stati così poco praticati. Non è che l’altro venga oggi negato apertamente, ma in genere viene accettato solo facendolo rientrare nei nostri schemi, cioè riducendolo alla nostra misura – e quindi non considerandolo più come veramente “altro”.

40 Galileo [1624], p. 538.

41 Infatti «il neopositivismo aveva certamente riconosciuto l’importanza dell’esperimento, ma, in primo luogo, esso doveva soltanto fornire contenuto empirico ad una struttura teorica che poteva anche vivere per proprio conto, come sistema assiomatico non interpretato. E in secondo luogo la funzione dell’esperimento era stata confinata al contesto della giustificazione (nel quale ha luogo il controllo sperimentale della teoria) e completamente cancellata da quello della scoperta» (Buzzoni [2004], p. 25).

42 Davidson [1988], p. 167.

43 Putnam [1984], p. 159.

44 Putnam [1983], p. 35.

45 Il teorema di Skolem-Löwenheim, che afferma che ogni teoria logica (cioè ogni sistema assiomatico) del primo ordine ammette sempre più di un modello.

46 In questo caso poi tale riduzione è addirittura doppiamente ingiustificata, in quanto, ammesso e non concesso che il linguaggio (sia quello ordinario che quello scientifico) possa essere ridotto ad un sistema assiomatico, esso sarà comunque sempre un sistema assiomatico interpretato su un universo di oggetti (altrimenti non parlerebbe di niente), mentre il teorema di Skolem-Löwenheim vale solo per sistemi assiomatici non interpretati (cfr. Musso 2004, § 7.2).

47 Putnam [1983], pp. 178-179.

48 Putnam [1983], pp. 178-179.

49 Putnam [1987], p. 33.

50 Naturalmente lo stesso accade con la definizione operativa di spazio, che per Einstein è “quella cosa che si misura con i regoli”. Perché la definizione sia completa è necessario definire che cosa è un regolo. Ma è facile vedere che qualsiasi definizione si possa escogitare (per esempio: “un regolo è un’asta rigida di una certa lunghezza”) non potrà mai fare a meno di far riferimento, almeno implicitamente, al concetto di spazio.

51 Bachelard [1934], pp. 55-56.

52 Nella Philosophie du non egli arriva a dire: «L’aritmetica non è fondata sulla ragione. È la dottrina della ragione che è fondata sull’aritmetica elementare. Prima di saper contare, non sapevo cosa fosse la ragione» (Bachelard [1940], p. 137).

53 Bachelard [1934], p. 128.

54 Ancora una volta, l’uso della logica o comunque dell’analisi del linguaggio è impotente a risolvere il problema, ma serve egregiamente a nasconderlo: infatti la semplice struttura formale di una teoria nulla ci dice sul livello di precisione da essa raggiunto, per il che occorrono invece i contenuti.

55 Questo è ciò che i filosofi analitici chiamano pomposamente “l’argomento del no miracle”, secondo la già rilevata cattiva abitudine loro tipica, che però in questo caso ha anche una funzione depistante, cercando di dare ad intendere che appunto di un argomento si tratterebbe (al quale dunque, almeno in linea di principio, se ne potrebbe opporre un altro) e non invece di una evidenza, contro la quale, come ben sapevano i medioevali, argumentum non datur. Ma l’evidenza, per essere riconosciuta, richiede l’esistenza di una intuizione intellettuale: cioè, di nuovo, richiede la negazione del “dogma centrale”.

56 Harré [1986].

57 Cfr. Harré [1986] e Musso [1993].

58 Almeno dal nostro punto di vista non può infatti certamente esser considerata tale la cosiddetta “epistemologia femminista”, che altro non è se non una nuova versione dell’antirealismo sociologico, con la sola variante che qui gli interessi e i valori che determinano cosa si considera conoscenza scientifica sarebbero quelli maschili.

59 Hacking [1983], p. XIII.

60 Franklin [1986].

61 Buzzoni [2004], p. 93.

62 Cfr. p. es. Agazzi [1961] e [1967].

63 Cfr. p. es. Agazzi [2007].

64 Agazzi [1985], p. 188.

65 A cui Minazzi aggiunge anche suggestioni provenienti dall’empirismo logico “liberalizzato” di Giulio Preti. Una buona introduzione al suo pensiero si trova in Minazzi [1994a] e [1994b].

66 Come peraltro egli stesso ha talvolta (forse involontariamente) adombrato, per esempio in questo testo, relativo proprio all’intenzionalità: «L’inferenza induttiva, assunta nel suo senso gnoseologico più generale consiste nella capacità d’inferire non da molti casi a tutti i casi, ma da un caso concreto a casi della stessa specie o, come ci si può pure esprimere con lessico in qualche modo aristotelico, da un caso concreto alla legge immanente del suo essere così e non diversamente» (Buzzoni [2004], p. 90).

67 Questo argomento è stato analizzato criticamente con molta acutezza dall’argentino Christián Carlos Carman in un libro tuttora inedito e attualmente in corso di traduzione per le Edizioni Mimesis. Più in generale, sulla questione del realismo scientifico ci sono attualmente diversi fermenti interessanti nel mondo latinoamericano, soprattutto grazie a giovani filosofi, anche se non è ancora ben chiaro a cosa potranno portare.

68 Marconi [2007]. Il saggio in realtà non è incentrato sulla scienza in particolare, ma riguarda il relativismo culturale nel senso più ampio del termine. Tuttavia gli argomenti sono sostanzialmente gli stessi, dato che il relativismo culturale moderno deriva in gran parte proprio da quello epistemologico.

69 Un’analoga e non meno clamorosa presa di posizione, stavolta all’interno del campo ermeneutico, che era giunto ormai da tempo a sostenere tesi molto simili e in qualche caso anche ad una vera convergenza con l’antirealismo epistemologico (si pensi per esempio a quella tra Gianni Vattimo e Richard Rorty), è stata presa, nello stesso periodo e con argomenti e motivazioni molto simili, anche da Maurizio Ferraris, allievo proprio di Vattimo.

70 Marconi [2007], p. 36.

71 Marconi [2007], p. 11. Le conoscenze “giustificate1” sono invece quelle semplicemente argomentate, senza riguardo alla bontà delle argomentazioni in se stesse (Marconi [2007], p. 11). Marconi ammette anche un terzo senso di “giustificato” che corrisponde a «credenze giustificate da come stanno le cose nel mondo» (Marconi 2007, p. 12), ma poi di fatto non ne fa mai uso.

72 Marconi [2007], p. 151.

73 Marconi [2007], p. 39.

74 Marconi [2007], p. 34.

75 Marconi [2007], p. 89.

76 Cfr. Marconi [2007], pp. 152-153.

77 Cfr. nota 71 e testo corrispondente.