22 December 2012

La democrazia per la scienza

(Un altro post verosimilmente rubato a fabristol)
Questo recente post di Amedeo Balbi, Geek di tutto il mondo, unitevi! rappresenta una straordinaria cartina tornasole capace di mettere in evidenza quanto sia cambiata la mia prospettiva col libertarismo.
 
Qualche anno fa avrei condiviso ogni singola virgola di quel post, avrei partecipato totalmente al suo sentimento di indignazione e di sconforto e di impotenza nel rendersi conto una volta di più di quale accozzaglia di ignoranza e incompetenza fosse composta la nostra classe dirigente.
Qualche anno fa sarei entrato nel merito della discussione. Oggi mi rendo conto — non riesco a capacitarmi di come si possa non rendersi conto — che è il gioco stesso ad essere perverso.
Per restare nell'ambito del post di Balbi sulle politiche per la ricerca scientifica, anche assumendo un'indiscutibile competenza della classe politica, è davvero così ovvio che esistano risposte oggettive a tali questioni? Chessò, se sia meglio Marte o Titano?? Se sia il caso o meno di finanziare ancora per altri 40 anni la ricerca in teoria delle stringhe? E mi sono volutamente tenuto alla larga da temi "scottanti" come l'evoluzione, i cambiamenti climatici o le medicine alternative.
 
Qualche anno fa mi sarei schierato senza tema di errore a fianco di quelli come Balbi. Oggi mi rendo conto — non riesco a capacitarmi di come si possa non rendersi conto — di quale sia la contraddizione insita in una tale posizione.
Da una parte, infatti, siamo nel bel mezzo di un tipico processo di discussione democratica, da parte dell'elettore, delle politiche che i suoi rappresentanti eletti saranno chiamati a realizzare; dall'altra, quello stesso processo di discussione democratica viene implicitamente disdegnato, difendendo elitariamente un proprio punto di vista come migliore: l'argomento a favore di determinate politiche (per la ricerca scientifica), infatti, non si basa su un presunto principio democratico — "ah, questi politici, che non fanno quello che vuole la gente!" — ma su una presunta oggettività della tesi, che purtuttavia si caratterizza come paradossale, nel senso etimologico del termine di contro l'opinione comune: "ah, questi politici, che se saranno votati dalla maggioranza non faranno quello che è giusto fare".
Parlar male della sinistra non significa voler difendere posizioni di destra (lungi da me, i libertari sono in alto), però questa contraddizione profonda pervade tutto il pensiero di sinistra, dando ragione del termine radical chic: da una parte la pretesa di avere la ricetta giusta, di sapere come si devono fare le cose, e dall'altra l'aver accettato il processo democratico del governo della maggioranza. Se credi che le cose debbano essere fatte in un certo modo e non in altri, l'aver accettato il metodo democratico dovrebbe essere vissuto come una limitazione, soprattutto in un ambito, come quello della ricerca scientifica, in cui stai esplicitamente dichiarando che la maggior parte delle persone non sa cosa sarebbe meglio fare (giusto per ribadire che non voglio difendere posizioni di destra, questi ultimi non vivono questa contraddizione… semplicemente perché tipicamente ammettono senza troppe remore la propria indole assolutista e la predilezione per metodi autoritari).
Del resto si tratta di una contraddizione intrinseca di qualsiasi "dibattito" democratico: non puoi pensare che la politica giusta sia quella scelta dalla maggioranza e, contemporaneamente, che tale maggioranza non sappia quale sia la politica giusta — e tu debba istruirla a tal proposito.
 
E l'ambito scientifico da cui sono partito è solo il caso particolare di una condizione del tutto generale. E' precisamente la stessa contraddizione che si sta palesando, in maniera più stridente che "nei periodi normali", in questi tempi di grillismo e antipolitica. Quel sentimento radical chic di Balbi per le competenze scientifiche dei politici (ma sia chiaro, il libertarismo non ha cambiato la mia immagine scientifica del mondo, e ovviamente sono d'accordissimo con lui nel giudicare come rozze le competenze scientifiche dei politici, ma non è di questo che stiamo parlando) è lo stesso di coloro che criticano Grillo e il suo populismo (e, ugualmente, sia chiaro che non voglio qui minimamente difendere le più che variegate posizioni di Grillo). La democrazia è questo: governo della maggioranza (che sarebbe meglio chiamare minoranza meglio organizzata), che con la scusa dell'aver avuto il più dei voti si auto-giustifica nella prevaricazione sulle varie minoranze (che insieme sono la maggioranza meno organizzata).
Nei giorni scorsi di primarie del PD e parlamentarie di Grillo, la contraddizione era stridente e perforante, ovunque si leggesse. Riporto un solo link fra mille, un po' a caso, a mo' di casalinga di Voghera del web: il suo discorso gira completamente a vuoto, criticando le scelte dei candidati "dall'alto", "di partito", che sarebbero appunto per questo "non democratiche", ma allo stesso tempo criticando i modi di Grillo, cercando qualche ragione per poter dichiarare anch'essi "non democratici": perché non ci sarebbe un programma su cui l'elettore dovrebbe basare la sua scelta (l'elettore, questa figura mitologica del saggio che tutto pondera e tutto considera prima di consacrare il proprio voto), perché non ci sarebbe garanzia sulle procedure (e se invece questa garanzia ci fosse stata, sarebbe bastato questo a garantire un esito diverso? più saggio? più competente?). Alla fine il dubbio gli viene ("davvero non vedo molte ragioni per dargli torto"), insieme alla convinzione che non ci siano vie di scampo.
Ma il dramma di tutto questo è che nessuno si rende conto che è proprio la democrazia, a non offrire scampo; che è il gioco stesso che porta al baratro.
Perché? Perché io stesso non me ne rendevo conto, fino a pochi anni fa?
Forse perché non si riescono ad immaginare alternative. Forse perché l'unica alternativa alla democrazia che si riesce ad immaginare è una dittatura: la democrazia non è perfetta, ma è il meno peggio che abbiamo, si sente dire con rassegnazione vestita di saggezza.
Come l'adepto di una religione, che non vede nient'altro che il proprio credo. La religione di stato.

20 December 2012

Lo spreco dell'acqua

Visto che nessuno mi ha (ancora) risposto sulla questione del sovracconsumo delle risorse della Terra, spinto da un analogo post sempre su oggiscienza, Il libro blu dello spreco in Italia: l’acqua, vi propongo un'altra domanda, su analoga questione, ma più specifica: il consumo, ma soprattutto il risparmio, d'acqua dolce.
Nel caso dell'acqua siamo di fronte ad una risorsa che non viene stoccata in quantità significative, e la sua "produzione" è determinata, stazionariamente, dal famoso ciclo dell'acqua. I "volumi di produzione" di tale ciclo sono certamente variabili e posso dunque capire le preoccupazioni di chi biasima pratiche che potrebbero alterarne, al ribasso, i ritmi di produzione. Non mi vengono in mente esempi concreti di tali pratiche, ma le variabili da cui dipende il ciclo dell'acqua (in una determinata regione geografica) direi che ricadono in ambito atmosferico, climatico, orografico persino, ma certamente non nell'ambito del ritmo di consumo dell'acqua stessa. A meno, certo, del caso estremo in cui i livelli di consumo siano tali da esaurire l'intero volume di produzione locale: sto pensando a condizioni di siccità.
Ecco, le condizioni di siccità mettono in luce le contraddizioni che vedevo nel concetto di sovracconsumo: nel caso dell'acqua è evidente che non è possibile consumarne più di quanta ne venga prodotta, al massimo si può esaurirne la disponibilità ed eventualmente ci si può preoccupare della sua distribuzione. In caso di siccità del Po, in un esempio ipotetico, avrebbe senso preoccuparsi che se a Piacenza il consumo d'acqua dovesse essere troppo elevato, a Cremona potrebbero rimanerne senza.
Ma, e vengo finalmente al punto di questo post, se non ci troviamo in condizioni di siccità, il ritmo di utilizzo dell'acqua non mi pare possa incidere sul suo ritmo di produzione. Alla fine, per restare nell'esempio stilizzato di prima, tutta l'acqua del Po va finire in Adriatico, compresa quella che "risparmiamo" quando chiudiamo il rubinetto mentre ci insaponiamo o ci spazzoliamo i denti. L'invito che viene ripetuto a contenere il consumo dell'acqua, anche nelle stagioni umide, mi sembra del tutto analogo a quella storiella per bambini inappetenti che vengono esortati a finire la pappa... perché ci sono bambini poveri che non hanno niente da mangiare: tutto quello che "risparmiamo" sul cibo, che non "sprechiamo", non viene affatto, per il fatto stesso di non essere consumato, convogliato verso l'Africa subsahariana! Allo stesso modo, se non siamo in periodo di siccità, tutta l'acqua che non consumiamo... va semplicemente a finire in mare!
O no? Questa volta è forse più facile smascherare l'errore del mio ragionamento?

15 December 2012

E perché allora il cielo non è viola?

Ah! Io, io, io! Questa la so!
La risposta è: perché non esistono frequenze viola!
 
Per amor di precisione provo a ripescare le fonti che avevo letto ormai molto tempo fa, ai tempi delle api e di compiz, ma mi ritrovo, di nuovo, naufrago tra altre pagine di wikipedia che non conoscevo... e 'l naufragar m'è dolce!
 
Innanzitutto trovo conferma, credo, che lo spettro visibile va dal rosso al blu senza passare dal viola (su internet troverete un sacco di gradienti cromatici in cui compare il viola al di là del il blu, ma photoshop non è una fonte affidabile: se si cercano foto, e non immagini sintetiche, il viola non si vede — cfr. ad esempio , qui, qui o qui).
 
Però, vabbé, il termine violetto è ambiguo, e alcuni, in taluni contesti, io credo, intendono con esso riferirsi ad una specie di indaco, a quel profondo blu che starebbe ancora più in là del blu dello spettro. Perché non è che io sia proprio convinto che davvero, al limite del visibile, al blu si aggiunga una qualche pur debole tonalità di rosso: però non riesco a trovare in rete riferimenti autorevoli né in un senso, né nell'altro. Il dubbio, chiaramente, è che magari, chissà, la curva di sensibilità del cono "L", quello col picco di sensibilità più spostato verso le lunghezze d'onda più lunghe (rosse), abbia una qualche pur piccola gobbetta dalle parti delle onde più corte (blu) dove ha il suo picco di sensibilità il cono "S", in modo da dare, appunto, un tocco di rosso al blu più profondo. Non sono l'unico ad aver avanzato questa "spiegazione" del violetto spettrale oltre il blu: vedi ad esempio questa discussione su wikipedia, e in effetti si trovano in rete delle curve di sensibilità dei tre coni delle più varie (cfr. ad esempio quella della discussione citata prima; quest'altra, sempre da wikipedia, in cui c'è anche la sensibilità dei bastoncelli; questa, che invece di normalizzare sul picco, normalizza sull'area; quest'altra ancora, che sembrerebbe non-normalizzata; quest'altra ancora, anch'essa non-normalizzata e con in più addirittura una scala sull'asse delle ordinate, anche se manca l'unità di misura, e chissà se è lineare o logaritmica; questa, che in tutta la sua bruttezza mette bene in evidenza l'ipotetico sotto-picco del cono "L" nelle frequenze alte... e insomma, ce n'è per tutti i gusti). Però, dicevo, dalle foto "reali" dello spettro cromatico si potrebbe ben dedurre che di rosso non ce ne sia, su quel lato dell'arcobaleno.
 
Del resto io l'avevo ben imparato, ai tempi delle api e di compiz: il viola giace sul lato dritto del diagramma di cromaticità, quello a cui non corrisponde alcuna luce monocromatica: quei colori, cioè, che anche nella loro versione saturata (sulla linea, appunto, e non all'interno del diagramma), corrispondono necessariamente ad una sovrapposizione di frequenze blu e rosse.
Del resto io le avevo ben colte, ai tempi delle api e di compiz, le basi della visione dei colori: i tre tipi di coni — rosso, verde e blu — come tre dimensioni dello spazio di cromaticità, e ogni sfumatura di colore come un punto in quello spazio, individuato da(l logaritmo de)ll'intensità di eccitazione di ciascun tipo di coni. Perfetta corrispondenza con la rappresentazione cromatica nei monitor — dai vecchi tubi a raggi catodici, ai pannelli a cristalli liquidi, al plasma, o a LED — e di conseguenza nelle varie codifiche digitali, RGB per tutte.
Ecco, teoria tricromatica si chiama, e fu elaborata, leggo su wikipedia, nella prima metà del IX secolo da questi Thomas Young e Hermann von Helmholtz.
 
Se non fosse che ora, sempre su wikipedia, ho scoperto che si tratta solo della prima parte della storia, perché nella seconda metà di quello stesso secolo Ewald Hering elaborava la sua teoria dei colori complementari che, sebbene concepita come ipotesi alternativa alla teoria tricromatica, oggi trova fondamento nella moderna neurofisiologia. Questa infatti ha messo in luce processi di elaborazione dell'informazione visiva ulteriori rispetto al dato primario del livello di stimolazione dei tre tipi di coni, che si sono rivelati precisamente come i meccanismi biologici funzionali alla base della fenomenologia che Hering aveva individuato nella visione umana.
Volendo semplificare molto, l'elaborazione dell'informazione cromatica non si limita a considerare il livello di stimolazione dei diversi tipi di coni, ma anche le loro differenze: e del resto, a posteriori, chiamare i coni "M" e "L" rispettivamente "cono del verde" e "cono del rosso" è evidentemente una semplificazione eccessiva, visto che i loro picchi sono molto vicini fra di loro e in particolare il picco del cono "L" cade praticamente in quello che chiamiamo giallo, lasciando quello che chiamiamo rosso all'estremità dello spettro e della sua stessa coda di sensibilità.
Questa elaborazione del segnale di stimolazione dei coni in termini di differenza di intensità avviene già a livello della retina, dalle cellule bipolari alle cellule gangliari, le quali reagiscono da una parte alla differenza di stimolazione fra i coni "M" e "L" (la contrapposizione di Hering fra verde e rosso) e dall'altra alla differenza di stimolazione fra i coni "S" e una combinazione della stimolazione dei coni "M" e "L" (la contrapposizione di Hering fra blu e giallo).
Non starò a riassumere tutto quello che ho scoperto: un bel compendio lo si può trovare nel PDF delle slide del corso di Sistemi Intelligenti Naturali e Artificiali del LIRA-Lab, Laboratory for Integrated Advanced Robotics, dell'Università di Genova — wow!
Mi limiterò ad accennarvi al fatto che mi sono ritrovato a leggere di cose suggestive e immaginifiche come l'effetto Purkinje, di colori impossibili o proibiti e di colori immaginari, che no, non sono il grue e il bleen di Goodman, ma il not-brown reddish green o il not-green bluish yellow...

03 December 2012

Why is local symmetry called 'gauge' symmetry in quantum field theory?

What follows is the English version of a recent post of mine in Italian, Le teorie di calibro di Weyl, aimed at reaching a larger audience for the answer to the question in the title, which seems to be quite an unknown issue, albeit an unimportant one, at least from the physics point of view.
But then I stumbled upon the Thanksgiving 2012 post of Sean Carroll, where you can read:
[...] it’s called a gauge field, because Hermann Weyl introduced an (unhelpful) analogy with the “gauge” measuring the distance between rails on railroad tracks.
and the fact that Sean is certainly a non-average physicist leads me to believe that it may not only be just an unknown matter, but a misknown one: I don't know where Sean read about the gauge as a metaphor for the rails distance, but the story is quite different from that — and by far more interesting.
My original post was intended as a summary of an issue I already pointed out here and there in the comments section of different blogs (all of them in italian). I can't remember for sure where I read of it, most probabily in the Gravitation book, but it is not such a mystery since the wikipedia page on gauge theory, both in English and in Italian, says all, and even more, what I know about it.
 
A starting point can be the question of which was, historically, the very first gauge theory. Such a question mixes up words and meanings, so the answer needs to clarify.
For sure the Maxwell's classical electrodynamics is the oldest theory among the ones we nowadays say they have a gauge symmetry, but at the time of Maxwell the term "gauge symmetry" was unknown and such a symmetry was actually intended as a mere redundancy of the potentials fields with respect to the physical fields.
The theory that for the first time was expressed in term of a local symmetry is General Relativity. But, again, not when it was first presented by Einstein, where the now-we-know-is-a gauge symmetry was just stated as the Principle of general covariance, i.e. as a coordinate change invariance.
 
Entering Weyl.
 
The gauge story begun when he recast Einstein's General Relativity using a different but equivalent formalism, according to which the principle of general covariance can be seen as the invariance of the theory under an arbitray local rotation of the tetrad, the base of the tangent bundle vector space.
But even here the term gauge was not introduced yet.
Eventually it was introduced a moment later, by Weyl of course, while trying to extend his tetrads formalism. The idea was to require the theory to be invariant under an arbitrary local change not only in the tetrad orientation, but also in its scale factor. Such a new symmetry was supposed to generate the Maxwell equations for the electromagnetic four-potential, in the very same way in which the tetrad orientation symmetry generates the Einstein equations for the gravitational field. This is why Weyl introduced the name gauge for such a symmetry, the scale factor being the "size" of the base's vectors as measured by a gauge (and no railroad analogy was involved).
Unfortunately, such an attempt didn't work in his original formulation. The idea behind was of great value though. It turned out, in fact, that electrodynamics could actually be represented as a local symmetry field theory: the two key points were to keep the idea of a rotational symmetry (like the one of the tetrads) and to give up the idea of a symmetry of the tangent bundle. The Maxwell four-potential, now we know, had to be seen as the Lie generator of a U(1) rotational symmetry of an additional "abstract" fiber bundle attached to the space-time manifold. More generally, all fundamental interactions are today understood as the effect of a symmetry each with respect to its own Lie group SU(3) × SU(2) × U(1). Despite the fact that no size nor scale was involved any more, the name gauge got stuck to all such a local symmetry field theories.
 
But our story has much more than just historical and etymological lesson to be learned.
 
Usually in quantum field theory lectures the gauge symmetry idea is presentes as an upgrading procedure from a global symmetry to a local one. The prototypical example is the phase e of the wave function, which is assigned a space dependence eiφ(x) to. The power of such extension is clear, since this requirement is just enough, alone, to get the Maxwell electrodynamics equations, via minimal coupling.
But anyway such a recipe seems to come out of the blue: why should we devise such a point-to-point change of phase symmetry? Moreover, such a requirement is usually intended as a stricter constraint to the theory, since the transformation class under which the theory should remain unchanged is wider. So what?
Well, the real thing behind "gauging the global symmetry" lies precisely in the reason which moved Weyl to formulate its gauge theory of electrodynamics, which in turns boils down to the principle of general covariance.
When Einstein requires that equations of physics should be invariant with respect to any coordinates change, he is actually requiring a stronger symmetry, compared the previous requirement that equations should be invariant under just inertial reference changes. But the meaning of such a requirement is definitely the very opposite of imposing a stricter constraint: the meaning is just to relax the constraint that physical law are valid just within a small, arbitrary subset of reference frames! In the very same sense, the requirement that a field theory should have a local symmetry has to be intended as the release of the constraint that the bases of the Lie algebra of the gauge group should be rigidly oriented everywhere.
Hence, just like the gravitational field is an inertial effect due to the "connection" (in the technical sense of differential geometry) between two point at a finite distance which are not reciprocally inertial, in the same way the electromagnetic field is a U(1)-inertial effect due to the connection between two point at a finite distance which have the algebra bases not aligned each other.

30 November 2012

   [9] Metodo e spiegazione scientifica: dalla fisica all'evoluzionismo, per l'economia — all'ombra di Quine

[0][1][2][3][4][5][6][7][8][9]
(...continua)
§  La scuola austriaca
Con la scuola austriaca è tutt'un altro mondo, hai la genuina sensazione di comprensione: si parte da situazioni semplici e si acquisiscono principi e metodologie che appaiono subito come generali e facilmente applicabili in mille situazioni diverse. Di più, i vari pezzi combaciano perfettamente gli uni con gli altri a formare un quadro dotato di senso. Il che non significa, certamente, aver capito tutto subito, ma significa che per nuove situazioni sai individuare le variabili rilevanti, riesci a capire le direzioni in cui guardare per cercare una risposta, ma soprattutto sai giudicare cosa, invece, rappresenta un dettaglio del tutto irrilevante. Le situazioni reali restano involute, e ci mancherebbe, ma le interpretazioni austriache non si basano su modelli specifici, che assumono relazioni di causa-effetto semplici nonostante il contesto complesso; esse si basano su principi generali che valgono indipendentemente dai dettagli contingenti che invece sono il tipico oggetto di studio dei modelli economici mainstream.
 
Cosa dovremmo pensare, se non che non hanno capito nulla del processo evolutivo, di quei critici (della scientificità) dell'evoluzionismo che sfidassero a fare una previsione specifica su, chessò, quando precisamente quella tal specie cambierà qualche suo fenotipo, e quale, e come? Allo stesso modo le critiche alla teoria austriaca sulla sua mancanza di previsioni precise e falsificabili, sulla sua reticenza all'uso di modelli quantitativi, econometrici e verificabili sperimentalmente, rivelerebbero semplicemente di non aver colto il senso e la portata del suo quadro concettuale.
 
Faccio un esempio, per non lasciare che le mie apologie siano sempre vuote. Prendiamo le politiche monetarie delle banche centrali in regime di monopolio di emissione di moneta a corso legale forzoso: l'aver compreso il ruolo di coordinamento giocato dai prezzi di mercato, e in particolare di quel prezzo che è il tasso di interesse sui prestiti, ha come naturale conseguenza che le politiche monetarie, in qualsiasi direzione cerchino di spingere, devono essere considerate semplicemente delle distorsioni nei segnali che il livello dei prezzi altrimenti invierebbe a tutti gli attori del mercato, dirottando risorse verso progetti e investimenti non richiesti dal mercato, e dunque destinati al fallimento, sottraendole a quelli che potrebbero avere successo. Detto questo, non ha senso mettersi ad argomentare tirando in ballo l'entità della bilancia commerciale o le quotazioni della valuta sul mercato dei cambi o i tassi di prestiti interbancari o qualsiasi altro dettaglio contingente: l'effetto di distorsione ci sarà comunque, anche se l'effetto potrà assumere forme quantitative diverse, a seconda di quelle variabili e di mille altre che non saremmo mai in grado di misurare.
Per fare un parallelo con la fisica, è come se i modelli mainstream cercassero di analizzare in dettaglio la dinamica di una macchina del moto perpetuo, cercando il punto esatto in cui il modello si discosta dalla realtà, sperando così di poterlo migliorare ed ottere davvero, finalmente, il moto perpetuo; mentre gli austriaci, di fianco, magari non sanno dirti bene dove la dinamica del modello comincerà a discostarsi dalla realtà (perché la dinamica è davvero complessa, gli austriaci non lo negano), però provano a ragionare in termini di bilancio energetico e scoprono che no, non può essere: indipendentemente dai dettagli cinematici, alla fine il moto si smorzerà.
 
Insomma, la forza, notevole, dell'approccio austriaco è tutta qui: nel fornire un quadro di interpretazione coerente dei fenomeni economici, evidenziandone i meccanismi rilevanti, gli attori principali e quelli irrilevanti. Molto spesso lo fa senza appoggiarsi a quelle analisi quantitative che tanto piacciono agli economisti mainstream, utilizzando argomenti del tutto generali, capaci di giudicare la bontà o meno di una schematizzazione matematica prima ancora di controllarne l'aderenza empirica a determinati casi concreti.
Volete usare un nome specifico, prasseologia, per questo approccio? Liberissimi di farlo, ma si tratterebbe di una caratterizzazione di ambito, non di metodo. Il metodo, epistemologicamente parlando, è uno solo, quello scientifico, buono tanto per la fisica, quanto per la biologia e l'economia, ed è precisamente lo stesso, à la Quine, usato nella vita quotidiana per oggetti e persone. Le diverse declinazione che i diversi ambiti richiedono differiscono per prassi legate alle specificità dell'oggetto di studio, non per status epistemologico. E per la sedicente prasseologia l'ambito è lo stesso dell'economia classica.
 

29 November 2012

   [8] Metodo e spiegazione scientifica: dalla fisica all'evoluzionismo, per l'economia — all'ombra di Quine

[0][1][2][3][4][5][6][7][8][9]
(...continua)
§  Tessere senza puzzle e il calorico di Laplace
La cosa che colpisce di più dell'approccio austriaco, dicevo, è proprio questo suo essere sistematico, questo fornire un quadro interpretativo coerente dei fenomeni economici. Colpisce molto perché, al contrario, un tratto comune di tutte le altre economie è proprio quello di essere, ciascuna, un coacervo di modellizzazioni: prima ancora del difetto di essere stilizzate e/o viziate da qualche assunzione inverosimile, hanno il ben più grave difetto di essere del tutto avulse l'una dall'altra, tessere isolate senza alcun puzzle. A posteriori, questa caratteristica appare come una delle principali ragioni per cui l'economia non era mai riuscita ad appassionarmi: ogni articolo, ogni "spiegazione" di un qualche processo, appariva, nella migliore delle ipotesi, come un brillante esercizio di stile, capace di colpire per il suo ricondurre un qualche effetto visibile ad un meccanismo semplice. Ma i diversi meccanismi non si incastravano l'uno con l'altro a formare un quadro coerente, né costituivano casi paradigmatici da poter applicare in altre situazioni. Per motivi probabilmente molto diversi, si aveva la stessa sensazione che si prova studiando filosofia al liceo: un brancolare senza direzione, con piacevoli incontri ma senza mai la percezione di un senso complessivo.
Prendete la pagina di wikipedia sulla storia del pensiero economico: non c'è un percorso, ogni paragrafo è un'idea diversa, pronta per essere dimenticata nel paragrafo successivo, e ritirata fuori quello dopo ancora, con un neo- davanti...
Ancora: sono molto divertenti tutti quegli studi, chessò, sul mercato del lavoro, in cui si argomenta prendendo in considerazione quella particolare variabile, chessò, il cuneo fiscale, si evidenzia un possibile effetto in una certa direzione di un suo aumento o riduzione, chessò, un aumento o riduzione della domanda, o dell'offerta, si argomenta con qualche caso storico, come quando nel tal paese si girò la manopola del cuneo fiscale in tale direzione e si verificò un cambiamento nel mercato del lavoro in quella certa direzione, e si conclude che il miglior provvedimento da prendere qui e ora è proprio quello. O quello opposto, perché non bisogna dimenticarsi di quell'effetto collaterale che spinge nell'altra direzione, come dimostra quello che successe in quel tal altro paese, quel cert'altro anno.
 
Quando Laplace misurò quantitativamente con precisi esperimenti la quantità di fluido calorico scambiato tra due corpi a temperature diverse, stava testando un caso specifico di una teoria con un solido apparato concettuale e matematico, e con un vasto riscontro sperimentale; quando la teoria cinetica del calore scalzò quella del calorico lo fece proprio attraverso una revisione estesa e profonda di tutto lo schema concettuale che inquadrava la già vasta conoscenza dei fenomeni termici; e la nuova teoria era in grado precisamente di rendere conto di quella stessa fenomenologia, inquadrandola meglio all'interno dell'immagine più ampia del mondo fisico.
 
Il caso ipotetico del mercato del lavoro, quale teoria vorrebbe corroborare? Cosa saremmo costretti a rivedere, se dovesse risultare falsificata? Poco o nulla, il suo valore è estremamente circoscritto, ed è sempre dietro l'angolo la possibilità che un fattore trascurato si riveli meno irrilevante o che un'ipotesi di partenza non fosse realmente soddisfatta.
A differenza della scuola austriaca, le varie economie mainstream (dalle varie neo-declinazioni keynesiane alle altrettanto varie declinazioni neoclassiche) non hanno una teoria in cui inquadrare i vari modellini: si limitano a prendere, ogni volta, in ogni particolare modellino, un gruppo di variabili quantitative più o meno a caso, provano a trarne una qualche correlazione matematica e cercano se una correlazione simile può essere riscontrata in un caso reale specifico: è del tutto evidente la totale povertà esplicativa a cui un simile approccio può aspirare!
(continua...)

27 November 2012

   [7] Metodo e spiegazione scientifica: dalla fisica all'evoluzionismo, per l'economia — all'ombra di Quine

[0][1][2][3][4][5][6][7][8][9]
(...continua)
§  La prasseologia, senza chiedersi prima perché.
Nonostante il nome che puzza, dicevo, di scienze sociali, la prasseologia non cerca di entrare nel merito della natura umana, dei suoi bisogni, delle sue necessità, dei suoi desideri; non cerca di individuare le spinte che portano tipicamente a certe scelte, non si chiede perché la maggior parte degli uomini agiscono in certi modi, perché alcuni invece fanno eccezione, e perché, e come, e quando, e se...
L'originalità, la solidità e la forza esplicativa del suo approccio consiste invece nel limitarsi a prendere in considerazione gli aspetti, per così dire, formali, strutturali — e minimali — dell'agire umano: il fatto, essenzialmente, che si tratta di gesti effettuati da singoli individui e finalizzati ad uno scopo (eventualmente contingente, specifico, isolato). E badate che, scoprireste, l'uso della parola "scopo" è usato nel senso meno "idealista" e più galileiano possibile: non è uno "scopo ultimo", non è un progetto elaborato con cura e consapevolezza, non presuppone un ideale astratto a cui tendere; ho usato il termine "galileiano" nel senso dell'io stimo più il trovar un vero, benché di cosa leggiera, che 'l disputar lungamente delle massime questioni senza conseguir verità nissuna, di un'aderenza al dato empirico in un senso più profondo del cercare un riscontro statistico a posteriori su casi specifici e contingenti.
Ma a dispetto dei presupposti minimali, proprio come con Galileo, il vero, benché di cosa leggiera fornisce, a posteriori, precisamente i mattoni più solidi con cui prende forma un edificio coerente proprio per quelle massime questioni considerate tanto nobili. Fuor di metafora: a dispetto dei presupposti minimali, i risultati dell'approccio misesiano sono incredibilmente vasti e fecondi.
L'idea, ad esempio, di una definizione "fattuale" di scelta economica, avulsa da qualsiasi valore morale, motivazione, obiettivo dichiarato o addirittura consapevolezza di chi la compie, consente loro di evitare di impelagarsi in discussioni con inevitabile tendenza alla metafisica sui concetti di benessere individuale e pubblico, sui verbi modali "volere" e "dovere"...
Similmente per il concetto di valore economico: l'evidenza della sua irriducibile soggettività (variabile non solo da individuo a individuo, ma anche per lo stesso individuo in momenti diversi e addirittura giudicato differente, dallo stesso individuo nello stesso momento, per due oggetti identici) mina, in generale, qualsiasi tentativo di darne una rappresentazione quantitativa, fosse anche in senso debole di mera relazione di ordinamento, e consente loro, in particolare, di elaborare il concetto di marginalità (che ora va tanto di moda anche fra gli economisti mainstream, ma che viene elaborato in maniera chiara e formale per la prima volta proprio da Menger, il capostipite della scuola austriaca), gettando una luce rivoluzionaria sul concetto di scambio economico, in cui viene distrutta per sempre l'ingenua concezione del prezzo come quantificazione del valore del bene scambiato.
(continua...)

26 November 2012

   [6] Metodo e spiegazione scientifica: dalla fisica all'evoluzionismo, per l'economia — all'ombra di Quine

[0][1][2][3][4][5][6][7][8][9]
(...continua)
§  La prasseologia: perché?
Una delle cose che colpisce maggiormente avvicinandosi alla scuola austriaca in maniera anche solo minimamente sistematica è proprio questo suo carattere organico.
 
Mises conia un termine specifico, la prasseologia, per identificare il suo oggetto di studio, e marcare in qualche modo le distanze con l'economia classica, e devo confessare che questa cosa mi insospettiva parecchio: questa presunta nuova scienza in -logia ricordava troppo le altre scienze sociali, e ad aggravare la cosa c'era questo suo sedicente carattere ipotetico-deduttivo, questo suo richiamarsi alla logica e alla matematica, di cui però non condivideva il linguaggio formalizzato, e questo ispirava innegabilmente pochissima fiducia: di quante teorie strampalate avete sentito parlare che si appellavano all'auto-evidenza, a partire nientepopodimenoché da Cartesio?
Oltretutto se vi capita di leggere su internet delle difese della scuola austriaca che non si limitano ad Hayek, ma che si rifanno espressamente a Mises, con grande probabilità vi ritroverete precisamente a leggere delle ingenue ricapitolazioni e ridefinizioni di metodo scientifico che fanno sorridere chiunque mastichi un po' di filosofia della scienza, annacquando completamente la reale portata del contributo misesiano.
E non sto parlando solo di semplici, comuni "blogger": prendete questo brano di Rothbard sull'uso della matematica in economia, A Note On Mathematical Economics (Una nota sulla matematica in economia): i concetti su cui insiste — le particelle fisiche unmotivated da una parte e le azioni umane motivated dall'altra, le leggi fisiche meaningless da un lato e quelle prasseologiche meaningful dall'altro, il mero "significato operativo" (operational meaning) delle leggi fisiche da confrontare con le leggi prasseologiche che sarebbero invece significativamente vere (meaningfully true) — fanno venir voglia di fuggire a gambe levate e smettere di leggere dopo i primissimi paragrafi!
 
Ma se si mettono completamente da parte le solite ragioni epistemologiche — cioè quelle rivendicate dai tipici libertari, a cominciare da Rothbard stesso, e non quelle rivendicate da Quineiani come me :-) — se si mettono da parte, dicevo, le solite ragioni epistemologiche che dovrebbero, a priori, condannare gli approcci positivisti e consacrare solo quelli misesiani, e si procede in maniera sistematica dal principio (io continuo ad indicare sempre lo stesso testo, l'Economics for Real People di Gene Callahan, solo perché è l'unico che ho letto, ma chissà quali testi migliori esistono là fuori), si scopre un approccio del tutto originale, purtroppo oggi come allora, ai temi economici.
(continua...)

24 November 2012

Le teorie di calibro di Weyl /sequel

Dice Sean Carroll nel suo post di Thanksgiving 2012:
[...] it’s called a gauge field, because Hermann Weyl introduced an (unhelpful) analogy with the “gauge” measuring the distance between rails on railroad tracks.
Ma dove diavolo avrà letto di questa presunta, unhelpfull, metafora della distanza fra le rotaie di una ferrovia? Forse da uno dei significati comuni del termine gauge?
Mi toccherà tradurre in inglese il mio post Le teorie di calibro di Weyl?

20 November 2012

   [5] Metodo e spiegazione scientifica: dalla fisica all'evoluzionismo, per l'economia — all'ombra di Quine

[0][1][2][3][4][5][6][7][8][9]
(...continua)
§  Quine
Allora, come ripetuto altre volte su questo blog, dopo Quine non abbiamo più un criterio di demarcazione semplice à la Popper: né experimentum crucis, né una metodologia universale. L'esempio paradigmatico della fisica quale hard science rappresenta solo il caso in cui le cose sono più facili.
L'astronomia e persino la cosmologia, pur senza esperimenti ripetibili e dunque senza una reale possibilità di falsificazione popperianamente intesa, non hanno alcun complesso di inferiorità rispetto alla fisica di laboratorio e godono invece spesso di un grado di affidabilità e scientificità molto maggiore di altri ambiti più fenomenologici della fisica, nonostante in questi ultimi sia possibile applicare metodologie sperimentali più squisitamente galileiane.
L'evoluzionismo darwiniano, nella sua accezione più ampia in contrapposizione a framework completamente diversi (uno per tutti, il disegno intelligente), gode di assoluta scientificità non certo per un singolo esperimento cruciale o per l'uso di una metodologia assimilabile, fosse anche in senso molto lato, a quella del fisico: i motivi per cui, indiscutibilmente, rappresenta un pilastro della nostra immagine scientifica del mondo vanno ricercati, contemporaneamente ed inestricabilmente, nella sua aderenza al dato empirico su un fronte vastissimo (fisico, chimico, biologico, ecologico, paleontologico, etc...) e nella sua potenza esplicativa, ovvero nella sua capacità di riunire in un unico schema concettuale quella immensamente variegata fenomenologia.
Queste solide ragioni — nessuna, da sola, cruciale, nessuna puramente empirica e nessuna puramente teorica — rappresentano quello che Quine chiama il tribunale dell'esperienza, a cui le nostre teorie si sottopongono non per singole affermazioni ma come un tutt'uno (olismo epistemologico). E la forza di quelle ragioni sta precisamente nel loro perfetto inserirsi nel quadro complessivo della nostra immagine del mondo; la loro forza risiede nel fatto che una loro revisione ci costringerebbe a modificare profondamente e/o ampiamente il resto della nostra immagine del mondo.
(continua...)

17 November 2012

   [4] Metodo e spiegazione scientifica: dalla fisica all'evoluzionismo, per l'economia — all'ombra di Quine

[0][1][2][3][4][5][6][7][8][9]
(...continua)
§  Le critiche degli austriaci: da Hayek alla prasseologia di Mises
Prendiamo, ad esempio, le critiche di Hayek, probabilmente le meno radicali e più circoscritte, e per questo forse le più facilmente condivisibili, ma non per questo meno incisive.
Un bel compendio (con beneficio di inventario: in realtà ho letto poco Hayek) lo si può trovare nel suo discorso di accettazione del Nobel (The Pretense of Knowledge). Le sue critiche non cercano di alzarsi sui massimi sistemi, tentando di definire un criterio di demarcazione per una conoscenza scientifica e bocciando il positivismo economico sulla semplice base della violazione di tali criteri. No, lui accetta di buon grado la possibilità, in linea del tutto teorica, di elaborare modelli quantitativi di sistemi socio-economici da cui trarre significativi insegnamenti e concrete ricette per modificare o stabilizzare l'evoluzione di tali sistemi in direzioni desiderate. Solo che poi arriva a negare la bontà di praticamente tutti i modelli usualmente proposti, sulla base di considerazioni nel merito di tali modelli, senza ovviamente contestare la bontà dello svolgimento matematico della modellizzazione, ma negando i presupposti di validità delle assunzioni che dovrebbero giustificare tali modelli come adeguate rappresentazioni della realtà. Le sue non sono argomentazioni "esterne", ma parlano la stessa lingua del positivismo economico; e tuttavia sono di natura così generale da avere come risultato pratico un rifiuto virtualmente sistematico dell'applicazione di metodi quantitativi nel tentativo di capire e governare l'economia.
Per poter giudicare la bontà e la forza delle argomentazioni di Hayek, dunque, bisogna in qualche modo entrare nel merito dell'economia e dell'econometria, bisogna adottare, cioè, lo stesso approccio positivista che si ritroverà alla fine enormemente depauperato.
 
In alternativa è possibile arrivare alle medesime tesi per vie ortogonali, criticando il positivismo economico su basi puramente epistemologiche, fornendo la propria visione di "giusto sapere" in campo socio-economico, cercando di mostrare che il "solito" metodo scientifico può andar bene per la fisica ma non per l'economia, e dando persino un nome, la prasseologia, al corretto approccio, sedicente aprioristico-deduttivo, per lo studio di dinamiche sociali.
Ebbene, è evidente che un tale approccio risulta estremamente delicato: cosa mai potranno, questi austriaci, su un problema, quello della demarcazione, su cui scienziati e filosofi della scienza a legioni si sono accaniti da prima ancora di Galileo, e a tutti, nei casi migliori, è sempre mancato qualcosa?
 
Meno che a Quine, ovviamente.
 
Ecco, le vaste pretese di questo post di cui parlavo in apertura stanno tutte, precisamente, nella spiegazione delle vere ragioni della bontà dell'approccio austriaco, perché mi toccherà riassumere l'epistemologia quineiana.
(continua...)

16 November 2012

   [3] Metodo e spiegazione scientifica: dalla fisica all'evoluzionismo, per l'economia — all'ombra di Quine

[0][1][2][3][4][5][6][7][8][9]
(...continua)
§  ...e al positivismo sociologico
Detto questo sul neopositivismo, veniamo finalmente al positivismo sociologico e alle critiche (austriache) ad esso.
Ebbene, le scienze sociali — senza nemmeno prendere in considerazione critiche del primo tipo, à la Hegel — comunque faticano, in generale, a sostenere anche il solo sguardo delle critiche à la Popper. Il loro appello al metodo scientifico e al confronto empirico, per giustificarsi e darsi un tono, sprizza ingenuità da tutti i pori: le usuali crtiche al positivismo fanno le pulci a concetti come experimentum crucis, ripetibilità dell'esperimento, verificabilità/falsificabilità, et cetera, mentre la sociologia pretende la sua aiuola privata nel giardino delle scienze per il mero fatto di usare un linguaggio che può ammantarsi di matematica solo per il riferimento a tecniche di inferenza statistica (spesso, poi, usate in modo troppo semplificato, quando non addirittura errato). Non è nemmeno il caso di addentrarsi in sofisticate argomentazioni epistemologiche per rendersi conto che i caratteri di solidità e rigore solitamente associati all'attributo scientifico non possono essere comprati con semplici correlazioni statistiche, soprattutto se queste sono estratte da una modellizzazione iper-semplificata di un fenomeno complesso in cui le variabili lasciate fuori dal modello hanno altrettanta se non più rilevanza per la fenomenologia reale di quelle incluse.
Orbene, gli austriaci condividono questa diffidenza verso i metodi e i risultati delle scienze sociali, e dell'economia in particolare, arrivando spesso a rifiutare del tutto, a priori, l'utilizzo di metodi quantitativi.
Ma il punto è: con quali argomentazioni?
Qui il panorama si complica, perché le critiche austriache alle analisi quantitative in economia si declinano in modi molto diversi, spesso nemmeno complementari ma apparentemente in reciproca contraddizione.
(continua...)

14 November 2012

   [2] Metodo e spiegazione scientifica: dalla fisica all'evoluzionismo, per l'economia — all'ombra di Quine

[0][1][2][3][4][5][6][7][8][9]
(...continua)
§  Critiche al neopositivismo...
Ma cominciamo ad entrare nel merito della questione, perché è chiaro che nessuno, io per primo, sarebbe disposto a fare propria una prospettiva programmatica come quella positivista, nella sua beata ingenuità, neppure in campo strettamente epistemologico, in cui le ingenuità sono meno pacchiane.
Il punto cruciale, però, che andrà a distinguere posizioni potenzialmente distantissime, sono le ragioni in base alle quali si considera ingenuo l'approccio positivista.
Semplificando, e prendendo come riferimento il dibattito epistemologico, ci sono grossomodo tre diversi modi per farlo.
Il peggiore è quello a cui appiccicherò il nome di Hegel, sia maledetto per sempre: il rifiuto del positivismo per il suo rifiuto della metafisica, nel senso più abominevole del termine di fuffa senza senso.
Poi c'è l'approccio a cui appiccicherò il nome di Popper, che consiste nel fare le pulci a tesi specifiche del positivismo ("falsificazionismo, diamine, non verificazionismo!"), senza tuttavia proporre un reale cambio di prospettiva: quasi tutte le ingenuità del positivismo restano lì e i principali problemi aperti, uno per tutti quello della demarcazione, restano tali.
E infine c'è Quine: il positivismo è letteralmente raso al suolo, nelle tesi specifiche, ma sopravvive nello spirito che l'aveva animato: sopravvive, cioè, il primato della scienza, anche se, per caratterizzarla, non abbiamo più criteri di demarcazione semplici e cruciali, e dobbiamo invece ricorrere a valutazioni generali che, anche per casi specifici, coinvolgono potenzialmente tutta la nostra conoscenza, riferendosi contemporaneamente, e inestricabilmente, tanto al dato empirico quanto al linguaggio teorico, nel loro insieme.
(continua...)