Showing posts with label divulgazione scientifica. Show all posts
Showing posts with label divulgazione scientifica. Show all posts

31 December 2017

MUSE

MUSE, Trento
MUSE, interno del livello -1 e grande vuoto.
(Creative Commons Attribution-Share Alike 3.0 Unported)
Siamo stati al MUSE di Trento, un vero spettacolo.
 
Cosa ti è piaciuto di più? — mi hanno chiesto.
È difficile dirlo, non credo ci sia qualcosa che da sola metta in ombra il resto: è un effetto d'insieme, fatto di maestosità e di estrema cura del dettaglio.
La ricostruzione degli animali è stupefacente, ancor di più per il fatto di potersi avvicinare ad osservare fino a sbatterci il naso — la donna e l'uomo primitivo, ma soprattutto il ragazzino sono mozzafiato, tanto sono reali.
La loro disposizione sospesa lungo tutti e 5 i piani è di grandissimo effetto, così come di grandissimo effetto è la sezione sull'evoluzione del piano inferiore, a partire certamente dagli imponenti scheletri, ma senza dimenticare le riproduzioni di organismi primitivi — mi emoziona sempre pensare alla fauna di Ediacara e alla sua iconica hallucigenia.
Anche la sezione "interattiva", con i mille giochi da sperimentare in prima persona per la gioia di grandi e bambini, è per la prima volta nella mia esperienza in Italia all'altezza dei grandi musei europei. Noi siamo stati dentro 5 ore (ok, sì, di cui due di laboratorio) solo perché abbiamo sottovalutato quale sarebbe stata l'esperienza e ci siamo ritrovati sorpresi dall'orario di chiusura a dover concludere in fretta il nostro percorso, altrimenti chissà quanto tempo ancora ci saremmo trattenuti!
 
PS
Dieci anni fa avrei per prima cosa scritto questo post; oggi mi è scappato giusto un tweet striminzito. C'è voluto un commento di Marco per spronarmi a spendere due parole in più. Con tutto il male che si può dire, Facebook è anche questo.

26 March 2017

Diverticoli devoniani e vita intelligente

«Non è curiosa l'evoluzione? Il nostro orecchio medio è una camera con un tubo che nel Devoniano serviva a respirare, dove alloggiano ossicini ridotti (incudine e martello) che nel Devoniano (e almeno fino al Triassico) servivano per muovere le mandibole, per masticare. Dentro il nostro organo auditivo abbiamo vestigi[a] di un sistema respiratorio e mandibolare paleozoici.»
 
In un post di ampio respiro, “Buena Vista”, ovvero: come imparammo a vedere e a riflettere meglio [edit] (sic), Andrea Cau tratteggia un affresco, dicevo, dal fascino reverenziale, che si sviluppa contemporaneamente su piani ancestrali e moderni, lungo direttrici insieme contingenti e geologiche.
 
L'ancestrale contingenza è quella di alcuni sarcopterigi paleozoici — pesci dotati di due sistemi di approvvigionamento del comburente: il solito, che preleva ossigeno dall'acqua tramite le branchie, ed uno più efficiente che lo preleva dall'aria usando un diverticolo del sistema digerente — che per meglio adattarsi ad acque basse, torbide e relativamente poco ossigenate avevano evoluto, attorno al passaggio fra il Devoniano Medio al Superiore, una posizione più dorsale per il loro spiracolo e per le orbite oculari, nonché un aumento di dimensione di quest'ultime.
 
La prospettiva moderna su scala geologica riguarda il drastico cambio di contesto che l'accesso al nuovo ambiente subaereo avrebbe comportato: da un mondo sensoriale limitato a pochi centimetri (non solo in termini visivi, anche in termini di linea laterale), cioè uno spazio di azione di pochi secondi, ridotto quindi a mere reazioni, rapidissime e immediate, cioè generali e semplici, ci si affacciava su un mondo più vasto, con visibilità a lungo raggio e spazi d'azione su tempi più lunghi, in cui ci si poteva concedere il lusso di comportamenti più elaborati, differenziati in base al contesto: un mondo, cioè, in cui un cervello più sviluppato poteva costituire vantaggio evolutivo.
 

30 September 2016

nautil.us

 
Per chi ancora non fosse incappato in nautil.us (o non si fosse reso conto del suo valore), volevo segnalare e rendere omaggio a questa notevole iniziativa editoriale di ambito scientifico con taglio divulgativo: un insolitamente equilibrato coniùgio di rigore e suggestione.
Ogni mese un tema — un issue — e ogni settimana di quel mese una manciata di articoli su quel tema. Così si può fruire come un qualsiasi blog (se non fosse che la qualità e lo spessore degli articoli li porta molto presto fuori dalla finestra di tempo disponibile per la lettura... — io non riesco a stargli dietro), ma il taglio monografico si presta perfettamente ad un formato di pubblicazione più simile ad un'agile saggistica; e infatti è possile fruirne in formato cartaceo o eBook, abbonandosi opuure una tantum su un singolo issue.
 
Come un blog, dicevo, ma invero nautil.us un blog ce l'ha davvero — in più! — con contenuti e temi indipendenti dall'issue del mese. E questo blog ha un nome, e questo nome si porta dietro un effetto speciale così commovente che in realtà il vero motivo per cui mi sono messo a scrivere questo post è proprio quello di raccontarvelo.
 
Come sapete io leggo tutto grazie al mio fedele GrazeRSS (powered by feedly), cioè via feed RSS.
L'interfaccia principale (sia sul cellulare che sul browser) è quella di una lista di titoli — eventualmente da aprire per leggere... o scartare direttamente come letti senza nemmeno aprirli: ah, l'infoxication contro la FoMO!
 
Ora succede — e finalmente veniamo al punto — che il blog di nautil.us ha adottato la prassi di posporre il titolo del blog al titolo specifico di ogni suo post, col risultato, però, visto il titolo del blog, di lasciar intendere che si tratti un commento al contenuto del post: Facts so romantic.
 

20 December 2012

Lo spreco dell'acqua

Visto che nessuno mi ha (ancora) risposto sulla questione del sovracconsumo delle risorse della Terra, spinto da un analogo post sempre su oggiscienza, Il libro blu dello spreco in Italia: l’acqua, vi propongo un'altra domanda, su analoga questione, ma più specifica: il consumo, ma soprattutto il risparmio, d'acqua dolce.
Nel caso dell'acqua siamo di fronte ad una risorsa che non viene stoccata in quantità significative, e la sua "produzione" è determinata, stazionariamente, dal famoso ciclo dell'acqua. I "volumi di produzione" di tale ciclo sono certamente variabili e posso dunque capire le preoccupazioni di chi biasima pratiche che potrebbero alterarne, al ribasso, i ritmi di produzione. Non mi vengono in mente esempi concreti di tali pratiche, ma le variabili da cui dipende il ciclo dell'acqua (in una determinata regione geografica) direi che ricadono in ambito atmosferico, climatico, orografico persino, ma certamente non nell'ambito del ritmo di consumo dell'acqua stessa. A meno, certo, del caso estremo in cui i livelli di consumo siano tali da esaurire l'intero volume di produzione locale: sto pensando a condizioni di siccità.
Ecco, le condizioni di siccità mettono in luce le contraddizioni che vedevo nel concetto di sovracconsumo: nel caso dell'acqua è evidente che non è possibile consumarne più di quanta ne venga prodotta, al massimo si può esaurirne la disponibilità ed eventualmente ci si può preoccupare della sua distribuzione. In caso di siccità del Po, in un esempio ipotetico, avrebbe senso preoccuparsi che se a Piacenza il consumo d'acqua dovesse essere troppo elevato, a Cremona potrebbero rimanerne senza.
Ma, e vengo finalmente al punto di questo post, se non ci troviamo in condizioni di siccità, il ritmo di utilizzo dell'acqua non mi pare possa incidere sul suo ritmo di produzione. Alla fine, per restare nell'esempio stilizzato di prima, tutta l'acqua del Po va finire in Adriatico, compresa quella che "risparmiamo" quando chiudiamo il rubinetto mentre ci insaponiamo o ci spazzoliamo i denti. L'invito che viene ripetuto a contenere il consumo dell'acqua, anche nelle stagioni umide, mi sembra del tutto analogo a quella storiella per bambini inappetenti che vengono esortati a finire la pappa... perché ci sono bambini poveri che non hanno niente da mangiare: tutto quello che "risparmiamo" sul cibo, che non "sprechiamo", non viene affatto, per il fatto stesso di non essere consumato, convogliato verso l'Africa subsahariana! Allo stesso modo, se non siamo in periodo di siccità, tutta l'acqua che non consumiamo... va semplicemente a finire in mare!
O no? Questa volta è forse più facile smascherare l'errore del mio ragionamento?

24 November 2012

Le teorie di calibro di Weyl /sequel

Dice Sean Carroll nel suo post di Thanksgiving 2012:
[...] it’s called a gauge field, because Hermann Weyl introduced an (unhelpful) analogy with the “gauge” measuring the distance between rails on railroad tracks.
Ma dove diavolo avrà letto di questa presunta, unhelpfull, metafora della distanza fra le rotaie di una ferrovia? Forse da uno dei significati comuni del termine gauge?
Mi toccherà tradurre in inglese il mio post Le teorie di calibro di Weyl?

12 November 2012

Le teorie di calibro di Weyl

Post per Delio, questo, chissà se mi legge ancora,
dopo tutta questa serie di post su Quine, prima, e sugli austriaci, poi,
che hanno fatto evaporare quasi completamente la fisica
da questo, un tempo rispettabile, bel blog di fisica (bontà sua…).
Questo recente post di Peppe Liberti su Focus.it, Il circolo di Weyl, mi ha ricordato la storia dell'origine del termine gauge usato oggi per indicare le teorie di campo con simmetria (interna e) locale. Non ricordo più dove la lessi, forse sul Gravitation di Wheeler. Non pare sia una cosa molto nota, fra i fisici, e tutto sommato giustamente, visto che si tratta di una curiosità storica. Ma era una storia che mi aveva colpito, per l'idea molto suggestiva di un'estensione della simmetria della relatività dalla sola rotazione della tetrade alla sua "scala", e così provo a riportarla qui per i miei strenui lettori. Non che sia chissà quale segreto, la pagina di wikipedia sulle teorie di gauge, sia in italiano che in inglese, riporta tutto e più di quel che ricordi io stesso.
 
Avevo già avuto modo di parlarne quasi cinque anni fa — vi ricordate, quando ancora esistevano i blog? — in calce a questo post di Lap(l)aciano, Simmetrie di gauge (II). Si disquisiva di quale fosse, storicamente, la prima teoria di guage in assoluto. La domanda non fa distinzione fra questioni semantiche e questioni nominali, e la risposta è costretta a dover distinguere.
Fra le teorie che oggi chiamiamo "di gauge", quella che fu formulata storicamente per prima fu la teoria di Maxwell per l'elettrodinamica classica, ma, quando fu formulata, il termine "simmetria di gauge" non esisteva ancora e la simmetria delle equazioni di Maxwell era espressa in termini di una funzione di trasformazione per i potenziali scalare e vettore che lasciavano inalterati i campi elettrici e magnetici (cfr. Gauge fixing).
La prima teoria formulata esplicitamente come teoria di campo con una simmetria "locale" è stata la relatività generale, ma anche in quel caso, nella formulazione originale di Einstein, la simmetria di gauge era in realtà espressa come principio di covarianza generale, ovvero come simmetria rispetto ad un'arbitraria trasformazione (differenziale) di coordinate. Fu appunto Weyl ad elaborare un formalismo alternativo ma equivalente, quello delle tetradi, in cui il principio di covarianza poteva essere interpretato come una simmetria rispetto ad un'arbitraria rotazione, locale, della base del fibrato tangente. Ma nemmeno in questa formulazione, ancora, si usa il termine gauge. Il termine gauge viene introdotto però in quello stesso momento, dallo stesso Weyl appunto, nel tentativo di estendere tale formalismo per spiegare anche l'elettromagnetismo di Maxwell in termini geometrici, come la relatività di Einstein spiegava la gravità. L'idea suggestiva di Weyl era quella di estendere la simmetria della teoria di campo non solo alla rotazione della tetrade ma anche alla sua "dimensione", alla lunghezza dei vettori della base. Ecco il motivo del termine gauge, calibro, a richiamare l'idea di una misura di lunghezza.
Purtroppo il tentativo, in questo preciso approccio, non funzionò. Ma l'idea fu feconda: l'elettromagnetismo poteva davvero essere interpretato come una teoria di campo con simmetria locale, solo che bisognava restare attaccati al concetto di simmetria per rotazioni, come quella delle tetradi, ed abbandonare invece il concetto che la simmetria dovesse riguardare lo spaziotempo o il suo fibrato "naturale". Il quadripotenziale di Maxwell andava infatti interpretato come il generatore di Lie di una simmetria rispetto alla rotazione della base di un ulteriore fibrato "astratto". A dispetto del cambio di contesto, il nome restò, e da allora per le teorie di campo si parla di simmetria di gauge tutte le volte che c'è invarianza rispetto ad una trasformazione locale di un generico gruppo, generalizzando il caso del gruppo delle rotazioni. Tutte le interazioni fondamentali, in particolare, sono interpretate come l'effetto di una simmetria di questo tipo rispetto a gruppi di simmetria associati alle cariche dell'interazione (elettrodebole e di colore).
 
Ma la morale di questa storia non è solo di carattere storico ed etimologico.
Nei corsi di teoria dei campi il concetto di simmetria di gauge viene presentato come "promozione" a simmetria locale di una simmetria globale. L'esempio classico è proprio quello della fase e della funzione d'onda a cui si assegna una dipendenza dalle coordinate spaziali: eiφ(x). La "potenza" di tale estensione è evidente, visto che è sufficiente questa sola richiesta di "località" della simmetria per dedurre, via accoppiamento minimale, le equazioni di Maxwell per l'interazione elettromagnetica. Ma la cosa sembra un po' piovere dal cielo: perché mai dovremmo inventarci questa dipendenza puntuale della simmetria? Oltretutto tale estensione viene interpretata come una richiesta "più forte" di simmetria, visto che la classe di trasformazioni rispetto alla quale la teoria deve restare invariata è più ampia. Ebbene, le motivazioni di Weyl che portarono alla formulazione delle teorie di "gauge" mettono in luce la vera natura della richiesta di "località" della simmetria, da ricondurre, in fondo, al principio di covarianza generale.
Quando Einstein richiede che le equazioni della fisica siano invarianti rispetto ad una qualsiasi trasformazione di coordinate, sta effettivamente richiedendo una simmetria più forte di quella che fossero invarianti solo per trasformazioni inerziali. Ma il senso di tale richiesta è l'esatto opposto di quello di imporre una condizione più stringente, ed è quello, appunto, di rilasciare un vincolo, arbitrario, per il quale una classe particolare di sistemi di riferimento avrebbero avuto un fiocco rosso. Allo stesso modo la richiesta che la teoria di gauge abbia una simmetria locale va interpretata come la rinuncia al vincolo per cui la base dell'algebra del gruppo sia orientata rigidamente dappertutto.
Così, come il campo gravitazionale è un effetto inerziale dovuto alla necessità di dover "connettere" (nel senso tecnico di geometria differenziale del termine) due punti distinti non necessariamente reciprocamente inerziali, allo stesso modo l'elettromagnetismo è un effetto che potremmo dire "U(1)-inerziale" dovuto alla necessità di dover "connettere" due punti distinti che non necessariamente hanno la base dell'algebra (la fase) "orientata" allo stesso modo.

05 September 2012

Earth overshoot day

Provo a riprendere con un post dall'ultimo commento del Mau (che avrà di meglio a cui pensare in questi giorni, ma tanto i tempi di questo blog sono sempre stati molto pazienti), col pretesto dell'Earth overshoot day, lo scorso 22 agosto, nella speranza che qualcuno degli ormai rari lettori che ancora passano per questo blog possano aiutarmi a capire qualcosa.
 
Ne avevo letto prima su Linkiesta, Dal 22 agosto esaurite le risorse naturali 2012. Inizia la decrescita infelice?, ma poi ne ha parlato anche OggiScienza, In debito con la Terra, e sono anche andato a spulciarmi il sito ufficiale, Global Footprint Network, ma non riesco proprio a venirne a capo. 
L'idea, sembrerebbe di capire, è che l'uomo consuma più risorse di quante la Terra gliene possa mettere a disposizione, ma tale concetto, prima ancora di qualsiasi conto, mi sfugge completamente. 
Non abbiamo altre "Terre" cui attingere, come riusciremmo a soddisfarli, dunque, quei consumi "extra"? Il conto verrebbe fatto anno per anno, ed è già da un po' di anni che "sforiamo". Il Montesi de Linkiesta sembra concepire una simile domanda, a cui prova a fornire (io credo con una propria certa autonomia d'interpretazione) la risposta più plausibile in questo contesto: le uniche risorse rimaste sono le nostre riserve: riserve alimentari ed energetiche. Ma una tale prospettiva rende l'idea ancora più incomprensibile. 
Davvero, aiutatemi a capire: di quali risorse stiamo parlando? 
Risorse alimentari? Davvero ci sono da qualche parte dei grandi magazzini di, chessò, riso, patate, o altro cibo (evidentemente non deperibile, o liofilizzato...), messo da parte fino agli anni '70 e da cui ormai da un po' di anni abbiamo cominciato ad attingere per tirare a fine anno? La gente muore di fame, in Africa e non solo, certo, ma questo significa che non ce ne sono abbastanza, di risorse alimentari, non significa che ne stiamo consumando più di quante ne produciamo. Si vuol forse dire che il regime di alimentazione di una parte del mondo (quello occidentale) non potrebbe essere offerto parimenti a tutto il mondo? Ma allora si tratterebbe di un problema di distribuzione, di quelle risorse, non di sovracconsumo. 
O stiamo forse parlando di risorse energetiche? Ma a parte quelle rinnovabili (solare, eolico, marino, etc...), tutte le altre fonti energetiche sono per definizione sovracconsumate: la Terra non ha alcuna quota di "produzione" annua di petrolio, carbone, etc: la totalità, il 100% del loro consumo è "sovracconsumato" e non verrà mai più rigenerato dalla Terra il prossimo anno. Al massimo, se volessimo parlare di quota annuale, questa riguarderebbe la loro estrazione, peraltro estremamente variabile, ma anche in quel caso è inverosimile che si sia "stipato" carbone e petrolio estratto fino agli anni settanta e poi cominciato a svuotare le riserve. Forse si vuol considerare un qualche forma di "capacità di smaltimento" dei prodotti di scarto dello sfruttamento di quelle risorse: ma allora stiamo parlando di inquinamento, o di effetto serra (riassorbimento di CO2), concetti molto lontani da quelli di "produzione di una risorsa" e di "suo consumo". 
 
E non pensate che il punto sia il mio fare le pulci ad un articolo di un quotidiano generalista e non scientifico come Linkiesta: anche OggiScienza si limita a rigirare le parole sulla metafora del budget annuale esauritosi già a due terzi dell'anno, e possiamo quasi capirla, in fondo, perché persino sul sito ufficiale del Footprint ci sono pagine e pagine di parole vuote: la sezione Footprint Science si limita a girare in tondo: dicono solo che calcolano l'ecological resource use and resource capacity of nations over time, che pubblicano dati da un po' di anni, suddivisi per oltre 230 nazioni, usando più di 6000 punti dati (?!?) per ogni nazione, esprimendo tutti i valori in ettaro equivalente, etc, etc... Va forse un po' meglio nella sezione Footprint basics in cui si spiega che l'Ecological Footprint misurerebbe di quanta superficie, di terra e di acqua, l'umanità ha bisogno per produrre le risorse che consuma, lo spazio necessario per gli edifici e le strade, e l'ecosistema necessario per assorbire i rifiuti prodotti, come la CO2 (lo spazio per edifici e strade? sì, sì, dice proprio the space for accommodating its buildings and roads!): qui si capisce che effettivamente vorrebbero tener conto dell'effetto serra, ma quali sarebbero le risorse che terra e acqua produrrebbero e che staremmo consumando ad un ritmo maggiore di quello di produzione? Le FAQ e il glossario non migliorano la situazione, rifilandoci per l'ennesima volta sempre le stesse vuote e circolari parole, per cui la biocapacity sarebbe la capacità di produrre useful biologica materials e di assorbire waste materials generated by humans, dove per “Useful biological materials” si intendono quelli richiesti dall'economia (?!?), e le terre e le acque biologically productive sono quelle che supportano una significativa attività di fotosintesi e di accumulo di biomassa usata poi dall’uomo (biomassa alimentare? voglio vedere questi container degli anni '60! Biomassa da combustione? di nuovo, come facciamo a consumarne più di quanta ne produciamo?). 
 
Insomma, se queste sono le argomentazioni sulla decrescita, qualcuno mi aiuti a capire. 
Dal canto mio vi suggerisco, in alternativa, questo video: Are We Running Out of Resources? 
 

12 February 2012

Darwin Day

Non è morto, s'era detto, questo blog.
Provo a confortare questa tesi oggi, riprendendo (l'impegno) ad onorare il Darwin day (un solo post all'anno, dai, ce la posso fare...).
E poiché chi passa da queste parti, insomma, siamo tutti darwinisti fino alle ossa, posso permettermi di celebrare Carletto segnalando un aspetto ancora controverso fra i tanti meccanismi in gioco nell'evoluzione delle specie.
Delle specie?
Sì, l'aspetto su cui volevo darvi qualche spunto di riflessione è proprio la questione del "cosa sono ad evolvere, le specie? le popolazioni? i fenotipi (estesi)? i geni?"
 
Come sapete sono di religione Gouldiana: l'idea che mi sono fatto è che non c'è una risposta univoca a questa domanda, e che l'evoluzione avviene, contemporaneamente, su piani differenti, con tempi, intensità e modi diversi e specifici. L'idea di un'evoluzione gene-centrica resa popolare da Dawkins rappresenterebbe, dunque, solamente uno di questi meccanismi (certamente impossibile da immaginare per Darwin stesso), ma trovo ingenuo e semplicistico elevarlo ad unico riferimento ultimo per qualsiasi dinamica evolutiva.
In particolare, uno degli aspetti che più mi lascia insoddisfatto è la selezione per parentela (kin-selection).
Ne avevo già parlato a suo tempo (ormai più di quattro anni fa!) in Dawkins contro Gould, da cui era anche scaturita un'interessante discussione con ospiti illustrissimi. Di recente mi è capitato di tornare sul tema leggendone su Leucophaea. L'articolo principale citato da Marco, M. Nowak, C. Tarnita, E. Wilson, The evolution of eusociality (pullicato su Nature quest'estate e di cui potete recuperare il PDF grazie a Google Scholar), sfonda, per quanto mi riguarda, una porta aperta (leggetevi, nel bellissimo post di Marco, chi era il Wilson che firma l'articolo...) anche se vorrei trovare il tempo di leggermi la rassegna citata da Marco, S. A. West, A. S. Griffin, A. Gardner, Social semantics: altruism, cooperation, mutualism, strong reciprocity and group selection, e le repliche all'articolo di Nowak, giusto per sentire anche l'altra campana...
 
Di un tema simile aveva parlato anche tupaia, proprio lo scorso Darwin day (sì, lo so, significa un'anno fa...), in un suo bellissimo post, Le specie egoiste, scritto a quattro mani con Danilo Avi — a proposito di tupaia, Marco nel suo post che ho citato qui sopra accenna all'eterocefalo glabro linkando l'articolo di wikipedia... invece che il bellissimo post di tupaia I wurstel con i denti! Lo scorso Darwin day, dicevo, tupaia e Danilo provano a guardare l'evoluzione naturale da una prospettiva di competizione intraspecifica, in contrapposizione all'usuale competizione interspecifica. E l'insight, per quel che mi riguarda, è davvero notevole: uno dei punti “vuoti” de Il gene egoista era proprio il fatto di partire dalla riproduzione sessuata, e utilizzarla come elemento chiave (la competizione fra alleli), senza però spiegarla. Del resto, nell’usuale interpretazione dell’evoluzione come della “sopravvivenza del più adatto”, la giustificazione della riproduzione sessuata arranca un po’, visto che il suo vantaggio (la maggior variabilità genetica e dunque una maggior capacità di far fronte a cambiamenti ambientali imprevisti) riguarda la specie intera e non il singolo individuo. Invece leggendo il post dell'orologiaio miope (e in particolare l’esempio degli insetti e della partogenesi) mi sembra quasi che le cose tornino magistralmente: la riproduzione sessuata è un meccanismo capace di portare vantaggio al singolo allele, nella misura in cui crea una diversificazione nel panorama competitivo intraspecifico. Sicuramente è una prospettiva da approfondire, ma è la prima volta che leggo una possibile spiegazione della nascita della rirproduzione sessuata che non mi lascia retrogusti di insoddisfazione.
Buon Darwin day a tutti!

23 March 2011

Perché volano gli aerei

Quello del perché gli aerei sono in grado di alzarsi in volo è un fenomeno davvero curioso. Dal punto di vista sociologico, intendo, e sarebbe davvero interessante riuscire a ricostruire quando è nata, e come, e che trasformazioni ha subito la leggenda metropolitana della spiegazione bernoulliana, per così dire, della portanza esercitata dalle ali.
Non ne ho le capacità — ma magari basta solo cercare bene su internet per scoprire che qualcuno ha già fatto questa ricostruzione — e in questo post proverò invece solo ad esporre il vero meccanismo che riesce a sollevare da terra un corpo più pesante dell'aria. Non che abbia avuto io la capacità di scoprirlo, questo meccanismo, o anche solo di smantellare la plausibilità di quello bernoulliano (per quanto, a posteriori, abbia tutta l'aria dell'uovo di Colombo).
Anzi, vi anticipo subito i link a un paio di articoli disponibili online che ho usato come spunto e riferimento per quel che segue: il primo, How Airplanes Fly: A Physical Description of Lift (© Aviation Models, From Sport Aviation, Feb. 1999), in inglese, mi è stato suggerito ormai qualche anno fa dal buon KTF, ed è proprio quello leggendo il quale ho scoperto "la verità"; il secondo è un divertente articolo di Jef Raskin, Effetto Coanda, tradotto in italiano e pieno di esperimenti che potete riprodurre molto facilmente con attrezzatura minima e facilmente reperibile.
 
Ma entriamo nel merito, partendo dalla risposta sbagliata: secondo la spiegazione bernoulliana la portanza sarebbe generata dalla differenza di pressione che si instaura fra i due lati del profilo alare in conseguenza del fatto che la velocità dell'aria sarebbe maggiore al di sopra che al di sotto dell'ala. Sono molti i modi per accorgersi dell'insufficienza, se non dell'inconsistenza, di tale spiegazione (vi lascio all'articolo in inglese citato prima per i dettagli tecnici) e vanno dalla forma del profilo dell'ala (che dovrebbe assomigliare ad un goffo panettone ben lontano da qualsiasi idea di aerodinamicità) alla confutazione sperimentale del principio degli "uguali tempi di percorrenza" dell'aria, al di sopra e al di sotto dell'ala (che, curiosamente, è falso nel senso che la velocità al di sopra è maggiore di quella al di sotto molto più di quanto si dedurrebbe da tale principio, e tuttavia la differenza di pressione che ne seguirebbe non sarebbe comunque sufficiente a sollevare l'aereo). L'articolo in inglese, tra l'altro, ipotizza che la popolarità della spiegazione bernoulliana sia dovuta alla sua semplicità, ma a me la spiegazione in termini di differenza di pressioni non è mai parsa semplice (il principio di Bernoulli si applica in tubi di flusso definiti, e non è affatto ovvio che la colonna d'aria sovrastante l'ala possa ricadere in quell'approssimazione), e comunque, a posteriori, il confronto con la spiegazione "vera" è drammaticamente schiacciante: sia in termini di mera semplicità (i concetti tirati in ballo non richiedono quasi per niente conoscenze di fluidodinamica e si basano invece su elementari nozioni di dinamica newtoniana, disponibili già dopo il primo anno di fisica delle superiori e comunque esprimibili in maniera intuitiva anche a chi non ha alcuna conoscenza di fisica elementare) e sia in termini di potenza esplicativa (dal meccanismo di base di generazione della portanza è possibile giustificare molte caratteristiche elementari dei profili alari — ad esempio che sopra le ali non potete metterci niente, mentre sotto potete piazzarci motori, carico e bombe, oppure che è possibile il volo acrobatico rovesciato, in cui lo stesso profilo alare è in grado di generare, a richiesta, portanza in entrambi i versi, cosa impossibile secondo la spiegazione bernoulliana — e con poca ed elementare matematica da scuola superiore è possibile addirittura comprendere in maniera chiara alcuni elementi fondamentali del volo aereo: l'importanza assoluta dell'angolo di attacco, il fenomeno dello stallo, il meccanismo di regolazione della portanza tramite i flap, la questione della potenza, e quindi dell'energia, necessaria per il decollo e quella per il mantenimento della velocità di crociera...).
Invece la spiegazione bernoulliana resta popolarissima e viene utilizzata addirittura in alcuni manuali di volo. Persino nella pagina di wikipedia dedicata all'effetto Coanda, lo si descrive come un effetto "curioso" che potrebbe essere usato per costruire qualche "bizzarro velivolo" (e che verrebbe effettivamente usato da un particolare tipo di aereo)... per non parlare delle Yahoo!Answers, in cui anche quando la domanda va nella direzione giusta, perché gli aerei volano anche capovolti?, la risposta torna indietro "epiciclicamente" al paradigma bernoulliano.
 
Ma passiamo alla vera ragione per cui gli aerei sono in grado di volare.
Per farla breve, le ali sono in grado di deviare verso il basso l'aria che incontrano nel loro moto orizzontale; per la conservazione della quantità di moto (o, se volete, per il principio di azione e reazione), le ali (e con esse l'aereo) sono spinte in direzione contraria, verso l'alto.
Sì, va bene, ora cercherò di convincervi che le cose stanno proprio così.
Solitamente si disegna il flusso dell'aria come semplicemente "solcato" dal profilo dell'ala, con l'aria che riprende il suo flusso orizzontale dopo aver superato l'ala. In realtà quel che succede è che l'aria aderisce alla superficie alare essenzialmente per viscosità e, grazie alla forma e sopratutto all'inclinazione del profilo alare, ne risulta deviata verso il basso.

fonte: wikipedia, licenza CC-BY-SA-2.5.
Original uploader: Axda0002
La spiegazione dettagliata del meccanismo di deviazione dell'aria si basa sulla viscosità dell'aria che la fa aderire all'ala e, per successivo moto laminare, provoca una "rotazione" del flusso degli strati d'aria che sovrastano quello a contatto con l'ala, rotazione che asseconda il profilo e l'inclinazione dell'ala stessa.
In maniera meno formale, ma più immediatamente esperibile, l'effetto può essere "toccato con mano" nel famoso esperimento del cucchiaio: prendete un cucchiaio per l'estremità del manico e tenetelo "a testa in giù", a mo' di pendolo, in modo che possa oscillare liberamente in direzione ortogonale alla superficie incurvata della "testa" del cucchiaio. Avvicinate dunque il cucchiaio in questa posizione al flusso d'acqua di un rubinetto in modo che la testa del cucchiaio vada a sfiorare il getto d'acqua con la sua parte convessa, sul lato "esterno". Quel che succederà è che, non appena il cucchiaio sfiorerà l'acqua, questa aderirà a quello e, seguendone il profilo, verrà deviata dal suo moto verticale in direzione del lato concavo, dalla parte della sua faccia interna.
L'esperimento è estremamente efficace perché si percepisce immediatamente, sotto le proprie dita, la forza che solleva in maniera evidente il cucchiaio, libero di oscillare in quella direzione, proprio nel verso opposto alla deviazione del flusso dell'acqua.
Ora: la spiegazione del meccanismo di adesione superficiale, certo, potrà essere di una certa complessità (ma non così elevata da essere surclassata dal principio di Bernoulli: in alcuni licei, senza bisogno di aspettare un corso universitario, il moto laminare viene introdotto facilmente come primo raffinamento del modello del fluido perfetto per fluidi debolmente viscosi), ma una volta preso per buono (eventualmente anche solo "empiricamente" con un esperimento come quello del cucchiaio), è sufficiente a spiegare, con elementi minimi di dinamica newtoniana, quasi tutti gli elementi più caratteristici degli aerei e del loro volo, ed è addirittura sufficiente per una stima non solo qualitativa ma addirittura quantitativa, seppur approssimata, di molte grandezze fisiche coinvolte.
 
Torniamo infatti all'aereo.
Per il pilota l'aria defluirà dalle ali essenzialmente lungo la direzione dell'angolo di attacco, per un osservatore a terra invece l'aria defluirà in direzione verticale: del resto questo è proprio quello che si percepisce davanti a un ventilatore, sotto un elicottero o dietro le turbine di un motore: le pale, infatti, non sono altro che ali rotanti!
Aumentando l'angolo di attacco delle ali, essenzialmente la loro inclinazione, si aumenterà la velocità verticale dell'aria uscente dall'ala, mentre aumentando la velocità orizzontale dell'ala aumenterà la quantità di aria deviata ogni secondo. In entrambi i casi, l'effetto sarà quello di aumentare la portanza.
Proviamo ad essere più quantitativi.
Per la conservazione della quantità di moto, solo per tenere sospeso un aereo di massa m (cioè per avere una spinta di portanza pari proprio a mg, con g l'accelerazione di gravità), è necessario spingere verso il basso, ogni secondo, una quantità d'aria M ad una velocità v tale per cui Mv = mg (per chi ha qualche dubbio, ho semplicemente considerato nulla la velocità iniziale dell'aria, per cui la quantità di moto finale dell'aria è pari proprio alla variazione di quantità di moto; per l'equazione di newton, proprio nella sua formulazione originale, questa è pari alla forza; se l'equazione non vi torna dimensionalmente, è perché la dipendenza temporale è nascosta: a sinistra M è un M(Δt) e a destra invece bisognerebbe scrivere più completamente mg Δt).
Ad esempio un Cessna 172 di circa una tonnellata di peso viaggia a velocità di crociera di circa 200 km/h; ipotizzando che spinga aria verso il basso a circa 15 km/h, dovrebbe spingere qualcosa come 2 tonnellate e mezza d'aria al secondo. A 200 all'ora percorre, in un secondo, una cinquantina di metri abbondanti, per un'apertura alare dell'ordine della decina di metri fanno circa 500 metri quadri; considerando la densità dell'aria di 1.2 kg al metro cubo, viene fuori che quelle due tonnellate e mezza su quei 500 metri quadri corrispondono ad uno spessore verticale di oltre 4 metri: le ali, cioè, spingono verso il basso, in media, ben 4 metri d'aria sopra di esse!
Sono conti "spannometrici", ci sta benissimo un fattore due o tre "d'approssimazione", ma con tutta quest'aria da tirar giù appare ancora più incredibile tornare indietro ad una spiegazione "di superficie" come quella bernoulliana.
 
La portanza come reazione alla deviazione d'aria verso il basso è una spiegazione "semplice", così semplice che c'è molto spazio per raffinamenti, ad esempio le turbolenze ai bordi dell'ala, che rendono rilevante, oltre all'angolo di attacco, anche la forma del profilo dell'ala e dunque un'analisi matematica avanzata di fluidodinamica come quella citata dal risponditore di Ulisse. Ma il principio di base, nella sua semplicità, permette altrettanto semplici spiegazioni di molte caratteristiche del volo aereo.
Cominciamo, ad esempio, col considerare come riferimento l'angolo d'attacco corrispondente ad una portanza pari proprio al peso dell'aereo e col definire un "angolo di attacco efficiente" come l'angolo formato dall'ala rispetto a quell'angolo di riferimento: ebbene, si trova proprio che la spinta verso l'alto o verso il basso è direttamente proporzionale a questo angolo efficiente, indipendentemente dalla specifica forma del profilo dell'ala!
Il pilota, ad esempio ancora, agisce essenzialmente sull'angolo di attacco per adeguare la portanza in risposta all'aumento di velocità dell'aereo (riducendo l'angolo per compensare l'aumento di portanza dovuto alla maggior quantità d'aria deviata), di quota (aumentando l'angolo per compensare il ridotto peso dell'aria deviata per la riduzione della densità dell'aria con l'aumento di quota) o semplicemente per richiedere più o meno spinta per salire o scendere di quota. Secondo la spiegazione bernoulliana, che si concentra solo sulla forma del profilo dell'ala, l'unica variabile che il pilota potrebbe controllare sarebbe la velocità orizzontale.
Aumentando troppo l'angolo di attacco, però, la forza di adesione a un certo punto non è più sufficiente a deviare l'aria lungo il profilo dell'ala, l'aria quindi smette del tutto di essere deviata verso il basso e la portanza bruscamente si riduce: è lo stallo!
Il fatto, poi, che l'aria venga deviata verso il basso seguendo il profilo superiore dell'ala spiega anche come mai sotto le ali gli aerei possono sbizzarrirsi ad avere ammenicoli di ogni tipo, dalle dimensioni certamente rilevanti dal punto di vista aerodinamico, ma, per quello che abbiamo detto, dagli effetti del tutto trascurabili dal punto di vista della portanza (avete mai visto un aereo con le turbine dei motori sopra le ali?).
Per non parlare del volo rovesciato, un'impossibilità totale per la spiegazione bernoulliana, che è invece possibile "semplicemente" gestendo opportunamente l'angolo di attacco dell'ala invertita.
 
Anche dal punto di vista energetico sono sufficienti considerazioni piuttosto elementari per rendere conto delle caratteristiche principali del volo aereo.
Prima di incontrare l'ala, l'aria può considerarsi immobile, per cui la sua energia cinetica finale dopo essere stata deviata verso il basso puó essere considerata essenzialmente come l'energia necessaria a generare la portanza. La potenza, che non è altro che l'energia da fornire ogni secondo, dipende dunque linearmente dalla quantità d'aria deviata ogni secondo (che a sua volta è direttamente proporzionale alla velocità orizzontale dell'aereo) e dipende quadraticamente dalla velocità verticale dell'aria deviata. La portanza stessa, invece, avevamo detto, dipende in modo lineare tanto dalla quantità d'aria deviata ogni secondo quanto dalla velocità verticale dell'aria deviata. Da ciò discende immediatamente un interessante corollario: se raddoppiamo la velocità di crociera dell'aereo, raddoppiamo la quantità d'aria deviata verso il basso, e dunque dobbiamo ridurre l'angolo di attacco in maniera da deviare l'aria verso il basso con velocità dimezzata (il peso dell'aereo, infatti, che stabilisce la portanza richiesta, non cambia). La potenza necessaria al volo, dunque, si dimezza! Al limite, andando abbastanza veloci si può ridurre la potenza richiesta a livelli trascurabili!
Il fatto, però, è che anche andare veloci richiede energia. Quella che abbiamo considerato finora è solo l'energia necessaria a generare portanza, ossia a sollevarci dal suolo. Come succede anche nel caso del moto sulla terraferma, per esempio per le automobili, il dover farsi largo attraverso un mezzo resistente come l'aria richiede energia e in particolare la potenza necessaria a mantenere una certa velocità è proprorzionale al cubo della velocità: semplificando e sintetizzando al massimo, la forza d'attrito è proporzionale alla quantità di moto relativa dell'aria che si incontra; raddoppiando la velocità, la quantità di moto dell'aria che si incontra quadruplica (raddoppia la velocità relativa e raddoppia la massa d'aria incontrata ogni secondo); ogni secondo, dunque, bisogna vincere una forza quattro volte maggiore per effettuare uno spostamento doppio (la velocità è raddoppiata), ovvero è necessaria una potenza otto volte maggiore.
Insomma, per volare è necessario fornire potenza per la portanza (inversamente proporzionale alla velocità di avanzamento) e potenza per avanzare (direttamente proporzionale al cubo della velocità).
A basse velocità, dunque, domina il termine di portanza: la potenza necessaria per sollevarsi e l'angolo di attacco sono considerevoli; a velocità più alte, alzarsi di quota diventa molto più "facile" che aumentare di un po' la velocità di crociera stessa.
Simili argomenti giustificano anche il design diverso di aerei fatti per volare a velocità relativamente basse rispetto a quelli progettati per velocità di crociera più elevate. Se, ad esempio, raddoppiamo la lunghezza dell'ala, raddoppiamo la quantità d'aria deviata ogni secondo, e dunque possiamo ridurre l'angolo di attacco in modo da dimezzare la velocità verticale di uscita dell'aria deviata. Analogamente a quanto detto sopra, la potenza necessaria per la portanza risulta così dimezzata. Al limite, un'ala infinitamente lunga non richiede energia per sollevarsi. Un'ala più lunga, però, deve vincere una resistenza maggiore contro l'aria che incontra. Per questo, dunque, aerei progettati per viaggiare a basse velocità in genere hanno fattori di forma che accentuano l'apertura alare, per ridurre la potenza necessaria alla portanza, dominante a basse velocità, mentre aerei "veloci" hanno in genere ali più corte, per ridurre l'attrito che domina i consumi a velocità elevate.
 
Insomma, la spiegazione di bernoulli pretendeva di spiegare qualitativamente la portanza con un meccanismo "semplice", ma nonappena lo si prendeva un minimo sul serio emergevano dubbi e perplessità (davvero l'aria percorre i due lati dell'ala in tempi uguali? e che forma deve mai avere l'ala per generare portanza a sufficienza?).
Qui invece abbiamo un meccanismo semplice, di meccanica newtoniana, capace di giustificare non solo qualitativamente, la portanza, ma anche quantitativamente, fornendo l'ordine di grandezza giusto per molte quantità fisiche in gioco e giustificando, con una serie di semplici corollari, molte caratteristiche degli aerei e del volo aereo.
 
A posteriori è davvero incredibile come mai fatichi a diventare patrimonio comune un meccanismo così semplice e allo stesso tempo così potente, capace, cioè, di fornire un quadro teorico essenzialmente completo entro cui interpretare la dinamica del volo.

20 August 2010

Fra P e NP(-completi)

 
Proseguo dal post precedente.
E' venuto fuori un post molto lungo, anche se più breve di quel che avrei voluto...
 
Chiariamo innanzitutto alcuni aspetti del tutto generali sui criteri alla base della classificazione della complessità computazionale di un problema.
 
Efficienza algoritmica come limite superiore alla complessità di un problema
 
La legge di scala (polinomiale, esponenziale, etc) delle risorse computazionali (tempo, memoria, etc) in ragione della taglia del problema (le cifre del numero da fattorizzare, il numero di amminoacidi della proteina da foldare) è, strettamente parlando, una caratteristica dell'algoritmo, non del problema: posso infatti benissimo immaginare di risolvere un problema P con un algoritmo che scala esponenzialmente, basta essere sufficientemente "ingenuo" e "sprecone".
Dato però un algoritmo capace di risolvere un certo problema, posso comunque dire qualcosa sulla complessità computazionale del problema: essa certamente non sarà superiore alla complessità dell'algoritmo. 
Quando dunque voglio parlare di complessità di un problema in termini di risorse, dovrò necessariamente parlare di complessità non maggiore di quella del miglior algoritmo noto: potrà sempre succedere di scoprire un algoritmo più efficiente per un problema, dimostrando così che la sua complessità computazionale era effettivamente più piccola di quella che credevamo (e storicamente è proprio successo così per alcuni problemi che sembravano più "difficili" di quel che erano, uno per tutti il test di primalità, il problema, cioè, di stabilire se un numero è primo o meno — senza dover trovare esplicitamente i suoi fattori primi). 
L'unico modo che avremmo per poter dire che un problema è davvero, intrinsecamente "difficile" sarebbe quello di dimostrare che non è matematicamente possibile trovare un algoritmo più efficiente di una certa complessità, ma questo finora, che io sappia, non è mai accaduto per nessun problema. 
Di conseguenza, dunque, le classi di complessità dei problemi tendono ad essere degli insiemi "concentrici" in cui le classi più "complesse" includono quelle più semplici (e.g. P è un sottoinsieme di NP). In realtà non è sempre necessariamente così per tutte le possibili classificazioni e comunque quasi sempre non abbiamo garanzie che l'inclusione sia propria, che esistano cioè problemi che hanno una qualche complessità minima (e.g. un problema che sia in NP ma non in P — che equivarrebbe appunto a dimostrare che P!=NP). 
 
Esempi semplici 
 
Chiarito il senso generale del concetto di "classe di complessità di un problema", possiamo passare ad alcune classi specifiche: P è la classe di problemi per cui si conosce un algoritmo di soluzione che scala polinomialmente nel tempo, EXP quella dei problemi di cui si conosce un algoritmo di soluzione che scala esponenziale nel tempo; PSPACE è quella dei problemi di cui si conosce un algoritmo di soluzione che scala polinomialmente nell'uso di memoria (space), fosse anche in tempo infinito. Evidentemente, per quanto detto prima, P è un sottoinsieme di EXP. Si può poi dimostrare che PSPACE è un sottoinsieme di EXP e dunque la catena di inclusioni "concentriche" è: EXP ⊇ PSPACE ⊇ P. 
 
NP 
 
Bene, veniamo dunque ai problemi NP. La classe NP è definita in modo un po' diverso (è per questo che dicevo che non tutte le classi sono "concentriche": ad esempio sia NP che coNP includono P, ma entrambe non sono (probabilmente) l'una il sottoinsieme dell'altra — a meno che NP=coNP o addirittura che P=NP, e allora sarebbe P=NP=coNP... Se vi interessa dare uno sguardo "grafico" allo Zoo della complessità potete dare un'occhiata a uno di questi diagrammi delle inclusioni; se vi interessano i dettagli potete perdervi nel Complexity Zoo Qwiki). 
Dicevamo, NP: si può definire la classe NP con una legge di scala degli algoritmi, ma per farlo bisogna cambiare definizione di algoritmo: i problemi NP sono quelli per cui è noto un algoritmo non-deterministico (da cui la N della sigla NP) capace di risolverlo in tempi polinomiali. Gli algoritmi non-deterministici (o equivalentemente le macchine di Turing non-deterministiche) rappresentano un modello computazionale molto utile a livello teorico ma di scarsa rilevanza pratica, dal momento che non è possibile costruirne una realizzazione fisica. Praticamente tutti i moderni computer sono invece delle macchine di Von Neumann che implementano una macchina di Turing universale deterministica, e infatti quando si parla di algoritmi senza ulteriori specificazioni si intendono sempre algoritmi deterministici o per macchine di Turing deterministiche
Esiste però una definizione del tutto equivalente, che tira in ballo i soliti algoritmi deterministici: i problemi NP sono quei problemi per cui è noto un algoritmo (deterministico) capace di verificare la soluzione in tempi polinomiali. 
Per la cronaca, i problemi NP stanno fra PSPACE e P, ovvero: EXP ⊇ PSPACE ⊇ NP ⊇ P. 
 
NP-completezza: un limite inferiore alla complessità di un problema? 
 
E i tanto chiacchierati problemi NP-completi? Qui le cose si fanno più intricate... e più affascinanti. In effetti quella dei problemi NP-completi non è nemmeno una classe di complessità in senso proprio del termine (non la troverete, infatti, nel super-mega-complicatissimo-diagramma-di-inclusione). 
Il punto cruciale è che la definizione di problema NP-completo cerca di fare quello che le classi di complessità di cui abbiamo parlato finora non possono fare: rappresentare un limite inferiore alla complessità di un problema. Dico cerca perché, ovviamente, se ci riuscisse veramente avrebbe appunto dimostrato che P≠NP. E tuttavia, pur non riuscendoci, il procedimento escogitato per la definizione di NP-completezza, la riduzione polinomiale, è in grado di gettare nuova luce su tutta teoria della complessità computazionale. 
Abbiamo, dunque, molti problemi NP che ci sembrano difficili. Ma alcuni di essi, come il test di primalità, abbiamo scoperto essere solo apparentemente difficili — nel 1975 si riuscì a dimostrare che il test di primalità era un problema NP, ma ci vollero 27 anni perché fosse "risolto" con un algoritmo polinomiale
Come distinguere, dunque, i problemi che sembrano difficili da quelli che lo sono davvero? Distinguerli proprio sulla base della difficoltà è una petizione di principio, significherebbe sapere che sono difficili, ovvero che P≠NP. Quello che fa, invece, la definizione di NP-completezza è trovare una caratteristica comune a quasi tutti i problemi che, ancora oggi, ci paiono difficili, caratteristica che invece non hanno i problemi facili, che stanno in P. Di più: questa caratteristica è tale per cui, se davvero P≠NP, allora i problemi in NP che non stanno in P sono proprio (almeno) i problemi NP-completi. Detto più precisamente, i problemi NP-completi sono certamente "i più difficili" fra i problemi NP (sempre se P≠NP, altrimenti "tutti i problemi NP sono facili come quelli in P"). 
Quel quasi tutti si riferisce al fatto che esistono alcuni problemi NP che ci paiono difficili (cioè di cui non abbiamo ancora trovato un algoritmo polinomiale per risolverli) ma che non siamo riusciti a dimostrare essere NP-completi — e il problema della fattorizzazione dei numeri composti, alla base di quasi tutte le tecniche crittografiche usate comunemente, è proprio uno di questi. Se davvero P≠NP e dunque non tutti i problemi NP sono ugualmente facili, ciascuno di questi problemi potrebbe, più o meno indipendentemente dagli altri:
  • essere "semplicemente" un problema P, come il test di primalità, e un giorno, chissà, riusciremo a trovare un algoritmo di soluzione polinomiale;
  • essere anch'esso un problema NP-completo, solo che ancora non siamo riusciti a dimostrarlo;
  • essere di una complessità computazionale intermedia.
E qui arriva il bello. 
 
Riduzione polinomiale, NP-hard e, finalmente, la definizione di NP-completezza 
 
Ho quasi finito, ma, prima di concludere con la questione della fattorizzazione e delle tecniche crittografiche, direi che è il caso di spiegare in cosa consiste questa mitica NP-completezza, la proprietà di alcuni problemi NP che sembra caratterizzarne la (apparente) difficoltà. 
L'elemento fondamentale è il concetto di riduzione e in particolare di riduzione polinomiale. Ne esistono di due tipi diversi (di Cook e di Karp), ma per amor di brevità sarò impreciso e dirò che ho ridotto il problema A al problema B se, data la soluzione del problema A, so trovare la soluzione al problema B con un algoritmo al più polinomiale. Definisco ora un problema B come NP-hard se un qualsiasi problema NP può essere ridotto polinomialmente a B: se, cioè, con un oracolo capace di darmi istantaneamente la soluzione di B, so risolvere qualsiasi problema NP in tempi polinomiali. Definisco finalmente i problemi NP-completi come quei problemi NP-hard che siano anche problemi NP. 
Come al solito le definizioni sono mere convenzioni e dunque il fatto notevole è che nei primi anni 70 Cook, Karp e Levin mostrarono non tanto che esistono problemi NP-completi quanto che molti problemi concreti erano proprio NP-completi
Il fatto che una soluzione "facile" ad uno qualsiasi di questi problemi dischiuderebbe automaticamente le porte a tutti gli altri problemi in NP ne fa chiaramente i rappresentati "più difficili" della classe NP. Non solo: ci dice anche che la "difficoltà" dei problemi NP-completi è essenzialmente la stessa, come se si trattasse di un unico problema sotto diverse sembianze: se uno qualunque di questi problemi ha una soluzione facile, allora tutti quanti ce l'hanno e, di fatto, P=NP; se riuscite a dimostrare che uno qualunque di essi non può avere una soluzione polinomiale, allora nessun'altro potrà averla e, di fatto, avete dimostrato che P≠NP; uno per tutti, tutti per uno.
Per dimostrare, dunque, che un problema NP è NP-completo è sufficiente dimostrare che è riducibile ad uno qualsiasi degli altri problemi di cui è stata già dimostrata la NP-completezza. La scoperta di problemi NP-completi procedette perciò con un effetto valanga: più problemi rientravano nella categoria, più facile diventata ricondurvene di nuovi. Le dimostrazioni di NP-completezza diventarono routine e al momento si contano più di tremila problemi NP-completi.
 
Il problema della fattorizzazione: fra P e NP-completi 
 
Esistono però alcune — poche — notevoli eccezioni: problemi NP, cioè, che (ancora) ci paiono difficili (e dunque sospettiamo non siano P), di cui purtuttavia non si riesce a dimostrare l'NP-completezza. Esempi di problemi di questo tipo sono l'isomorfismo fra grafi, il logaritmo discreto e, udite udite, il problema della fattorizzazione
Del resto ci sono ragioni piuttosto profonde per credere che la fattorizzazione non sia un problema NP-completo: per esempio un'istanza di problemi NP-completo può, in generale, avere nessuna, una o centomila soluzioni diverse; la fattorizzazione di un numero composto, invece, è unica. Questa sorta di struttura del problema della fattorizzazione è in effetti sfruttata dal crivello dei campi di numeri, il miglior algoritmo noto di fattorizzazione, che scala più o meno come 2 alla radice cubica di n, qualcosa che qualcuno definisce pur sempre come un andamento sub-esponenziale.
Le possibili relazioni fra P, NP e coNP. Se il problema della fattorizzazione fosse NP-completo, la relazione corretta sarebbe la (b).
Inoltre il problema della fattorizzazione non solo appartiene a NP ma anche coNP, la classe di complessità complementare a NP secondo una precisa definizione che non mi dilungherò a discutere (è già diventato troppo lungo questo post, devo sbrigarmi a chiudere!). Ora, la relazione (insiemistica) fra NP e coNP (ed anche con P) non è nota con certezza matematica, ma ci sono diversi indizi che suggeriscono che NP≠coNP. Ebbene, se la fattorizzazione fosse NP-completa, significherebbe proprio che NP=coNP. Per quel che ne sappiamo, poi, potrebbe pure darsi che l'intersezione fra NP e coNP (a cui certamente appartiene il problema della fattorizzazione) coincida con P stesso (ovvero la fattorizzazione è risolvibile in tempo polinomiale) e purtuttavia P e NP non coincidano! 
Per non parlare, poi, del fatto che per il problema della fattorizzazione, e non per alcun problema NP-completo, siamo riusciti a trovare un algoritmo quantistico, quello di Shor, capace di trovare la soluzione in tempi polinomiali. 
Ma, appunto, non ne parlerò, si è già fatto troppo tardi. 
Sono sicuro che non è rimasto più nessuno, fin qui, a leggere... :-)

17 August 2010

La fattorizzazione non è un problema NP-completo (che si sappia)

Questa storia della dimostrazione (ormai quasi definitivamente smontata) che P≠NP sta riportando in superficie il diffusissimo errore secondo cui se P≠NP allora i crittografi e i loro clienti potranno dormire sonni tranquilli (ho citato la mia amica Sylvie, ma è un'affermazione piuttosto frequente).
L'errore consiste nel considerare il problema della fattorizzazione dei numeri composti un problema NP-completo, cosa che non è affatto dimostrata e, anzi, ci sono forti indicazioni che portano a credere che non sia tale: se avete tempo, vi ri-consiglio caldamente tutte le lezioni del corso di Scott Aaronson: Quantum Computing Since Democritus; se avete fretta e vi interessa la questione della "difficoltà" della fattorizzazione, potete limitarvi alla lezione n° 6: P, NP, and Friends.
Che quello della fattorizzazione sia un problema NP-completo è un fraintendimento molto diffuso, io lo scoprii proprio quando mi imbattei nelle lectures di Scott Aaronson: in realtà molto probabilmente si tratta di un problema "più semplice" dei problemi NP-completi, per cui potrebbe benissimo darsi che si scopra che sia un problema "facile" (P) senza che ciò implichi che siano facili anche i problemi NP-completi (molto più probabilmente si tratta di un problema che ricade in un classe intermedia fra P e NP). Detto al contrario: anche se fossimo in grado di dimostrare che i problemi NP-completi sono "davvero" difficili, il problema della fattorizzazione dei numeri composti (e dunque il problema di violare un codice crittografico) potrebbe benissimo rientrare nella categoria dei problemi "facili" (P).
Tant'è che per il problema della fattorizzazione esiste un algoritmo quantistico (il famoso algoritmo di Shor) capace di risolverlo in tempo polinomiale, mentre — nonostante si senta spesso dire il contrario — non è noto alcun algoritmo quantistico capace di risolvere problemi NP-completi in tempo polinomiale, e se mai un giorno si dovesse scoprirne uno, sarebbe sicuramente molto diverso dall'algoritmo di Shor.
Vi siete persi?
Spero di riuscire a buttar giù un "riassuntino" della faccenda quanto prima (cioè: ho già cominciato a scrivere qualcosa, ma sta venendo più lungo di quel che credessi; così ho pensato di uscire subito con questo post giusto per (tentare di) restare "sulla notizia"...).
 
Prima di chiudere, però, vorrei dire due parole sul perché questa questione dell'equivalenza (o meno) delle classi P e NP mi appassiona tanto.
Il fatto è che non si tratta di uno dei problemi da un milione di dollari, o di uno dei più difficili problemi matematici ancora irrisolti, ma si tratta del Problema tout court: se tutti i problemi NP fossero risolvibili polinomialmente, sarebbe possibile programmare un computer per risolvere in poco tempo anche tutti gli altri problemi da un milione di dollari.
C'è addirittura chi crede che l'impossibilità algoritmica di risolvere problemi NP-completi in tempo polinomiale sia consustanziale alla stessa struttura fisica di cui è fatto il mondo.
Come chi?, ma Scott Aaronson, no? :-)

16 August 2009

Il biologico è moda, il futuro è OGM

L'avrete già letto, se avete sottoscritto i feed dei miei shared item, o se gli date un'occhiata di frequente dalla colonna a destra. Ma ho un attimo di tempo e mi piaceva l'idea di dargli più visibilità.
Mi riferisco alla polemica OGM-bio innescata a sinistra dall'articolo di Gilberto Corbellini.
Giuseppe Regalzi riassume bene i termini della questione e riporta tutti i riferimenti; mi limiterò a riportare di seguito un estratto della replica alle polemiche dello stesso Corbellini, per invogliare alla lettura completa (e alla riflessione).
Con tutta la buona volontà, ricordando molto bene i racconti dei miei nonni, e la mia infanzia, non riesco a trovare traccia di quelle rappresentazioni bucoliche descritte dagli Olmi, dai Celentano e dai Petrini quando teorizzano l’idea della Terra Madre. Io ricordo solo povertà, malattie, fatica, violenza, soprattutto nei confronti di donne e bambini, discriminazione e ignoranza intesa come analfabetismo. E una società patriarcale che nei secoli ha fatto più morti delle guerre mondiali e dei conflitti combattuti nel Novecento: che vorrei veder seppellita per sempre e anche più profondamente delle scorie tossiche. Dunque io non parlo di agricoltura e prodotti agricoli per sentito dire. È qualcosa che conosco bene, non solo sul piano scientifico o tecnico, ma anche del cosiddetto vissuto.
Non voglio fare del moralismo e rispetto tutti. Anche quegli amici e compagni che, diversamente da me, provenivano da famiglie ricche e non hanno mai dovuto fare particolari sacrifici, e che oggi mi trattano da reazionario perché voglio che tutti abbiano la possibilità di scegliere come vivere mentre loro teorizzano o praticano un ritorno obbligato per tutti alla povertà economica (che chiamano con termine colto “decrescita”).
Il mio pensiero è che chiunque deve essere libero di vivere e fare come vuole, senza pretendere di limitare la libertà di chi preferisce fare scelte diverse. [...] Al di sotto di questo la democrazia scompare. Orbene, questo significa però che non ci si possono inventare dei pericoli inesistenti per limitare delle scelte che magari non coincidono con le nostre preferenze ideologiche. Altrimenti si ragiona come gli integralisti cattolici che si inventano le peggio cose sull’omosessualità e il sesso in generale, con lo scopo appunto di reprimere delle libertà e dei diritti fondamentali.

20 May 2009

Stephen Jay Gould

Un passaggio veloce, giusto il tempo per unirmi anch'io, con Marco, al ricordo di un grande: Stephen Jay Gould.
Lo conobbi per la prima volta con Questa idea della vita, ma conservo per sempre ricordi specifici per quasi tutti gli innumerevoli saggi che ho avuto modo di leggere, ciascuno frutto succoso capace di estasiarti parola dopo parola con un inconfondibile sintesi di intelligenza e stupore, con quella sua capacità di andare a fondo e di darti allo stesso tempo un respiro di grande vastità.
Marco mi perdonerà se gli rubo le parole per descrivere precisamente la sua stessa riverenza nei confronti di Gould. Se gli rubo le parole per ricordare la sua prosa quasi mantrica, la sua abitudine a scavare le motivazioni più profonde, soprattutto storicizzando ogni vita e ogni pensiero e per rimanere come lui compiaciuto che dai suoi articoli sono nati blog, libri, ragionamenti e ipotesi-teorie; alla faccia della divulgazione che non serve a niente.
Come Marco, oggi metto anch'io da parte qualche personale divergenza di opinioni, incapace comunque di intaccare anche solo minimamente la singolare venerazione che nutro nei suoi confronti.

05 May 2009

Complementarietà, Contraddizioni, Bell e Bohr

Bohr elaborò una filosofia di quello che sta dietro le ricette della teoria [della Meccanica Quantistica, ndh]. Anziché essere disturbato dall’ambiguità di principio, egli sembra trovarci ragioni di soddisfazione. Egli sembra gioire della contraddizione, per esempio, tra onda e particella che emerge in ogni tentativo di superare una posizione pragmatica nei confronti della teoria. [...] Non allo scopo di risolvere queste contraddizioni e ambiguità, ma nel tentativo di farcele accettare egli formulò una filosofia, che chiamò complementarietà. Pensava che la complementarietà fosse importante non solo per la fisica, ma per tutta la conoscenza umana. Il suo immenso prestigio ha portato quasi tutti i testi di meccanica quantistica a menzionare la complementarietà, ma di solito in poche righe. Nasce quasi il sospetto che gli autori non capiscano abbastanza la filosofia di Bohr per trovarla utile. Einstein stesso incontrò grandi difficoltà nel cogliere con chiarezza il senso di Bohr. Quale speranza resta allora per tutti noi?
Io posso dire molto poco circa la complementarietà, ma una cosa la voglio dire. Mi sembra che Bohr usi questo termine in senso opposto a quello usuale. Consideriamo per esempio un elefante. Dal davanti esso ci appare come una testa, il tronco e due gambe. Dal dietro esso è un sedere, una coda e due gambe. Dai lati appare diverso e dall’alto e dal basso ancora diverso. Queste varie visioni parziali risultano complementari nel senso usuale del termine. Si completano una con l’altra, risultano mutuamente consistenti, e tutte assieme sono incluse nel concetto unificante di “elefante”. Ho l’impressione che assumere che Bohr usasse il termine complementare in questo senso usuale sarebbe stato considerato da lui stesso come un non aver colto il punto e aver banalizzato il suo pensiero. Lui sembra piuttosto insistere sul fatto che, nelle nostre analisi, si debbano usare elementi che si contraddicono l’un l’altro, che non si sommano o non derivano da un tutto. Con l’espressione complementarietà egli intendeva, mi pare, l’opposto: contraddittorietà. Sembra che Bohr amasse aforismi del tipo: l’opposto di una profonda verità rappresenta anch’esso una profonda verità; la verità e la chiarezza sono complementari. Forse egli trovava una particolare soddisfazione nell’usare una parola familiare a tutti attribuendogli un significato opposto a quello usuale. La concezione basata sulla Complementarietà è una di quelle che io chiamerei le visioni romantiche del mondo ispirate dalla teoria quantistica.
John Stewart Bell
(citato da Gian Carlo Ghirardi in Un'occhiata alle carte di Dio)

04 March 2009

Chi vuol essere evoluzionsta

A 200 anni dalla nascita di Darwin e a 150 dalla pubblicazione dell'Origine delle specie, Galileo, giornale di scienza e problemi globali, mette alla prova i suoi lettori e propone dieci quesiti sul celebre naturalista inglese e sulle sue teorie.

16 February 2009

Molte nature - 2

Molte nature
In questo libro espongo una rete di collegamenti tra discipline diverse e suggerisco un punto di vista sullo sviluppo della cultura. Discipline diverse, certo: dagli studi sull'origine della scrittura all'esplorazione di ciò che accade nei nostri cervelli e nei nostri organi di senso, dagi sviluppi dell'evoluzionismo all'approccio naturalistico alla filosofia, dalle ricerche sul comportamento degli animali e dei vegetali all'analisi dei generi letterai.
 
Lo sapevo, Bellone non delude.
Se già lo conosci, in questo suo ultimo Molte nature trovi quello che ti aspetti: prosa asciutta ma densissima, quasi borgesiana. I temi trattati questa volta spaziano davvero molto, come avete potuto leggere sopra. La chiave di lettura è sempre quella dell'approccio naturalistico alla conoscenza (leggi: Quine) e il filo conduttore è sempre la storia della scienza. Quella vera, ricostruita con precisione e con un meticoloso riferimento alle fonti originali, capace di rivoltare quasi tutti i luoghi comuni più diffusi e di smontare tutte le facili "teorie sulla scienza" che su di essi si basano.
 
Per salvare Copernico divenne necessario distruggere parti ampie del suo lascito: demolire il principio secondo cui l'universo è formato da sfere corporee, abbandonare la congerie di cicli che permettono di calcolare le posizioni dei pianeti attorno al Sole, costruire una nuova fisica in grado di abbattere i paradossi relativi al moto orbitale della Terra attorno al Sole e al moto rotatorio del nostro pianeta attorno a un asse. Per vie tra loro diverse, il salvataggio si ebbe con Galilei e con Keplero: ma il salvataggio stava trasformando il modello di Copernico in modo radicale, e la trasformazione coinvolgeva sia l'ontologia copernicana, sia i rapporti fra scienza e filosofia, sie le credenze di senso comune. Il cielo diventa un contenitore vuoto dei corpi celesti che si muovono all'interno della sua struttura non corporea ma geometrica, e le orbite dei pianeti devono essere allora governate da forze ancora inesplorate. La metafisica dominante va in frantumi, poichè crollano i pilastri di una filosofia prima i cui seguaci sostengono che nulla di nuovo può apparire nelle scienze poichè la natura stessa ha già parlato con la bocca di Aristotele: e ciò che da quella bocca è uscito ha il plauso della teologia e della politica, nonchè il conforto di molti accademici. E poi, com'è possibile credere nella veridicità del modello di Copernico, quando tutte le esperienze rese possibili dai sensi sono contrarie ai moti di rotazione e di rivoluzione della Terra? Ma il telescopio mostra angoli sperduti del mondo che nessuno aveva mai visto e che sono popolati da numeri immensi di stelle invisibili ad occhio nudo. E attorno a Giove ruotano quattro satelliti, e Saturno ha una forma enigmatica, e Venere ha le fasi come la Luna, e il Sole non è incorruttibile ma è ricoperto da macchie informi e scure. E ancor prima del telescopio, a occhio nudo s'era vista in cielo una nuova stella, e la nuova stella s'era lentamente spenta con il passare dei mesi.

02 February 2009

Darwin fra le stelle

Dopo Rovelli, l'estate scorsa ho avuto modo di apprezzare molto il suo amico Lee Smolin nel bellissimo Three Roads to Quantum Gravity. Lo stesso Lee Smolin che ha proposto la teoria della selezione naturale cosmologica di cui parlo su Progetto Darwin.
Devo confessare che all'inizio ho storto il naso: Smolin mi aveva fatto un'ottima impressione, ma qul nome pomposo, selezione naturale cosmologica, sembrava alludere troppo ad uno di quei tanti tentativi, maldestri e inappropriati, di sovrapporre due ambiti molto distanti, e quindi apparentemente scorrelati, quali la cosmologia e la biologia. Lasciava immaginare uno di quegli approcci "finalistici" alla cosmologia che vanno sotto il nome generico di principio antropico e che, per così dire, non trovano proprio il classico consenso universale della comunità scientifica.
Ma ho dovuto ricredermi presto: la selezione naturale cosmologica rappresenta forse l'unico caso di applicazione rigorosa — addirittura falsificabile — dei principi più generali della teoria di Darwin in un ambito diverso da quello biologico.
Ne riporto dunque, per sommi capi, le idee principali. Il taglio sarà divulgativo (non che io ne abbia una conoscenza molto più approfondita...), il riferimento originale che ho seguito è l'articolo di Smolin stesso: The status of cosmological natural selection.
 
   —   ∴   —   
 
La motivazione principale che ha spinto a formulare la selezione naturale cosmologica — motivazione che è all'origine anche di quasi tutte le versioni del principio antropico — è il cosiddetto problema della sintonizzazione fine (fine tuning); la constatazione, cioè, che i parametri fondamentali del modello standard delle particelle elementari e della cosmologia sembrano assumere valori numerici "molto particolari", nel senso che una loro anche piccolissima modifica distruggerebbe il delicatissimo equilibrio di processi che hanno portato alla formazione nell'universo di una grande quantità di stelle dalla vita molto lunga e ridurrebbe drasticamente l'enorme varietà chimica degli elementi che invece osserviamo — e che consideriamo fondamentale per lo sviluppo della vita così come la conosciamo.
L'obiezione più elementare al considerare questa circostanza come un problema da spiegare, e cioè che le costanti fondamentali sono quelle che sono e, proprio perchè costanti, non possono cambiare, viene notevolmente ridimensionata da una caratteristica che ha la teoria più accreditata per spiegare il modello standard a un livello più profondo: la cosiddetta teoria delle stringhe. Senza entrare nei dettagli, la teoria delle stringhe ha una forma del tutto generale in cui il modello standard e le sue costanti fondamentali discendono in maniera contingente, non necessaria, a seconda dello stato in cui si trova — concedetemi questa concisa terminologia tecnica da considerare come espressione evocativa — la geometria del background spazio-temporale. L'idea, dunque, è che le costanti fondamentali dell'universo avrebbero potuto davvero essere diverse (e magari lo sono, in remote regioni dell'universo); e quindi la domanda sul perchè, allora, abbiano assunto proprio questi valori e non altri, appare sotto una luce meno speculativa, meno, per così dire, metafisica, e può legittimamente aspirare a diventare, un giorno, parte integrante dell'ambito di indagine della fisica — esattamente com'è successo per la cosmologia stessa, entrata a buon diritto nei programmi di ricerca in fisica nella prima metà del secolo scorso dopo la scoperta della legge di Hubble, della radiazione cosmica di fondo, e delle prime stime sull'abbondanza cosmica degli elementi.
In questo contesto, dunque, appare più accettabile il ragionamento alla base di tutte le varie forme di principio antropico, le quali pretendono di giustificare a posteriori la "straordinarietà" dei particolari valori assunti dalle costanti del modello standard basandosi semplicemente sul fatto che, letteralmente, altrimenti non saremmo qui a discuterne. Ma la sterilità di tutte le varie forme di principio antropico sta nel fatto che esse si limitano a questa mera "giustificazione" del fine tuning, senza alcuna possibilità di fare alcuna previsione specifica che possa essere verificata o falsificata.
Su questo, invece, la selezione naturale cosmologica è profondamente diversa.
 
   —   ∴   —   
 
Forti, dunque, delle possibilità teoriche offerte dalla teoria delle stringhe, consideriamo uno "spazio", un insieme astratto di diversi "modelli standard" così come sono ammessi dalla teoria. I presupposti essenziali di una qualsiasi teoria di selezione naturale cosmologica sono essenzialmente due, in stretta analogia con l'evoluzione nella biosfera. Da una parte deve esistere una "popolazione" di questi universi possibili, ciascuno con una sua probabilità più o meno elevata di "presentarsi" (l'equivalente di una popolazione di individui biologici sulla Terra). Dall'altra deve esistere un processo capace di generare un'evoluzione in quella popolazione di universi, un processo che coinvolga la "nascita" ed eventualmente la "morte" di questi universi, in modo tale che la distrubuzione della popolazione di universi possa cambiare nel tempo a seconda di quali universi nascano più frequentemente e quali meno.
Ma perchè da una teoria del genere si possano dedurre delle conseguenze falsificabili devono verificarsi ulteriori condizioni.
Innanzitutto il processo evolutivo deve condurre ad una popolazione di universi distribuita in maniera molto particolare, altamente non casuale, in modo da poterla riconoscere proprio sulla base delle sue caratteristiche. In particolare devono esserci delle quantità misurabili del nostro universo che risultano molto frequenti negli universi della popolazione a cui si giunge con il processo di evoluzione: in questo modo possiamo dire che il processo di evoluzione della nostra teoria spiega il valore di quella quantità che misuriamo nel nostro universo. Ma non basta: devono esserci delle altre quantità misurabili del nostro universo, ma che non sono ancora state misurate, che risultino anch'esse molto frequenti negli universi della popolazione a cui si giunge con il processo di evoluzione della nostra teoria: in questo modo possiamo dire che la nostra teoria prevede che il nostro universo presenti queste altre quantità misurabili.
Basta? No: per poter dire di essere davvero davanti a una possibile spiegazione del fine tuning, i meccanismi di questo processo di selezione devono essere estremamente sensibili a quelle caratteristiche peculiari (l'esistenza di una chimica complessa e di molte stelle a vita lunga) su cui le costanti del modello standard si sono così finemente sintonizzate.
Notate bene che queste ultime condizioni non fanno alcun riferimento ai dettagli della teoria delle stringhe che sta alla base della possibilità di avere diversi costanti per il modello standard, mentre fanno riferimento solo alle caratteristiche del modello standard che si intende spiegare. E questo è del tutto analogo al caso biologico, in cui è possibile fare previsioni verificabili senza conoscere alcunchè di genetica molecolare — anzi, storicamente è successo proprio così!
 
   —   ∴   —   
 
Ebbene, la selezione naturale cosmologica non è nient'altro che un esempio — l'unico, al momento — di possibile meccanismo di selezione che soddisfa i criteri che abbiamo descritto. La sua enorme importanza, indipendentemente dal fatto che un giorno verrà o meno falsificata, sta proprio nel fatto che dimostra la possibilità di avere una spiegazione del fine tuning che fa previsioni falsificabili.
Ecco quali sono i suoi assunti e meccanismi di base.
La prima assunzione fondamentale è che il Mondo consiste in un insieme di universi come quello in cui viviamo, ciascuno caratterizzato da un particolare stato del background spazio-temporale della teoria di stringhe che descrive tutti gli universi possibili e dunque da particolari valori di quelle che chiamiamo costanti fondamentali del nostro modello standard.
L'altra assunzione fondamentale riguarda la creazione di nuovi universi. Questi nascerebbero come stato inziale di un Big Bang a partire dalle singolarità che si trovano al centro dei buchi neri presenti in altri universi. In particolare si assume che il meccanismo di generazione è tale per cui il nuovo universo avrà costanti fondamentali solo leggermente diverse da quelle dell'universo che contiene il buco nero che lo ha generato.
Già si delinea quale sarà la situazione a cui si arriva partendo da simili assunzioni. Poichè gli universi capaci di generare più buchi neri avranno generato più universi a sè simili, la popolazioni di universi a cui arriveremo in breve sarà costituita per la stragrande maggioranza proprio da quegli universi che sono capaci di generare più buchi neri.
Più rigorosamente, esiste quella che un biologo evoluzionista chiamerebbe la fitness function di ogni universo. Chiamiamo c la "configurazione" di un universo, i valori delle sue costanti fondamentali, e chiamiamo B(c) proprio il numero medio di buchi neri che un universo di tipo c produce nella sua vita. Si può allora dimostrare che, in condizioni del tutto generali, un meccanismo di generazione come quello che abbiamo descritto conduce in breve tempo ad una popolazione di universi in cui la stragrande maggioranza delle configurazioni c è vicina a un massimo locale di B(c).
Un universo scelto a caso in questa popolazione avrà dunque questa importante caratteristica: qualsiasi piccolo cambiamento nella sua configurazione c potrà solo lasciare B(c) invariato oppure diminuirlo. Assumendo quindi che il nostro universo sia scelto a caso, la previsione fondamentale della selezione naturale cosmologica è che non ci sia essenzialmente alcuna possibilità di aumentare il numero di buchi neri prodotti da nostro universo spostando qualche costante fondamentale del modello standard.
 
   —   ∴   —   
 
Vediamo ora quali sono le conseguenze di questa previsione fondamentale, sia in termini di spiegazioni e sia in termini di previsioni che questo modello presuppone.
La selezione naturale cosmologica, se si dimostrasse corretta, spiegherebbe il fine tuning perchè la formazione di stelle di grande massa, necessarie per la formazione di buchi neri astronomici, si basa sulla chimica del carbonio, e per ben due motivi. Il primo è che il meccanismo principale di raffreddamento delle gigantesche nubi di gas dove si formano le stesse di grande massa è proprio l'emissione di radiazione da moto vibrazionale delle molecole di ossido di carbonio. Il secondo è che ghiaccio e polvere di carbonio costituiscono anche un'efficace schermo alla radiazione ultravioletta per queste nubi. La selezione naturale cosmologica, cioè, sarebbe in grado di spiegare come mai l'universo sembra così finemente sintonizzato sulla possibilità di esistenza delle stelle e della chimica del carbonio senza far alcun riferimento diretto all'esistenza della vita e all'uomo. E spiegherebbe anche altre particolari coincidenze come il fatto che la costante di Fermi abbia precisamente il valore giusto perchè funzioni il meccanismo delle supernovae.
Ma veniamo alle previsioni della selezione naturale cosmologica.
Una di queste riguarda un limite superiore per la massa delle stelle di neutroni. Non entreremo nei dettagli, ma il punto è che la massa delle stelle di neutroni è legata alla massa dei mesoni K e la presenza di stelle di neutroni molto pesanti sarebbe un'indicazione del fatto che, potendo variare la massa dei mesoni K, si formerebbero molti più buchi neri di quelli che si formano col valore che ha nel nostro universo. Al momento tutte le stelle di neutroni sembrano avere una massa inferiore a questo limite, ma basterebbe una singola osservazione di una stella di neutroni più pesante per falsificare la selezione naturale cosmologica.
Un'altra previsione è ancora più tecnica. Solo per citarla, riguarda alcune caratteristiche dei modelli di universo inflazionario, che devono soddisfare alcune particolari caratteristiche per non consentire, variando alcune costanti fondamentali, di aumentare la probabilità di formazione di buchi neri. Al momento, tutte le indicazioni indirette indicano che i modelli di universo inflazionario soddisfano le condizioni previste dalla selezione naturale cosmologica
Un'ulteriore previsione riguarda la formazione di stelle nelle fasi primordiali dell'universo. La selezione naturale cosmologica verrebbe infatti falsificata se ci fossero modalità di formazione di stelle diverse da quelle che osserviamo, che non si basassero ad esempio sulla chimica del carbonio. Ma in questo caso tali meccanismi sarebbero stati all'opera nelle fasi primordiali dell'universo, quando ancora carbonio e ossigeno non erano stati prodotti in grande quantità. E dunque in quelle fasi primordiali dovevano esserci molte supernove che potremmo osservare oggi guardando a grandi distanze (siccome la velocità della luce è finita, guardare a grandi distanze significa guardare a fasi passate della vita dell'universo). Finora le osservazioni non hanno indicazioni in questo senso.
 
   —   ∴   —   
 
Al momento, dunque, la teoria della selezione naturale cosmologica non è stata ancora falsificata dalle osservazioni sperimentali. Ma l'importanza di questo modello rimarrebbe anche nell'eventualità che in futuro questo dovesse succedere. Essa ha fornito il primo esempio concreto di teoria capace di affrontare in problema del fine tuning in cosmologia in modo tale da fornire previsioni falsificabili e senza invocare alcun principio antropico.

26 January 2009

Quine - 1

Uno dei motivi per cui cito spesso ma non spiego mai Quine è che non è facile condensarlo in poche righe.
In epistemologia, ad esempio, è molto più facile divulgare Kuhn e Lakatos (fai l'esempio della rivoluzione della meccanica quantistica e della relatività, di rottura con la meccanica classica, e il messaggio, in fondo, è passato) o Popper (fai l'esempio dei corvi neri, del singolo corvo bianco, ed è chiaro cosa si intende per "falsificare" e della differenza col "verificare").
Ma prova a riassumere in poche parole e in modo altrettanto icastico come mai è impossibile distinguere le proposizioni analitiche da quelle sintetiche, quali sono le conseguenze dell'indeterminatezza della traduzione, la relatività ontologica...
Esistono, sì, delle immagini vivide del pensiero di Quine, come questa:
La cultura dei nostri padri è una stoffa di enunciati. Nelle nostre mani essa si evolve e muta [...]. È una cultura grigia, nera di fatti e bianca di convenzioni. Ma non ho trovato alcuna ragione sostanziale per concludere che vi siano in essa fili del tutto neri e altri del tutto bianchi.
ma restano parole quasi vuote di significato per chi già non conosce le sue tesi.
Forse la cosa più facile da spiegare è l'olismo della conferma, tant'è che ne esiste una versione "semplificata" che va sotto il nome di Tesi di Duhem-Quine. Chissà, magari partirò proprio da quella.
Purtroppo questa difficoltà a sintetizzare e semplificare Quine ha una conseguenza ben più grave di quella di non poterla spiegare facilmente nelle mie discussioni, ed è che tutti o quasi conoscono le idee di Kuhn e Lakatos e ancor più quelle di Popper, e nessuno o quasi ha mai sentito parlare di Quine. Eppure, dopo aver letto qualcosa di Quine, viene da sorridere a pensare di nuovo a Popper. Non nel senso, sia chiaro, che si sorride pensando a Popper come a uno stupido e al suo falsificazionismo come ad una gran cantonata. Ma certo si sorride pensando allo spessore dell'analisi di Quine in confronto all'ingenuità e alla superficialità del falsificazionismo di Popper, e ancor più ai paradigmi e alle rivoluzioni scientifiche di Kuhn e Lakatos.
Esattamente la stessa sensazione che si prova dopo aver letto Enrico Bellone: si scopre la differenza fra storia e favola della scienza. Da una parte una disciplina affascinante quanto impegnativa, fatta di laboriosa lettura delle fonti originali, tanto delle pubblicazioni ufficiali quanto delle corrispondenze private, della loro contestualizzazione in un quadro concettuale quasi sempre profondamente diverso da quello con cui, oggi, tendiamo a rileggere quelle stesse equazioni e quelle stesse teorie che, al contrario, la favola della scienza ci presenta come una costruzione lineare, magnifica e progressiva, frutto di una serie di colpi di genio (che a posteriori, poi, sembrano sempre delle banali ovvietà) e di experimentum crucis univoci e definitivi.
Sì, dovevo parlare di Quine, non di Bellone. Ma il fatto è che devo proprio a Bellone la scoperta di Quine. E del resto quello della favola della scienza non è solo un paragone distante, visto che, al contrario, molte delle idee alla base delle tesi di Popper, Kuhn e Lakatos sembrano discendere precisamente da questa visione semplificata del modo di procedere della scienza. Gli experimentum crucis capaci di falsificare una teoria in senso popperiano, infatti, sbiadiscono e sfumano di fronte ad un'analisi storica precisa e prendono forma solo a posteriori, in una reinterpretazione semplificata della vicenda, fatta con gli anacronistici occhi di poi.
Credo, per tornare a Quine, che le difficoltà che si trovano a divulgarlo sono davvero quasi tutte dovute a questa sua irriducibile complessità. Una complessità che si evidenzia nel fatto che nelle sue tesi non si può separare l'epistemologia dall'ontologia, dalla gnoseologia, dalla logica, dalla linguistica... La sua è intrinsecamente una "teoria del tutto" e non potrebbe essere che così, visto che "le nostre proposizioni sul mondo esterno si sottopongono al tribunale dell’esperienza sensibile non individualmente ma solo come insieme solidale".
Insomma, Franco, questo lungo post solo per mettere le mani avanti e dire che no, non sarà affatto facile provare a spiegarvi Quine.