Showing posts with label fisica. Show all posts
Showing posts with label fisica. Show all posts

17 March 2009

Quine + |Zurek>

Sto cominciando a giocare troppo coi titoli, eh? Effettivamente l'unico riferimento a Quine questa volta riguarda la giustificazione sul perchè questo post non parla di Quine. E la giustificazione è che Clodovendro mi ha distratto dalla mia priorità di conquistare il mondo di divulgare Quine, tentandomi con le sirene delle interpretazioni della meccanica quantistica. Già lo so che sarà la solita bella senz'anima, come tutte, ma, come tutte, l'idea è stuzzichevole e vien voglia di approfondire un po'.
Questa volta è il turno di Zurek e del suo darwinismo quantistico (esatto: si cita Charles nel nome, se ne poteva non parlare anche per Prgetto Darwin su Progetto Galileo?). Dalla breve review segnalatami da Clodovendro non ci ho capito molto, ma del resto il terreno mi franava sotto i piedi a sentir parlare di decoherence e profondi abissi mi si spalancavano davanti ad einselection ed envariance (termini per me fino a quel momento sconosciuti...).
Così, invece di lavorare per voi su Quine, mi sono spulciato la bibliografia, mi sono scaricato una review un po' più corposa e nel week-end mi sono dato alla lettura, nella speranza di capirci qualcosina in più.
Il risultato (ma non ho ancora finito di leggere quest'ultimo articolo) non è che ora ho le idee più chiare, ma è che ora voi vi beccate due belle domandine in bottiglia che lancio nell'etere digitale.

   —   ∴   —   
 
La prima domanda è forse la più tecnica delle due, per cui la lascio per seconda, altrimenti quasi tutti si fermeranno subito e non proseguiranno a leggere la seconda, che pertanto esporrò per prima.
 
La seconda domanda, dunque, rappresenta, o almeno così mi par di capire, il punto centrale dell'idea di Zurek. Uno dei tanti modi di raccontare il problema della meccanica quantistica di cui, da quasi un secolo ormai, si cerca di venire a capo, è sottolineare l'irriducibile stridore fra i suoi postulati "matematici" da una parte (stati come raggi di vettori in spazi di Hilbert ed evoluzione unitaria, lineare e deterministica) e dall'altra quelli "di misura" (la legge di Born sulla probabilità e il fantomatico collasso della funzione d'onda). Ebbene, l'approccio di Zurek è quello di provare a partire dai primi e dedurre come loro "ovvia" conseguenza i secondi. L'approccio, sempre per quel che capisco, non è "fondazionale": non pretende di fornire esplicitamente un'espressione puramente quantistica per l'interazione sistema-apparato da cui dedurre "matematicamente" (nel senso di sopra) il collasso della ψ dall'equazione di Schroedinger. Piuttosto Zurek parte dall'assunzione che un'interazione di questo tipo esista, e prova a studiarne alcune sue caratterische.
Zurek parte dunque mettendo sullo stesso piano "quantistico" tanto il sistema, descritto dallo stato , quanto l'apparato di misura, l'ambiente con cui il sistema interagisce, descritto anch'esso da uno stato quantistico . Ebbene, l'assunzione fondamentale di Zurek è che l'interazione () che ha luogo durante una misura sia di questo tipo: (M)
0 = k skk0    k skkk
Zurek assume, cioè, che esistano degli stati k del sistema che restano invariati durante la misura e che, di più, lasciano un loro "imprinting" nell'ambiente, il quale a seguito dell'interazione modifica il suo stato da 0 a una sovrapposizione di k ciascuno dei quali "si porta dietro l'informazione" sulla componente k dello stato .
Tale assunzione di Zurek, se è davvero nei termini che ho esposto, sembra chiaramente molto forte. Non so abbastanza di decoherence, magari esistono degli esempi di decoerenza che possono essere modellizzati in questo modo (magari proverò a chiedere al mio amico Dragon Ball...), ma è certo che deve trattarsi di una qualche modellizzazione efficace (nel senso tecnico di effective) perchè la linearità dell'evoluzione unitaria mi pare che proibisca un'evoluzione come quella scritta sopra (può benissimo essere che mi sia arrugginito molto a non far più fisica, in tal caso fatemelo notare nei commenti!).
L'obiezione a questa mia obiezione è che l'intento di Zurek è proprio quello di spiegare il collasso della funzione d'onda, ed è quindi ovvio che da qualche parte debba forzare la meccanica quantistica "classica". Se posso fare un appunto, però, mi sembra che nei suoi articoli non si evidenzi abbastanza che dietro questa assunzione si celi la presunta "spiegazione" del collasso e che si tratta di un'assunzione "non standard" (ed è per questo che ho il forte sospetto che sia io a non aver capito qualcosa...)
Il resto delle argomentazioni di Zurek, fatto questo passo, diventano concettualmente semplici, o almeno è possibile riassumerle brevemente e "senza formule". Quel che Zurek dimostrerebbe è che gli stati k che soddisfano la condizione (M) devono necessariamente costituire una base ortonormale, ovvero devono essere autostati di un operatore autoaggiunto. La cosa, cioè, sarebbe la spiegazione del fatto che i risultati di una misura possono essere solo autostati di un simile operatore (ci tengo a dire che non sono riuscito affatto a seguire nei dettagli tali ulteriori passaggi e che il riassunto di sopra rappresenta quasi sicuramente una semplificazione eccessiva).
 
E la regola di Born sulle probabilità? Per quello è sufficiente invocare l'envariance, altrimenti nota come environment assisted invariance — e non potendo linkare wikipedia, mi tocca linkare da arxiv... — e il gioco è fatto. O così almeno crede Zurek. Perchè io, proprio a questo proposito, avrei giusto la mia prima domandina in bottiglia che attende.
 
Come dicevo, questa domanda è ancora più tecnica della precedente (mi perdonino i lettori a digiuno di fisica). Detto in parole semplici (e così l'anima pia vagante che vorrà provare a rispondermi potrà puntare il dito sul punto preciso in cui non ho capito... JB sei in ascolto?) si tratterebbe della possibilità di poter cambiare arbitrariamente le relazioni di fase φ(k) fra le ampiezze sk nel generico stato  = k skk di un sistema:
 → k eιφ(k)skk
forti del fatto di poterle poi "annullare" nel sistema "ambiente" con cui il sistema è accoppiato:
 → k e-ιφ(k)k 
Ora sicuramente c'è qualcosa di banale che non ho capito, perchè uno degli insegnamenti basilari che mi sono rimasti della meccanica quantistica è prorpio quello che la fase irrilevante è solo quella overall, mentre le fasi relative non solo sono rilevabili, ma sono anche rilevanti, com'è proprio il caso paradigmatico della particella libera a una dimensione: lì le fasi relative fra le ampiezze nelle |x rappresentano proprio il momento della particella: cambiare quelle fasi significa cambiare la distribuzione dei momenti della particella. Di più: non è possibile scegliere arbitrariamente quelle fasi e preparare, ad esempio, uno stato gaussiano strettamente reale nelle |x (ossia  = x sx|x con tutti i coefficienti sx con parte immaginaria nulla), perchè violerebbe il principio di indeterminazione! Pensare di effettuare una trasformazione del genere non una (solo sulla ) ma addirittura due volte (anche sull'ambiente ) senza che questo modifichi la fisica dei due sistemi, non mi sembra possibile: cos'ha in mente, dunque, Zurek?!?
 
Insomma, questa volta, prima di potermi abbandonare alla delusione dell'ennesimo vano tentativo di interpretazione per la meccanica quantistica... vorrei almeno prima capirlo! :)

25 February 2009

Quine - 1+2i

Immagine di Dallo stimolo alla scienza
In attesa di un reale post su Quine, faccio seguito al thread su una sua ipotetica sottoscrizione "letterale" dell'affermazione di Arnold secondo cui anche la matematica sarebbe, in fondo, una scienza "empirica".
Non ho tempo ma soprattutto capacità di difendere, qui e ora, nessuna delle due tesi — quella sulla matematica, e il fatto che Quine la sottoscriverebbe. Mi limito, forse più per giustificare la seconda che per convincervi della prima, a citare Quine stesso, da un passo di uno dei suoi ultimi libri. Includo una premessa, per contestualizzare:
[Definendo questa formalizzazione di somma e prodotto] mediante '∈', in uno qualsiasi dei modi conosciuti possiamo immergere questo linguaggio chiuso in un altro linguaggio formalizzato che ha come unico predicato la stessa '∈', e che comprende l'intera matematica classica. Naturalmente, esistono innumerevoli linguaggi formalizzati estranei alla matematica classica; un esempio banale è quello di parentela, i cui predicati sono 'F' (femmina), a un posto, e 'G' (genitore), a due posti. [...] Tipiche verità espresse in questo linguaggio sono: che le relazioni di fratello, coniuge e cugino sono simmetriche, che quella di genitore è asimmetrica, che quello di fratello germano è transitiva. Pur essendo estranea alla matematica, la teoria della parentela, nel suo modo banale, ne conserva chiaramente il sapore, e io non esito a farvela rientrare.
Tuttavia non si può dire che la nozione di "linguaggio formalizzato" catturi, per sè sola, l'essenza della matematica. Le cose che ci fanno sentire (forse) un sapore di matematica sono il numero limitato di predicati primitivi e la valorizzazione della costruzione logica che ne consegue; forse la matematicità è una questione di grado. In ogni caso, io non ho un criterio di demarcazione da proporre: il fatto che le variabili della matematica classica prendano come valori oggetti astratti, mentre quelli della teoria della parentela prendono esseri umani o altri animali non costituisce una differenza significativa; dopotutto la stessa '∈' ha alla sua base, come argomenti primi, oggetti concreti.
ma il passo più succoso è quello che segue immediatamente:
Se liberiamo la geometria dal letto di Procuste della teoria astratta delle relazioni e la reintegriamo nella sua condizione originaria, quella dei tempi di Euclide, essa non rientrerà più nel linguaggio formalizzato basato su '∈', e diverrà un linguaggio formalizzato a se stante, nonchè un analogo (sostanzioso e venerabile) della mia banale teoria della parentela: i suoi predicati torneranno a denotare superfici, curve e punti dello spazio reale. La geometria, come la teoria della parentela, è una matematica con un oggetto marcatamente empirico. Ciò che ha finito per esiliarla nel limbo delle matematiche non interpretate è l'anomalia logica del postulato euclideo delle parallele, la sua resistenza alla deduzione dagli altri postulati, più semplici. Questa circostanza ha stimolato l'esplorazione di postulati alternativi, quelli delle geometrie non euclidee, e a lungo andare anche l'esplorazione dello sterminato dominio dei sistemi non interpretati, o algebre astratte.
Se ancora conserva il suo vecchio statuto di teoria matematica dotata di un oggetto, la geometria euclidea lo ha perduto nel momento in cui Albert Einstein ha stabilito che lo spazio stesso, definito dai percorsi dei raggi luminosi, non è euclideo. Si deve inoltre ricordare che, al di là del caso della geometria, la de-interpretazione già svolgeva un ruolo indispensabile nella teoria della dimostrazione, e forse ciò ha avuto l'effetto di esagerare la frattura, grande o piccola, che si avvertiva tra la matematica e il resto della scienza.
Ovviamente, la matematica non interpretata è non solo priva di contenuto empirico, ma anche estranea a ogni problema di verità e falsità. La disciplina che tratta questi sistemi non interpretati, e quindi le algebre astratte, fa invece parte della teoria delle relazioni; quindi è matematica interpretata, e rientra nella teoria degli insiemi.
Dallostimolo alla scienza, capitolo 5 Logica e Matematica.

18 February 2009

Quine - 1+i

Grazie a ToMaTe (new-entry nel mio google-reader) scopro una bellissima "sentenza" di Vladimir Arnold (sì, proprio quell'Arnold della meccanica razionale di Galgani e Giorgilli):
Mathematics is a part of physics. Physics is an experimental science, a part of natural science. Mathematics is the part of physics where experiments are cheap.
e indovinate un po' chi mi è venuto in mente? Esatto, Quine! (be', la prossima volta che farò queste domande cercherò un titolo un po' più criptico per il post...)
Il pezzo dell'Arnold linkato, On teaching mathematics, chiarisce meglio il senso dell'incipit che ho citato, e continuare a leggervi Quine è forse oggettivamente una forzatura.
Ma vale comunque, moltissimo, una lettura.
 
E sì, sì, questo non vale come post su Quine (e infatti, nella numerazione dei post, non siamo avanzati dal numero uno...)
 
Comunicazione di servizio per Marco Ferrari: qui ritornavo sulla questione evoluzione con una domanda per te...
 
UPDATE: segue qui.

02 February 2009

Darwin fra le stelle

Dopo Rovelli, l'estate scorsa ho avuto modo di apprezzare molto il suo amico Lee Smolin nel bellissimo Three Roads to Quantum Gravity. Lo stesso Lee Smolin che ha proposto la teoria della selezione naturale cosmologica di cui parlo su Progetto Darwin.
Devo confessare che all'inizio ho storto il naso: Smolin mi aveva fatto un'ottima impressione, ma qul nome pomposo, selezione naturale cosmologica, sembrava alludere troppo ad uno di quei tanti tentativi, maldestri e inappropriati, di sovrapporre due ambiti molto distanti, e quindi apparentemente scorrelati, quali la cosmologia e la biologia. Lasciava immaginare uno di quegli approcci "finalistici" alla cosmologia che vanno sotto il nome generico di principio antropico e che, per così dire, non trovano proprio il classico consenso universale della comunità scientifica.
Ma ho dovuto ricredermi presto: la selezione naturale cosmologica rappresenta forse l'unico caso di applicazione rigorosa — addirittura falsificabile — dei principi più generali della teoria di Darwin in un ambito diverso da quello biologico.
Ne riporto dunque, per sommi capi, le idee principali. Il taglio sarà divulgativo (non che io ne abbia una conoscenza molto più approfondita...), il riferimento originale che ho seguito è l'articolo di Smolin stesso: The status of cosmological natural selection.
 
   —   ∴   —   
 
La motivazione principale che ha spinto a formulare la selezione naturale cosmologica — motivazione che è all'origine anche di quasi tutte le versioni del principio antropico — è il cosiddetto problema della sintonizzazione fine (fine tuning); la constatazione, cioè, che i parametri fondamentali del modello standard delle particelle elementari e della cosmologia sembrano assumere valori numerici "molto particolari", nel senso che una loro anche piccolissima modifica distruggerebbe il delicatissimo equilibrio di processi che hanno portato alla formazione nell'universo di una grande quantità di stelle dalla vita molto lunga e ridurrebbe drasticamente l'enorme varietà chimica degli elementi che invece osserviamo — e che consideriamo fondamentale per lo sviluppo della vita così come la conosciamo.
L'obiezione più elementare al considerare questa circostanza come un problema da spiegare, e cioè che le costanti fondamentali sono quelle che sono e, proprio perchè costanti, non possono cambiare, viene notevolmente ridimensionata da una caratteristica che ha la teoria più accreditata per spiegare il modello standard a un livello più profondo: la cosiddetta teoria delle stringhe. Senza entrare nei dettagli, la teoria delle stringhe ha una forma del tutto generale in cui il modello standard e le sue costanti fondamentali discendono in maniera contingente, non necessaria, a seconda dello stato in cui si trova — concedetemi questa concisa terminologia tecnica da considerare come espressione evocativa — la geometria del background spazio-temporale. L'idea, dunque, è che le costanti fondamentali dell'universo avrebbero potuto davvero essere diverse (e magari lo sono, in remote regioni dell'universo); e quindi la domanda sul perchè, allora, abbiano assunto proprio questi valori e non altri, appare sotto una luce meno speculativa, meno, per così dire, metafisica, e può legittimamente aspirare a diventare, un giorno, parte integrante dell'ambito di indagine della fisica — esattamente com'è successo per la cosmologia stessa, entrata a buon diritto nei programmi di ricerca in fisica nella prima metà del secolo scorso dopo la scoperta della legge di Hubble, della radiazione cosmica di fondo, e delle prime stime sull'abbondanza cosmica degli elementi.
In questo contesto, dunque, appare più accettabile il ragionamento alla base di tutte le varie forme di principio antropico, le quali pretendono di giustificare a posteriori la "straordinarietà" dei particolari valori assunti dalle costanti del modello standard basandosi semplicemente sul fatto che, letteralmente, altrimenti non saremmo qui a discuterne. Ma la sterilità di tutte le varie forme di principio antropico sta nel fatto che esse si limitano a questa mera "giustificazione" del fine tuning, senza alcuna possibilità di fare alcuna previsione specifica che possa essere verificata o falsificata.
Su questo, invece, la selezione naturale cosmologica è profondamente diversa.
 
   —   ∴   —   
 
Forti, dunque, delle possibilità teoriche offerte dalla teoria delle stringhe, consideriamo uno "spazio", un insieme astratto di diversi "modelli standard" così come sono ammessi dalla teoria. I presupposti essenziali di una qualsiasi teoria di selezione naturale cosmologica sono essenzialmente due, in stretta analogia con l'evoluzione nella biosfera. Da una parte deve esistere una "popolazione" di questi universi possibili, ciascuno con una sua probabilità più o meno elevata di "presentarsi" (l'equivalente di una popolazione di individui biologici sulla Terra). Dall'altra deve esistere un processo capace di generare un'evoluzione in quella popolazione di universi, un processo che coinvolga la "nascita" ed eventualmente la "morte" di questi universi, in modo tale che la distrubuzione della popolazione di universi possa cambiare nel tempo a seconda di quali universi nascano più frequentemente e quali meno.
Ma perchè da una teoria del genere si possano dedurre delle conseguenze falsificabili devono verificarsi ulteriori condizioni.
Innanzitutto il processo evolutivo deve condurre ad una popolazione di universi distribuita in maniera molto particolare, altamente non casuale, in modo da poterla riconoscere proprio sulla base delle sue caratteristiche. In particolare devono esserci delle quantità misurabili del nostro universo che risultano molto frequenti negli universi della popolazione a cui si giunge con il processo di evoluzione: in questo modo possiamo dire che il processo di evoluzione della nostra teoria spiega il valore di quella quantità che misuriamo nel nostro universo. Ma non basta: devono esserci delle altre quantità misurabili del nostro universo, ma che non sono ancora state misurate, che risultino anch'esse molto frequenti negli universi della popolazione a cui si giunge con il processo di evoluzione della nostra teoria: in questo modo possiamo dire che la nostra teoria prevede che il nostro universo presenti queste altre quantità misurabili.
Basta? No: per poter dire di essere davvero davanti a una possibile spiegazione del fine tuning, i meccanismi di questo processo di selezione devono essere estremamente sensibili a quelle caratteristiche peculiari (l'esistenza di una chimica complessa e di molte stelle a vita lunga) su cui le costanti del modello standard si sono così finemente sintonizzate.
Notate bene che queste ultime condizioni non fanno alcun riferimento ai dettagli della teoria delle stringhe che sta alla base della possibilità di avere diversi costanti per il modello standard, mentre fanno riferimento solo alle caratteristiche del modello standard che si intende spiegare. E questo è del tutto analogo al caso biologico, in cui è possibile fare previsioni verificabili senza conoscere alcunchè di genetica molecolare — anzi, storicamente è successo proprio così!
 
   —   ∴   —   
 
Ebbene, la selezione naturale cosmologica non è nient'altro che un esempio — l'unico, al momento — di possibile meccanismo di selezione che soddisfa i criteri che abbiamo descritto. La sua enorme importanza, indipendentemente dal fatto che un giorno verrà o meno falsificata, sta proprio nel fatto che dimostra la possibilità di avere una spiegazione del fine tuning che fa previsioni falsificabili.
Ecco quali sono i suoi assunti e meccanismi di base.
La prima assunzione fondamentale è che il Mondo consiste in un insieme di universi come quello in cui viviamo, ciascuno caratterizzato da un particolare stato del background spazio-temporale della teoria di stringhe che descrive tutti gli universi possibili e dunque da particolari valori di quelle che chiamiamo costanti fondamentali del nostro modello standard.
L'altra assunzione fondamentale riguarda la creazione di nuovi universi. Questi nascerebbero come stato inziale di un Big Bang a partire dalle singolarità che si trovano al centro dei buchi neri presenti in altri universi. In particolare si assume che il meccanismo di generazione è tale per cui il nuovo universo avrà costanti fondamentali solo leggermente diverse da quelle dell'universo che contiene il buco nero che lo ha generato.
Già si delinea quale sarà la situazione a cui si arriva partendo da simili assunzioni. Poichè gli universi capaci di generare più buchi neri avranno generato più universi a sè simili, la popolazioni di universi a cui arriveremo in breve sarà costituita per la stragrande maggioranza proprio da quegli universi che sono capaci di generare più buchi neri.
Più rigorosamente, esiste quella che un biologo evoluzionista chiamerebbe la fitness function di ogni universo. Chiamiamo c la "configurazione" di un universo, i valori delle sue costanti fondamentali, e chiamiamo B(c) proprio il numero medio di buchi neri che un universo di tipo c produce nella sua vita. Si può allora dimostrare che, in condizioni del tutto generali, un meccanismo di generazione come quello che abbiamo descritto conduce in breve tempo ad una popolazione di universi in cui la stragrande maggioranza delle configurazioni c è vicina a un massimo locale di B(c).
Un universo scelto a caso in questa popolazione avrà dunque questa importante caratteristica: qualsiasi piccolo cambiamento nella sua configurazione c potrà solo lasciare B(c) invariato oppure diminuirlo. Assumendo quindi che il nostro universo sia scelto a caso, la previsione fondamentale della selezione naturale cosmologica è che non ci sia essenzialmente alcuna possibilità di aumentare il numero di buchi neri prodotti da nostro universo spostando qualche costante fondamentale del modello standard.
 
   —   ∴   —   
 
Vediamo ora quali sono le conseguenze di questa previsione fondamentale, sia in termini di spiegazioni e sia in termini di previsioni che questo modello presuppone.
La selezione naturale cosmologica, se si dimostrasse corretta, spiegherebbe il fine tuning perchè la formazione di stelle di grande massa, necessarie per la formazione di buchi neri astronomici, si basa sulla chimica del carbonio, e per ben due motivi. Il primo è che il meccanismo principale di raffreddamento delle gigantesche nubi di gas dove si formano le stesse di grande massa è proprio l'emissione di radiazione da moto vibrazionale delle molecole di ossido di carbonio. Il secondo è che ghiaccio e polvere di carbonio costituiscono anche un'efficace schermo alla radiazione ultravioletta per queste nubi. La selezione naturale cosmologica, cioè, sarebbe in grado di spiegare come mai l'universo sembra così finemente sintonizzato sulla possibilità di esistenza delle stelle e della chimica del carbonio senza far alcun riferimento diretto all'esistenza della vita e all'uomo. E spiegherebbe anche altre particolari coincidenze come il fatto che la costante di Fermi abbia precisamente il valore giusto perchè funzioni il meccanismo delle supernovae.
Ma veniamo alle previsioni della selezione naturale cosmologica.
Una di queste riguarda un limite superiore per la massa delle stelle di neutroni. Non entreremo nei dettagli, ma il punto è che la massa delle stelle di neutroni è legata alla massa dei mesoni K e la presenza di stelle di neutroni molto pesanti sarebbe un'indicazione del fatto che, potendo variare la massa dei mesoni K, si formerebbero molti più buchi neri di quelli che si formano col valore che ha nel nostro universo. Al momento tutte le stelle di neutroni sembrano avere una massa inferiore a questo limite, ma basterebbe una singola osservazione di una stella di neutroni più pesante per falsificare la selezione naturale cosmologica.
Un'altra previsione è ancora più tecnica. Solo per citarla, riguarda alcune caratteristiche dei modelli di universo inflazionario, che devono soddisfare alcune particolari caratteristiche per non consentire, variando alcune costanti fondamentali, di aumentare la probabilità di formazione di buchi neri. Al momento, tutte le indicazioni indirette indicano che i modelli di universo inflazionario soddisfano le condizioni previste dalla selezione naturale cosmologica
Un'ulteriore previsione riguarda la formazione di stelle nelle fasi primordiali dell'universo. La selezione naturale cosmologica verrebbe infatti falsificata se ci fossero modalità di formazione di stelle diverse da quelle che osserviamo, che non si basassero ad esempio sulla chimica del carbonio. Ma in questo caso tali meccanismi sarebbero stati all'opera nelle fasi primordiali dell'universo, quando ancora carbonio e ossigeno non erano stati prodotti in grande quantità. E dunque in quelle fasi primordiali dovevano esserci molte supernove che potremmo osservare oggi guardando a grandi distanze (siccome la velocità della luce è finita, guardare a grandi distanze significa guardare a fasi passate della vita dell'universo). Finora le osservazioni non hanno indicazioni in questo senso.
 
   —   ∴   —   
 
Al momento, dunque, la teoria della selezione naturale cosmologica non è stata ancora falsificata dalle osservazioni sperimentali. Ma l'importanza di questo modello rimarrebbe anche nell'eventualità che in futuro questo dovesse succedere. Essa ha fornito il primo esempio concreto di teoria capace di affrontare in problema del fine tuning in cosmologia in modo tale da fornire previsioni falsificabili e senza invocare alcun principio antropico.

21 January 2009

essere o trovare

Meccanica statistica classica: probabilità di essere.
Meccanica (statistica) quantistica: probabilità di trovare.
Il problema, lo sappiamo, non è il fatto che Dio giochi a dadi. Il problema è l'abisso senza fondo che separa osservatore e osservato. E l'abisso è tutto (e soltanto?) lì dentro, in quel trovare, che la meccanica quantistica non riesce a scrollarsi di dosso. Che non può scrollarsi di dosso, perchè è il significato stesso, della meccanica quantistica, così come la conosciamo, da quasi cent'anni, ormai.

05 November 2008

GOCE, LHC, LINAC 4 e CDF


il geoide così come sarà misurato da GOCE
(foto: ESA)
Ecco un post bello stagionato... quasi aceto ormai :(
Metto insieme cose sparse.
Ricordate che vi avevo parlato di GOCE e del rinvio del suo lancio? Ebbene, dopo un ulteriore rinvio temporaneo... è stato rinviato definitivamente. A quando, di preciso, non si sa, ma comunque nel 2009.
Esattamente come il rinvio dell'accensione di LHC dopo l'incidente del 19 settembre: i più ottimisti intendono che si ripartirà regolarmente in primavera, dopo il normale periodo di manutenzione invernale per i costi dell'elettricità, ma il comunicato del CERN, a voler pensar male, parla genericamente di 2009...
A proposito, se vi interessa capire cos'e' successo nell'incidente, potete dare un'occhiata all'analisi dettagliata, di cui potete trovare una "traduzione" in italiano da Marco.
Nel frattempo, mentre l'anello di LHC si prepara al letargo, qui al CERN hanno già cominciato a scavare, in vista dell'upgrade dell'acceleratore. Sono appena iniziati, cioè, i lavori di ingegneria civile per la costruzione di Linac 4, il nuovo iniettore di protoni che nel 2013 dovrebbe sostituire l'ormai anziano (30 anni!) Linac 2 (il Linac 3, per chi si chiedesse se si saltano i numeri dispari, è semplicemente l'iniettore di ioni pesanti, correntemente usato). Si tratta del primo stadio di accelerazione dei protoni, prima di passare al PS Booster, quindi al Proto-Sincrotrone (PS) e infine al Super-Proto-Sincrotrone (SPS), prima di entrare nel vero anello di LHC. Linac 4 sarà lungo più del doppio di Linac 2 (80 metri contro 36) e dovrebbe iniettare pacchetti di protoni più energetici (160 MeV contro 50) e più densi, il tutto per migliorare la luminosità del fascio finale (la luminosità è l'altro parametro principale, assieme all'energia, che caratterizza il fascio di un acceleratore ed è legato alla sua sezione d'urto, ovvero alla probabilità di interazione fra le particelle dei due fasci opposti). Ulteriori dettagli sulla costruzione del Linac 4 potete trovarli nell'ultimo bollettino del CERN.

parte del detector di CDF
(foto: wikipedia)
E l'ultima sigla nel titolo di questo post?
Si riferisce al Collider Detector del Fermilab, uno dei due esperimenti del Tevatron, l'altro grande acceleratore di particelle, negli Stati Uniti. E la notizia, di pochissimi giorni fa, è che a CDF avrebbero forte evidenza di qualcosa che non si riesce a spiegare col modello standard. L'articolo è su arxiv.org e racconta di come sarebbe stata osservata la creazione di muoni piuttosto lontano dal vertice di interazione protone-antiprotone (molti millimetri, invece che qualche centinaia di micron), come se fossero il prodotto di decadimento di una particella dalla vita piuttosto lunga, non prevista dal modello standard. La cosa, come potete immaginare, ha suscitato molto scalpore: in rete se ne discute un po' ovunque, ad esempio a cosmic variance, a resonaances, da dorigo e da Peter Woit (quello di Not Even Wrong). Se cercate qualcosa in italiano, passate ancora da Marco, andate sul sicuro. Sarebbe una cosa notevole, perchè un simile fenomeno non è caratteristico di nessuna delle innumerevoli estensioni del modello standand delle particelle elementari, e dunque rappresenterebbe un bello scompiglio foriero di novità realmente nuove. Ma, precisamente per lo stesso motivo, è forte anche il sospetto che, al contrario, possa trattarsi di un falso allarme, di qualcosa dovuto – sparo – ad una sistematica dell'apparato sperimentale non ancora ben compresa, o a una qualche sottovalutazione degli effetti di "fondo" predetti dal modello standard...
Staremo a vedere.

19 September 2008

Incident in LHC sector 3-4

19.09.08: During the commissioning of the final LHC sector (sector 3-4) for 5 TeV operation, an incident occurred at 12:05 today resulting in a large helium leak into the tunnel. Further details are not yet known. Investigations will continue over the weekend and more information will be made available as soon as possible.

26 August 2008

10 settembre 2008

8 settembre 2008, UPDATE:
Pare che il lancio di GOCE sarà rimandato al prossimo 5 ottobre per anomalie al lanciatore... :(
 
 
Ora che anche Strasburgo ha dato il via libera, fra una settimana gran parte del mondo scientifico guarderà con trepidazione l'accensione di LHC, ovvero il primo tentativo di far circolare stabilmente un fascio di protoni. (Per l'occasione sarà allestita anche una diretta web!)
Ma per quello stesso giorno è previsto anche il lancio di GOCE, il satellite dell'ESA che analizzerà la variazioni del campo gravitazionale terrestre. In Come una palla di plastilina potete trovare un'accattivante descrizione della missione, mentre sul sito ufficiale dell'esa potete trovare aggiornamenti, foto e un bellissimo video.
Questo 10 settembre sarà un grande giorno!
 
PS
Viste le recenti preoccupazioni del pubblico per i rischi legati ad LHC, Cristian++ suggerisce questo video, ma io stesso posso rassicurarvi ancora di più annunciando che è stato predisposto, come potete vedere cliccando sull'immagine qui sotto, presa direttamente dalla caverna di CMS, un ulteriore meccanismo di sicurezza per scongiurare anche la più remota eventualità di catastrofe...

05 August 2008

LHC startup - UPDATE

Al solo scopo di tranquillizzare la mamma del mau, ecco qualche aggiornamento sull'accensione del Large Hadron Collider.
Una fonte ufficiale sul "collaudo" dell'acceleratore è l'LHC commissioning with beam, dove potete trovare alcune informazioni (un po' tecniche) sullo stato dei lavori e qualche (sempre ottimistica) previsione sulla tempistica. In particolare viene confermato (LHC Sector Test with Beam) che faranno prima un injection test in cui verrà fatto circolare il fascio solo su un arco e non su tutto l'anello dell'acceleratore: per orientarvi nello schema (e pianificare la vostra fuga dal buco nero) potete far riferimento a questa foto, in cui CMS e' il punto 5, tra Segny e Cessy; Alice è il punto 2, tra Sergy e Pouilly; Atlas è il punto 1, di fronte all'entrata del CERN; e infine LHCb è il punto 8, sul confine franco-svizzero accanto alle piste dell'aeroporto di Ginevra.
Bisognerà aspettare settembre per vedere il fascio circolare su tutto l'anello e un paio di mesi per raggiungere le prime collisioni a 10 TeV.
In ogni caso, poi, con l'inverno l'acceleratore verrà comunque spento (d'inverno la corrente elettrica costa di più...!) e preparato per il run del 2009 che dovrebbe finalmente raggiungere l'energia di 14 TeV.
Per concludere, qualche parola ancora sui pericoli di LHC. Al di là di rassicurazioni teoriche sull'evaporazione pressochè istantanea di eventuali buchi neri che dovessero mai essere creati, c'è una rassicurazione pratica che non poggia su alcuna "teoria" ma su un dato empirico (per chi non si fida delle teorie...): collisioni come quelle che avverranno in LHC, e, anzi, anche ordini di grandezza più energetiche, avvengono tutti i giorni fra i protoni dei raggi cosmici e l'alta atmosfera: se mai qualcosa di così terribile come la creazione di un buco nero potesse davvero accadere, sarebbe già successo qualche centinaia di milioni di anni fa, e noi non saremmo qui a parlarne.
Direi che si può stare tranquilli davvero, no?

30 June 2008

Quantum Computing Since Democritus

Prosegue la pubblicazione delle lectures del corso di Aaronson del 2006. Dopo lo sprazzo isolato di febbraio, in questo giugno ben tre post hanno annunciato tre nuove puntate del corso.
Ovviamente non ho ancora trovato il tempo di leggerle tutte, ma già la prima, How Big Are Quantum States?, offre spunti molto interessanti. Aaronson, lo sappiamo, ama le frasi ad effetto, ed anche ora parte alto:
"computer science" is a bit of a misnomer; maybe it should be called "quantitative epistemology".
Ma questa volta sembra abbastanza convincente.
E' quasi un secolo, ormai, che la meccanica quantistica continua a reggere contro tutti i tentativi di attacco sperimentale, mentre il fastidio "filosofico" che si prova a maneggiarla non si è ridotto punto. Ebbene, leggendo Aaronson si ha davvero la sensazione che i metodi della computer science possano finalmente offrire possibilità concrete per aprire una breccia proprio sul lato concettuale dei problemi. Ma è solo un paradosso, non c'è contraddizione: da una parte davvero la teoria della computabilità guarda alla meccanica quantistica da un punto di vista squisitamente teorico, e tuttavia, ugualmente, lo spirito è innegabilmente galileiano, quello con cui si parte da casi concreti e problemi circoscritti, per lasciar comporre alle loro risposte, le risposte alle domande più generali sui massimi sistemi:
Now that we have quantum computing, can we bring the intellectual arsenal of computational complexity theory to bear on this sort of question? I hate to disappoint you, but we can't resolve this debate using computational complexity. It's not well-defined enough. Although we can't declare one of these views to be the ultimate victor, what we can do is to put them into various "staged battles" with each other and see which one comes out the winner. To me, this is sort of the motivation for studying all sorts of questions about quantum proofs, advice, and communication.
Buona lettura!

08 May 2008

CERN: LHC start-up

With this note we want to inform you about the latest
schedule and planning of the LHC start-up, as it was
agreed yesterday in a special meeting chaired by the
Director-General, bringing together the experiments and
the LHC machine.

Based on the good progress for the cool down of the LHC
sectors, and on the powering tests from two sectors, the
following planning was arrived at:

1) End of June: The LHC is expected to be cooled down.
The experiments are requested to have
their beam pipes baked out.

2) Mid of July: The experimental caverns will be closed
after the caverns and tunnel have been
patrolled. From then on the controlled
access system will be fully activated.

3) End of July: First particles may be injected, and the
commissioning with beams and collisions
will start.

4) It is expected that it will take about 2 months to have
first collisions at 10 TeV.

5) Energy of the 2008 run: Agreed to be 10 TeV. The machine
considers this to be a safe setting to optimize up-time
of the machine until the winter shut-down (starting
likely around end of November). Therefore, simulations
can now start for 10 TeV.

6) The winter shut-down will then be used to commissioning
and train the magnets up to full current, such that the
2009 run will start at the full 14 TeV design energy.

22 November 2007

Probabilità negative 2: dalla probabilità ad uno spazio lineare (e poi daccapo)

Riprendo il discorso da dove l'avevo lasciato, qui, sulla lezione 9 di Aaronson.
   —   ∴   —   
Il percorso ingannevole parte con la rimozione della condizione di normalizzazione per una distribuzione di probabilità. Poiche' tale condizione si traduce semplicemente in un riscalamento complessivo di tutte le probabilità con un fattore costante globale, univocamente determinato dalla distribuzione stessa, si puo' sempre pensare di procedere senza questo vincolo e riapplicarlo solo alla fine quando bisogna confrontare le probabilità con le effettive frequenze misurate sperimentalmente. Del resto il concetto di probabilità nasce proprio come frequenze normalizzate, le frequenze essendo semplicemente non-negative.
 
Se si procede a questa sorta di semplificazione o di generalizzazione del concetto di probabilità, una distribuzione di probabilità si trasforma da combinazione lineare convessa a combinazione lineare non-negativa, sui possibili esiti. Da qui a chiedere di rimuovere anche il vincolo di non-negativita' delle componenti, fino ad ottenere un vero e proprio spazio lineare di probabilità, il passo e' breve (almeno per Aaronson).
Si noti, però, che il carattere di spazio lineare è del tutto innaturale per uno spazio di probabilità: le distribuzioni di probabilità non si sommano fra di loro nè si fanno combinazioni lineari. La mossa verso uno spazio lineare, in questo ragionamento, è una mossa dettata completamente a posteriori dal fatto che uno spazio lineare sarà la base della meccanica quantistica (gli stati fisici, quelli sì, si sommano, ovvero si sovrappongono).
 
Le ampiezze complesse della meccanica quantistica sono legate al suo carattere probabilistico e "somigliano" alle probabilità stesse, ma il loro carattere lineare è completamente estraneo al tradizionale concetto di probabilità. Il passaggio presuppone, dunque, non solo un'estensione di dominio (da reale-non-negativo a complesso) ma un vero e proprio salto di struttura matematica. E' diffile accettare questo salto semplicemente come una "naturale generalizzazione" piuttosto che come un'analogia forzata.
 
Ma torniamo a questa presunta generalizzazione. In ogni caso queste componenti della combinazione lineare (non piu' non-negativa ne' convessa) non possono piu' essere interpretate direttamente come probabilità, ovvero messe a diretto confronto con le frequenze misurate sperimentalmente. Allora si decide di ricostruire una distribuzione di probabilità tramite un meccanismo di ri-non-negativizzazione (l'applicazione del modulo-quadro) di quelle componenti e, risalendo a ritroso, di ri-normalizzazione. E arriviamo dunque ad una 2-norma del vettore dello spazio lineare precedentemente costruito.
 
E' chiaro che tale procedimento, partito in qualche modo come semplificazione per il calcolo matematico (l'applicazione di un vincolo solo in fase finale) e dunque di carattere del tutto arbitrario e convenzionale, finisce per originare una struttura del tutto nuova (lo spazio lineare delle ampiezze) su cui imbastire uno spazio di probabilità esattamente identico a quello che si intendeva semplificare e/o generalizzare (fatto di componenti non-negative e normalizzate, il modulo quadro di quelle ampiezze).
 
Insomma, il concetto di probabilità non viene in alcun modo generalizzato (si tratta sempre di un'astrazione del limite per delle frequenze misurate sperimentalmente), ma semplicemente innestato su un substrato di spazio lineare che pretende di costituire il fondamento per l'evoluzione temporale e la combinazione di quelle distribuzioni di probabilità. Ovvero, pretende di costituire la fisica che soggiacie alle probabilità misurate sperimentalmente, esattamente come la fisica classica costituiva il substrato fisico per le distribuzioni di probabilità sperimentali, prima dell'analisi dei fenomeni atomici e microscopici. Con l'avvento della meccanica quantistica ci si è resi conto che le distribuzioni di probabilità sperimentalmente misurate (le distribuzioni di frequenze) devono essere descritte con un formalismo basato su uno spazio lineare. Ci si è poi resi conto che questa nuova fisica "lineare" aveva proprietà molto strane rispetto a qualsiasi cosa si fosse abituati (entanglment, disuguaglianze di Bell) e che fosse intrinsecamente probabilistica (differenza fra miscele statistiche e sovrapposizioni coerenti).
 
Ma tutto ciò ha a che fare con la fisica, non con la probabilità.

16 October 2007

probabilità negative, ovvero: non poteva che essere meccanica quantistica

La Meccanica Quantistica è quello a cui si arriva inevitabilmente se si parte dalla teoria della probabilità e si prova poi a generalizzarla in maniera che i numeri che usualmente chiamiamo "probabilità" possano essere negativi. In questi termini, la teoria avrebbe potuto essere inventata dai matematici nel XIX secolo senza alcun input sperimentale. Non è stato così, ma avrebbe potuto essere.
Eppure, con tutte le strutture studiate dai matematici, nessuno di essi è giunto alla meccanica quantistica finchè l'esperimento non l'ha costretto.
Questa è una perfetta esemplificazione del perchè gli esperimenti sono importanti. Quasi sempre l'unico vero motivo per cui abbiamo bisogno degli esperimenti è che non siamo abbastanza acuti. Una volta effettuati gli esperimenti, se abbiamo imparato qualcosa che valeva la pena sapere, è — si spera — proprio il perchè non era necessario partire con un esperimento, perchè non avrebbe avuto senso che il mondo fosse altrimenti. Ma eravamo troppo ottusi per capirlo da soli!
Scott Aaronson, PHYS771, Lecture 9
(mia libera traduzione)
 
Mi sarebbe piaciuto condividere, ma in fondo le cose non stanno proprio così.
   —   ∴   —   
Intendiamoci, i termini generali di una posizione simile sono del tutto condivisibili (hai la sensazione di aver capito davvero proprio quando ti accorgi che le cose non potevano essere altrimenti) e non esiterei a sottoscriverli per il caso della Relatività Speciale (e del resto Einstein non era partito affatto dai risultati dell'esperimento di Michelson-Morley) e forse ancor di più per la Relatività Generale. Ed è anche vero, per citare la teoria dell'evoluzione menzionata da Aaronson, che sebbene Darwin giunse alla sua intuizione dopo un prolungato periodo di osservazione della fauna delle Galapagos, tuttavia non ebbe bisogno di appoggiarsi alla teoria di Mendel sull'ereditarietà dei caratteri nè di conoscere il dogma centrale della biologia moderna che impedisce ai caratteri acquisiti à la Lamark di essere trasmessi alle generazioni successive.
Ma il caso della meccanica quantistica, secondo me, è profondamente diverso, soprattutto se guardato dal punto di vista che propone Aaronson, quello della probabilità.
Il concetto di probabilità nasce in simbiosi con quello di frequenza e non ha senso parlare di probabilità negativa neanche in meccanica quantistica. La novità matematica alla base della meccanica quantistica che, si sostiene, avrebbe potuto essere "inventata" senza inbeccata sperimentale, non è alcun concetto di probabilità negativa (o addirittura complessa). La novità è uno spazio lineare (con prodotto interno, uno spazio di Hilbert) come substrato dello spazio di probabilità, da cui derivare, cioè, la distribuzione di probabilità stessa come una p-norma dei vettori di quello spazio. Ma questa idea non ha alcun carattere di necessità, una teoria della probabilità non ha alcun bisogno di ergersi su uno spazio lineare. E del resto la meccanica quantistica vede in tale spazio lineare la natura fisica del mondo, un modello di realtà che, tra le altre cose, presenta caratteri di aleatorietà da descrivere per mezzo di distribuzioni di probabilità del tutto "tradizionali" (reali e non-negative). E se invece dalle solite miscele statistiche siamo arrivati a dover maneggiare cose terribili come le sovrapposizioni coerenti e le violazioni delle disuguaglianze di Bell (cose che nessun filosofo che si fosse divertito a distinguere fra probabilità epistemica e non-epistemica avrebbe comunque mai potuto immaginare), è perchè abbiamo dovuto fronteggiare una nuova fisica, non perchè abbiamo scoperto nuove proprietà matematiche del concetto di probabilità.
Certo, una volta accettata l'idea di uno spazio lineare da cui derivare distribuzioni di probabilità, ci sono ragioni di consistenza intrinseca e naturalezza che conducono a nient'altro che una 2-norma su uno spazio di Hilbert su campo complesso. E per questo vale assolutamente la pena di leggere la lezione 9 di Aaronson. Ma pensare che, per questo, il mondo non poteva non realizzare altro che la teoria della meccanica quantistica, significa non rendersi conto che la meccanica quantistica non è una teoria della probabilità, ma una teoria che fa uso della teoria della probabilità.
Al di là della questione particolare sollevata da Aaronson, comunque, siamo ancora ben lontani da una comprensione della meccanica quantistica à la "non poteva che essere così!". Ma forse non è questione di comprensione quanto, banalmente, che non siamo ancora arrivati alla teoria che "non poteva che essere così!"...

28 July 2007

La dimensione trasversa di un fotone
ovvero
Domande sbagliate


Ma uno specchio semitrasparente e' davvero omogeneamente semiriflettente, oppure il suo comportamento e' il risultato macroscopico di una struttura microscopica composta da parti riflettenti e parti trasparenti? In questo secondo caso, qual e' la dimensione di queste micro-regioni riflettenti/trasparenti? Soprattutto rispetto ai fotoni incidenti: e' piu' grande, piu' piccola o del suo stesso ordine di grandezza? A proposito: ma quant e' grosso un fotone? qual e' la sua tipica dimensione trasversa? Sarebbe possibile "puntare" ogni fotone su una singola zona riflettente/trasparente, cambiando il comportamente macroscopico dello specchio semiriflettente?
   —   ∴   —   
Allora: quanto e' largo un fotone? Quanto e' lungo lo sappiamo, o almeno crediamo di saperlo, visto che ci insegnano presto la dualita' di Fourier k↔x, da cui verrebbe fuori che un fotone di frequenza fissata dev'essere "infinitamente lungo". Ma trasversalmente, quanto occupa?
Un primo elemento di confusione e' dato dall'idea che esista il fotone. No, no, certo, non voglio dire che non esistono fotoni, voglio dire che non esiste il fotone. L'equazione E=hv non significa che se voi specificate una frequenza v avete descritto un fotone di quella frequenza. La quantizzazione sta nell'interazione (con la materia), nell'energia (E, appunto pari ad hv) scambiata. Finche' non abbiamo interazione, non esiste alcun fotone, e abbiamo solo normalissime onde elettromagnetiche. Un laser a frequenza v impostato con un'intensita' cosi' bassa da emettere un'energia E=hv nell'arco di 24 ore, genererebbe un'onda piana per tutto il tempo per cui viene lasciato acceso, solo che avremmo una probabilita' di "vedere" il fotone sullo (l'interazione di quell'onda piana con lo) schermo, solamente, in media, una volta al giorno. Una sorgente puntiforme a simmetria sferica genererebbe un'onda sferica che si propaga in tutti e quattro i pigrechi di angolo solido, anche se poi magari l'interazione avviene in un punto particolare (col quale, siamo soliti dire, la sorgente ha scambiato un fotone...).
Chiarito questo, possiamo dimenticarci completamente la parola fotone e pensare direttamente in termini di onde: quanto posso "stringere" un'onda, nella sua dimensione trasversa? Il modo piu' semplice e naturale per generare un'onda "stretta" e' quello di usare una fenditura con cui "filtrare" un'onda piana piu' estesa. Ma... Esatto: nonappena avremo ridotto le dimensioni della fenditura all'ordine di grandezza della lunghezza d'onda dell'onda, i fenomeni di diffrazione allargherebbero l'onda uscente essenzialmente ad onda sferica!
In pratica possiamo parlare di fascio solo se la sua dimensione trasversa e' molto maggiore della lunghezza d'onda. Di fatto, anche il fascio sara' "sbrodolato" (diffratto) ai bordi, per il principio di Huygens e dunque potremo continuare a parlare di fascio proprio nella misura in cui: 1) la sua dimensione trasversa e' tanto maggiore della lunghezza d'onda (e quindi dell'entita' dei fenomeni di diffrazione); 2) siamo interessati a fenomeni che accadono "lontano dai bordi". Ovunque abbia senso parlare di "fascio", l'onda e' da considerarsi onda piana. Quindi, a voler insistere con la domanda "quanto e' larga un'onda", la risposta meno inappropriata sarebbe infinitamente larga.
Ma a ben pensarci, tutto si tiene: qualsiasi meccanismo di riflessione/trasmissione richiede proprio l'interazione di fronti d'onda piani (infinitamente "larghi") con la superficie di separazione di due mezzi di trasmissione dell'onda. E la superficie deve proprio essere del tutto omogenea e infinitamente estesa perche' le fasi dell'onda non si incasinino e possa effettivamente riemergere un'onda, riflessa o trasmessa. Se non lo fosse, se presentasse disomogeneita' grandi fino all'ordine della lunghezza d'onda incidente, le fasi si scombinerebbero e non avremmo piu' un'onda piana (diffusione) o, se le disomogeneita' sono "regolari", la loro regolarita' resterebbe impressa nel ricombinamento delle fasi dell'onda, e avremmo, ad esempio, un reticolo di diffrazione. Il fatto che, concretamente, non siano infiniti ne' i fronti d'onda ne' le superfici di separazione, significa semplicemente che il fenomeno di riflessione/trasmissione avverra' nei limiti in cui siamo lontani dai bordi, tanto dei fronti d'onda quanto delle superfici.
La domanda iniziale, dunque, sull'omogeneita' della composizione di uno specchio semiriflettente, non puo' che avere risposta positiva. Qualsiasi sia il meccanismo di semiriflessione, si trattera' essenzialmente di un gioco di superfici piane di separazione fra, ad esempio, l'aria e il vetro, capaci di generare, a partire da un fronte d'onda incidente, due fronti d'onda, uno in riflessione e uno in trasmissione.
   —   ∴   —   
Come avrete probabilmente intuito sin dall'inizio, la domanda (molto stupida, a posteriori) con cui sono partito nasceva dall'ennesimo ripensamento agli esperimenti "pazzi" della meccanica quantistica, in cui si mettono in evidenza i comportamenti di entangling o di autointerferenza di fotoni o addirittura di elettroni. L'esperimento consiste tipicamente nell'evidenziare fenomeni di interferenza di un fascio (di fotoni o particelle come elettroni o neutroni) che passa per due fenditure ravvicinate o viene diviso da, appunto, uno specchio semitrasparente. Il dubbio sullo specchio nasceva dal solito irresistibile tentantivo di immaginare nei dettagli (e spesso in termini particellari) quello che succede, e dall'ingenuo dubbio che, chissa', forse il fotone non si "divideva" davvero nello specchio, ma veniva riflesso o trasmesso solo "statisticamente", a meta', ma di volta in volta "interamente". Ovviamente, invece, la cosa essenziale e' proprio che le onde emergenti (dalle due fenditure o sui due percorsi a seguire dello specchio semitrasparente) siano perfettamente in fase, figlie dirette dell'unica onda incidente. E, di nuovo, finche' si parla di onde tutto puo' avere il suo senso: le fasi che si ricombinano, da una parte c'e' interferenza distruttiva, dall'altra costruttiva, et cetera et cetera. Il problema e' che poi le "interazioni", le "misure" sono quantizzate, avvengono "puntualmente". E si ricade nel tentativo frustrante di immaginare quegli stessi quanti lungo tutto il percorso che ha portato all'interazione: l'elettrone da che fenditura e' passato? il fotone ha "interferito con se stesso"?
Da questo punto di vista, l'interpretazione transazionale della meccanica quantistica, proposta da Cramer nel 1986, offre una soluzione apparentemente soddisfacente. Tirando in ballo le onde anticipate e la loro propagazione "indietro nel tempo", trova una giustificazione al fatto che, ad esempio, il fotone di un'onda sferica si sia diretto proprio verso il punto in cui, a posteriori, c'e' stata l'interazione. Purtroppo pero' anche questa interpretazione fallisce dove inesorabilmente falliscono tutte: nella descrizione del collasso della funzione d'onda. Come mi aveva fatto notare Gigi (facendo collassare tutto il mio ingenuo entusiasmo sull'interpretazione di Cramer), la domanda cruciale e' quando avviene il collasso? In qualsiasi esperimento possiamo sempre spostare a piacimento il confine fra cio' che e' quantistico (il sistema, in cui tutto e' questione di funzioni d'onda, evoluzione deterministica e continua, senza salti ne' collassi) e cosa no (l'apparato di misura, che invece restituisce risultati discreti, stocastici e irrispettosi dei limiti di Bell). E a questa domanda, su dove avvenga il collasso, se avvenga davvero... neanche l'interpretazione di Cramer da una risposta.
Forse perche' continuamo a farci, da ottant'anni a questa parte, la domanda sbagliata.
   —   ∴   —   
Oltre al gia' citato Gigi, questo post deve in qualche modo la sua esistenza anche a Federico. Le domande sbagliate sono infatte quelle a cui abbiamo cercato di rispondere in una piacevole discussione avvenuta ormai tanto tempo fa in uno dei mille viaggi Ginevra-Milano. Tutta la prima parte del post, in qualche modo, ne e' una trascrizione o, meglio, una riduzione.

25 April 2007

l'importanza di essere bayesiani (in un mondo quantistico)

Finalmente (?!?) mi e' capitato di fare qualche viaggio in treno 1) lungo 2) da solo 3) a distanza ravvicinata. Il risultato e' stato che sono riuscito a macinare un po' di letture delle mille scaturite dall'incontro con le lezioni di Scott Aaronson di cui vi avevo parlato.
Aaronson e le sue lezioni sono davvero fantastici. Ma di lui e loro parlero' in un secondo momento. Ora voglio solo provare a riassumere quel che ricordo di quel che ho capito dell'approccio "bayesiano" alla meccanica quantistica, ovvero quel che ricordo di quel che ho capito di quello che ho letto di tali Fuchs e Hardy.
   —   ∴   —   
Questo approccio tenta di risolvere i problemi interpretativi della meccanica quantistica provando a ridurrla a nient'altro che una teoria statistico-probabilistica.
Dico subito che non la considero una soluzione soddisfaciente. E il motivo e' abbastanza fondamentale: secondo questo approccio la meccanica quantistica non sarebbe altro che una teoria dell'informazione probabilistica "sui possibili risultati dei nostri interventi sperimentali sulla natura". E' chiaro, cioe', che resta vittima della dipendenza da una descrizione classica del mondo, rinunciando subito ad una qualche descrizione della natura.
Non si puo' negare, pero', che questo approccio evidenzia delle proprieta' sottili della meccanica quantistica, e dunque offre spunti per una cmprensione piu' profonda. E' interessante innanzitutto
l'approccio di tipo formale ad una teoria della probabilita', evidenziando a quali assiomi (essenzialmente uno) e' possibile ricondurre le differenze fra una teoria della probabilita' classica e una che, volendo non chiamare "quantistica", potremmo dire complessa, (nel senso dei numeri complessi), o "per ampiezze di probabilita'". In particolare sembra molto convincente l'interpretazione in termini di pura teoria probabilistica dell'informazine che viene data ai fenomeni di entanglement, essenzialmente ridotti a naturali applicazioni del teorema di Bayes sulla probabilita' condizionata.
Insomma: letture consigliate solo per chi e' davvero interessato alle problematiche dell'interpretazione della meccanica quantistica.

18 April 2007

cervelli di Boltzmann e la freccia del tempo

Il principio antropico [›››], si sa, lascia sempre molto perplessi. Anche quando non scade in una qualche formulazione filosofica (nel senso negativo del termine) di delirio te(le)ologico, rischia di essere una semplice tautologia, priva di reale potere esplicativo. Era naturale, dunque, che rimanessi un po' sorpreso, positivamente, nel venire a sapere che, in un particolare ambito di termodinamica applicata alla cosmologia, e' possibile applicare il principio antropico in maniera significativa, non tautologica, per spiegare davvero dei fatti precisi del nostro universo.
Ma come fai ad essere cosi' sicuro, mi chiederete voi, che anche in questo caso non si tratti di uno dei soliti nebulosi tentativi di mascherare da spiegazione una vuota tautologia? Be', e' semplice — e questo e' stato il motivo della sorpresa piu' grande: perche' in questo caso si dimostra che il principio antropico non spiegherebbe affatto l'universo cosi' come ce lo ritroviamo!
Su Cosmic Variance potete trovare direttamente la succosa lettura di Sean Carroll a cui devo la scoperta.
Per chi non mastica l'inglese, per chi e' curioso ma solo fino a un certo punto, per chi vuole qualche indizio piu' concreto per decidere se imbarcarsi nella lettura... insomma: provo a riassumere (ma, ahime', non saranno ugualmente poche righe...).
Semplifichero' molto: come al solito tali questioni generali offrono mille spunti di divagazioni e approfondimenti, ma cerchero' di restare circoscritto al tema in questione.
   —   ∴   —   
Il contesto e' quello della freccia (termodinamico-cosmologica) del tempo. Come e' possibile che da le leggi fisiche fondamentali (microscopiche) perfettamente simmetriche rispetto ad inversione temporale venga fuori un universo spiccatamente asimmetrico come il nostro, in cui ricordiamo il passato e non il futuro? Siccome l'irreversibilita' temporale che osserviamo e' essenzialmente macroscopica e di natura entropica, la risposta piu' accreditata e' di tipo statistico: avere delle molecole di gas tutte raccolte in un angolo della stanza e' semplicemente enormemente piu' improbabile che averle distribuite per tutta la stanza. Chiaramente questa e' solo il primo passo per una vera risposta, perche' di fatto abbiamo semplicemente spostato il problema. Se l'universo parte in uno stato a bass(issim)a entropia, e' naturale che evolva asimmetricamente verso uno stato piu' disordinato. Ma il punto ora e': come mai l'universo e' cominciato (o si e' trovato a un certo punto) in uno stato a bassa entropia?
Ed e' qui che entra in gioco il (una versione del) principio antropico.
Come al solito, per poter essere tirato in ballo, bisogna assumere di avere a disposizione piu' scenari di universo possibili, per poter tirare conclusioni a posteriori basate sul dato di fatto della nostra esistenza:
se un universo non avesse questa e quest'altra caratteristica, non potremmo essere qui a discuterne e quindi, almeno a posteriori, e' naturale che il nostro universo sia fatto cosi' e cosi'.
Non e' necessario ricorrere a meccanismi di multi-universo esotici e controversi come quelli dell'interpretazione a molti-mondi della meccanica quantistica; e' sufficiente per esempio un universo temporalmente (spazialmente) infinito che possa attraversare (contenere) diverse fasi storiche (regioni) in una delle quali noi ci ritroviamo ad esistere.
La spiegazione che il principio antropico prova a suggerire, dunque, e' relativamente semplice.
Strettamente parlando, l'entropia non e' davvero vincolata a crescere, semplicemente e' piu' probabile che cresca. In una situazione stazionaria ad entropia saturata, ci saranno fluttuazioni temporalmente e spazialmente localizzate in cui l'entropia si ritrovera' un po' diminuita e un po' di ordine, per puro caso, verra' creato (le molecole diffuse nella stanza possono, con abbastanza pazienza, ritrovarsi per caso un po' piu' raccolte in un angolo). Poi, chiaramente, per le stesse ragioni probabilistiche, quel po' di ordine verra' presto disfatto seguendo un "normale" cammino ad entropia crescente, ma avendo abbastanza tempo e spazio a disposizione, fluttuazioni locali potranno presentarsi. A questo punto prende la parola il principio antropico e tutto sembra incastrarsi perfettamente: e' naturale, dice, che noi ci si ritrovi in una di queste fluttuazioni "felici", perche' solo qui potrebbe esserci qualcuno come noi ad osservare un ordine e chiedersi da dove venga: altrove e' solo noiosa stasi entropica.
Bene. Ci sarebbero mille obiezioni, piu' o meno tecniche, a questa presunta spiegazione, ma prendiamola pure per buona, come affermazione di possibilita' e veniamo al punto, cuore del post che vi ho linkato.
Il fatto e' che se vogliamo dare un valore significativo al gioco dei molti universi, o delle molte "fasi entropiche" di un universo infinito, non possiamo limitarci a giustificare la possibilita' che esistano regioni come l'universo in cui viviamo, caratterizzate da un (passato con) basso valore di entropia. Tanto varrebbe, allora, limitarsi ad accettare come fatto bruto che viviamo in un universo fatto cosi' e cosi' e basta. Se davvero vogliamo credere allo scenario dei multi-universo dobbiamo andare fino in fondo e considerare anche altre eventuali previsioni che da esso discendono condizionate alla nostra esistenza:
posto che il nostro universo mostra la caratteristica X (l'essere un'isola a bassa entropia), quale altra caratteristica Y ci aspettiamo di osservare, a partire dalle caratteristiche generali dei molti-universi di cui il nostro rappresenta un istanza?
Ed e' qui che entra in gioco, pittorescamente, un cervello di Boltzmann.
Ricordiamoci che le fluttuazioni di entropia sono molto rare. Piu' ordine crea, piu' rara e' la fluttuazione. Assumere, dunque, che la bassa entropia del nostro universo e' dovuta alla necessita' di permettere la vita intelligente, si porta dietro una conseguenza piuttosto forte (e clamorosa): dovremmo infatti trovarci in un universo corrispondente alla fluttuazione piu' piccola possibile che consenta lo sviluppo della vita. E la piu' piccola fluttuazione compatibile con la vita non e' altro che un cervello di Boltzmann: nel mare dell'equilibrio termodinamico, per caso una fluttuazione raccoglie qualche grado di liberta' dell'universo a formare un cervello cosciente con giusto quel minimo di apparati sensoriali per poter guardarsi intorno e giusto per quell'attimo sufficiente ad esclamare "Ehi! Esisto!" e poi — puff! — sparire nuovamente nel quieto e noioso bagno entropico.
Eh, si', ma quanto rara sara' mai una tale fortuita fluttuazione?!?
Enormemente piu' probabile della fluttuazione che invece crea un intero universo come il nostro capace di ospitare la vita!
Ma si puo' anche fare a meno dei cervelli di Boltzmann. Quel che vediamo ora e' solo un'istantanea dell'universo piuttosto grossolana: non abbiamo risoluzione sufficiente per distinguere lo stato microscopico di quel che vediamo alla nostra scala. Posto dunque che ci troviamo in questo stato a partire da una fluttuazione casuale, qual e' la fluttuazione piu' probabile con cui si puo' giungere qui? Sarebbe naturale pensare ad un'universo che si espande, con galassie che si formano pian piano et cetera. Ma a partire soltanto da quel che abbiamo (fotoni nei nostri telescopi), se tutte le possibili storie dell'universo compatibili con quel che osserviamo oggi sono ugualmente probabili, la maggior parte di queste storie sara' costituita da una gran casino in cui ad un certo punto una cospirazione incredibile ci da l'impressione di un passato ordinato. E' molto piu' probabile, cioe', che l'impressione di un universo passato ad entropia ancora piu' bassa sia letteralmente un accidente! Notate: non ci sitamo chiedendo "che tipo di universo passato tende naturalmente ad evolvere nell'universo che vediamo ora?", bensi' "che caratteristiche hanno la maggior parte degli universi che possono evolvere nell'universo che vediamo ora?". E la risposta e', appunto, che la maggior parte di quegli universi sono dei placidi universi stazionari ad entropia massima. [›››]
Ma ora basta, mi fermo qui. Del resto, non avrete mica creduto che avessi trovato la risposta al problema della freccia del tempo! Cosi', su un blog!
Spero pero' che abbiate apprezzato lo spunto di riflessione.
 

03 April 2007

Meccanica Quantistica, questa sconosciuta...

Come al solito le tentazioni piu' irresistibili arrivano legioni proprio quando meno puoi permettertelo.
E' da pochissimo che ho aggiunto i feed di questo blog fra i miei segnalibri, e oggi mi sono ritrovato con questo post che mi ha fatto scivolare irrimediabilmente a leggere la lezione 11 [›››] e quindi anche la lezione 9...
Sono in ritardo sparato col lavoro, e proprio non ho tempo, ma − diavolo! − quanto avrei voglia di mettermi a leggere, ora, subito, adesso e tutti di filato, tutte le Further Reading citate in quest'ultima lezione!!!
Per ora mi limito a consigliarvi queste due lezioni, ma quanto prima (sigh!) approfondiro' la cosa: cerchero' di capire meglio chi e' questo Scott Aaronson, daro' sicuramente un'occhiata alle altre lezione del suo corso [›››], al suo apparentemente portentoso articolo e agli altri che cita, compreso questo e gli altri di questo tal Christopher A. Fuchs...
Come si fa a tornare a lavorare?!?
 
PS
Franco, qui c'e' pane anche per i tuoi denti!

20 March 2007

Not Even Wrong

Vi avevo gia' parlato di Rovelli a proposito del suo libro Quantum Gravity, ma il suo nome e' associato per di piu' alla Loop Quantum Gravity e in particolare alla critica alle teorie delle stringhe come approccio per risolvere il problema di una gravita' quantistica.
Ebbene, Franco mi segnala che tali critiche si stanno (pian piano?) diffondendo. Recentemente e' stato pubblicato Not Even Wrong, di Peter Woit, che ha anche un blog con lo stesso titolo. Titolo che la dice lunga sul livello delle sue critiche alle teorie di stringhe. Del resto pare che gia' Feynman avesse una sua opinione a riguardo: «string theorists don’t make predictions, they make excuses».
Io ho aggiunto i feed del suo blog ai miei bookmarks, e mi sono scaricato un suo articoletto per un prossimo viaggio Milano-Ginevra. Quando poi avro' finito di leggere (leggi: deciso di interrompere) il libro di Rovelli e terminato anche il successivo libro in lista, magari procedero' all'acquisto: con 33 dollari posso addirittura comprarmi anche il libro di Smolin... :)

19 February 2007

Consigli a un neo laureando in Fisica (Teorica)

Stavo rispondendo via e-mail ad un caro amico [›››] che si avvicina ormai alla fine del corso di laurea in Fisica e che mi chiedeva consigli sulla scelta dell'argomento per una tesi finale.
Come al solito mi sono lasciato prendere la mano e mi sono ritrovato con consigli per diverse centinaia di parole. Da li' a decidere di pubblicarle qui, perche' potessero tornare utili anche a qualche altro sconosciuto lettore casuale del mio blog, il passo e' stato breve [›››]. Eccola, duqnue:
   —   ∴   —   
Alla fine, qualsiasi cosa tu ti metta a fare (nella tesi di laurea e ancor di piu' dopo come attivita' di ricerca), sara' una cosa iper-specifica e dettagliata, e nel lavoro quotidiano perderai quasi tutte le belle sensazioni che stai provando ora durante il corso di studi (l'eccitazione di imparare una quantita' mostruosa di cose nuove e ad un ritmo frenetico, di appassionarti su questioni fondamentali e di principio... insomma, quelle cose che piacciono tanto a noi!). La situazione − di nuovo, qualsiasi cosa tu ti metta a fare − sara' quella di un'attivita' comunque estremamente stimolante, per tutti gli ostacoli (tecnici, pratici, concettuali, contingenti, generali...) che ti ritroverai a dover fronteggiare. Avrai modo di approfondire (alcuni settori particolari, vicini alle cose di cui ti occuperai, del)le cose che hai studiato nei corsi avanzati degli ultimi anni, che non avevi capito subito o che non avevi compreso appieno in tutte le loro sfaccettature. E imparerai anche molte cose del tutto nuove. Ma in ogni caso i ritmi non saranno piu' quelli di uno studente e spesso i passi avanti nella comprensione profonda delle cose (e questo diventera' sempre piu' vero man mano che avanzerai nel tuo percorso di ricercatore) saranno casuali oppure ottenuti con grande sforzo (rispetto a quelli dello studente, che deve solo capire quel che qualcuno, libro o docente, deve solo avere sufficiente chiarezza per spiegare...). Le questioni davvero generali, poi, spesso torneranno a galla solo in prospettiva, quando proverai a guardare la tua attivita' di ricerca nel quadro complessivo in cui si inserisce e i progressi, in questi termini generali, saranno lenti e infinitesimi e spesso avranno solo carattere di aggiustamento e raffinamento (difficilmente sarai testimone diretto di una rivoluzione come la formulazione di una nuova Teoria Generale della Relativita', mentre da studente queste rivoluzioni in pratica capitavano, copiose, ogni anno...).
Il succo di tutto questo e' che, in fondo, qualsiasi cosa ti ritroverai a fare riuscira' a piacerti, mentre la cosa davvero importante e' riuscire a (poter continuare a) farla. Per questo diventa piu' importante, nello scegliere, guardare alle persone, al gruppo di ricerca in cui si decide di entrare a far parte. Forse e' brutto da dire, soprattutto per un romantico come me, ma se l'ámbito di ricerca che consideri piu' affascinante in assoluto non e' portato avanti dalle persone giuste, buttarcisi ugualmente a capofitto puo' non valerne affatto la pena (come ben sai!).
Il punto dolente e' che il concetto di "persone giuste" e' complicatissimo da descrivere. Uno dei motivi, e' che coinvolge questioni soggettive (affinita' di carattere, disponibilita'/pazienza verso il neo-ex studente...), ma soprattutto perche' anche le questioni oggettive (produttivita' scientifica del gruppo, sia in termini di risultati che − soprattutto in Italia − di capacita' di attrarre fondi con cui e' possibile provare a pianificare una qualche carriera scientifica...) sono difficili da cogliere, soprattutto nel poco tempo che spesso lo studente ha per scegliere con chi fare la tesi di laurea. Per questo e' importante chiedere pareri a chi quelle persone le conosce gia', come (ex-)laureandi o dottorandi che fanno parte del gruppo, o colleghi di ambiti piu' o meno vicini...
Ovviamente, come al solito, non si puo' pensare di riuscire a pianificare tutto nella vita, per cui si dovranno mettere comunque in conto, e in maniera non trascurabile, anzi a volte determinante, colpi di fortuna o sfortuna di cui si potra' solo, a posteriori, compiacersi o tentare di annullare o ridurre gli effetti.
Ma, per riassumere, per quel che e' possibile non guardare solo ai temi di ricerca bensi' anche e soprattutto alle persone!