— ∴ —
Il percorso ingannevole parte con la rimozione della condizione di normalizzazione per una distribuzione di probabilità. Poiche' tale condizione si traduce semplicemente in un riscalamento complessivo di tutte le probabilità con un fattore costante globale, univocamente determinato dalla distribuzione stessa, si puo' sempre pensare di procedere senza questo vincolo e riapplicarlo solo alla fine quando bisogna confrontare le probabilità con le effettive frequenze misurate sperimentalmente. Del resto il concetto di probabilità nasce proprio come frequenze normalizzate, le frequenze essendo semplicemente non-negative.
Se si procede a questa sorta di semplificazione o di generalizzazione del concetto di probabilità, una distribuzione di probabilità si trasforma da combinazione lineare convessa a combinazione lineare non-negativa, sui possibili esiti. Da qui a chiedere di rimuovere anche il vincolo di non-negativita' delle componenti, fino ad ottenere un vero e proprio spazio lineare di probabilità, il passo e' breve (almeno per Aaronson).
Si noti, però, che il carattere di spazio lineare è del tutto innaturale per uno spazio di probabilità: le distribuzioni di probabilità non si sommano fra di loro nè si fanno combinazioni lineari. La mossa verso uno spazio lineare, in questo ragionamento, è una mossa dettata completamente a posteriori dal fatto che uno spazio lineare sarà la base della meccanica quantistica (gli stati fisici, quelli sì, si sommano, ovvero si sovrappongono).
Le ampiezze complesse della meccanica quantistica sono legate al suo carattere probabilistico e "somigliano" alle probabilità stesse, ma il loro carattere lineare è completamente estraneo al tradizionale concetto di probabilità. Il passaggio presuppone, dunque, non solo un'estensione di dominio (da reale-non-negativo a complesso) ma un vero e proprio salto di struttura matematica. E' diffile accettare questo salto semplicemente come una "naturale generalizzazione" piuttosto che come un'analogia forzata.
Ma torniamo a questa presunta generalizzazione. In ogni caso queste componenti della combinazione lineare (non piu' non-negativa ne' convessa) non possono piu' essere interpretate direttamente come probabilità, ovvero messe a diretto confronto con le frequenze misurate sperimentalmente. Allora si decide di ricostruire una distribuzione di probabilità tramite un meccanismo di ri-non-negativizzazione (l'applicazione del modulo-quadro) di quelle componenti e, risalendo a ritroso, di ri-normalizzazione. E arriviamo dunque ad una 2-norma del vettore dello spazio lineare precedentemente costruito.
E' chiaro che tale procedimento, partito in qualche modo come semplificazione per il calcolo matematico (l'applicazione di un vincolo solo in fase finale) e dunque di carattere del tutto arbitrario e convenzionale, finisce per originare una struttura del tutto nuova (lo spazio lineare delle ampiezze) su cui imbastire uno spazio di probabilità esattamente identico a quello che si intendeva semplificare e/o generalizzare (fatto di componenti non-negative e normalizzate, il modulo quadro di quelle ampiezze).
Insomma, il concetto di probabilità non viene in alcun modo generalizzato (si tratta sempre di un'astrazione del limite per delle frequenze misurate sperimentalmente), ma semplicemente innestato su un substrato di spazio lineare che pretende di costituire il fondamento per l'evoluzione temporale e la combinazione di quelle distribuzioni di probabilità. Ovvero, pretende di costituire la fisica che soggiacie alle probabilità misurate sperimentalmente, esattamente come la fisica classica costituiva il substrato fisico per le distribuzioni di probabilità sperimentali, prima dell'analisi dei fenomeni atomici e microscopici. Con l'avvento della meccanica quantistica ci si è resi conto che le distribuzioni di probabilità sperimentalmente misurate (le distribuzioni di frequenze) devono essere descritte con un formalismo basato su uno spazio lineare. Ci si è poi resi conto che questa nuova fisica "lineare" aveva proprietà molto strane rispetto a qualsiasi cosa si fosse abituati (entanglment, disuguaglianze di Bell) e che fosse intrinsecamente probabilistica (differenza fra miscele statistiche e sovrapposizioni coerenti).
Ma tutto ciò ha a che fare con la fisica, non con la probabilità.