FISICA QUANTISTICA
2
Indice I
Le basi della fisica quantistica
11
1 Concetti fondamentali 1.1 Le basi sperimentali della fisica quantistica . . . 1.1.1 L’esperimento della doppia fenditura . . . 1.1.2 Onde e particelle . . . . . . . . . . . . . . 1.1.3 Dall’esperimento ai principi . . . . . . . . 1.2 Stati . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Bra, ket e sovrapposizione . . . . . . . . . 1.2.2 Prodotto scalare . . . . . . . . . . . . . . 1.2.3 Vettori di base e misura . . . . . . . . . . 1.2.4 La relazione di completezza . . . . . . . . 1.3 Operatori . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Operatori e matrici . . . . . . . . . . . . . 1.3.2 Operatore associato ad un’osservabile . . 1.3.3 Operatori di proiezione e misure generali . 1.4 Postulati della meccanica quantistica . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
13 13 13 18 19 19 20 21 22 23 24 24 25 28 29
2 Propriet` a quantistiche 2.1 Unitariet` a . . . . . . . . . . . . . . . . . . . . 2.1.1 Cambiamenti di base . . . . . . . . . . 2.1.2 Operatori unitari . . . . . . . . . . . . 2.1.3 Trasformazioni unitarie di operatori . 2.2 Indeterminazione . . . . . . . . . . . . . . . . 2.2.1 Osservabili compatibili e incompatibili 2.2.2 Commutazione di operatori . . . . . . 2.2.3 Il principio di indeterminazione . . . . 2.3 Informazione quantistica . . . . . . . . . . . . 2.3.1 L’informazione in un qubit . . . . . . 2.3.2 La matrice densit` a . . . . . . . . . . . 2.3.3 La pi` u generale misura . . . . . . . . . 2.3.4 Il teorema di no-cloning . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
31 31 31 32 33 33 34 34 36 38 38 40 43 44
II
. . . . . . . . . . . . .
. . . . . . . . . . . . .
Fondamenti della meccanica quantistica
3 Quantizzazione canonica: la meccanica quantistica 3.1 La rappresentazione delle coordinate . . . . . . . . . 3.1.1 L’operatore posizione . . . . . . . . . . . . . 3.1.2 La distribuzione delta di Dirac . . . . . . . . 3.1.3 Relazione di ortonormalizzazione e risoluzione 3.1.4 Operatori . . . . . . . . . . . . . . . . . . . . 3.2 L’operatore impulso e le traslazioni . . . . . . . . . .
47 . . . . . . . . . . . . . . . . . . . . . . . . dell’identit`a . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
49 49 49 50 52 53 53
4
Indice
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
54 55 56 57 58 59 59 60 62
4 Evoluzione temporale 4.1 Il generatore dell’evoluzione temporale . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Traslazioni temporali e leggi di conservazione quantistiche . . . . . . . . 4.1.2 Il teorema di Noether per trasformazioni dipendenti dal tempo . . . . . 4.1.3 Il postulato dell’evoluzione temporale . . . . . . . . . . . . . . . . . . . 4.2 L’equazione di Schr¨ odinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Forme alternative dell’equazione di Schr¨odinger . . . . . . . . . . . . . . 4.2.2 Soluzione dell’equazione di Schr¨odinger: hamiltoniane commutanti . . . 4.2.3 Soluzione dell’equazione di Schr¨odinger: hamiltoniane non commutanti . 4.2.4 Stati stazionari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Evoluzione temporale alla Schr¨ odinger e alla Heisenberg . . . . . . . . . . . . . 4.3.1 La rappresentazione di Heisenberg . . . . . . . . . . . . . . . . . . . . . 4.3.2 Leggi del moto alla Heisenberg . . . . . . . . . . . . . . . . . . . . . . . 4.3.3 Leggi di conservazione: il teorema di Noether in meccanica quantistica . 4.3.4 Teorema di Ehrenfest e transizione classico-quantistico . . . . . . . . . . 4.3.5 Leggi del moto, parentesi di Poisson e commutatori . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
65 65 65 66 68 68 69 70 70 72 73 73 75 76 76 77
3.3
III
3.2.1 Il teorema di Noether . . . . . . . . . 3.2.2 Le traslazioni in meccanica quantistica 3.2.3 L’operatore impulso . . . . . . . . . . 3.2.4 Operatori e leggi di conservazione . . 3.2.5 Il commutatore canonico . . . . . . . . Base delle coordinate e base degli impulsi . . 3.3.1 La base delle coordinate . . . . . . . . 3.3.2 Autostati dell’operatore impulso . . . 3.3.3 La base degli impulsi . . . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
Meccanica quantistica in una dimensione
79
5 La particella unidimensionale libera 5.1 Autostati dell’hamiltoniana . . . . . . . . . . . . . . 5.1.1 Evoluzione temporale degli stati . . . . . . . 5.1.2 Equazioni del moto per posizione ed impulso 5.1.3 Dipendenza dal tempo dell’indeterminazione 5.2 Pacchetti d’onde . . . . . . . . . . . . . . . . . . . . 5.2.1 Stati di minima indeterminazione . . . . . . . 5.2.2 Indeterminazione del pacchetto d’onde . . . . 5.2.3 Indeterminazione posizione-impulso . . . . . 5.3 Moto di un pacchetto d’onde . . . . . . . . . . . . . 5.3.1 Velocit` a di fase e velocit` a di gruppo . . . . . 5.3.2 Allargamento di un pacchetto d’onde . . . . . 5.3.3 L’ordine di grandezza degli effetti quantistici
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
81 81 82 82 83 84 84 86 87 88 88 89 90
6 Problemi unidimensionali 6.1 La buca di potenziale infinita . . . . . . . . . . . . . 6.1.1 Determinazione dello spettro . . . . . . . . . 6.1.2 Propriet` a delle autofunzioni . . . . . . . . . . 6.1.3 Degenerazione dello spettro e stati legati . . . 6.2 Il gradino di potenziale . . . . . . . . . . . . . . . . . 6.2.1 Funzione a gradino e condizioni di continuit`a 6.2.2 Autofunzioni di energia: stati di scattering . 6.2.3 Corrente di probabilit` a. . . . . . . . . . . . . 6.2.4 Soluzione regressiva . . . . . . . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
93 . 93 . 93 . 96 . 97 . 98 . 98 . 99 . 100 . 102
Indice
5
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
103 103 103 105 106 107
7 L’oscillatore armonico 7.1 L’oscillatore armonico classico . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Lo spettro di energia dell’oscillatore armonico quantistico . . . . . . . . . 7.2.1 Caratteristiche qualitative dello spettro . . . . . . . . . . . . . . . 7.2.2 Operatori di creazione e distruzione . . . . . . . . . . . . . . . . . 7.2.3 Normalizzazione ed elementi di matrice . . . . . . . . . . . . . . . 7.3 Autofunzioni nella base delle coordinate . . . . . . . . . . . . . . . . . . . 7.3.1 Funzione d’onda per lo stato fondamentale . . . . . . . . . . . . . 7.3.2 Stati eccitati e polinomi di Hermite . . . . . . . . . . . . . . . . . 7.4 Evoluzione temporale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.1 Operatore di evoluzione temporale ed evoluzione degli stato . . . . 7.4.2 Evoluzione degli operatori posizione ed impulso e formule di BCH 7.4.3 Evoluzione temporale degli operatori di creazione e distruzione . . 7.5 Stati coerenti e “gatti di Schr¨ odinger” . . . . . . . . . . . . . . . . . . . . 7.5.1 Gli stati coerenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5.2 Gatti di Schr¨ odinger . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
113 113 114 114 115 117 118 119 119 120 120 120 122 123 123 126
6.3
6.4
IV
6.2.5 Autofunzioni di energia: stati di tunneling . . La barriera di potenziale . . . . . . . . . . . . . . . . 6.3.1 Autofunzioni di energia ed effetto tunnel . . . 6.3.2 Soluzione generale di tunneling . . . . . . . . 6.3.3 Coefficienti di trasmissione e riflessione . . . . Problemi di stato legato: una discussione qualitativa
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
Meccanica quantistica in pi` u dimensioni
129
8 Sistemi quantistici in pi` u di una dimensione 8.1 Spazi prodotto diretto . . . . . . . . . . . . . . . . . . 8.1.1 Sistemi di dimensione finita . . . . . . . . . . . 8.1.2 Pi` u dimensioni e pi` u particelle . . . . . . . . . 8.1.3 Sistemi d-dimensionali in coordinate cartesiane 8.2 Separabilit` a . . . . . . . . . . . . . . . . . . . . . . . . 8.2.1 Potenziali separabili in coordinate cartesiane . 8.2.2 Hamiltoniane separabili . . . . . . . . . . . . . 8.2.3 Esempi tridimensionali . . . . . . . . . . . . . . 8.3 Problemi a due corpi e problemi centrali . . . . . . . . 8.3.1 Il problema dei due corpi . . . . . . . . . . . . 8.3.2 Cambiamenti lineari di coordinate . . . . . . . 8.3.3 Problemi centrali . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
131 131 132 132 133 134 134 135 136 138 138 140 142
9 Il momento angolare 9.1 Momento angolare e rotazioni . . . . . . . . . . . . . 9.1.1 Il caso classico: teorema di Noether . . . . . 9.1.2 Il caso quantistico: generatore delle rotazioni 9.2 Propriet` a del momento angolare . . . . . . . . . . . 9.2.1 Ordinamento . . . . . . . . . . . . . . . . . . 9.2.2 Espressione esplicita in coordinate sferiche . . 9.2.3 Relazioni di commutazione . . . . . . . . . . 9.3 Lo spettro del momento angolare . . . . . . . . . . . 9.3.1 Costruzione dello spettro . . . . . . . . . . . 9.3.2 Autofunzioni nella base delle coordinate . . . 9.4 Lo spin . . . . . . . . . . . . . . . . . . . . . . . . . 9.4.1 Spin uno . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
147 147 147 148 149 149 149 149 150 151 153 155 156
. . . . . . . . . . . .
6
Indice
9.5
9.4.2 Spin 12 . . . . . . . . . . . . . . . . . . . . . . . Composizione di momenti angolari . . . . . . . . . . . 9.5.1 Sistemi con momento angolare orbitale e spin . 9.5.2 Coefficienti di Clebsch-Gordan e cambi di base 9.5.3 Composizione di due spin 12 . . . . . . . . . . .
. . . . .
. . . . .
10 Problemi tridimensionali 10.1 L’equazione di Schr¨ odinger radiale . . . . . . . . . . . . . 10.1.1 Funzione d’onda radiale . . . . . . . . . . . . . . . 10.1.2 Condizioni al contorno ed andamenti asintotici . . 10.1.3 La particella libera . . . . . . . . . . . . . . . . . . 10.2 L’oscillatore armonico isotropo . . . . . . . . . . . . . . . 10.2.1 Stati con ` = 0 . . . . . . . . . . . . . . . . . . . . 10.2.2 Costruzione degli stati con ` generico . . . . . . . . 10.2.3 Spettro e degenerazione . . . . . . . . . . . . . . . 10.2.4 Il teorema di degenerazione . . . . . . . . . . . . . 10.2.5 Simmetria dell’oscillatore tridimensionale isotropo 10.3 Il potenziale coulombiano . . . . . . . . . . . . . . . . . . 10.3.1 Analisi dimensionale . . . . . . . . . . . . . . . . . 10.3.2 Il modello di Bohr . . . . . . . . . . . . . . . . . . 10.3.3 Il problema di Keplero e le sue simmetrie . . . . . 10.3.4 Leggi di conservazione nel caso quantistico . . . . 10.3.5 Costruzione dello spettro . . . . . . . . . . . . . . 10.3.6 Degenerazione e base fisica . . . . . . . . . . . . . 10.3.7 Autofunzioni nella base delle coordinate . . . . . .
V
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . .
. . . . .
159 161 161 161 163
. . . . . . . . . . . . . . . . . .
167 167 168 169 170 171 171 172 175 176 176 178 178 179 181 182 184 186 187
Metodi di approssimazione
191
11 Il limite classico della meccanica quantistica 11.1 L’azione in meccanica classica . . . . . . . . . . . . . . . . . . . . . 11.1.1 Azione e traiettoria classica . . . . . . . . . . . . . . . . . . 11.1.2 La teoria di Hamilton-Jacobi . . . . . . . . . . . . . . . . . 11.2 L’azione in meccanica quantistica . . . . . . . . . . . . . . . . . . . 11.2.1 Il propagatore . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2.2 Propagatore ed azione . . . . . . . . . . . . . . . . . . . . . 11.2.3 L’integrale di cammino . . . . . . . . . . . . . . . . . . . . . 11.2.4 L’equazione di Schr¨ odinger dal path integral . . . . . . . . . 11.3 L’approssimazione WKB . . . . . . . . . . . . . . . . . . . . . . . . 11.3.1 Limite semiclassico dell’equazione di Schr¨odinger . . . . . . 11.3.2 Correzioni al primo ordine ed approssimazione semiclassica 11.3.3 Validit` a dell’approssimazione semiclassica . . . . . . . . . . 11.3.4 Trattazione semiclassica della buca di potenziale . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
193 193 193 195 197 197 198 200 202 204 204 205 207 207
12 La teoria delle perturbazioni 12.1 Perturbazioni indipendenti dal tempo . . . . . . . . 12.1.1 Spettro non degenere . . . . . . . . . . . . . . 12.1.2 Caso degenere . . . . . . . . . . . . . . . . . 12.2 Perturbazioni dipendenti dal tempo . . . . . . . . . . 12.2.1 La rappresentazione di interazione . . . . . . 12.2.2 Sviluppo perturbativo dipendente dal tempo 12.2.3 La regola aurea di Fermi . . . . . . . . . . . . 12.2.4 Concetti base della teoria dell’urto . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
211 211 212 214 215 215 216 217 219
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
Indice
VI
7
Sistemi di molti corpi
223
13 Particelle identiche 13.1 Indistinguibilit` a quantistica . . . . . . . . . . . . . . . . . 13.1.1 L’operatore di scambio . . . . . . . . . . . . . . . . 13.1.2 Sistemi di n particelle e degenerazione di scambio . 13.2 Statistiche quantistiche . . . . . . . . . . . . . . . . . . . . 13.2.1 Stati simmetrici ed antisimmetrici . . . . . . . . . 13.3 Spin e statistica . . . . . . . . . . . . . . . . . . . . . . . . 13.3.1 Bosoni e Fermioni . . . . . . . . . . . . . . . . . . 13.3.2 Il principio di esclusione . . . . . . . . . . . . . . . 13.3.3 Il teorema spin-statistica . . . . . . . . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
225 225 226 227 228 228 229 229 229 230
14 Entanglement 14.1 Matrice densit` a . . . . . . . . . . . . . . . . . 14.1.1 Meccanica statistica . . . . . . . . . . 14.1.2 Matrice densit` a e misure parziali . . . 14.1.3 Entanglement e media sui sottosistemi 14.2 Meccanica quantistica e realismo locale . . . . 14.2.1 Il paradosso Einstein-Podolsky-Rosen 14.2.2 Variabili nascoste . . . . . . . . . . . . 14.2.3 La disuguaglianza di Bell . . . . . . . 14.3 Il problema della misura . . . . . . . . . . . . 14.3.1 Decoerenza . . . . . . . . . . . . . . . 14.3.2 Misura ed informazione . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
235 235 236 236 238 239 239 240 242 245 246 247
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
8
Indice
Parte I
Le basi della fisica quantistica
Capitolo 1
Concetti fondamentali La formulazione della fisica quantistica `e storicamente il risultato di un cammino lungo e tortuoso. L’insieme di principi fondamentali risultante tuttavia `e semplice e compatto, anche se molto sorprendente. Come sottolineato da Feynman1 questi principi emergono chiaramente in un esperimento rimasto a lungo ideale: l’esperimento della doppia fenditura. Solo una modifica delle leggi fondamentali della fisica permette di spiegare i risultati di questo esperimento. L’esperimento della doppia fenditura oggi non `e pi` u ideale. Seguendo Feynman, lo prenderemo come punto di partenza della nostra discussione: dopo una descrizione dell’esperimento stesso, costruiremo il formalismo che ci permette di descriverne i risultati.
1.1
Le basi sperimentali della fisica quantistica
Dopo essere rimasto a lungo un esperimento ideale, l’esperimento della doppia fenditura fu realizzato nella seconda met` a del Novecento usando fasci di particelle subatomiche. Ci`o pu`o lasciare il dubbio che il controintuitivo comportamento osservato sia legato alle propriet`a delle particelle e non alle leggi fondamentali della fisica e, come vedremo, fa s`ı che l’esperimento si presti a diverse obiezioni. All’inizio del XXI secolo, l’esperimento `e stato realizzato da A. Zeilinger e collaboratori2 usando molecole giganti, ossia oggetti semi-macroscopici.
1.1.1
L’esperimento della doppia fenditura
L’esperimento che descriviamo `e un esperimento di diffusione. Una sorgente emette delle particelle in direzione di una parete impermeabile con due fenditure. Ad una certa distanza da questa parete `e posto uno schermo. Le particelle che non vengono fermate dalla parete passano attraverso le fenditure e colpiscono lo schermo. Possiamo quindi misurare il numero di particelle che arrivano in diversi punti dello schermo con una, o l’altra, o entrambe le fenditure aperte. Diffusione classica Chiediamoci che cosa ci aspettiamo di vedere sullo schermo se le particelle sono oggetti classici — ad esempio, palline da ping-pong, o granelli di sabbia, sparati uno per uno contro lo schermo. Supponiamo che la velocit` a e la direzione iniziale dei granelli non sia nota esattamente, ma ne sia nota solo una distribuzione di probabilit` a: ciascun granello di sabbia ha una certa probabilit`a di essere sparato in una data direzione con una velocit` a fissata. A questa distribuzione di probabilit`a corrisponde una distribuzione di risultati sullo schermo (vedere la Figura 1.1). Facciamo l’ipotesi che i granelli di sabbia siano sparati uno per volta, e che interagiscano solo con lo schermo, per esempio realizzando l’esperimento nel vuoto, in modo che non possano esserci interazioni con l’aria, o con l’ambiente. In tal caso, la distribuzione di 1 R. P.Feynman, The Character of Physical Law, cit.; R. P.Feynman, R. B. Leighton, M. Sands, The Feynman Lectures on Physics (Reading, Massachusetts, 1965) 2 O. Nairz, M. Arndt, and A. Zeilinger, Am. J. Phys. 71 (2003) 319.
12
Concetti fondamentali
risultati sullo schermo riflette la distribuzione iniziale di velocit`a, l’urto dei granelli con lo schermo, e nient’altro. Ck B1
A
B2
C
B
Figura 1.1: Distribuzione delle probabilit`a nel caso di granelli di sabbia Possiamo misurare questa distribuzione di risultati contando quante particelle arrivano in ogni punto dello schermo. Basta ripetere l’esperimento un numero molto grande di volte — accertandoci che ogni ripetizione sia assolutamente identica. Facendo il grafico dei risultati determiniamo la probabilit`a che ` chiaro che la distribuzione ottenuta con entrambe le la particella colpisca lo schermo in ogni punto. E fenditure aperte `e la media delle distribuzioni corrispondenti al caso in cui `e aperta ciascuna delle due fenditura, pesata con la probabilit` a che la particella passi proprio da quella fenditura. Se chiamiamo P (A → Ck ) la probabilit` a che una granello di sabbia arrivi in Ck sullo schermo partendo dalla sorgente A, P (A → Bi ) la probabilit`a che arrivi alla fenditura Bi partendo dalla sorgente, e P (Bi → Ck ) la probabilit` a che arrivi in Ck partendo dalla fenditura Bi , abbiamo P (A → Ck ) = P (A → B1 )P (B1 → Ck ) + P (A → B2 )P (B2 → Ck ).
(1.1)
Per dimostrarlo, osserviamo che il numero totale di granelli di sabbia rivelati in un punto qualunque dello schermo `e la somma di quelli che vi sono arrivati passando per la prima fenditura, pi` u quelli che invece sono passati per la seconda: N (A → Ck ) =
2 X
N (Bi → Ck ),
(1.2)
i=1
avendo chiamato N (A → Ck ) il numero totali di granelli arrivati in Ck , e N (Bi → Ck ) il numero di quelli che vi sono arrivati passando per Bi . Ma la probabilit`a P (A → Ck ) non `e altro che il numero di particelle rivelate in Ci , diviso per il numero totale di particelle N (A → Ck ) = Ntot P (A → Ck ).
(1.3)
A sua volta, la probabilit` a che una particella arrivi in Ci passando da Bj si ottiene dividendo il numero di particelle giunte in Ci attraverso Bj per il numero totale di particelle passate per Bj : N (Bi → Ck ) = N (A → Bi )P (Bi → Ck ).
(1.4)
La regola di composizione delle probabilit` a Eq. (1.1) si ottiene immediatamente sostituendo le espressioni dei numeri di particelle Eq. (1.3-1.4) in termini di probabilit`a nella Eq. (1.2). L’esperimento di Zeilinger Zeilinger ha realizzato questo esperimento usando molecole di fullerene (C60 ). Si tratta di molecole giganti, fatte di 60 atomi di carbonio disposti lungo i vertici di un icosaedro troncato come mostrato in Fig. 1.2. Il diametro di ogni molecola `e dell’ordine di 10 ˚ A, cio´e 1 nm = 10−9 m. Le molecole vengono emesse con una velocit` a media di 200 m/s da una sorgente, passano attraverso un primo schermo in cui sono praticate pi` u
31
maxima of a monochromatic wave are caused by co of the wavelets that emerge from two neighboring sl path length difference between the two paths is eq wavelength. Higher order interference will be spoiled tudinal coherence in a thermal source. Velocity select increases the longitudinal coherence length by more therefore permits the observation of higher order inte
in the United States by the architect Buckminster Fuller. This new modification of pure carbon was discovered in 1985 by Kroto et al.32 and shown to be particularly stable and abundant when exactly 60 carbon atoms are arranged in one molecule to form the smallest natural soccer ball we know, the buckyball, as shown in Fig. 2. 1.1 Le basi sperimentali fisica quantistica 13 Fullerenesdella are appealing candidates because a successful quantum experiment with them would be regarded as an imwhere h is Planck’s constant. Accordingly, portant step toward the realm of our macroscopic world: #24 with a mass ofLam!1.2"10 kg and a v Manyinfine of theuno known physical of buckyballs arevengono rivelate. fenditure e colpiscono schermo finale,properties in corrispondenza del quale distanza m/s, we find a wavelength of "!2.8 pm.33 more closely related to a chunk of hot solid material than to tra la sorgente e il primo schermo `e simile a quella tra i due schermi e pari a circa un metro. Lo schermo the cold atoms that 200 havenm soe far usedlarghe in matter `e di nitruro di silicio (SiN), `e spesso ha been fenditure di 55wave nm e distanziate tra loro 100 nm. interference. The existence of collective many-particle Parte della difficolt` a dell’esperimento consiste nella realizzazione dellostates schermo, che deve avere fenditure like plasmons and excitons, the rich variety of vibrational sufficientemente ampie da permettere il passaggio delle molecole, ma allo stessoB.tempo sufficientemente The diffractive element and rotational modes as well as the concept of an internal strette perch´e ogni fenditura possa essere vista come una sorgente di molecole puntiforme: l’ampiezza molecular temperature are only some of the clear indicators Because the dee Broglie della fenditura deve essere quindi dello stesso ordine di fullerenes. grandezza del delle molecole tale da wavelength is ab of the multiparticle composition of the Anddiametro we magnitude smaller than any realistic free-s consentirne il passaggio. might wonder whether this internal complexity could spoil cal structure, we expect the characteristic s the quantum wave behavior of the center of mass motion. ence phenomena to be small. A sophistic To answer this question, we have set up a new experiment therefore necessary to actually show them. as shown in Fig. 3. It resembles very much the standard element we used a free-standing silicon nitr Young’s double-slit experiment. Like its historical counternominal grating constant of d!100 nm, part, our setup also consists of four main parts: the source, !55$5 nm and thickness of only 200 nm the collimation, the diffraction grating, and the detector. trajectory. These gratings are at the cuttin technology and only a few specialists world A. The source make them.34 Fig. 2. The fullerene molecule C60 , consisting of 60 carbon atoms arranged We can now calculate the deflection ang a truncated icosahedral shape, the smallest natural soccer To bringinthe buckyballs into theisgas phase,known fullerene pow-ball. fraction order in thedi approxim Fig. 4. Textbook approach tosmall double-slit diffraction. First-o Figura 1.2: I sessanta atomi di carbonio che oven formano la molecola of delabout fullerene formano i vertici un angle der is sublimated in a ceramic at a temperature of a monochromatic caused by construc ofmaxima the wavelength and wave the are grating constan 900 ilK.solido The vapor pressure then sufficient to eject molicosaedro troncato, archimedeo cheisha fatto da modello a numerosi palloni da calcio (figura of the wavelets that emerge from two neighboring slits. Th in the 2United States by the architect Buckminster Fuller.31 path length difference between ecules, in a(2003) statistical sequence, one by one through a small riprodotta da Nairz et al. ). #12 the two paths is equal to This new modification of pure carbon was discovered in 2.8"10 m will be spoiled by t " Higher wavelength. order interference slit in the oven. molecules a mosttoprobable velocity 1985 The by Kroto et al.32 have and shown be particularly stable !28 ! in a thermal % !coherence & rad. tudinal source. Velocity selection in #7 dthe longitudinal about m/s and a nearly thermal velocity spread of rivelata La posizione vdelle quando incidono schermo finale viene utilizzando un fascio 10 m increases coherence length by more than a and200 abundant when exactlysullo 60 carbon atoms are arranged in mp ofmolecole thereforeparticelle permits the observation oneallo molecule to is form the natural soccer we laser, diretto parallelamente schermo ma alla ball direzione delle — cio´e,of higher order interferen Here !v theperpendicolarmente fullsmallest width of the distribution ! v / v mp!60%. know, the buckyball, as shown in Fig. 2. In elementary textbooks at half facendo riferimento allaheight. Figura 1.1, diretto perpendicolarmente al piano della figura, in corrispondenzaEq. #2$ is usually Fullerenes are appealing candidates because a successful 4 and noting that the first constructive in To calculate expecteddidiffraction angles, we need dello schermo. Il fascio haquantum unathe larghezza 2 µm. chefirst una molecola colpisce lo schermo in experiment with themOgni wouldvolta be regarded as an im- when the between two neighbor to know de Broglie wavelength which is uniquely detercorrispondenza del fasciothe laser viene ionizzata da quest’ultimo; la molecola ionizzata eisdifference deflessa da un Accordingly, where h` Planck’s constant. for a portant step toward the realm of our macroscopic world: #24 to one de Broglie wavelength. Because our the momentum of permette the molecule with a mass of m!1.2"10 kg and a veloci campo elettrico emined generabycos` ı un segnale che il conteggio delle molecole. Il fascio viene spostato Many of the known physical properties of buckyballs are 33 at 1.2 m downstream from the grating, t m/s, we find a wavelength of "!2.8 pm. more closely related to a chunk hot solid a material than to lungo lo schermo in passi hdi 8 µm: la distribuzione di of probabilit` si ottiene dal conteggio delle molecole tween the interference peaks at the detecto the cold atoms that have so far been used in matter wave rivelate dal laser in un certo ,intervallo di tempo in ognuno dei punti campionati. L’apparato sperimentale #1$ "! interference. The existence of collective many-particle states only L" % !1.2 m"28 &rad!34 &m. `e mostrato in Figura 1.3.m vlike plasmons and excitons, the rich variety of vibrational and rotational modes as well as the concept of an internal molecular temperature are only some of the clear indicators of the multiparticle composition of the fullerenes. And we might wonder whether this internal complexity could spoil the quantum wave behavior of the center of mass motion. To answer this question, we have set up a new experiment as shown in Fig. 3. It resembles very much the standard Young’s double-slit experiment. Like its historical counterpart, our setup also consists of four main parts: the source, the collimation, the diffraction grating, and the detector.
B. The diffractive element
Because the deFig. Broglie wavelength is about 3. Setup of the diffraction magnitude smaller than anyarerealistic free-stand molecules sublimated in the cal structure, we spectral expect the characteristic size o coherence can be improv ence phenomenavelocity to be small. ATwo sophisticated selector. collimating therefore necessary actuallyand show them. As t tial to coherence limit the angu element we used to a free-standing silicon nitridedifg smaller than the expected 100 nmnm, period nominal grating grating constantwith of ad!100 slit ao to diffract the incident !55$5 nm andused thickness of only 200 nmmole alo far-field trajectory. Theselecular gratings are atdistribution the cuttingisedo ning alaser-ionization technology and only few specialistsdetector. worldwid A. The source make them.34 We can now calculate the deflection angle 321 Am.ToJ. bring Phys.,the Vol.buckyballs 71, No. 4, into Aprilthe 2003 Nairz, Arndt, andto gas phase, fullerene powfraction order in the small angle approximatio der is sublimated in a ceramic oven at a temperature of about Figura 1.3: Apparato sperimentale usato da Zeilinger e collaboratori nell’esperimento di diffrazione congrating constant, of the wavelength and the 900 K. The vapor pressure is then sufficient to eject mol2 molecole di fullerene (figuraecules, riprodotta da Nairz et al. (2003) ). in a statistical sequence, one by one through a small " 2.8"10#12 m slit in the oven. The molecules have a most probable velocity !28 & rad. %! ! ` d in ogni E importante notare che di aprobabilit` a sivelocity riferisce ad eventi singoli: caso, about 200 m/s and nearly thermal spread of v mplaof distribuzione 10#7 m Hereschermo ! v is the finale. full widthIl offatto the distribution ! v /rivelata v mp!60%. si osserva una sola molecola, sullo che siano osservati eventi singoli `e In elementary textbooks Eq. #2$ is usually deriv at half height. una caratteristica unica dell’esperimento di Zeilinger. Esperimenti di questo genere erano infatti stati 4 and noting that the first constructive interfe To calculate the expected diffraction angles, we first need realizzati in precedenza con fasci di particelle: in tal caso, pu`o sorgere il dubbiowhen che the il comportamento difference between two neighboring p to know the de Broglie wavelength which is uniquely deterosservato sia una propriet` amined collettiva delle particelle del fascio, che interagiscono fra loro. to one de Broglie wavelength. Because our dete by the momentum of the molecule at volta: 1.2 m downstream from the grating, the s Nell’esperimento di Zeilinger, si osserva il comportamento di una particella per ogni conteggio h tween thecon interference peaks at the detector am corrisponde ad una singola molecola, emessa dalla sorgente, passata attraverso lo schermo le fenditure, , #1$ "! &rad!34 &m. v e rivelata in corrispondenza dello m schermo finale. Infatti, il flusso di molecole `e dionly 3 ×L" 10%9 !1.2 cm−2m"28 s−1 , che
Fig. 3. Setup of the diffraction exper molecules are sublimated in the oven spectral coherence can be improved us velocity selector. Two collimating slits tial coherence and limit the angular sp to smaller than the expected diffracti grating with a 100 nm period and 50 used to diffract the incident molecular
involved, it this attractive real slit width molecules th selected mole selected beam be understoo interaction be complete des correct shape sion function tion of both The full li modified Kir we also have in the zeroth !holes" of the grating perio chopper right behind the source !see Fig. 3". The selection is
second or higher order peaks in the interferogram of Fig. 6. To see more fringes we have to increase the coherence length and therefore decrease the velocity spread. For this purpose we have employed a mechanical velocity selector, as shown after the oven in Fig. 3. It consists of four slotted disks that rotate around a common axis. The first disk chops the fullerene beam and only those molecules are transmitted that traverse the distance from Concetti one disk tofondamentali the next in the 14 same time that the disks rotate from one open slot to the next. Although two disks would suffice for this purpose, the additional disks decrease the velocity spread even further and eliminate By singola varyingmolecola, the rotation corrisponde ad una distanza media tra le molecolehelp di 200 µm, 105velocity volte ilsidebands. raggio della e frequency selector,(forze the desired class che of the oltre 1000 volte maggiore della massima portata delle forzeoftrathemolecole di vanvelocity der Waals) `e transmitted moleculestra candiverse be adjusted. To measure the time ` quindi esclusa qualunque al massimo di circa 100 nm. E interferenza molecole: l’esperimento of flight distribution we chopped the fullerene beam with the `e a tutti gli effetti eseguito osservando una molecola alla volta.
of course accompanied by a significant loss in count rate, but III. CONCL we can still retain about 7% of the unselected molecules. In Fig. 5 both the thermal and the selected velocity distriA. Single pa butions are shown. In contrast to the width of the thermal It is impor spectrum, amounting to # v / v !60%, we are able to reduce this number to only 17% with the selector. The increaseupinfrom sing two longitudinal coherence by a factor of more than 3 allowsbetween for apparatus. Si the observation of diffraction peaks up to at least the second and possibly the third order, as can be seen in Fig. 7. case by two The first a It should also be pointed out that by using the velocity tween the mo selector, we can now choose a slow mean velocity centered of 200 m/s is about 120 m/s, which corresponds to a de Broglie wavetor. This flux length of 4.6 pm. It is obvious that this increase in wavelength results in a wider separation of the diffraction peaks, 1.7"1011 m# Fig. 6. Far-field diffraction of C60 using a thermal beam of ¯v !200 m/sFig. with7. Far-field diffraction of C using the slotted disk velocity selector. which can be seen60by comparing Figs. 6 and 7. This is three The absence of higher order interference a Figura velocity spread # v / v $60%. 1.4: of Risultati sperimentali dell’esperimento di Zeilinger ottenuti con molecole velocit` a media The mean velocity was ¯v !117 m/s, and the aventi widthpatterns was # v / vcan $17%. Full In principle, the diffraction be understood range of mol fringes is due to the poor spectral coherence. represent the experimental data. full line is a∆v/v numerical model di 200 m/s e dispersione ∆v/v ∼ 0.6 (sinistra) e circles velocit` aquantitatively media di 117 m/s e The dispersione ∼ 0.17 within the Fraunhofer approximation of Kirchcally confine based on Kirchhoff–Fresnel diffraction theory. The van der Waals interac(destra) confrontati con un modello numerico per tion la figura di diffrazione. L’introduzione di un selettore hoff’s diffraction theory as it can be found in any optics The second between the molecule 38 and the grating wall is taken into account in form However, Fraunhofer’s diffraction theory the only textbook. di velocit` a riduce la dispersione di un fattore filter tre e of permette diwidth. osservare un numero di massimi a reduced slit Grating defects !holes" maggiore additionally contribute to the inoccurs improvement of the spectral purity using a velocity !see 2 becomes context of optics missesda anNairz important that molecules ma zeroth order. nella3 figura interferenza, nonostante la statistica sia inferiore (figura riprodotta et al. point (2003) ). Figs. and 5",dithereby also improving the wavelength distrievident in our experiments with matter waves and material bution. gratings: the Vol. attractive interaction and 323 Am. Phys., 71, No. April 2003di between Figure 6 showsdell’esperimento a typical fullerene`e diffraction pattern with Il risultato rappresentato in Figura 1.4: la J.distribuzione dei4,conteggi molecolemolecule sulwall results in an additional phase of the molecular wave a lo thermal beam. We can clearly discern the first interference schermo finale sembra fornire una figura d’interferenza. function Questo `eafter il comportamento si osserverebbe the passage of theche molecule through the slits.39 orders on both le sides of the passassero central peak. But the limited se attraverso fenditure le onde di un fluido. Although the details of the calculations are somewhat coherence is reflected by the fact that we cannot see any involved,40 it suffices here to say that the qualitative effect of second or higher order peaks in the interferogram of Fig. 6. this attractive force can be understood as a narrowing of the Interferenza e onde To see more fringes we have to increase the coherence real slit width toward an effective slit width. For our fullerene length and therefore decrease the velocity spread. For this molecules the reduction can be as big as 20 nm for the unpurpose we have employed a mechanical velocity selector, as selected molecular beam and almost 30 nm for the velocity shown after the oven in Fig. 3. It consists of four slotted selected beam. The stronger effect on slower molecules can disks that rotate around a common axis. The first disk chops be understood by the longer and therefore more influential the fullerene beam and only those molecules are transmitted interaction between the molecules and the wall. However, a that traverse the distance from one disk to the next in the complete description would need to take into account the same time that the disks rotate from one open slot to the correct shape of the complex !imaginary and real" transmisnext. Although two disks would suffice for this purpose, the sion function, which implies the position-dependent modulaadditional disks decrease the A velocity spread even further and tion of both the molecular amplitude and phase. help eliminate velocity sidebands. By varying the rotation The full lines in Figs. 6 and 7 are fits of our data to this frequency of the selector, the desired velocity class of the modified Kirchhoff–Fresnel theory. To obtain such a good fit transmitted molecules can be adjusted. To measure the time we also have to take into account an enhanced contribution of flight distribution we chopped the fullerene beam with the in the zeroth order which we attribute to mechanical defects !holes" ofCthe grating which are significantly larger than the B grating period.
Figura 1.5: Figura di interferenza generata da onde che propagano attraverso due fenditure. III. si CONCLUDING REMARKS A. Single particle interferometry Il comportamento ondulatorio di un fluido differisce da quello di un insieme di granelli di sabbia nel is important thatdei thegranelli interference pattern is built modo in cui si sovrappongono le sorgenti e si compongono leItprobabilit` a. to Nelnote caso di sabbia, up from single, separate particles. There is no interference vale la Eq. (1.1): la probabilit` a di un evento si ottiene componendo la probabilit`a dei sotto-eventi. Se between two or more particles during their evolution in the il granello di sabbia `e arrivato in Ci deve essere passatoapparatus. o da B1 Single o da B la probabilit` a di in our 2 e quindi particle interference is evidenced vederlo in Ci si ottiene sommando la probabilit`a delle alternative che portano a questo risultato, ovvero case by two independent arguments. la probabilit` a che arrivi in Ci passando da B1 e quella che viThe arrivi B2 . on the spatial separation befirst passando argument da is based tween the molecules. The molecular flux at an average speed of 200 m/s is $3"109 cm#2 s#1 at the plane of the detector. This flux corresponds to an average molecular density of 1.7"1011 m#3 or an average molecular distance of 200 %m. Fig. 7. Far-field diffraction of C60 using the slotted disk velocity selector. This is three orders of magnitude wider than any realistic The mean velocity was ¯v !117 m/s, and the width was # v / v $17%. Full range of molecular !van der Waals" forces, which are typicircles represent the experimental data. The full line is a numerical model cally confined to several 100 nm. based on Kirchhoff–Fresnel diffraction theory. The van der Waals interac-
1.1 Le basi sperimentali della fisica quantistica
15
Ma il caso delle onde `e diverso. Se A `e la sorgente di un’onda, l’onda passa simultaneamente da B1 e da B2 (si veda la Figura 1.5). Se le due fenditure sono sufficientemente strette, ciascuna di esse pu` o essere a sua volta interpretata come una sorgente puntiforme, e le due onde che escono dalle due fenditure si sovrappongono secondo il principio di Fresnel. Per capirlo, ricordiamo che un’onda `e caratterizzata da un’ampiezza A, da una frequenza ω , e da una fase ϕ: R = A cos(ωt + ϕ),
(1.5)
che possiamo anche scrivere in termini di un numero complesso W = Aei(ωt+ϕ) .
R = Re W,
(1.6)
Notiamo che l’ampiezza `e pari al modulo: A = |W |.
(1.7)
La sovrapposizione di due onde dipende da tutt’e tre queste caratteristiche. Consideriamo per semplicit` a il caso di due onde aventi fasi diverse, ma la stessa ampiezza e la stessa fase: W1 = Aei(ωt+ϕ1 ) ,
W2 = Aei(ωt+ϕ2 ) .
(1.8)
La sovrapposizione di queste due onde `e data da R = R1 + R2 = Re (W1 + W2 ) = Re Aeiωt eiϕ1 + eiϕ2 ϕ1 −ϕ2 ϕ1 −ϕ2 ϕ1 +ϕ2 = Re Aeiωt+i( 2 ) ei( 2 ) + e−i( 2 ) ϕ1 + ϕ2 ϕ1 − ϕ2 cos + ωt = 2A cos 2 2 ϕ1 +ϕ2 ϕ1 − ϕ2 = Re 2A cos ei( 2 +ωt) . 2 La sovrapposizione `e quindi un’onda di ampiezza ϕ1 − ϕ2 AR = 2A cos = |W1 + W2 |. 2
(1.9)
(1.10)
(1.11)
Questo significa che se le due onde hanno la stessa fase, si sommano, ma se hanno fasi diverse possono interferire sia costruttivamente che distruttivamente, e se sono sfasate in modo che una abbia un massimo mentre l’altra ha un minimo si cancellano. Se dalla sorgente dell’esperimento partono onde, l’onda risultante in ogni punto dello schermo finale si ottiene sovrapponendo le onde che provengono dalle due fenditure. Se le due fenditure sono equidistanti dalla sorgente le onde arrivano su ciascuna fenditura dalla sorgente con la stessa fase. Quando le onde arrivano sullo schermo hanno quindi una differenza di fase che dipende dalla diversa distanza del punto dello schermo da ciascuna delle fenditure: ϕ1 − ϕ2 =
2π ∆L, λ
(1.12)
dove λ `e la lunghezza d’onda, e ∆L `e la differenza della lunghezza dei cammini tra le due fenditure ed il punto dato dello schermo. Questa `e a sua volta ∆L = d sin θ
(1.13)
dove d `e la distanza tra le fenditure, θ l’angolo formato dai due cammini con la retta parallela ai due schermi e abbiamo supposto che tale angolo sia lo stesso per entrambi i cammini nel limite in cui la distanza fra i due schermi `e molto pi` u grande di d (vedi Figura 1.6).
16
Concetti fondamentali
Figura 1.6: Differenza di fase tra i cammini
1.1.2
Onde e particelle
Un attimo di riflessione mostra che i risultati dell’esperimento di Zeilinger dal punto di vista della meccanica classica sono contraddittori. Infatti, nell’esperimento si misura la distribuzione di singole molecole. Le distribuzioni di oggetti singoli si sommano secondo la Eq. (1.1), come rappresentato nella Figura 1.1. Questo, come abbiamo visto `e conseguenza della Eq. (1.2), ossia del fatto che il singolo oggetto passa o da una fenditura o dall’altra. Ma il risultato dell’esperimento di Zeilinger invece mostra il comportamento che corrisponde a distribuzioni che si sommano come le onde, cio`e secondo la Eq. (1.10). D’altra parte q (1.14) |R1 + R2 | = |R1 |2 + |R2 |2 + 2Re(R1 R2∗ ) 6= |R1 | + |R2 |, come `e del resto ovvio dalle figure: la sovrapposizione di onde pu`o essere distruttiva, ma quella di conteggi di particella singola no. Siamo quindi obbligati a concludere che non `e vero che la particella `e passata da una fenditura o dall’altra: una conclusione che contraddice un principio di base della meccanica classica, e cio`e che la traiettoria di un oggetto `e definita in modo unico, da una posizione ed una velocit` a univocamente determinate a tutti i tempi t. D’altra parte, questo `e a sua volta un fatto sperimentalmente verificabile: possiamo immaginare di mettere un rivelatore nei pressi delle fenditure (o anche solo di una di esse) che ci permetta di vedere da quale fenditura la molecola `e passata prima di essere rivelata. In pratica, questo `e stato realizzato da Zeilinger in un esperimento successivo3 realizzando l’esperimento in una camera a vuoto, e ripetendo l’esperimento quando nella camera si inietta un gas di pressione crescente: l’interazione delle molecole con il gas permette di ottenere informazione sul cammino seguito dalla molecola.
R A
B
C
Figura 1.7: Esperimento con rivelatore Eseguendo l’esperimento, si osserva che se `e possibile osservare da che fenditura `e passata la particella, la figura di interferenza scompare (si veda Figura 1.7) e si trova il risultato classico dell’Eq. (1.1). Non c’`e quindi contraddizione: effettivamente se la particella passa o da una fenditura o dall’altra, le probabilit` a si sommano. 3 L.
Hacherm¨ uller, K. Hornberger, A. Zeilinger e M. Arndt, and , Appl. Phys. B77 (2003) 781
1.2 Stati
17
Siamo cos`ı costretti a concludere che quando si osserva la figura di interferenza non ha senso chiedersi da quale fenditura sia passata la molecola, perch´e se lo facciamo otteniamo una contraddizione logica. Il fatto che le probabilit` a non si sommano quando non sappiamo da che fenditura la molecola `e passata si pu` o solo spiegare dicendo che, se non misuriamo da che fenditura `e passata, non possiamo dire che la particella sia passata da una fenditura o dall’altra. Siamo obbligati a concludere che l’affermazione (classica) che la particella `e passata o da una fenditura o dall’altra quantisticamente non `e vera.
1.1.3
Dall’esperimento ai principi
L’esperimento di Zeilinger ci permette di formulare alcuni principi base della fisica quantistica. 1. I sistemi quantistici hanno un comportamento intrinsecamente casuale. Non possiamo predire il risultato di una misura quantistica (nell’esperimento di Zeilinger, la posizione di arrivo della particella sullo schermo), ma solo la sua probabilit`a. 2. Lo stato del sistema, cio`e l’informazione che ci permette di calcolare queste probabilit`a, si comporta come un’onda. In particolare, sistemi composti da sottosistemi (le due fenditure) si sovrappongono secondo le leggi di composizione dei fenomeni ondulatori (principio di Fresnel). 3. Le misure rivelano eventi singoli. 4. Le probabilit` a di eventi singoli si compongono secondo le leggi della probabilit`a standard. Un modo di riassumere questi principi `e noto come “interpretazione di Copenhagen” della fisica quantistica: quando si esegue una misura del sistema, il suo stato cambia, “collassando” in uno degli stati corrispondenti ai risultati possibili della misura. Finch`e il collasso non avviene, le diverse alternative (i diversi stati del sistema, come passare dall’una o dall’altra fenditura in assenza di rivelatore) interferiscono, ma dopo aver eseguito la misura l’interferenza scompare perch´e lo stato del sistema `e quello corrispondente all’alternativa che si `e effettivamente realizzata. Questo modo di descrivere la situazione `e forse idealizzato, un po’ come i punti materiali, e le palline che rotolano senza strisciare in assenza di attrito che si usano ` per`o del tutto adeguato in pratica: per il momento comunemente nel formulare la meccanica classica. E lo adotteremo e solo molto pi` u avanti ci interrogheremo sulle sue eventuali limitazioni e sul suo significato profondo, nella Sezione 7.5.2 e nell’ultimo Capitolo 14. Per il momento, limitiamoci a capirne con precisione il significato. Lo stato del sistema rappresenta l’informazione che noi abbiamo su di esso. Visto che gli eventi fondamentali sono casuali, possiamo dire solo a posteriori quale di essi si `e realizzato: a priori lo stato ci permette solo di calcolare la probabilit` a che un particolare evento si realizzi. Quando osserviamo quale evento si `e realizzato, l’informazione che abbiamo sul sistema cambia. Questo cambiamento `e ci`o che descriviamo come “collasso” della funzione d’onda: il “collasso” della funzione d’onda esprime il fatto che noi osserviamo il verificarsi di uno dei tanti eventi possibili. In questo contesto che l’evento sia stato “osservato” significa che il sistema ha interagito con qualche cosa che permette di tenere traccia di ci`o che `e accaduto. Nell’esempio che abbiamo discusso, l’evento “particella rivelata in un punto dello schermo” ha una probabilit`a che possiamo calcolare noto lo stato del sistema. Questo stato `e la sovrapposizione di due stati, corrispondenti al passaggio della particella da ciascuna delle fenditure. Dopo aver rivelato sullo schermo lo stato diventa, in conseguenza dell’osservazione, quello corrispondente alla particella nel punto in cui `e stata vista. Se per`o introduciamo un qualunque apparato che ci permette di rivelare da quale fenditura la particella passa, lo stato del sistema cambia nel momento in cui la particella passa dall’una fenditura o dall’altra, in conseguenza di questa prima misura, che ci dice da dove la particella `e passata. Poich´e lo stato non `e pi` u una sovrapposizione quando facciamo la seconda misura, che dice dove la particella `e arrivata sullo schermo, non osserviamo pi` u l’interferenza.
1.2
Stati
Come abbiamo visto, la natura casuale degli eventi quantistici ci obbliga ad introdurre un concetto nuovo: quello di stato del sistema. Lo stato `e l’oggetto che ci permette di calcolare la probabilit`a degli eventi, e
18
Concetti fondamentali
contiene quindi l’informazione che abbiamo sul sistena. In termini di stati possiamo formulare in modo pi` u preciso e quantitativo i principi enunciati nella Sezione 1.1.3.
1.2.1
Bra, ket e sovrapposizione
Per descrivere gli stati di un sistema quantistico, utilizziamo una notazione introdotta da Dirac. Uno stato del sistema `e associato ad un oggetto chiamato ket. Un ket viene rappresentato mediante la notazione |xi. Gli stati che caratterizzano il sistema sono esclusivi ed esaustivi : ciascuno di essi corrisponde ad un possibile risultato distinto di una misura (esclusivi), e il loro insieme corrisponde a tutti i risultati possibili (esaustivi). In questo capitolo e nel seguente, per semplicit`a, considereremo in particolare un sistema che pu` o trovarsi solo in due stati. Questo sistema viene denominato qubit, perch`e, come vedremo nel prossimo capitolo, `e il sistema quantistico che contiene la minima quantit`a di informazione. Tuttavia, tutti i risultati che discuteremo si generalizzano facilmente a sistemi che si trovano in un numero qualunque di stati. Un sistema a due stati ha una sola propriet`a, e la sua misura pu`o dare uno solo di due risultati possibili. Nell’esempio della sezione precedente, |+i e |−i potrebbero corrispondere rispettivamente a “la particella `e passata per la fenditura B1 ” e “la particella `e passata per la fenditura B2 ”. Misura Per descrivere la situazione discussa nel capitolo precedente, supponiamo che il sistema si possa in generale trovare in una qualunque sovrapposizione dei due stati (ad esempio, se non misuriamo da quale delle due fenditure `e passato). Il pi` u generale stato `e una combinazione dei due stati |±i: |ψi = a+ |+i + a− |−i,
(1.15)
dove a+ e a− sono in generale dei numeri complessi, che interpretiamo nel modo seguente: quando misuriamo il sistema la probabilit` a che la misura dia l’uno o l’altro dei due risultati possibili `e P± = |a± |2 .
(1.16)
Se normalizziamo le probabilit` a a 1 ne segue che a± devono soddisfare la condizione di normalizzazione |a+ |2 + |a− |2 = 1.
(1.17)
Prima della misura lo stato ci dice qual `e la probabilit`a dei possibili risultati della misura. Dopo la misura sappiamo con certezza che risultato abbiamo ottenuto. Quindi dopo la misura il sistema si trova o nello stato |+i, o nello stato |−i. Lo stato del sistema ci dice che informazione abbiamo sui risultati delle misure: questa informazione `e in generale probabilistica. Ma dopo la misura, l’informazione `e completa: sappiamo in che stato si trova il sistema. Si trova nello stato nel quale la misura ci ha detto che `e. Quindi la misura cambia lo stato del sistema. Ripetiamo ancora una volta che `e ovvio che l’informazione che abbiamo sul sistema cambia nel momento in cui lo misuriamo. Ci`o che non `e ovvio `e che in generale prima di eseguire la misura tale informazione non sia completa, ma solo probabilistica. Sovrapposizione Visto che vogliamo che gli stati si possano sovrapporre come onde, supponiamo che valga il principio di sovrapposizione: dati due stati qualunque |ψ1 i e |ψ2 i, dati da |ψ1 i = a1+ |+i + a1− |−i |ψ2 i = a2+ |+i + a2− |−i
(1.18)
anche la loro sovrapposizione |ϕi |ϕi = N c1 |ψ1 i + c2 |ψ2 i
(1.19)
1.2 Stati
19
`e uno stato (e pi` u in generale lo `e qualunque loro combinazione lineare); N `e una costante di normalizzazione, che introduciamo se vogliamo che anche per lo stato |ϕi valga una condizione di normalizzazione della forma della (1.17). Lo stato sovrapposizione |ϕi `e anch’esso possibile ed `e dato da una combinazione lineare degli stati. Qualunque sovrapposizione di stati genera un nuovo stato possibile. Come esempio, consideriamo un sistema che si trova in una sovrapposizione, con uguale probabilit` a, dei due stati |ψ1 i e |ψ2 i Eq. (1.18): 1 |ϕi = √ |ψ1 i + |ψ2 i 2 1 = √ a1+ + a2+ |+i + a1− + a2− |−i . 2
(1.20)
Quale `e la probabilit` a di |+i e di |−i? Notiamo essa non si ottiene componendo le probabilit`a, perch´e c’`e un termine di interferenza: 1 |a1± + a2± |2 2 1 = |a1± |2 + |a2± |2 + a1± a∗2± + a2± a∗1± 2
P± =
(1.21)
e quindi P± 6=
1 (P1± + P2± ). 2
(1.22)
Possiamo vedere questo esempio come una realizzazione idealizzata del caso discusso nella situazione precedente, in cui sullo schermo finale vi siano solo due posizioni C+ e C− . In tal caso i due stati |±i corrispondono al fatto che la molecola venga rivelata nell’una o nell’altra di queste posizioni sullo schermo. Gli stati |ψ1 i e |ψ2 i possono essere interpretati come gli stati che corrispondono a rivelare che il sistema `e passato da ciascuna delle due fenditure, mentre lo stato |ϕi Eq. (1.20) `e lo stato in cui il sistema si trova quando entrambe le fenditure sono aperte. Quindi le probabilit`a P± sono le probabilit`a di rivelare la particella sullo schermo, e la Eq. (1.22) ci dice che `e violata la legge di composizione classica delle probabilit` a Eq. (1.1). Notiamo che se invece si esegue una misura che determina da che fenditura la particella `e passata essa dopo la misura si trova nello stato |ψ1 i quando passa dalla fenditura superiore, e nello stato |ψ2 i se passa da quella inferiore. Le probabilit` a dei risultati di questa misura sulla fenditura sono entrambe 21 , come si vede dalla Eq. (1.20). In seguito, le probabilit`a dei risultati della misura sul secondo schermo si trovano usando la Eq. (1.16), ma con il sistema posto o nello stato |ψ1 i o nello stato |ψ2 i. Quindi in tal caso vale la legge di composizione classica delle probabilit`a. Se, grazie ad una misura precedente, `e nota la fenditura da cui la particella `e passata, l’interferenza scompare.
1.2.2
Prodotto scalare
Per descrivere il principio fisico di sovrapposizione abbiamo supposto che lo spazio degli stati fisici sia uno spazio vettoriale complesso, di cui i ket sono vettori; `e naturale supporre che in questo spazio sia definito il concetto di norma di un vettore, che assoceremo naturalmente alla probabilit`a di un evento. Uno spazio vettoriale normato (e completo) `e detto spazio di Banach. Ma il fatto che i ket siano associati a risultati indipendenti di misure porta naturalmente a vederli come vettori di base, e questo a sua volta suggerisce di introdurre un prodotto scalare. A questo fine, poniamo ogni ket in corrispondenza con un bra: |ψi ↔ hψ| e definiamo il prodotto scalare tra due stati |ψi e |ϕi come hψ|ϕi. Il prodotto bra-ket ha le seguenti propriet` a:
(1.23)
20
Concetti fondamentali
• hψ|ϕi ∈ C; • hψ|ϕi = hϕ|ψi∗ (hermitianit` a o hermiticit`a); • hψ|ψi ≥ 0 (positivit` a; notare che la propriet`a di hermiticit`a implica che hψ|ψi `e reale); • se |ϕi = a|+i + b|−i allora hψ|ϕi = ahψ|+i + bhψ|−i (linearit`a). Lo spazio dei bra `e lo spazio vettoriale duale dello spazio dei ket: infatti se |ψi = a|+i + b|−i allora hψ| = a∗ h+| + b∗ h−|. Infatti: † † hψ|ϕi = hϕ|ψi = hϕ|+ia + hϕ|−ib = a∗ h+| + b∗ h−| |ϕi Dal punto di vista matematico, lo spazio dei bra `e lo spazio degli operatori lineari a valori complessi che agiscono sullo spazio dei ket (ossia lo spazio duale a quello dei ket). Come si `e visto negli esempi precedenti, infatti, un elemento dello spazio dei bra agisce su un elemento dello spazio dei ket e restituisce un numero complesso. Si pu` o mostrare che se lo spazio dei ket `e finito-dimensionale, lo spazio dei bra `e isomorfo ad esso; il caso infinito-dimensionale comporta delle complicazioni matematiche in cui non ci addentriamo. Uno spazio vettoriale lineare con un prodotto scalare `e detto spazio di Hilbert. Lo spazio degli stati fisici della meccanica quantistica `e uno spazio di Hilbert.
1.2.3
Vettori di base e misura
I due stati |±i in cui il sistema si pu` o trovare possono essere visti come una base ortonormale rispetto al prodotto scalare appena introdotto: h+|+i = h−|−i = 1
(1.24)
h+|−i = h−|+i = 0.
(1.25)
La probabilit` a Eq. (1.16) del risultato di una misura pu`o ora essere vista come la lunghezza della proiezione dello stato |ψi in cui il sistema si trova lungo il vettore di base che corrisponde al risultato della misura stessa. Infatti, se lo stato `e dato dalla Eq. (1.15) la probabilit`a di trovare ciascuno dei due possibili risultati della misura `e P± = |h±|ψi|2 = |a± |2 .
(1.26)
Notiamo infine che la normalizzazione dello stato, che possiamo fissare secondo la Eq. (1.17), `e il prodotto scalare dello stato con se stesso hψ|ψi = h+|a∗+ + h−|a∗− (a+ |+i + a− |−i) = |a+ |2 + |a− |2 , (1.27) dove per eseguire il calcolo abbiamo usato l’espressione esplicita Eq. (1.15) dello stato e le condizioni di ortonormalizzazione Eq. (1.24). La Eq. (1.27) `e detta appunto norma dello stato |ψi. Naturalmente, vi `e un’infinit` a di basi ortonormali possibili. Ad esempio, consideriamo i due stati 1 |ψ1 i = √ |+i + |−i 2 1 |ψ2 i = √ |+i − |−i . 2
(1.28)
Notiamo che hψ1 |ψ2 i = hψ2 |ψ1 i = 0; hψ1 |ψ1 i = hψ2 |ψ2 i = 1.
(1.29) (1.30)
Quindi anche gli stati |ψ1 i e |ψ2 i formano una base ortonormale.
1.2 Stati
21
Finora abbiamo supposto che lo stato del sistema sia scritto in una base di stati corrispondenti a tutti i risultati di misure. Tuttavia, come abbiamo visto, vi sono infinite basi possibili. In effetti, dato un qualunque stato |ϕi che corrisponde ad un risultato ben determinato per la misura di una osservabile possiamo supporre che faccia parte di una base, se combinato con altri stati che corrispondono agli altri risultati possibili: per esempio, uno dei due stati |ψi i Eq. (1.18) che corrispondono al passaggio della particella da una delle due fenditure. Possiamo quindi in generale interpretare il modulo del prodotto scalare Pϕψ = |hϕ|ψi|2
(1.31)
come la probabilit` a che un sistema che si trova nello stato |ψi dia sotto misura il risultato associato a |ϕi. Naturalmente, dopo la misura, il sistema si trova nello stato |ϕi . Questo d` a luogo ad una situazione interessante. Consideriamo gli stati |ψi i Eq. (1.28). Supponiamo che il sistema si trovi inizialmente nello stato |ψ1 i. Esso quindi non si trova nello stato |ψ2 i, che `e ad esso ortogonale. Eseguiamo ora la misura per determinare se il sistema si trovi in |+i od in |−i. Nel 50% dei casi troveremo che esso si trova in |+i . Dopo la misura il sistema quindi `e nello stato |+i. Ora ` facile vedere che nel 50% dei casi troveremo misuriamo di nuovo se il sistema si trovi nello stato |ψ2 i. E che esso si trova in |ψ2 i. Quindi la misura intermedia di |±i ha rigenerato la componente |ψ2 i dello stato |ψ1 i, inizialmente assente.
1.2.4
La relazione di completezza
Alcune delle manipolazioni che abbiamo compiuto possono essere considerevolmente semplificate mediante una osservazione semplice, ma di notevole portata. Osserviamo infatti che possiamo scrivere un ket di stato |ψi come |ψi = h+|ψi|+i + h−|ψi|−i = |+ih+| + |−ih−| |ψi Di conseguenza abbiamo che |+ih+| + |−ih−| = I
(1.32)
lascia invariato lo stato ed `e quindi una rappresentazione dell’operatore identit`a. La Eq. (1.32) `e nota come relazione di completezza o risoluzione d’identit`a. Il risultato vale in generale nel caso in cui i risultati possibili per la misura siano n, per cui, data una base |ei i i = 1....n
(1.33)
hei |ej i = δij
(1.34)
la condizione di ortonormalit` a `e
dove δij `e la delta di Kronecker definita come ( δij =
0 se i 6= j 1 se i = j
.
(1.35)
In tal caso, la risoluzione dell’identit` a `e I=
X
|ei ihei |.
(1.36)
i
La risoluzione dell’identit` a semplifica diversi calcoli, tra cui: • decomposizione di un vettore su una base: da X X |ψi = |ei ihei |ψi = |ei icψ i i
(1.37)
i
si ha cψ i = hei |ψi;
(1.38)
22
Concetti fondamentali
• calcolo della norma di un vettore hψ|ψi =
X X ψ hψ|ei ihei |ψi = |ci |2 ; i
(1.39)
i
• prodotto scalare tra due vettori hϕ|ψi =
X
hϕ|ei ihei |ψi =
i
1.3
X ϕ ψ (ci )∗ ci .
(1.40)
i
Operatori
L’operazione di misura come descritta finora presuppone la conoscenza di un insieme esclusivo ed esaustuvo di stati associati ai risultati della misura. Come si `e visto, vi possono essere diversi insiemi di stati, quindi diverse misure possibili, per lo stesso sistema. Per caratterizzare questa situazione, ed in particolare studiare e classificare tutte le possibili misure che possono essere eseguite su un sistema, conviene introdurre il concetto di operatore.
1.3.1
Operatori e matrici
Un operatore `e un oggetto che applicato ad un qualunque stato fisico d`a un altro stato fisico A|ψi = |ψ 0 i,
(1.41)
ossia, pi` u formalmente, un’applicazione dello spazio degli stati fisici in se stesso. Noi considereremo specificamente operatori lineari, cio`e tali che A a1 |ψ1 i + a2 |ψ2 i = a1 A|ψ1 i + a2 A|ψ2 i (1.42) L’azione di un operatore lineare `e interamente determinata dalla sua azione su un insieme ket di base. Infatti, decomponendo uno stato qualunque |ψi su una base di stati ei i, con coefficienti cψ i = hei |ψi) (si ricordi la Eq. (1.38)) si ha X ψ |ψ 0 i = A|ψi = ci A|ei i. (1.43) i
Ma possiamo anche decomporre ciascuno degli stati ottenuti dall’azione di A sui ket di base: X |e0i i ≡ A|ei i = cA ji |ej i
(1.44)
j 0 con cA ji = hej |ei i. Quindi
|ψ 0 i =
X
A cψ i cji |ej i.
(1.45)
ij
Nella notazione di Dirac, la linearit` a `e implicita nel formalismo, e questo risultato si pu`o ritrovare semplicemente utilizzando la risoluzione dell’identit`a: X X X A|ψi = A|ei ihei |ψi = |ej ihej |A|ei ihei |ψi = |ej iAji cψ (1.46) i i
ij
ij
L’equazione (1.46) pu` o essere letta come l’affermazione che qualunque operatore lineare pu`o essere rappresentato come X A= |ei iAij hej | (1.47) ij
1.3 Operatori
23
dove abbiamo indicato con Aij ≡ cA ij = hei |A|ej i.
(1.48)
gli elementi di matrice dell’operatore. Associamo cos`ı a qualunque operatore una matrice. Notiamo che l’azione successiva di due operatori `e data da X AB|ψi = |ei ihei |A|ej ihej |ek ihek |B|el ihel |ψi ijkl
=
X
|ei iAij Bjl cψ l ,
(1.49)
ijl
dove nel passaggio intermedio abbiamo utilizzato l’ortonormalit`a Eq. (1.34). Si vede cos`ı che l’azione successiva di due operatori `e pari a quella dell’operatore la cui matrice `e il prodotto (righe per colonne) delle matrici associate ai due operatori che agiscono successivamente. Si noti che, ovviamente, il risultato in generale cambia a seconda dell’ordine con cui i due operatori agiscono.
1.3.2
Operatore associato ad un’osservabile
` naturale associare un operatore a ciascuna osservabile fisica, come conseguenza del fatto che un’osservE abile `e caratterizzata dall’insieme di stati |ei i che corrispondono ai possibili risultati della sua misura, oltre che, ovviamente, ai valori λi dell’osservabile misurata (come, ad esempio, la posizione sullo schermo, o l’indice che numera le fenditure). Notare che gli stati |ei i sono sempre una base, se supponiamo che i risultati delle misure dell’osservabile siano esclusivi ed esaustivi. Per capire l’origine della relazione tra osservabili ed operatori, supponiamo di voler calcolare il valor medio di misure ripetute di una certa osservabile O, per un sistema che si trova in un certo stato |ψi. Esso `e solitamente indicato con hOi, ed `e dato da X X hOi = λi Pi = λi |hei |ψi|2 . (1.50) i
i
Possiamo interpretare questo risultato definendo l’operatore associato all’osservabile X O= λi |ei ihei |.
(1.51)
i
Il valor medio `e quindi l’elemento di matrice di tale operatore nello stato dato: hOi = hψ|O|ψi,
(1.52)
infatti hψ|O|ψi =
X
λi hψ|ei ihei |ψi =
i
X
λi |hei |ψi|2 .
i
Possiamo quindi associare ad ogni osservabile un operatore della forma Eq. (1.52). Notiamo che O|ei i = λi |ei i.
(1.53)
Questo vuol dire che i possibili stati |ei i in cui il sistema si trova dopo la misura sono autostati dell’osservabile, ed i possibili risultati λi della misura sono gli autovalori associati a tali autostati. Visto che l’osservabile `e completamente caratterizzata dalla sua matrice, ma una matrice `e a sua volta completamente caratterizzata dai suoi autovalori ed autovettori, la definizione Eq. (1.51) ci permette di associare (bi)univocamente un operatore ad un’osservabile. Notiamo tuttavia che la condizione che si tratti di un’osservabile si riflette nella richiesta che gli autostati |ei i siano ortonormali (risultati della misura esclusivi ed esaustivi) e che gli autovalori λi siano reali (nessuna di queste due propriet` a dipende dalla scelta di base). Quindi gli operatori associati ad osservabili sono quelli con autovettori ortonormali ed autovalori reali.
24
Concetti fondamentali
La matrice associata Oij , se espressa nella base fornita dagli stati |ei i, `e diagonale: infatti Oij = λi δij .
(1.54)
Quindi in questa base un’osservabile `e descritta da una matrice diagonale con elementi reali. Ci chiediamo quale sia la condizione in una base generica. Aggiunto di un operatore e operatori hermitiani A questo fine, introduciamo il concetto di aggiunto di un operatore. Dato un qualunque operatore A tale che A|ψi = |ψ 0 i,
(1.55)
il suo aggiunto, che si denota con A† , `e l’operatore tale che hψ 0 | = hψ|A† .
(1.56)
Usando la definizione, possiamo facilmente determinare la relazione tra elementi di matrice di A e di A† . Abbiamo che hϕ|A|ψi = hϕ|ψ 0 i, †
(1.57)
0
hψ|A |ϕi = hψ |ϕi,
(1.58)
ma ∗
hψ 0 |ϕi = (hϕ|ψ 0 i) ,
(1.59)
quindi ∗
hψ|A† |ϕi = (hϕ|A|ψi) .
(1.60)
In particolare, se |ϕi, |ψi sono vettori di base, hei |A† |ej i = hej |A|ei i∗ ,
(1.61)
cio`e A†
ij
= A∗ji .
(1.62)
Quindi la matrice aggiunta si ottiene prendendo la trasposta, e poi il complesso coniugato di ogni elemento. Propriet` a degli operatori associati ad osservabili Si vede immediatamente che l’operatore associato ad un’osservabile O Eq. (1.51) `e autoaggiunto, infatti i suoi elementi di matrice Eq. (1.54) soddisfano † Oij = λ∗i δji = λi δij = Oij .
(1.63)
Tale propriet` a non dipende dalla scelta di base. Infatti in una base qualunque X Oij = he0i |O|e0j i = he0i |ek iλk hek |e0j i k
=
X
∗ λk (he0j |ek ihek |e0i i)∗ = (he0j |O|e0i i)∗ = Oji
k
Abbiamo quindi dimostrato che un operatore con autovalori reali ed autovettori ortogonali `e hermitiano (condizione sufficiente). Dimostriamo la condizione necessaria, cio`e che se un operatore `e hermitiano, allora esso ha autovalori reali ed autovettori ortogonali.
1.3 Operatori
25
Dimostriamo prima che gli autovalori sono reali. Notiamo che l’equazione agli autovalori Eq. (1.53) implica immediatamente hei |O|ei i = λi hei |ei i,
(1.64)
ossia λi =
hei |O|ei i . hei |ei i
(1.65)
Ma hei |O† |ei i = (hei |O|ei i)∗ ,
(1.66)
hei |O|ei i = (hei |O|ei i)∗ .
(1.67)
quindi per un operatore hermitiano
D’altra parte, ricordiamo che hei |ei i ≥ 0 (reale), e quindi λi `e reale perch´e sia il numeratore che il denominatore dell’espressione a membro destro della Eq. (1.65) sono reali. λ∗i
∗ hei |O|ei i hei |O|ei i hei |O† |ei i = = λi = ∗ = hei |ei i hei |ei i hei |ei i
gli autovalori sono perci` o reali. Mostriamo ora che gli autovettori |ei i sono ortogonali, cio`e che hei |ej i = δij (la normalizzazione pu` o essere fissata a piacere). Abbiamo che hei |O|ej i = λj hei |ej i hei |O† |ej i = λi hei |ej i,
(1.68)
(λi − λj )hei |ej i = 0.
(1.69)
e quindi se O = O†
Possiamo quindi distinguere due casi diversi: • Caso non degenere: λi tutti diversi La Eq. (1.69) implica immediatamente che se i 6= j, allora hei |ej i = 0, come si voleva dimostrare. • Caso degenere: λi non tutti diversi La Eq. (1.69) implica immediatamente che, dato un gruppo di autostati |e1i i, |e2i i, ...|eni i = |eai ia
a
(1.70)
(1.71)
26
Concetti fondamentali
Possiamo quindi applicare l’ortogonalizzazione di Gramm-Schmidt nel sottospazio dato: |eai i 1 |e01 i i = c1 |ei i 2 |e02 i i = c2 |ei i
|e0n i i
= cn
|eni i
→ tale che − .. . −
|e0a i i 01 1 = he01 i |ei i 01 2 |e01 i ihei |ei i
X
(1.72) 2
= |c1 |
he1i |e1i i
(1.73) (1.74)
0j n |e0j i ihei |ei i
(1.75)
j
dove gli n vettori sono gi` a ortonormalizzati. Verifichiamo che sono ortogonali: 02 01 2 01 01 01 2 01 2 01 2 he01 i |ei i = c2 hei |ei i − hei |ei ihei |ei i = c2 hei |ei i − hei |ei i = 0.
1.3.3
(1.76)
Operatori di proiezione e misure generali
Un ulteriore tipo di operatore, utile per formulare il concetto di misura, `e l’operatore di proiezione su uno stato (o proiettore), definito come PS ≡ |SihS|
(1.77)
dove |Si `e uno stato correttamente normalizzato. La misura pu`o essere descritta in termini di proiezione: dato un sistema quantistico che si trova nello stato |ψi, se una misura su di esso produce il risultato associato allo stato |Si, dopo la misura il sistema si trova nello stato |Si = N PS |ψi,
(1.78)
` importante osservare che anche se lo stato |ψi `e correttadove N `e una costante di normalizzazione. E mente normalizzato, lo stato proiettato PS |ψi in generale non lo `e, e quindi la costante N `e necessaria affinch´e anche |Si sia normalizzato correttamente. Notiamo anche che la probabilit` a che la misura riveli il sistema nello stato |Si `e PS = |hS|ψi|2 = hψ|SihS|ψi = hψ|PS |ψi,
(1.79)
ossia il valor medio dell’operatore di proiezione dello stato risultato della misura, calcolato nello stato dato. Generalizzando opportunamente la definizione di proiettore possiamo di descrivere la misura nel caso pi` u generale di una misura che non determina completamente lo stato del sistema. Un esempio `e, per un sistema che pu` o trovarsi in pi` u di due stati, una misura che dice solo se il sistema si trova o no in uno di essi. In tal caso, se la misura d` a come risultato che il sistema non `e nello stato |Si, allora dopo la misura il sistema `e nello stato |ψS¯ i = N PS¯ |ψi,
(1.80)
dove PS¯ `e il proiettore sullo stato non-S, definito da PS¯ = I − |SihS| = I − PS¯ .
(1.81)
Naturalmente, la probabilit` a di questo risultato `e PS¯ = 1 − PS = hψ|PS¯ |ψi,
(1.82)
dove abbiamo usato la Eq. (1.79). Quindi sia l’espressione in termini di proiettori per la probabilit`a di una misura Eq. (1.79), che quella per il risultato di una misura Eq. (1.78) valgono in questo caso pi` u generale.
1.4 Postulati della meccanica quantistica
27
Definiamo quindi nel caso pi` u generale operatore di proiezione un operatore P tale che, dato un qualunque stato |ψi, e definita la decomposizione |ψi = P |ψi + (I − P )|ψi = |αi + |βi |αi = P |ψi;
|βi = (I − P )|ψi
(1.83)
allora P |αi = |αi
e
hα|βi = 0.
(1.84)
L’operatore P `e quindi definito come l’operatore che estrae dallo stato |ψi le sue componenti in un sottospazio dello spazio di stati possibili, mettendo a zero le altre componenti. La pi` u generale misura dice se il sistema si trova in un sottoinsieme di tutti i suoi stati possibili, ossia in un sottospazio dello spazio complessivo di stati. La probabilit`a di questa misura `e data dalla somma delle probabilit` a di tutti gli stati in questo sottospazio, cio`e dalla Eq. (1.79), essendo P il proiettore nel sottospazio dato. Dopo la misura, il sistema si trova nello stato proiettato nel sottospazio, dato dalla Eq. (1.78).
1.4
Postulati della meccanica quantistica
Possiamo ora riassumere i principi di base (o postulati) della meccanica quantistica. I principi enunciati qui sono sufficienti per una formulazione completa della fisica quantistica, con la sola aggiunta di un postulato sull’evoluzione temporale che vedremo nella sezione 4.1.3 nello specifico contesto della meccanica. • Postulato 1 Lo stato di un sistema quantistico `e associato ad un vettore (vettore di stato), in uno spazio in cui vale il principio di sovrapposizione ed `e definito un prodotto scalare con le propriet` a elencate nella Sezione 1.2.2 (spazio di Hilbert). • Postulato 2 Risultati possibili di misure sul sistema sono associati a stati esclusivi ed esaustivi che costituiscono una base ortonomale. Questo postulato viene a volte formulato (equivalentemente, come abbiamo visto) dicendo che ad ogni osservabile `e associato un operatore hermitiano. • Postulato 3 La misura di un sistema che si trova in uno stato |ψi produce uno degli stati |ei i associati all’osservabile, con probabilit` a data da Pi = |hei |ψi|2 (regola di Born). Dopo la misura il sistema si trova nello stato |ψi. La prima ipotesi ci dice quali sono gli stati fisici dei sistemi; la seconda classifica l’informazione che `e possibile acquisire sui sistemi fisici, cio`e quali siano le possibili misure, e la terza ipotesi ci dice cosa succede quando si effettua una misura sul sistema. In tempi sorprendentemente recenti4 `e stato dimostrato che questi postulati possono essere riformulati in un modo equivalente, ma forse concettualmente pi` u chiaro. In particolare, l’ortogonalit` a degli stati (secondo postulato) in combinazione con la seconda parte del terzo (dopo la misura il sistema si trova nello stato), `e equivalente a postulare che una misura ripetuta dia sempre lo stesso risultato, o, ancora equivalentemente, che la misura sia una proiezione, con misure diverse corrispondenti a proiezioni su sottospazi ortogonali. Possiamo quindi sostituire il secondo ed il terzo postulato con • Postulato 2’ La misura proietta lo stato del sistema in un sottospazio; misure che danno risultati distinti proiettano il sistema in sottospazi ortogonali. • Postulato 3’ La probabilit` a della misura `e il modulo quadro dell’ampiezza.
4 W.
H. Zurek, Phys. Rev. A76 (2007) 052110
28
Concetti fondamentali
Capitolo 2
Propriet` a quantistiche Abbiamo visto come i principi fondamentali della fisica quantistica richiedano l’introduzione del concetto di stato: un vettore in uno spazio di Hilbert, che ci permette di calcolare le probabilit`a dei risultati delle misure e quindi codifica e contiene tutta l’informazione che abbiamo su di un sistema quantistico. Per rispondere alle domande “quali sono le misure possibili?” e “che cosa succede allo stato dopo la misura?” abbiamo introdotto il concetto di operatore lineare, e in particolare, di operatore hermitiano (che associamo ad un’osservabile) e operatore di proiezione (che trasforma lo stato sotto misura). Sorgono ora spontanee due domande. L’informazione contenuta in uno stato si pu`o rappresentare in un modo solo, o in tanti modi equivalenti, e in tal caso quali? Qual `e la massima quantit`a di informazione che possiamo estrarre da un sistema attraverso la misura? La risposta a ciascuna di queste domande sar` a il tema delle prossime due sezioni. Lo studio dell’informazione che pu`o essere accumulata in uno sistema quantistico, e dei modi di classificarla, ottimizzarla e manipolarla `e oggetto della teoria dell’informazione quantistica. Si tratta di un insieme di tematiche molto ampio, che sfioreremo appena nella terza sezione di questo capitolo.
2.1
Unitariet` a
In questa sezione ci chiediamo quale sia il modo pi` u generale di rappresentare uno stato quantistico, e quindi quale sia il pi` u generale insieme di trasformazioni che collegano diverse rappresentazioni dello stesso stato.
2.1.1
Cambiamenti di base
Abbiamo visto che sia stati che operatori possono essere rappresentati rispetto a diverse basi. Consideriamo uno stato |ψi e le due basi |ei i e |e0i i: nella prima base |ψi ha la forma X X |ψi = |ei ihei |ψi = |ei icψ (2.1) i , i
i
e nella seconda |ψi =
X
|e0i ihe0i |ψi =
X
i
|e0i ic0ψ i .
(2.2)
i
Possiamo definire una matrice di cambiamento di base notando che X X 0 c0ψ he0i |ej ihej |ψi = Uij cψ i = hei |ψi = j j
(2.3)
j
dove abbiamo definito Uij = he0i |ej i.
(2.4)
30
Propriet` a quantistiche
Notiamo che si usa omettere l’indice della sommatoria quando c’`e un indice ripetuto, quindi la Eq. (2.3) viene spesso scritta come ψ c0ψ i = Uij cj .
(2.5)
Possiamo analogamente definire un operatore U di cambiamento di base tale che he0i |ψi = hei |U |ψi,
(2.6)
cio`e tale che, agendo sullo stato |ψi, esso dia lo stato |ψ 0 i ≡ U |ψi le cui componenti nella base vecchia sono uguali alle componenti dello stato di partenza |ψi nella base nuova: he0i |ψi = hei |ψ 0 i.
(2.7)
Si vede immediatamente dalla Eq. (2.6) che tale operatore `e dato da X U= |em ihe0m |,
(2.8)
m
infatti, hei |U |ψi =
X
hei |em ihe0m |ψi = he0i |ψi.
(2.9)
m
Notiamo che gli elementi di matrice dell’operatore U Eq. (2.6) sono dati dalla Eq. (2.4) sia nella base vecchia che nella base nuova: X Uij = hei |U |ej i = hei | |em ihe0m |ej i = he0i |ej i (2.10) m
he0i |U |e0j i
Uij =
=
he0i |
X
|em ihe0m |e0j i = he0i |ej i.
(2.11)
m
Infatti U=
X
|ei iUij hej | =
X
ij
=
X
ij
|e0i iUij he0j | =
X
ij
2.1.2
|ei ihe0i |ej ihej | =
X
|ei ihe0i |
(2.12)
|ei ihe0i |.
(2.13)
i
|e0i ihe0i |ej ihe0j | =
ij
X i
Operatori unitari
L’operatore U ha la propriet` a che U† =
X
|e0m ihem |
(2.14)
m
da cui segue che UU† =
XX m
U †U =
X
|em ihem | = I
(2.15)
|e0i ihe0i | = I,
(2.16)
m
i
XX m
|em ihe0m |e0i ihei | = |e0m ihem |ei ihe0i | =
X m
i
Un operatore che ha la propriet` a U U † = U †U = I
(2.17)
`e detto unitario. Ne concludiamo che un cambiamento di base viene realizzato dall’azione di un operatore unitario.
2.2 Indeterminazione
31
Gli operatori unitari conservano il prodotto scalare, e quindi in particolare la norma. Infatti, dati due stati |ϕi, |ψi, e definita l’azione di un operatore unitario qualunque U su di essi |ϕ0 i ≡ U |ϕi;
|ψ 0 i = U |ψi,
(2.18)
hψ 0 |ϕ0 i = hψ|U † U |ϕi = hψ|ϕi
(2.19)
abbiamo che
2.1.3
Trasformazioni unitarie di operatori
Un cambiamento di base coinvolge sia gli stati che gli operatori. L’azione di un cambiamento di base su un operatore qualunque A, i cui elementi nella base |ei i sono Aij = hei |A|ej i,
(2.20)
A0ij = he0i |A|e0j i = hei |U AU † |ej i = hei |A0 |ej i.
(2.21)
`e la seguente:
Per ottenere il risultato abbiamo utilizzato il fatto che hei |U = he0i |,
(2.22)
infatti hei |U = hei |
X n
|en ihe0n | =
X
δin he0n | = he0i |
(2.23)
n
e quindi U † |ei i = |e0i i.
(2.24)
Pertanto sotto cambiamento di base l’operatore si trasforma come A0 = U AU † = U AU −1 .
(2.25)
Questa `e detta azione aggiunta della trasformazione unitaria. Due operatori collegati da tale trasformazione, cio`e due operatori A, B tali che B = U AU † si dicono ` facile vedere che due operatori unitariamente equivalenti hanno lo stesso unitariamente equivalenti. E spettro di autovalori. Consideriamo infatti l’operatore A avente autostati |ek i con autovalori µk A|ek i = µk |ek i, e l’operatore B = U AU † unitariamente equivalente ad A. Gli stati |e0k i = U |ek i soddisfano B|e0k i = U AU † U |ek i = U µk |ek i = |e0k i
(2.26)
(2.27)
e sono quindi autostati di B con gli stessi autovalori di A.
2.2
Indeterminazione
Abbiamo visto nella Sezione 1.3.3 che un’operazione di misura pu`o fornire una informazione incompleta sullo stato del sistema, proiettando su un sottospazio dello spazio degli stati possibili. Per esempio, per una particella che passa attraverso uno schermo su cui sono praticate tre fenditure, un rivelatore piazzato nei pressi di una fenditura non fornisce informazione circa le altre due fenditure: la misura effettuata da quel rivelatore non ci d` a alcuna informazione sulla sovrapposizione di stati relativi al passaggio attraverso le altre due fenditure in cui il sistema eventualmente si trova. Ma una seconda misura potrebbe dare informazione pi` u dettagliata: per esempio aggiungendo un secondo rivelatore su un’altra fenditura. In questa sezione ci chiediamo come determinare il massimo insieme di osservabili che possono essere misurate simultaneamente su un dato sistema. Questo ci permetter`a anche di rispondere alla ovvia domanda associata, e cio`e che cosa possiamo aspettarci circa i risultati di misure di altre osservabili, che non facciano parte di questo insieme di osservabili misurabili simultaneamente.
32
2.2.1
Propriet` a quantistiche
Osservabili compatibili e incompatibili
Il fatto che una misura proietti il sistema su un autostato dell’operatore associato all’osservabile misurata implica che la misura di due osservabili distinte, associate ad operatori A e A0 , produce risultati molto diversi a seconda che essi ammettano o no una base comune di autostati. Supponiamo che A|ei i = λi |ei i A
0
|e0i i
=
λ0i |e0i i.
(2.28) (2.29)
Consideriamo prima il caso in cui |ei i = |e0i i, ossia i due operatori ammettono una base comune di autostati (seppure, in generale, con diversi autovalori, λ0i 6= λi ). In tal caso, se una misura di A fornisce il valore λi , dopo la misura il sistema si trova nell’autostato |ei i. Misure ripetute danno sempre lo stesso valore λi . Se dopo aver fatto questa misura di A si misura A0 , poich´e abbiamo supposto che |ei i sia anche autostato di A0 , ma con autovalore λ0i , la misura di A0 dar`a anch’essa sempre lo stesso valore λ0i . Quindi possiamo dire che dopo la misura di A il sistema si trova in uno stato per cui sia l’osservabile A che l’osservabile A0 hanno un valore ben definito, λi e λ0i , rispettivamente. Supponiamo invece che |ei i 6= |e0i i, ossia che in generale gli autostati dei due operatori siano diversi fra di loro. In tal caso, dopo una misura di A il sistema si trova in un suo autostato |ei i. Ma questo non `e un autostato di A0 , quindi deve essere una sovrapposizione dei suoi autostati: X |ei i = |e0k ihe0k |ei i. (2.30) k
Pertanto se anche in questo caso si misura A0 dopo aver fatto la misura di A , il sistema verr`a rivelato nello stato |e0k i con probabilit` a |he0k |ei i|2 . Perci`o, in tal caso il sistema non pu`o avere un valore ben definito di A ed A0 simultaneamente: se si misura A, dopo la misura il sistema `e in una sovrapposizione di stati associati a diversi valori di A0 , e viceversa. In particolare, se anche il sistema era in |ei i, una misura di A0 rigenera anche componenti |ej i con j 6= i, come abbiamo visto nella Sezione 1.2.3. Due operatori sono detti compatibili se ammettono una base comune di autostati, ed incompatibili se non ne ammettono alcuna. Concludiamo quindi che si pu`o dire che un sistema abbia simultaneamente un valore ben determinato di due osservabili diverse sono se esse sono compatibili.
2.2.2
Commutazione di operatori
Ci chiediamo sotto quali ipotesi due operatori associati ad osservabili (quindi hermitiani) siano compatibili o no. A tal fine, introduciamo il commutatore di due operatori A e B definito come l’operatore [A, B] ≡ AB − BA.
(2.31)
Pu` o essere utile anche definire l’anticommutatore fra due operatori A, B come {A, B} = AB + BA.
(2.32)
Dimostriamo ora che due operatori A e B sono compatibili, cio´e diagonalizzabili simultaneamente, se e solo se il loro commutatore `e nullo. Dimostriamo prima la condizione necessaria. Consideriamo dunque i due operatori A e B tali che A|ei i = λi |ei i
(2.33)
B|ei i = µi |ei i
(2.34)
Calcoliamo l’elemento di matrice del commutatore: (AB − BA)ij = hei |AB − BA|ej i = (λi µi − λj µj )hei |ej i = 0.
(2.35)
Concludiamo che il commutatore ha tutti gli elementi di matrice nulli, ossia gli operatori commutano.
2.2 Indeterminazione
33
Possiamo ora dimostrare la condizione sufficiente. In questo caso, dobbiamo distinguere il caso degenere da quello non degenere. Consideriamo prima il caso non degenere, cio´e con λi , µi tutti diversi tra loro. Siano |ek i autostati di A: A|ek i = λk |ek i. Notiamo che allora hek |A =
hek |λ∗k
(2.36)
= hek |λk . Si ha quindi
0 = hei |[A, B]|ek i = λi hei |B|ek i − λk hei |B|ek i = (λi − λk )hei |B|ek i,
(2.37)
e quindi (λi − λk )hei |B|ek i =
0 0
se i = k , se i = 6 k ⇔ hei |B|ek i = 0
(2.38)
o equivalentemente, hei |B|ek i = δik hei |B|ek i. Quindi l’operatore B nella base |ei i `e diagonale X X B= |ei iBij hej | = |ei ihei |µi , ij
(2.39)
(2.40)
i
con µi = hei |B|ei i. Ma questo vuol dire proprio che gli |ek i sono anche autostati di B, infatti X B|ek i = µi |ei ihei |ek i = µk |ek i,
(2.41)
(2.42)
i
come si voleva dimostrare. Consideriamo ora il caso degenere. Sia A un operatore A|ei i = λi |ei i, con un sottospazio di ket |eai i di dimensione p associati tutti allo stesso autovalore λi . Se B commuta con A si ha 0 = heai |[A, B]|ej i = (λi − λj )heai |B|ej i
(2.43)
Se λi e λj sono diversi fra loro l’argomento si riduce a quello di prima. Che cosa succede invece nel sottospazio degenere, in cui λi = λj ? In tal caso 0 = heai |[A, B]|ebi i = (λi − λi )heai |B|ebi i,
(2.44)
e l’elemento di matrice di B `e dunque arbitrario. Gli autostati di A non sono necessariamente autostati di B. Possiamo per`o fabbricare degli autostati, ricordando che se gli |eai i sono autostati riferiti allo stesso autovalore, anche una loro combinazione lineare lo `e, come gi` a visto. Ma allora possiamo diagonalizzare B nel sottospazio, ottenendo cos`ı autostati |e0c i i tali che X c 0c B|e0c |eai iheai |e0c (2.45) i i=B i i = µi |ei i adeg
che restano autostati di A 0c A|e0c i i = λi |ei i
(2.46)
Se gli autovalori µci trovati sono diversi tra loro, la degenerazione si dice risolta. Un insieme di operatori si dice completo se riesce a caratterizzare completamente uno stato. Ci` o significa che se un operatore A non permette di assegnare univocamente un determinato autovalore ad un solo autostato, esiste un operatore B che invece lo permette. Per esempio, dati gli autovalori distinti λ1 , λ2 , λ01 , λ02 , consideriamo il seguente insieme di operatori: A = λ1 |e1 ihe1 | + λ2 |e2 ihe2 | + |e3 ihe3 | (2.47) 0 0 B = λ1 |e1 ihe1 | + |e2 ihe2 | + λ2 |e3 ihe3 |. (2.48) Tale insieme di operatori `e un insieme completo, perch´e la coppia di valori (λi , λ0j ) caratterizza completamente lo stato del sistema.
34
2.2.3
Propriet` a quantistiche
Il principio di indeterminazione
Per quantificare la dispersione dei risultati della misura di un’osservabile quando il sistema non si trova in un suo autostato, definiamo l’indeterminazione dell’operatore nello stato |ψi come la deviazione standard dei risultati dalla misura, e cio´e 2 ∆2 Aψ = hψ|A2 |ψi − hψ|A|ψi .
(2.49)
hx2 i − hxi2 = h(x − hxi)2 i
(2.50)
2 ∆2 Aψ = hψ| A − hψ|A|ψi |ψi.
(2.51)
Poich´e vale la relazione:
possiamo scrivere
` facile vedere che l’indeterminazione `e proprio la deviazione standard, sviluppando su una base di E autostati |ei i di A associati agli autovalori λi : X X X X hψ|A|ψi = hψ|A† |ψi = hψ|A|ei ihei |ψi = λi hψ|ei ihei |ψi = λi |hei |ψi|2 = λi Pi , (2.52) i
i
i
i
e quindi !2 2
∆ Aψ =
X
λ2i Pi
−
X
i
λi Pi
.
(2.53)
i
L’indeterminazione di un operatore A `e nulla se e solo se lo stato |ψi in cui il sistema si trova `e un autostato di A: vale a dire ∆2 Aψ = 0 ⇔ A|ψi = λ|ψi. Dimostriamo prima la condizione sufficiente. Si ha: A2 |ψi = λ2 |ψi
(2.54)
2 ∆2 Aψ = hψ|A2 |ψi − hψ|A|ψi = λ2 hψ|ψi − λ2 hψ|ψi2 = λ2 − λ2 = 0
(2.55)
quindi
(supponendo che la norma di |ψi sia 1). Veniamo ora alla condizione necessaria. Supponiamo che ∆2 Aψ = 0. Possiamo sempre supporre che lo stato |ψi sia un elemento di una base ortonomale |ei i — basta che sia correttamente normalizzato. 2 2 Ricordando che A = A† e che il valor medio di un operatore `e un numero reale, hei |A|ej i = hej |A|ei i , abbiamo 2 X 2 0 = hei |A2 |ei i − hei |A|ei i = hei |A|ej ihej |A|ei i − hei |A|ei i j
X X hei |A|ej i 2 − hei |A|ei i 2 = hei |A|ej i 2 = j
i6=j
Ma una somma di moduli si pu` o annullare solo se ciascuno di essi `e uguale a 0, e quindi necessariamente Aij si annulla se i 6= j, che significa appunto che |ei i `e autostato di A. Abbiamo visto che se due operatori non commutano, essi non possono essere simultaneamente diagonalizzati. Quindi, il risultato che abbiamo appena dimostrato implica che se due operatori non commutano, allora il sistema deve necessariamente trovarsi in uno stato in cui almeno uno dei due ha indeterminazione diversa da zero. Possiamo in effetti dimostrare che l’indeterminazione di una coppia di operatori deve sempre soddisfare una disuguaglianza: il principio di indeterminazione.
2.2 Indeterminazione
35
Prima di arrivare al principio di indeterminazione abbiamo bisogno di alcune disuguaglianze preliminari. Per prima cosa, dimostriamo la Disuguaglianza di Schwarz: Dati due operatori autoaggiunti A, B, hψ|AB|ψi 2 ≤ hψ|A2 |ψihψ|B 2 |ψi, (2.56) che possiamo riscrivere definendo gli stati |αi e |βi A|ψi = |αi e B|ψi = β,
(2.57)
in termini dei quali la Eq. (2.56) prende la forma hα|βi 2 ≤ hα|αihβ|βi.
(2.58)
In questa forma, la disuguaglianza `e la consueta disuguaglianza triangolare, che afferma che il prodotto scalare di due vettori `e al pi` u pari al prodotto delle loro lunghezze. Decomponiamo ora il ket |αi separando la parte lungo |βi: |αi = z|βi + |δi,
(2.59)
hβ|αi = zhβ|βi + hβ|δi = zhβ|βi,
(2.60)
dove |δi `e tale che hβ|δi = 0. Ne segue che
e quindi z=
hβ|αi . hβ|βi
(2.61)
Vediamo quindi facilmente che 2
hα|αi = |z| hβ|βi + hδ|δi =
hβ|αi 2 hβ|βi
+ hδ|δi,
dove nel secondo passaggio abbiamo usato la Eq. (2.61). Pertanto, 2 2 hα|αihβ|βi = hβ|αi + hδ|δihβ|βi ≥ hβ|αi ,
(2.62)
(2.63)
ossia hα|βi 2 ≤ hα|αihβ|βi,
(2.64)
che `e appunto la disuguaglianza di Schwarz. Dimostriamo quindi una seconda disuguaglianza ausiliaria: hψ|AB|ψi 2 ≥ 1 hψ|[A, B]|ψi 2 . 4
(2.65)
Si dimostra facilmente che AB pu` o essere decomposto nella somma di una parte hermitiana {A, B}/2 e una parte antihermitiana [A, B]/2. Inoltre osserviamo che gli elementi di matrice diagonali di un operatore hermitiano sono reali, mentre gli elementi di matrice diagonali di un operatore anti-hermitiano sono immaginari puri. Infatti se X = X † hψ|X † |ψi = (hψ|X|ψi)∗ = hψ|X|ψi,
(2.66)
dove nel primo passaggio abbiamo usato la definizione di aggiunto e nel secondo l’hermiticit`a. Analogamente se Y = −Y † hψ|Y † |ψi = (hψ|Y |ψi)∗ = −hψ|Y |ψi.
(2.67)
36
Propriet` a quantistiche
Questo significa che, se indichiamo con z = hψ|AB|ψi, 1 hψ|{A, B}|ψi 2 1 iy ≡ iIm z = hψ|[A, B]|ψi, 2 x ≡ Re z =
(2.68) (2.69)
e, di conseguenza, hψ|AB|ψi 2 = |z|2 = x2 + y 2 ≥ y 2 = 1 hψ|[A, B]|ψi 2 = 1 hψ|[A, B]|ψi 2 . 2 4
(2.70)
Combinando le due disuguaglianze Eq. (2.64) ed Eq. (2.65) possiamo dimostrare ora il principio di indeterminazione, che dice che per ogni coppia di operatori hermitiani C, D, ∆2 Cψ ∆2 Dψ ≥
2 1 hψ|[C, D]|ψi . 4
(2.71)
Combinando le Eq. (2.64), Eq. (2.65) abbiamo infatti hψ|A2 |ψihψ|B 2 |ψi ≥
2 1 hψ|[A, B]|ψi 4
(2.72)
valida per ogni coppia A,B di operatori hermitiani. In particolare, definiti A ≡ C − hCi,
B ≡ D − hDi,
(2.73)
hψ|B 2 |ψi = ∆2 Dψ ,
(2.74)
abbiamo hψ|A2 |ψi = ∆2 Cψ ; e [A, B] = [C − hCi, D − hDi] = [C, D],
(2.75)
da cui ∆2 Cψ ∆2 Dψ ≥
2 1 hψ|[C, D]|ψi , 4
(2.76)
come si voleva dimostrare.
2.3
Informazione quantistica
La teoria dell’informazione quantistica si pone la domanda di come un sistema quantistico possa essere utilizzato per accumulare, trasmettere, ed elaborare informazione. Qui ci poniamo le pi` u semplici domande che ne sono alla base, nel caso pi` u semplice possibile di un sistema di un solo qubit: qual `e la maggior quantit` a di informazione che `e possibile estrarre da un sistema quantistico? Come possiamo codificarla? Qual `e la pi` u generale misura? Possiamo determinare lo stato di un sistema quantistico?
2.3.1
L’informazione in un qubit
Consideriamo il ket di stato per un sistema a due livelli |ψi = a+ |+i + a− |−i. Quanta informazione contiene, e come possiamo estrarla?
(2.77)
2.3 Informazione quantistica
37
A priori, lo stato Eq. (2.77) `e determinato dai due coefficienti complessi a± , quindi da quattro numeri reali. Di questi per` o uno `e determinato per normalizzazione. Inoltre, osserviamo che la fase globale di |ψi non `e misurabile. Infatti, la probabilit` a di qualunque misura `e Pi = |hei |ψi|2 ,
(2.78)
e quindi `e invariante sotto la trasformazione |ψi → eiθ |ψi. La classe di equivalenza di stati che differiscono per una fase `e nota come raggio in uno spazio di Hilbert. Quindi pi` u propriamente gli stati di un sistema quantistico non sono vettori, bens`ı raggi, cio`e classi di equivalenza di vettori, in uno spazio di Hilbert. Ne concludiamo quindi che l’informazione contenuta nello stato |ψi `e parametrizzata da due numeri reali, i due coefficienti complessi a meno della normalizzazione e della fase relativa, che possiamo quindi scegliere ad esempio come a+ = ρ
(2.79) 1 2
a− = (1 − ρ2 ) eiθ ,
(2.80)
Questi coefficienti ci danno solo la probabilit`a dei risultati di misure. Per`o supponendo di poter preparare tanti sistemi tutti nello stesso stato (ad esempio, tante molecole nell’esperimento di Zeilinger ed Arndt, tutte nello stesso stato iniziale), possiamo cercare di determinare questi coefficienti. Se sappiamo di avere a che fare con un sistema che `e appena stato preparato attraverso la misura di un’osservabile, ci basta eseguire una nuova misura della stessa osservabile per determinare in che stato `e il sistema. Infatti, sappiamo che si deve trovare in un autostato dell’osservabile, e una misura ripetuta lo riveler` a nell’autostato nel quale la prima misura lo ha posto con probabilit`a 100%. Nel caso di degenerazione, naturalmente, servir` a un insieme completo di osservabili. Ma se non sappiamo in che stato il sistema `e stato preparato, oppure se il sistema `e cambiato nel tempo dopo la preparazione, vi sar` a una distribuzione di probabilit` a di risultati possibili per la misura di qualunque osservabile. Consideriamo inizialmente una osservabile A, e scegliamo gli autovettori di base |±i come i suoi autovettori: A = λ+ |+ih+| + λ− |−ih−|
(2.81)
Il valor medio di questa osservabile nello stato del sistema `e hψ|A|ψi = hAi = P+ λ+ + P− λ− ,
(2.82)
con P+ = |a+ |2 ,
P− = |a− |2 .
(2.83)
Queste probabilit` a sono interamente determinate dal valor medio: λ+ P+ + λ− P− = hAi P+ + P− = 1.
(2.84) (2.85)
Quindi, per un sistema bipartito, la misura del valor medio di un’osservabile determina interamente la distribuzione di probabilit` a dei risultati della misura di quella osservabile. Non possiamo per`o apprendere nulla sulla fase relativa, visto che qualunque misura di A non ne dipende. Per avere ulteriori informazioni sul sistema siamo obbligati a effettuare misure di (almeno) un’altra osservabile, incompatibile con A. Infatti, se consideriamo invece una nuova osservabile A0 compatibile con A abbiamo A0 = λ0+ |+ih+| + λ0− |−ih−|,
(2.86)
hA0 i = P+ λ0+ + P− λ0− ,
(2.87)
da cui
che nuovamente ci permette di determinare P+ e P− , ma non la fase relativa. Ci chiediamo quindi quali misure determinano lo stato completamente.
38
Propriet` a quantistiche
2.3.2
La matrice densit` a
Le misure di valor medio che abbiamo visto finora possono essere caratterizzate in termini dell’operatore densit` a o matrice densit` a del sistema. Per un sistema che si trova in uno stato |ψi la matrice (od operatore) densit` a `e definita come ρψ = |ψihψ|
(2.88)
ed `e ovviamente un operatore hermitiano. La matrice densit` a permette di caratterizzare facilmente il valor medio delle misura di osservabili sul sistema: abbiamo infatti che hAi = Tr(Aρ),
(2.89)
dove la traccia di un generico operatore O, che denotiamo Tr(O), `e definita come Tr(O) =
X hei |O|ei i,
(2.90)
i
dove |ei i `e una qualunque base ortonormale per il sistema. Per vedere questo, supponiamo dapprima che |ei i siano autostati di A, A|ei i = λi |ei i. Allora Tr(Aρ) =
X X X X 2 X hei |Aρ|ei i = hei |A|ψihψ|ei i = λi hei |ψihψ|ei i = λi hei |ψi = λi Pi = hAi. i
i
i
i
i
(2.91) Ma ora osserviamo che la traccia `e indipendente dalla base. Per vederlo, notiamo prima che la traccia `e ciclica, cio´e `e invariante per permutazioni: Tr(O1 O2 · · · On ) = Tr(Oσ(1) Oσ(2) . . . Oσ(n) )
(2.92)
dove (σ(1), σ(2), . . . σ(n)) `e una permutazione ciclica di (1, 2, . . . n). Questo si dimostra facilmente: riferendoci per semplicit` a al al caso di n = 2 operatori abbiamo che X X X X = hei |O1 O2 |ei i = hei |O1 |ej ihej |O2 |ei i = hej |O2 |ei ihei |O1 |ej i = hej |O2 O1 |ej i. (2.93) i
ij
ij
j
Allora, notando che sotto cambiamenti di base O → U OU † , dove U `e un operatore unitario, concludiamo che Tr(U OU † ) = Tr(U † U O) = Tr(O),
(2.94)
quindi la traccia non dipende dalla base. Concludiamo quindi che la propriet` a data dalla Eq. (2.91) `e vera indipendentemente dalla scelta di base, e quindi X Tr(Aρ) = he0i | (A|ψihψ|) |e0i i = hψ|A|ψi. (2.95) Notiamo infine che la matrice densit` a soddisfa per definizione la propriet`a di normalizzazione sotto traccia Tr(ρ) = 1.
(2.96)
Infatti Tr(ρ) =
X X X hei |ψj ihψj |ei iPi = Pi hψi |ψi i = Pi = 1. i,j
i
i
(2.97)
2.3 Informazione quantistica
39
Stati puri e stati misti Il formalismo della matrice densit` a permette di descrivere anche la situazione in cui si ha informazione incompleta sullo stato di un sistema quantistico, cio`e la situazione in cui, anzich´e sapere che il sistema si trova nello stato |ψi, possiamo solo dire che il sistema ha una certa probabilit`a Pi di trovarsi in ciascuno degli stati |ψi i. Questo `e l’analogo quantistico della situazione statistica classica, in cui il sistema `e un ensemble di sottosistemi (ad esempio, un insieme di particelle), e sono note solo le propriet`a collettive di questo ensemble. Distinguiamo quindi due situazioni. Nella prima, il sistema si trova in uno stato puro |ψi, vale a dire che sappiamo esattamente in che stato si trovi il sistema, nel qual caso la matrice densit`a `e ρ = |ψihψ|.
(2.98)
La possibilit` a alternativa `e che il sistema si trovi in uno stato misto (o una miscela di stati), cio`e in ciascuno degli stati |ψi i con probabilit` a Pi . In tal caso, la matrice densit`a `e X X ρ= Pi |ψi ihψi | = Pi ρ i , (2.99) i
i
dove nell’ultimo passaggio abbiamo posto ρi = |ψi ihψi |. In questa situazione pi` u generale, la matrice densit`a permette di calcolare il valore medio di qualunque misura, che `e sempre dato dalla Eq. (2.89), purch`e gli stati |ψi i siano correttamente normalizzati: hψi |ψi i = 1. Notiamo che questo resta vero anche se gli stati |ψi i non sono ortogonali. Abbiamo infatti X X X hAi = Tr(Aρ) = hej |Aρ|ej i = hej |A|ψi ihψi |ej iPi = hψi |ej ihej |A|ψi iPi j
ij
ij
X = hψi |A|ψi iPi , i
che `e la media pesata dalla probabilit` a Pi della media in ciascuno degli n stati |ψi i. Questo `e vero anche quando gli stati |ψi i non sono ortogonali perch´e la matrice densit`a per uno stato misto corrisponde ad una miscela classica di stati, non ad una sovrapposizione quantistica. In una sovrapposizione quantistica, il risultato di una misura `e o l’uno, o l’altro, e quindi gli stati devono essere ortogonali. In una sovrapposizione classica, si sta solo dicendo che c’`e una certa probabilit`a che i risultati siano caratterizzati da un dato valoro medio. In tal caso caso, basta che le corrispondenti probabilit` a sommino ad uno, ma ovviamente i risultati delle misure, essendo a loro volta dei valori medi, non devono necessariamente essere esclusivi. Possiamo illustrare la differenza tra uno stato sovrapposizione ed una miscela statistica con un semplice esempio. Un esempio di stato (puro) sovrapposizione `e lo stato 1 |ψ1 i = √ |+i + |−i , 2
ρψ1 = |ψ1 ihψ1 |
Questo stato `e autostato dell’operatore la cui matrice nella base degli stati |±i `e data da 0 1 A= 1 0 Pertanto una misura di A produce il risultato Tr(Aρψ1 ) = hAiψ1 = hψ1 |A|ψ1 i = 1 Infatti facendo la misura troviamo sempre l’autovalore corrispondente e tale autovalore `e uguale a 1. Un esempio di stato misto `e uno stato che ha il 50% di probabilit`a di essere in |+i e il 50% di essere in |−i, per cui 1 1 ρm = |+ih+| + |−ih−|. 2 2
40
Propriet` a quantistiche
La misura di A in questo stato produce il risultato Tr(Aρm ) =
1 1 h+|A|+i + h−|A|−i = 0. 2 2
Vediamo quindi che il valor medio della misura di A d`a risultati diversi, mostrando cos`ı la differenza tra miscela statistica e sovrapposizione quantistica. ` da notare tuttavia che una misura dell’operatore E 1 0 B= , 0 −1 i cui autostati sono gli stati |±i d` a invece lo stesso risultato sia per lo stato puro che per lo stato misto in esame: Tr(Bρm ) = Tr(Bρψ1 ) = 0. Infatti, in entrambi i casi una misura ha il 50% di rivelare il sistema nello stato |+i ed il 50% di rivelarlo il sistema nello stato |−i. Quindi `e possibile distinguere tra uno stato puro ed uno stato misto, ma non `e detto che una misura qualunque lo permetta. Come possiamo caratterizzare la matrice densit`a, in modo da distinguere il caso di stato puro da quello di stato misto? Potrebbe infatti non essere immediatamente evidente se una particolare matrice densit` a corrisponda a uno stato puro oppure ad uno stato misto. Basta per`o esaminare ρ2 : `e facile vedere che se il sistema `e in uno stato puro, allora ρ2 = ρ. Infatti, per uno stato puro ρ2 = |ψihψ|ψihψ| = |ψihψ| = ρ.
(2.100)
La condizione `e anche necessaria. Ricordiano infatti che la matrice densit`a soddisfa la condizione di normalizzazione sotto traccia Eq. (2.96). Ma X X X |ψi ihψi |ψj ihψj | Pi Pj = Tr(ρ2 ) = Tr hek |ψi ihψi |ψj ihψj |ek iPi Pj = |hψi |ψj i|2 Pi Pj . (2.101) ij
ij
ijk
Se lo stato `e misto, la sommatoria contiene pi` u di un termine e quindi possiamo scrivere ! X X X X X X X Tr(ρ2 ) = Pi2 + Pi Pj |hψi |ψj i|2 < Pi2 + Pi Pj = Pi Pj = Pi Pj = 1, i
i6=j
i
i6=j
ij
i
j
(2.102) dove abbiamo sfruttato il fatto che hψi |ψj i < 1 se i 6= j e i due ket sono entrambi normalizzati, in conseguenza della disuguaglianza triangolare Eq. (2.58). L’unico modo di avere una uguaglianza, anzich´e una disuguaglianza stretta, `e che il termine con i 6= j sia assente, cio´e che la somma abbia un solo termine. Se vi sono pi` u termini, e quindi lo stato `e misto, allora la Eq. (2.102) mostra che ρ2 ha traccia diversa da ρ, e quindi non pu` o essere uguale a ρ. Dunque per uno stato misto ρ2 6= ρ e la condizione ρ2 = ρ `e necessaria e sufficiente affinch´e lo stato sia puro. Concludiamo pertanto che uno stato `e puro se e solo se la matrice densit`a `e un operatore di proiezione. Naturalmente, possiamo in modo del tutto equivalente usare la condizione sulla traccia per caratterizzare lo stato, in quanto l’argomento precedente implica che Tr(ρ2 ) = 1 stato puro,
Tr(ρ2 ) < 1 stato misto.
(2.103)
Nel caso particolare di un sistema bipartito vi `e un altro criterio. Infatti, in questo caso in ogni base vi sono solo due vettori. Quindi, un operatore di proiezione `e caratterizzato dal fatto di avere un autovettore pari ad uno (lo stato su cui si proietta) e un altro uguale a zero (lo stato ad esso ortogonale). Quindi, una matrice densit` a (cio´e una matrice hermitiana con traccia uguale ad uno) con un autovalore nullo ´e
2.3 Informazione quantistica
41
automaticamente un operatore di proiezione, e perci`o corrisponde ad uno stato puro. Ne segue che per un sistema bipartito uno stato `e puro se e solo se Y det(ρ) = Pi = 0. (2.104) i
Notiamo che per un sistema con N > 2 stati la condizione `e necessaria ma non sufficiente: infatti il determinante potrebbe annullarsi per uno degli stati, ma il sistema potrebbe essere misto, e sovrapposizione dei restanti N − 1 stati.
2.3.3
La pi` u generale misura
In definitiva, una misura `e interamente specificata noto l’operatore associato all’osservabile che viene misurata, e la matrice densit` a associata allo stato (puro o misto) in cui il sistema si trova. Ma la pi` u generale osservabile `e il pi` u generale operatore hermitiano, e la pi` u generale matrice densit`a `e il pi` u generale operatore hermitiano con traccia uguale ad uno (e, per uno stato puro, tale che il suo quadrato `e uguale a se stesso). Per un sistema bipartito `e facile caratterizzare questi oggetti nel caso pi` u generale. Matrici di Pauli Per un sistema bipartito, sia la matrice densit`a che un operatore generico possono essere rappresentati come una matrice hermitiana due per due, in una qualunque base. Una generica matrice hermitiana due per due Mij `e caratterizzata da quattro parametri reali: infatti, i suoi due elementi diagonali sono reali, Mii = Mii† = Mii∗ , con i = 1, 2, mentre i sue due elementi non-diagonali sono uno il complesso coniugato † ∗ dell’altro M12 = M12 = M21 . Conviene quindi introdurre un insieme di quattro matrici hermitiane due per due linearmente indipendenti (tali cio`e che nessuna di esse possa essere ottenuta come combinazione lineare delle altre. Una scelta conveniente `e data dalla matrice identit`a e della tre matrici di Pauli definite come: 1 0 I= (2.105) 0 1 0 1 σ1 = (2.106) 1 0 0 −i σ2 = (2.107) i 0 1 0 σ3 = , (2.108) 0 −1 che indichiamo collettivamente come σi , supponendo che i = 0, 1, 2, 3 e ponendo convenzionalmente σ0 = I. Queste quattro matrici hanno l’utile propriet`a 0 i 6= j Tr(σi σj ) = , (2.109) 2 i=j che segue dal fatto che per i = 1, 2, 3 il prodotto di due qualunque di queste matrici diverse fra di loro `e proporzionale ad un’altra di esse mentre Trσi = 0,
(2.110)
σi2 = I.
(2.111)
e che per i = 0, 1, 2, 3
Possiamo interpretare la Eq. (2.109) come una relazione di ortonormalit`a, interpretando la traccia del prodotto di due matrici come un prodotto scalare far di esse.
42
Propriet` a quantistiche
In termini di matrici di Pauli, una generica matrice hermitiana pu`o essere scritta come a + b3 b1 − ib2 M = aI + ~b · ~σ = aI + b1 σ1 + b2 σ2 + b3 σ3 = . b1 + ib2 a − b3
(2.112)
Questa `e dunque la pi` u generale osservabile. La pi` u generale matrice densit` a deve soddisfare l’ulteriore condizione che la sua traccia sia pari a 1. Ma Tr(M ) = 2a,
(2.113)
quindi la pi` u generale matrice densit` a pu` o essere scritta nella forma della Eq. (2.112), ma con a = Possiamo utilmente riscrivere questo risultato nella forma ρ=
1 (I + p~ · ~σ ), 2
1 2.
(2.114)
dove quindi p~ = 2~b. Infine, la matrice densit` a per uno stato puro nel caso bipartito deve soddisfare la condizione che il suo determinante si annulli. Ma det(ρ) =
1 1 (1 − p21 − p22 − p23 ) = 1 − |~ p|2 4 4
(2.115)
quindi uno stato puro ha una matrice densit`a della forma Eq. (2.114), ma con |~ p| = 1.
(2.116)
Ne segue che generica matrice densit` a per uno stato puro `e caratterizzata da due numeri reali, in quanto trovati due elementi del vettore p~ il terzo `e determinato dalla condizione Eq. (2.116), in accordo con la nostra conclsuione che un generico stato quantistico (puro) `e determinato da due numeri reali. Determinazione dello stato Possiamo ora rispondere alla domanda che ci siamo posti al termine della sezione 2.3.1, e cio`e come si pu` o determinare completamente lo stato di un sistema supponendo di poter preparare molti sistemi nello stesso stato, ed eseguire misure ripetute su di essi. Utilizzando la Eq. (2.109) vediamo immediatamente che il valor medio della misura di una osservabile il cui operatore `e una matrice di Pauli `e 1 Tr(ρσi ) = Tr (I + p~ · ~σ )σi = pi . (2.117) 2 Quindi per determinare completamente uno stato `e sufficiente essere in grado di effettuare misure ripetute di una coppia di osservabili che siano linearmente indipendenti se sviluppate su una base di matrici di Pauli. Le considerazioni fatte fin qui per i sistemi di un qubit possono essere estese a sistemi pi` u complicati considerando sistemi di molti qubit, ossia sistemi il cui vettore di stato `e il prodotto diretto di tanti ket |ψii , ciascuno dei quali `e uno stato che vive in uno spazio a due livelli: |Ψi = |ψi1 ⊗ |φi2 ⊗ · · · ⊗ |χin ,
(2.118)
ed in generale gli stati nei vari sottospazi sono diversi fra loro.
2.3.4
Il teorema di no-cloning
Abbiamo visto che `e possibile determinare completamente lo stato di un sistema se si suppone di poter preparare un numero arbitrariamente grande di sistemi in quello stato, ed effettuando misure ripetute su di essi. Per esempio, nell’esperimento di Zeilinger possiamo misurare la distribuzione di probabilit` a
2.3 Informazione quantistica
43
di arrivo delle molecole sullo schermo ripetendo la misura con tante molecole. Se le molecole sono tutte preparate nello stesso stato, questa probabilit`a `e determinata dal vettore di stato del sistema. Ci si pu` o chiedere se ci` o sia possibile su un sistema unico, “clonando” lo stato. L’idea `e la seguente. Supponiamo che il sistema sia in uno stato di tanti qubit, della forma della Eq. (2.118), e che esso si trovi in uno stato |Ψi = |φi1 ⊗ |xi2 ⊗ · · · ⊗ |xin ,
(2.119)
dove gli stati |xii sono stati sconosciuti qualunque. Supponiamo che esista una macchina, ossia un’evoluzione unitaria, che prende tale stato, e lo fa evolvere nello stato |Ξi = |φi1 ⊗ |φi2 ⊗ · · · ⊗ |φin .
(2.120)
Chiamiamo questa macchina un quantum cloning device, in quanto essa ha copiato lo stato |φi1 dal primo sottosistema a tutti gli altri. Se questa macchina esiste, `e chiaro che possiamo eseguire una unica misura sullo stato |Ξi Eq. (2.120) che determina completamente lo stato |φi, purch`e il numero di sottosistemi sia sufficientemente grande, misurando due osservabili ortogonali (due matrici di Pauli) ciascuno sulla met`a dei sottosistemi. Ma ci` o non `e possibile1 , come si vede considerando il caso pi` u semplice di due sottosistemi. In tal caso, ci chiediamo se esista un operatore unitario tale che per qualunque stato |αi = U (|ψi ⊗ |xi) = |ψi ⊗ |ψi.
(2.121)
Visto che ci` o deve essere vero per qualunque stato, allora anche |βi = U (|ϕi ⊗ |xi) = |ϕi ⊗ |ϕi.
(2.122)
Ma se l’operatore U che realizza la clonazione `e unitario il prodotto scalare tra gli stati |αi e |βi prima e dopo la “clonazione” deve restare invariato: hβ|αi = hϕ|ψihx|xi = hψ|ϕihψ|ϕi,
(2.123)
dove il primo risultato `e calcolato prima della clonazione, ed il secondo, dopo. Usando la condizione di normalizzazione hx|xi = 1 si ottiene 2 hϕ|ψi = hϕ|ψi
(2.124)
il che comporta hϕ|ψi = 1
oppure hϕ|ψi = 0.
(2.125)
Si possono quindi clonare gli stati di una base ortonormale. Ma questo non aggiunge nulla a quanto si pu` o fare con una misura: se sappiamo che lo stato che ci viene dato `e uno o l’altro di una certa base ortormale, allora possiamo determinare quale eseguendo una misura, e quindi “clonarlo” eseguendo la stessa misura sugli altri stati e scartando gli stati per i quali la misura non d`a il risultato desiderato. Ma non pu` o esistere un dispositivo che cloni uno stato generico. Ne concludiamo che le misure quantistiche sono inevitabilmente distruttive. Il singolo stato non ha una realt` a fisica: non contiene nient’altro che informazione sui risultati delle misure ripetute, ciascuna delle quali `e intrinsecamente probabilistica.
1 W.K Wootters e W.H Zurek, A Single Quantum Cannot be Cloned, Nature 299 (1982), 802; D. Dieks, Communication by EPR devices, Phys. Lett. A92 (1982) 271.
44
Propriet` a quantistiche
Parte II
Fondamenti della meccanica quantistica
Capitolo 3
Quantizzazione canonica: la meccanica quantistica Giunti a questo punto, possiamo cominciare a costruire la meccanica quantistica. Applichiamo cio`e i principi di base discussi fino ad ora alla meccanica. I sistemi di cui ci occupiamo a partire da questo momento vivono in uno spazio delle configurazioni: l’osservabile di base `e la posizione, da cui possiamo tentare di derivare l’altra osservabile che caratterizza completamente lo spazio delle configurazioni classico, ossia la velocit` a, o l’impulso. Questo comporta qualche complicazione formale perch´e lo spazio delle configurazioni ha dimensione infinita, con la potenza del continuo. Costruiamo dapprima le osservabili posizione ed impulso, secondo un procedimento che va sotto il nome di quantizzazione canonica (ossia standard), che ci permette di costruire gli operatori quantistici associati alle osservabili meccaniche. Questo porta naturalmente alla versione quantistica della formulazione Hamiltoniana della meccanica. Costruiamo quindi, con lo stesso procedimento, le leggi del moto che forniscono la dipendenza temporale del sistema, e sono quindi l’analogo quantistico delle leggi del moto classiche.
3.1
La rappresentazione delle coordinate
Consideriamo un sistema per il quale l’osservabile `e la posizione. Per semplicit`a, consideriamo il caso unidimensionale: la posizione del sistema pu`o essere pensata come un punto su una retta, oppure una posizione descritta da una coordinata lagrangiana generalizzata. In qualunque situazione realistica, nessuna posizione pu`o essere misurata con accuratezza infinita, n´e pu` o essere misurata in tutto lo spazio: quindi strettamente parlando l’insieme delle posizioni `e sempre finito, la posizione p` uo solo essere assegnata su un segmento di lunghezza finita, diviso in intervalli di larghezza pari alla risoluzione dell’apparato di miusro. Lavorare con un numero finito di stati comporterebbe un maggiore rigore matematico, ma una notevole complicazione pratica: per esempio, la velocit` a, che `e una derivata, diventa una differenza finita. Quindi in pratica risulta pi` u comodo supporre che il sistema vive nel continuo; il prezzo da pagare `e una maggior complicazione (od un minor rigore) del formalismo dal punto di vista matematico
3.1.1
L’operatore posizione
Consideriamo quindi un sistema che vive in uno spazio unidimensionale, per cui l’osservabile `e la posizione, dimodoch´e il ket di stato |ψi fornisce l’ampiezza di probabilit`a di misure di posizione. Definiamo quindi un operatore posizione x ˆ, i cui autostati |xi corrispondono a stati di definita posizione, ed in cui autovalori x ad essi relativi forniscono il valore della posizione stessa: x ˆ|xi = x|xi.
(3.1)
48
Quantizzazione canonica: la meccanica quantistica
Il significato di questa scrittura `e che noi stiamo supponendo che esista un sistema (quantistico) di cui possiamo misurare la posizione, che chiamiamo x. I postulati della meccanica quantistica ci dicono che dopo una misura di posizione questo sistema si trova in uno stato ben determinato: chiamiamo |xi lo stato in cui si trova qujando la misura di posizione d`a come risultato x. Definiamo inoltre x ˆ come l’operatore hermitiano i cui autovettori ed autovalori sono rispettivamente |xi ed x. Quindi, la Eq. (3.1) va presa come la definizione dell’operatore posizione. La componente di uno stato generico |ψi lungo il vettore |xi, autostato della posizione, `e hx|ψi = ψ(x). Al solito, il modulo quadro di questa componente ψ(x) 2 = hx|ψi 2 = p(x)
(3.2)
(3.3)
`e la probabilit` a che il sistema si trovi nel punto x. Osserviamo tuttavia che, visto che x `e una variabile continua, p(x) `e una densit` a di probabilit` a, anzich´e una probabilit`a vera e propria, che si ottiene da essa per integrazione. Infatti, la probabilit` a che il sistema si trovi tra x e x + ∆ `e data da Z x+∆ 2 (3.4) P∆ [x, x + ∆] = dx0 ψ(x0 ) . x
La funzione ψ(x) Eq. (3.2) `e detta funzione d’onda del sistema. Una descrizione matematicamente rigorosa dello spazio degli stati fisici per un sistema siffatto richiede il concetto di “ spazio di Hilbert equipaggiato”. Non approfondiremo questi aspetti matematici, e ci accontenteremo del formalismo introdotto negli anni ’30 da Dirac per descrivere questa situazione, che fu messo su basi matematiche solide solo molto pi` u tardi, negli anni ’50.
3.1.2
La distribuzione delta di Dirac
Ci chiediamo cosa diventino nel caso infinito-dimensionale la relazione di completezza e la condizione di ortonormalizzazione degli stati. Se gli autostati della posizione fossero un insieme discreto, potremmo scrivere una relazione di P completezza della forma |ψi = i |ei ihei |ψi decomponendo |ψi come: X X |ψi = |xi ihxi |ψi = ψ(xi )|xi i. (3.5) i
i
Nel limite continuo questa diventa Z |ψi =
Z dx|xihx|ψi =
dx ψ(x)|xi :
(3.6)
Questa scrittura ci obbliga ad introdurre un oggetto peculiare, la delta di Dirac. Si tratta di un oggetto matematico che prende il nome di distribuzione; la teoria fu costruita negli anni ’50, principalmente grazie a Laurent Schwartz (1925-2002). Per capirne la necessit`a, scriviamo l’elemento di matrice di |ψi su un autostato della posizione utilizzando la risoluzione dell’identit`a appena introdotta: Z Z 0 0 0 ψ(x) = hx|ψi = dx hx|x ihx |ψi = dx0 hx|x0 iψ(x0 ). (3.7) Ma la funzione d’onda ψ(x) `e una qualunque funzione a valori complessi di una variabile reale. Deve quindi esistere una quantit` a hx0 |xi ≡ δ(x0 , x).
(3.8)
tale che f (x0 ) =
Z
dx f (x)δ(x0 , x),
(3.9)
3.1 La rappresentazione delle coordinate
49
Properiet` a della delta La definizione Eq. (3.9) implica diverse propriet`a interessanti: 1. Normalizzazione: Z
dx δ(x, x0 ) = 1.
(3.10)
Dimostrazione: segue dalla Eq. (3.9) quando f (x) = 1. 2. Invarianza per traslazioni: δ(x0 , x) = δ(x0 + a, x + a) Dimostrazione: Z ∞ Z 0 0 0 dx δ(x + a, x + a)f (x ) = −∞
∞ 0
0
0
(3.11)
Z
∞
dx hx + a|x + aif (x ) =
−∞
dx00 hx + a|x00 if (x00 − a)
−∞
(3.12) avendo posto x00 = x0 + a. Ma Z ∞ Z 00 00 00 dx hx + a|x if (x − a) = dx00 δ(x + a, x00 )f (x00 − a) = f (x + a − a) = f (x).
(3.13)
−∞
Questa propriet` a implica, equivalentemente, che la delta non dipende separatamente da x e da x0 , ma solo dalla loro differenza. D’ora in poi quindi scriveremo la delta come funzione di un unico argomento: δ(x − x0 ). 3. Simmetria δ(x0 − x) = δ(x − x0 ). Dimostrazione: usando nuovamente la completezza Z Z 0 0 0 hψ|xi = dx hψ|x ihx |xi = dx0 ψ ∗ (x0 )δ(x0 , x) = ψ ∗ (x).
(3.14)
(3.15)
Ma la ψ(x) `e una funzione qualunque quindi confrontando con la definizione Eq. (3.9) ne segue l’asserto. 4. xδ(x) = 0;
g(x)δ(x) = g(0)δ(x);
g(x)δ(x − x0 ) = g(x0 )δ(x − x0 ).
(3.16)
Dimostrazione: seguono immediatamente dalla definizione Eq. (3.9). 5. δ(ax) =
1 δ(x), |a|
con a una costante reale diversa da zero. Dimostrazione: 00 Z Z 1 x 1 0 0 0 00 00 dx δ(ax )ψ(x ) = dx δ(x )ψ = ψ(0), |a| a |a|
(3.17)
(3.18)
dove il valore assoluto nel secondo passaggio `e dovuto al fatto che se a < 0, il cambio di variabile di integrazione da x0 a x00 = ax scambia i due estremi di integrazione. Notiamo che l’ultima propriet` a equivale a dire che la δ si comporta come una misura di integrazione. R Infatti dx δ(x) = 1, quindi il riscalamento della x comporta che anche la δ debba riscalare come come il reciproco del proprio argomento.
50
Quantizzazione canonica: la meccanica quantistica
Significato della delta La delta di Dirac non pu` o essere interpretata come una funzione ordinaria: infatti essa `e diversa da zero solo in un punto di misura nulla e ciononostante il suo integrale vale uno, Eq. (3.10). Noi prendiamo Eq. (3.9) come definizione della delta. Questo vale a dire che definiamo la delta come un funzionale, che agendo su una funzione d` a un’altra funzione. Un altro modo di definire la delta `e come limite. Per esempio si pu` o considerare una successione di gaussiane Z
∞
(x−x0 )2 σ
e− dx √
−∞
πσ
=1
(3.19)
che diventano sempre pi` u piccate su x0 (vedi figura 3.1) Ne segue che in tale limite, la delta `e dappertutto
xʹ
Figura 3.1: δ di Dirac come limite di gaussiane. nulla, eccetto che nel punto in cui il suo argomento si annulla, dove diverge. Evidentemente non si tratta di una funzione ordinaria.
3.1.3
Relazione di ortonormalizzazione e risoluzione dell’identit` a
La delta fornisce una generalizzazione al caso continuo della relazione di ortonormalit`a. Infatti, la relazione hi|ji = δij
(3.20)
hx|x0 i = δ(x − x0 ).
(3.21)
nel continuo diventa
Si parla in questo caso di ortonormalizzazione impropria. Notiamo infatti che la “normalizzazione” non `e definita, in quanto se x = x0 la delta diverge. Veniamo ora alla risoluzione dell’identit`a. Nel caso discreto tale relazione era: X |iihi| = I (3.22) i
da cui X hen |iihi|em i = Inm . n,m
(3.23)
3.2 L’operatore impulso e le traslazioni
51
Nel caso continuo Z dx |xihx| = I,
(3.24)
e se vogliamo vedere i singoli termini di matrice ! Z Z Z 0 hx | dx |xihx| |x00 i = dx hx0 |xihx|x00 i = dx δ(x0 − x)δ(x − x00 ) = δ(x0 − x00 ) = hx0 |x00 i. (3.25) Possiamo quindi vedere la delta di Dirac come come una matrice identit`a infinito-dimensionale continua. Consideriamo infine il prodotto scalare. Si ha Z Z hϕ|ψi = dx hϕ|xihx|ψi = dx ϕ∗ (x)ψ(x), (3.26) e quindi nel caso particolare |ψi = |ϕi Z hψ|ψi =
Z dxhψ|xihx|ψi =
dx|ψ(x)|2 ,
(3.27)
cio`e la condizione di normalizzazione della densit`a di probabilit`a Eq. (3.3).
3.1.4
Operatori
Qualunque osservabile funzione delle coordinate (ad esempio, il seno oppure il coseno della coordinata) pu` o essere espressa da un operatore diagonale nella base delle coordinate. Consideriamo Θ(ˆ x), espresso come sviluppo in serie di potenze Θ(ˆ x) =
∞ X
Θi (ˆ x)i = Θ0 + Θ1 x ˆ + Θ2 x ˆ2 + ....
(3.28)
i=0
Gli elementi di matrice di Θ(ˆ x) sono hx0 |Θ(ˆ x)|xi = hx0 |
∞ X i=0
Θi (ˆ x)i |xi =
∞ X
Θi (x)i hx0 |xi = Θ(x)δ(x0 − x).
(3.29)
i=0
In particolare, se consideriamo l’operatore posizione stesso x ˆ, si ha: hx0 |ˆ x|xi = xδ(x0 − x) = xδ(x0 − x).
3.2
(3.30)
L’operatore impulso e le traslazioni
Come `e noto, la descrizione della dinamica di un sistema classico richiede che oltre alla sua posizione conosciamo la sua velocit` a (in una formulazione lagrangiana) o, equivalentemente, il suo impulso (in una formulazione hamiltoniana). Per ragioni che saranno chiare pi` u avanti, `e pi` u semplice rendere compatibili le leggi della meccanica con i principi della fisica quantistica usando il formalismo hamiltoniano. Studieremo quindi per prima la meccanica quantistica in formulazione hamiltoniana; la versione lagrangiana verr` a presentata nel capitolo 11.2. Dobbiamo perci` o capire prima di tutto come definire l’operatore impulso: avendo costruito lo spazio degli stati fisici per un sistema di cui si possa misurare la posizione, vogliamo costruire l’operatore impulso per questo sistema. Realizzeremo questo obiettivo richiedendo che la meccanica quantistica e la meccanica classica abbiano la stessa struttura di simmetria: questa ci fornir`a una procedura per la quantizzazione dei sistemi meccanici che va sotto il nome di quantizzazione canonica.
52
Quantizzazione canonica: la meccanica quantistica
3.2.1
Il teorema di Noether
In meccanica classica i risultati di misure di un sistema sono strettamente legate alle sue simmetrie. La possibilit` a di una misura presuppone infatti che una quantit`a resti invariata almeno per il tempo della misura, e le invarianze, cio`e le leggi di conservazione classiche, sono legate alle sue simmetrie. Questo legame `e dato dal teorema di Noether, che afferma che in un sistema meccanico classico c’`e una quantit` a ` quindi possibile identificare ogni osservabile classica con la conservata per ogni invarianza del sistema. E corrispondente invarianza: ci` o permette di caratterizzare le variabili indipendentemente dalla dinamica. L’asserto del teorema di Noether afferma che se c’`e una invarianza nel sistema, allora lungo le traiettorie descritte dalle soluzioni delle equazioni del moto c’`e una quantit`a che si conserva. Il risultato si dimostra per un sistema che soddisfa le equazioni del moto di Eulero-Lagrange ottenute a partire da una lagrangiana L = L(q, q) ˙ ∂L d ∂L = ; dt ∂ q˙ ∂q
(3.31)
q `e una coordinata lagrangiana generalizzata, e le equazioni del moto determinano q(t) e q(t) ˙ in termini di una condizione iniziale q(t0 ), q(t ˙ 0 ). D’ora in poi, utilizzeremo indifferentemente q o x per indicare la coordinata. Indichiamo inoltre con il punto la derivata rispetto al tempo, come si fa comunemente nel d q. Con invarianza, intendiamo che sotto la trasformazione formalismo lagrangiano: q˙ ≡ dt q → q0 ;
q˙ → q˙0
(3.32)
la lagrangiana `e invariata: L(q 0 , q˙0 ) = L(q, q). ˙
(3.33)
Per dimostrare il teorema, consideriamo il caso di trasformazioni infinitesime, cio`e q → q 0 = q + δq;
q˙ → q˙0 = q˙ +
d δq. dt
(3.34)
La variazione della lagrangiana, e quindi la condizione di invarianza Eq. (3.33) diventa δL =
∂L ∂L δq + δ q˙ = 0. ∂q ∂ q˙
(3.35)
Utilizzando l’equazione del moto Eq. (3.31) e la trasformazione infinitesima della velocit`a Eq. (3.34) la condizione di invarianza della Lagrangiana si pu`o riscrivere nella forma d ∂L ∂L d d ∂L δq + δq = δq . (3.36) 0= dt ∂ q˙ ∂ q˙ dt dt ∂ q˙ Ne segue che la quantit` a Q=
∂L δq, ∂ q˙
(3.37)
detta carica di Noether, si conserva: d Q = 0. dt
(3.38)
` facile vedere che quando la lagrangiana `e invariante per traslazioni la carica di Noether conservata E coincide (a meno di una costante) con l’impulso. La trasformazione della coordinata sotto traslazioni `e infatti q → q 0 = q + δ,
(3.39)
3.2 L’operatore impulso e le traslazioni
53
e quindi δq = δ.
(3.40)
Perci` o Q=
∂L δ = pδ. ∂ q˙
(3.41)
Ma δ `e una costante arbitraria, quindi la Eq. (3.41) dice che l’impulso p si conserva.
3.2.2
Le traslazioni in meccanica quantistica
In meccanica classica, l’impulso `e la quantit`a conservata quando vi `e invarianza per traslazioni. Costruiamo quindi l’operatore impulso quantistico come l’operatore i cui autovalori si conservano quando vi `e invarianza per traslazioni. Sorprendentemente, vediamo che possiamo determinare completamente il risultato anche senza conoscere ancora le leggi del moto che forniscono l’evoluzione temporale dei sistemi quantistici, e limitandoci a supporre che valgano i principi della fisica quantistica che abbiamo studiato finora. La procedura che seguiremo pu` o essere seguita in generale per costruire l’operatore quantistico i cui autovalori si conservano in presenza di una data invarianza, ma per semplicit`a e concretezza noi la descriveremo nel caso delle traslazioni. Per realizzare questo programma, iniziamo quindi da uno studio di come si realizzano le traslazioni per un sistema quantistico definito nello spazio delle coordinate. Possiamo vedere una traslazione come un cambiamento della base di autostati dell’operatore posizione, realizzata da un operatore Tˆ: Tˆ|qi = |q − δi.
(3.42)
Poich´e sia gli stati di partenza che quelli trasformati formano una base, e abbiamo visto che un cambiamento di base `e realizzato da una trasformazione unitaria, ne segue che l’operatore Tˆ `e unitario. L’azione di Tˆ su uno stato qualunque |ψi `e Z Z Z Tˆ|ψi = dq Tˆ|qihq|ψi = dq |q − δiψ(q) = dq 0 |q 0 iψ(q 0 + δ), (3.43) dove nell’ultimo passaggio abbiamo cambiato variabile di integrazione da q a q 0 = q − δ. Pertanto hq|Tˆ|ψi = ψ(q + δ).
(3.44)
Si arriva alla stessa conclusione sfruttando l’unitariet`a di Tˆ: Tˆ−1 |qi = Tˆ† |qi = |q + δi =⇒ hq|Tˆ = hq + δ|
(3.45)
hq|Tˆ|ψi = hq + δ|ψi = ψ(q + δ).
(3.46)
e di conseguenza
L’elemento di matrice dell’operatore traslazione Eq. (3.44) pi`o essere riscritto attraverso uno sviluppo in serie di Taylor: k ! ∞ ∞ X X d δ k (k) δk d ψ (q) = ψ(q) = eδ dq ψ(q), (3.47) ψ(q + δ) = k! k! dq k=0
k=0
dove negli ultimi due passaggi abbiamo ottenuto la serie dall’azione ripetuta dell’operatore di derivazione rispetto a q, a sua volta rappresentata come esponenziale.
54
Quantizzazione canonica: la meccanica quantistica
ˆ pu`o sempre essere scritto come esponenziale di un operOsserviamo che un operatore unitario U ˆ infatti se poniamo U ˆ = exp(iH) ˆ e supponiamo che H sia hermitiano ne segue atore hermitiano H, immediatamente che U `e unitario, perch´e † † U † = eiH = e−iH = e−iH = U −1 . (3.48) Poniamo quindi ˆ Tˆδ = eikδ .
(3.49)
Ma le Eq. (3.44,3.47) ci dicono che ˆ
d
hq|eikδ |ψi = ψ(q + δ) = eδ dq ψ(q).
(3.50)
Sviluppando al primo ordine in δ quest’ultima equazione possiamo determinare l’elemento di matrice ˆ dell’operatore k: ˆ hq|1 + ikδ|ψi + O(δ 2 ) = ψ(q) + δ
d ψ(q) + O(δ 2 ) dq
(3.51)
e quindi ˆ hq|k|ψi = −i
d ψ(q). dq
(3.52)
Vediamo cos`ı che l’azione dell’operatore di traslazione T `e interamente determinata dagli elementi di ˆ Questo `e generalmente vero quando si sfrutta la rappresentazione di un operatore matrice dell’operatore k. di trasformazione unitario in termini di esponenziale di un operatore hermitiano. L’operatore hermitiano, ˆ `e detto generatore della trasformazione. Nel nostro caso specifico, kˆ `e il generatore nel nostro caso k, delle traslazioni.
3.2.3
L’operatore impulso
Possiamo ora costruire l’operatore impulso in meccanica quantistica come la quantit`a conservata quando vi `e invarianza per traslazioni. Con “invarianza per traslazioni” intendiamo quanto segue. Supponiamo che esista un certo operatore unitario S che fornisce l’evoluzione temporale del sistema, cio`e che agendo agendo sullo stato del sistema |ψi dia lo stato evoluto ad un tempo t: S(t, t0 )|ψ(t0 )i = |ψ(t)i.
(3.53)
Usando questo operatore, possiamo calcolare l’ampiezza di probabilit`a che un sistema, preparato nello stato |ψ(t0 )i al tempo t0 , dia lo stato |ϕ(t)i se al tempo t viene eseguita una misura. L’ampiezza di probabilit` a corrispondente `e hϕ(t)|ψ(t)i = hϕ(t)|S(t, t0 )|ψ(t0 )i.
(3.54)
Diciamo che vi `e invarianza per traslazioni se eseguendo una traslazione dell’intero sistema, cio´e una traslazione di tutti gli stati, e quindi anche dello stato |ψ(t0 )i e dello stato |ϕ(t)i, i risultati delle misure restano invariati, e quindi l’ampiezza Eq. (3.54) non cambia. L’invarianza per traslazioni corrisponde quindi alla richiesta che hϕ(t)|ψ(t)i = hϕ(t)|Tˆ† S(t, t0 )Tˆ|ψ(t0 )i.
(3.55)
ˆ il membro Nel caso particolare di una trasformazione infinitesima, Tˆε = 1 + iεkˆ ( e Tˆε† = 1 − iεk) destro della Eq. (3.55) si pu` o riscrivere come ˆ ˆ hϕ(t)|Tˆ† S(t, t0 )Tˆ|ψ(t0 )i = hϕ(t)|(1 − iεk)S(t, t0 )(1 + iεk)|ψ(t 0 )i 2 ˆ ˆ = hϕ(t)|S(t, t0 )|ψ(t0 )i − iεhϕ(t)|kS(t, t0 ) − S(t, t0 )k|ψ(t 0 )i + O(ε ) ˆ S(t, t0 )]|ψ(t0 )i, = hϕ(t)|S(t, t0 )|ψ(t0 )i − iεhϕ(t)|[k,
3.2 L’operatore impulso e le traslazioni
55
e quindi la condizione di invarianza diventa ˆ S(t, t0 )]|ψ(t0 )i. hϕ(t)|ψ(t)i = hϕ(t)|S(t, t0 )|ψ(t0 )i − iεhϕ(t)|[k,
(3.56)
Si ha quindi invarianza per traslazioni se e solo se ˆ S(t, t0 )] = 0. [k,
(3.57)
ˆ Consideriamo ora gli autostati ed autovalori dell’operatore (hermitiano) k: ˆ k|ki = k|ki.
(3.58)
Utilizzando la relazione di completezza rispetto a questi stati nell’equazione Eq. (3.57) abbiamo Z ˆ S(t, t0 )]|ψ(t0 )i = dkdk 0 hϕ(t)|kihk|[k, ˆ S(t, t0 )]|k 0 ihk 0 |ψ(t0 )i 0 = hϕ(t)|[k, Z ˆ ˆ 0 ihk 0 |ψ(t0 )i = dkdk 0 hϕ(t)|kihk|kS(t, t0 ) − S(t, t0 )k|k Z = dkdk 0 hϕ(t)|ki(k − k 0 )hk|S(t, t0 )|k 0 ihk 0 |ψ(t0 )i. Ne segue che hk|S(t, t0 )|k 0 i = 0 se k 6= k 0 .
(3.59)
Ma la Eq. (3.59) `e proprio una legge di conservazione: dice che se il sistema `e in un autostato di k al tempo t0 , resta nello stesso autostato al tempo t1 : l’ampiezza che una misura lo trovi in qualunque altro autostato `e nulla. Quindi abbiamo dimostrato che se il sistema `e invariante per traslazioni, qualunque evoluzione temporale unitaria preserva l’autovalore del generatore delle traslazioni. Possiamo quindi identificare, a meno di una costante di proporzionalit`a, l’operatore impulso con l’operatore hermitiano che genera le traslazioni.
3.2.4
Operatori e leggi di conservazione
` facile vedere che l’argomento che abbiamo presentato nella Sezione 3.2.3 vale in forma del tutto generale: E se una trasformazione unitaria pu` o essere scritta come esponenziale di un generatore hermitiano, allora gli autovalori di questo operatore si conservano se e solo se esso commuta con l’operatore di evoluzione temporale. Infatti, in tutto l’argomento dato, a partire dalla Eq. (3.55) fino al risultato finale Eq. (3.59) non abbiamo mai usato il fatto che kˆ generi le traslazioni, piuttosto che qualunque altra trasformazione. Osserviamo ora che, per ragioni dimensionali, tra l’operatore impulso ed il generatore delle traslazioni deve esservi una una costante di proporzionalit`a. Infatti, le dimensioni di kˆ sono ˆ = [L]−1 , [k]
(3.60)
come si vede dalla Eq. (3.52). D’altra parte le dimensioni di pˆ sono [ˆ p] = [E][T ][L]−1 come si vede dal fatto che p =
(3.61)
∂L ∂ q˙
(ricordando che la lagrangiana `e la differenza di energia cinetica e ˆ potenziale, e quindi ha le dimensioni di energia). Ne segue che la costante di proporzionalit`a tra pˆ e k, che chiamiamo ~, pˆ = ~kˆ
(3.62)
[~] = [E][T ],
(3.63)
ha le dimensioni di
56
Quantizzazione canonica: la meccanica quantistica
ossial le dimensioni di una azione. Facciamo quindi l’ipotesi che la costante ~ sia universale: cio`e per ogni osservabile classica, facciamo l’ipotesi che l’operatore quantistico associato si possa costruire seguendo la procedura che abbiamo seguito nel caso dell’impulso. Si determina la trasformazione tale per cui l’osservabile classica `e conservata quando vi `e invarianza. Si determina il generatore di questa trasformazione sugli stati quantistici. Si identifica infine l’operatore quantistico associato all’osservabile data come questo generatore, moltiplicato per ~. La costante ~ `e nota come costante di Planck. Naturalmente, la normalizzazione dell’osservabile classica `e convenzionale (se si conserva p si conserva anche 2p, e cos`ı via), cos`ı come `e convenzionale la normalizzazione del generatore da cui si ottiene l’osservabile quantistica (nulla ci vieta di definire la traslazione come la tasformazione q → q + 2δ). Tuttavia, la normalizzazione relativa dell’osservabile classica e del generatore quantistico ha un significato assoluto, come possiamo capire studiando l’azione dell’operatore impulso sull’operatore coordinata.
3.2.5
Il commutatore canonico
Consideriamo quindi l’azione dell’operatore di traslazione Tˆ sull’operatore qˆ. Giacch´e, come si `e detto, una traslazione pu` o essere vista come un cambiamento di base nello spazio delle coordinate, ci basta ricordare la forma forma generale della trasformazione di un operatore sotto cambiamento di base, ossia l’azione aggiunta Eq. (2.25) della trasformazione: Tˆ−1 qˆTˆ|qi = Tˆ−1 qˆ|q − δi = Tˆ−1 (q − δ)|q − δi = (q − δ)Tˆ−1 |q − δi = (q − δ)|qi.
(3.64)
Tˆ−1 qˆTˆ = qˆ − δ.
(3.65)
Ne segue che
Nel caso particolare di una trasformazione infinitesima Tˆε = 1 + iεkˆ = 1 + iε ~1 pˆ si ha 1 1 −1 ˆ ˆ Tε qˆTε = 1 − iε ¯ pˆ qˆ 1 + iε ¯ pˆ = qˆ − ε, h h
(3.66)
che implica 1 qˆ − iε (ˆ pqˆ − qˆpˆ) + O(ε2 ) = qˆ − ε ~
(3.67)
[ˆ p, qˆ] = −i~.
(3.68)
e quindi
Notiamo che anche questo argomento `e del tutto generale: per qualunque trasformazione Tˆ generata ˆ la variazione di un operatore Aˆ sotto l’effetto da un generatore hermitiano G, cio`e tale che Tˆδ = exp iδ G della trasformazione `e proporzionale al commutatore del generatore con l’operatore: infatti l’operatore trasformato `e ˆ Aˆ 1 + iεG ˆ = A + i[G, A] Aˆ0 = Tˆ−1 AˆTˆ = 1 − iεG (3.69) e quindi δ Aˆ = Aˆ0 − A = i[G, A].
(3.70)
Il commutatore Eq. (3.68) `e detto commutatore canonico: il ragionamento che abbiamo fatto qui per dedurre la forma dell’operatore impulso pu` o essere equivalentemente espresso dicendo che si postula che la parentesi di Poisson classica tra le variabili p e q sia quantisticamente sostituita dal commutatore canonico. Questo modo di formulare la quantizzazione dei sistemi meccanici (quantizzazione canonica, appunto) `e dovuto a Dirac: chiedere la sostituzione delle parentesi di Poisson con i commutatori `e equivalente a richiedere l’invarianza della struttura di simmetria perch`e le parentesi di Poisson possono essere utilizzate
3.3 Base delle coordinate e base degli impulsi
57
per formulare le trasformazioni di coordinate nel caso classico (trasformazioni canoniche) e quindi le invarianze sotto di esse. Capiamo quindi che la costante ~ fornisce il fattore di conversione tra parentesi di Poisson classiche e commutatori quantistici, che, secondo la Eq. (3.70) danno la trasformazione delle osservabili, cio`e degli operatori, nel caso quantistico. Come sappiamo dalla meccanica classica, le parentesi di Poisson possono essere usate per esprimere i cambi di variabile sullo spazio delle configurazioni classico attraverso il formalismo delle trasformazioni canoniche. Capiamo quindi che la quantizzazione canonica fornisce la corrispondenza tra la meccanica classica e la meccanica quantistica traducendo le trasformazioni sullo spazio delle configurazioni classico (realizzate come trasformazioni canoniche) in trasformazioni sugli stati quantistici. Notiamo che il commutatore canonico implica immediatamente che pˆ e qˆ sono operatori incompatibili. Non possono esser diagonalizzati simultaneamente, e le loro rispettive indeterminazioni devono soddisfare, per la Eq. (2.71), la disuguaglianza ∆2 p∆2 q ≥
~2 . 4
(3.71)
La relazione di indeterminazione posizione-impulso Eq. (3.71) `e nota come principio di indeterminazione di Heisenberg.
3.3
Base delle coordinate e base degli impulsi
Poich´e gli operatori posizione e impulso non commutano, essi non possono essere diagonalizzati simultaneamente. Possiamo quindi scegliere di esprimere la meccanica (quindi, ad esempio, rappresentare stati ed operatori) nella base degli autostati dell’uno o dell’altro operatore, ma non di entrambi simultaneamente.
3.3.1
La base delle coordinate
Abbiamo costruito esplicitamente gli elementi di matrice degli operatori posizione ed impulso nella base degli austostati Eq. (3.1) |qi dell’operatore posizione: hq|ˆ q |ψi = qψ(q) d hq|ˆ p|ψi = −i~ ψ(q), dq
(3.72) (3.73)
dove la seconda equazione segue dall’identificazione Eq. (3.62) dell’operatore impulso con il generatore delle traslazioni, e dall’espressione Eq. (3.52) dell’azione di quest’ultimo sugli stati. In particolare, gli elementi di matrice degli operatori posizione ed impulso tra autostati della posizione sono dati da hq|ˆ q |q 0 i = qδ(q − q 0 ) d hq|ˆ p|q 0 i = −i~ δ(q − q 0 ). dq
(3.74) (3.75)
Verifichiamo ora che gli operatori posizione e impulso cos`ı definiti sono hermitiani. Per l’operatore posizione si ha ∗ hq 0 |ˆ q † |qi = hq|ˆ q |q 0 i = q 0 δ(q 0 − q) = qδ(q 0 − q) = hq 0 |ˆ q |qi, (3.76) avendo sfruttato l’identit` a Eq. (3.16) soddisfatta dalla delta di Dirac. Quindi l’operatore qˆ `e manifestamente hermitiano e, ovviamente, diagonale nella base delle coordinate. Per l’operatore impulso si ha ∗ d d d p|qi, hq 0 |ˆ p† |qi = hq|ˆ p|q 0 i = i~ δ(q − q 0 ) = −i~ 0 δ(q − q 0 ) = −i~ 0 δ(q 0 − q) = hq 0 |ˆ dq dq dq
(3.77)
avendo sfruttato la simmetria della delta, e l’ovvio fatto che la derivata di una funzione simmetrica `e antisimmetrica.
58
Quantizzazione canonica: la meccanica quantistica
L’hermiticit` a dell’operatore impulso ha una interessante implicazione per il prodotto scalare: infatti si ha da una parte Z Z d hϕ|ˆ p|ψi = dq hϕ|qihq|ˆ p|ψi = dq ϕ∗ (q)(−i~) ψ(q), (3.78) dq mentre l’hermiticit` a dell’operatore implica che Z ∗ Z ∗ d d dq ψ ∗ (q)(−i~) ϕ(q) = dq ψ(q)i~ ϕ∗ (q). hϕ|ˆ p|ψi = hϕ|ˆ p† |ψi = hψ|ˆ p|ϕi = dq dq
(3.79)
Ricordando la formula dell’integrazione per parti, Z
b
dx f (x) a
b Z b d d dx g(x) f (x), g(x) = f (x)g(x) − dx dx a a
(3.80)
vediamo che l’hermiticit` a `e soddisfatta e le due espressioni Eq. (3.78,3.79) sono uguali se e solo se si possono integrare le funzioni d’onda per parti ed il termine di bordo si annulla. Se lo spazio si estende da −∞ a +∞ questo `e sempre vero per stati normalizzabili in senso proprio: infatti Z ∞ 2 1 x→∞ ⇔ ψ(x) ∼ dx ψ(x) = 1 . (3.81) 1 x 2 +ε −∞ e la stessa considerazione vale per ϕ(x). Pi` u in generale, l’hermiticit`a dell’operatore impulso `e soddisfatta sotto opportune ipotesi sullo spazio degli stati fisici, ed in particolare sotto l’ipotesi che sia possibile sempre integrare per parti trascurando il termine di bordo. Fisicamente, questa `e un’ipotesi di localizzazione degli stati. Nel seguito supporremo sempre che questa ipotesi sia soddisfatta.
3.3.2
Autostati dell’operatore impulso
Poich´e posizione ed impulso non commutano, l’operatore pˆ non `e diagonale nella base delle posizioni. Determiniamo quindi i suoi autostati, ossia gli stati |ki tali che pˆ|ki = ~k|ki.
(3.82)
Ovviamente, possiamo indifferentemente decidere di etichettare gli stati con l’autovalore di pˆ o del generˆ visto che i due operatori sono proporzionali. Nella base delle posizioni gli stati atore delle traslazioni k, |ki sono delle funzioni della posizione ψk (q) ≡ hq|ki
(3.83)
hq|ˆ p|ki = ~khq|ki,
(3.84)
che soddisfano l’equazione
ossia l’equazione differenziale −i~
d ψk (q) = ~kψk (q). dq
(3.85)
ψk (q) = Nk eikq .
(3.86)
La soluzione di tale equazione `e
Le autofunzioni sono quindi onde piane. Vorremmo determinare la costante di normalizzazione Nk . Osserviamo che lo spettro di valori di k `e continuo, e quindi gli stati |ki non possono soddisfare una condizione di normalizzazione in senso proprio.
3.3 Base delle coordinate e base degli impulsi
59
Richiedendo che valga una relazione di completezza, ossia la risoluzione dell’indentit`a per questi stati, troviamo che essi devono soddisfare una condizione di normalizzazione impropria hk 0 |ki = δ(k 0 − k),
(3.87)
dimodoch´e Z ψ(k) = hk|ψi =
dk 0 hk|k 0 ihk 0 |ψi =
Z
dk 0 hk|k 0 iψ(k 0 ).
(3.88)
La costante Nk `e quindi determinata dalla condizione di normalizzazione Eq. (3.87). Utilizzando la completezza della base delle autofunzioni |qi abbiamo Z ∞ Z ∞ Z ∞ 0 0 δ(k 0 − k) = hk 0 |ki = dq e−ik q eikq = |Nk |2 dq ei(k−k )q , dq hk 0 |qihq|ki = |Nk |2 (3.89) −∞
−∞
Nk∗0 Nk
−∞
2
dove abbiamo posto = |Nk | sfruttando il fatto che il risultato deve essere proporzionale ad una δ(k − k 0 ), e dunque f (k)δ(k − k 0 ) = f (k 0 )δ(k = k 0 ). Quindi, sostituendo l’espressione esplicita Eq. (3.89) nella relazione di completezza Eq. (3.88) si trova Z ∞ Z ∞Z ∞ 0 dkdq ψ(k)ei(k−k )q |Nk |2 ψ(k 0 ) = dk ψ(k)δ(k 0 − k) = −∞ −∞
−∞
Z
∞
= lim
λ→∞
λ
−∞ ∞
= lim
0
dq |Nk |2 ei(k−k )q ψ(k) = lim
dk Z
λ→∞
Z
λ→∞
−λ
e dk |Nk |2
i(k−k0 )λ
−∞
Z
0
∞
dk|Nk |2
−∞
ei(k−k )q λ ψ(k) i(k − k 0 ) −λ
−i(k−k0 )λ
−e i(k − k 0 )
ψ(k).
(3.90)
±i(k−k0 )λ
Ciascuna delle due funzioni e i(k−k0 ) ψ(k) ha un polo semplice per k → k 0 . L’integrale ha quindi un polo semplice in k = k 0 lungo il cammino di integrazione. Esso pu`o essere definito nel senso del valor principale di Cauchy, cio`e come la media degli integrali in cui la singolarit`a viene aggirata da sopra e da sotto: "Z # Z ∞ Z ±i(k−k0 )λ ±i(k−k0 )λ ±i(k−k0 )λ 1 2e 2e 2e dk |Nk | dk |Nk | dk |Nk | = + , (3.91) i(k − k 0 ) 2 C1 i(k − k 0 ) i(k − k 0 ) −∞ C2 dove i cammini C1 e C2 sono disegnati in Figura 3.2.
Figura 3.2: Cammini di integrazione In definitiva quindi l’integrale pu` o essere scritto come la somma di quattro integrali, cio`e gli integrali delle due funzioni singolari, ciascuna integrata passando sopra o sotto la singolarit`a. Ciascuno di essi pu` o essere semplicemente calcolato mediante il teorema dei residui, osservando che se (k − k 0 )λ > 0 ( (k − k 0 )λ < 0) `e possibile chiudere il cammino nel semipiano Re > 0 (Re < 0). Si ha cos`ı Z ∞ 0 e±i(k−k )λ 0 0 2 |Nk | dk ψ(k) = πiRes(f± (k), k ) = , (3.92) 0) ±π|Nk |2 ψ(k 0 ) i(k − k −∞
60
Quantizzazione canonica: la meccanica quantistica
a seconda che la singolarit` a sia fuori (esponente positivo cammino C1 o negativo, cammino C2 ) o dentro il cammino (esponente negativo cammino C1 o positivo, cammino C2 ). Abbiamo cos`ı infine Z ∞ 0 i(k−k0 )λ − e−i(k−k )λ 0 2e ψ(k ) = lim ψ(k) = 2π|Nk |2 ψ(k 0 ). dk |Nk | (3.93) λ→∞ −∞ i(k − k 0 ) Ne deduciamo che la costante di normalizzazione cercata `e 1 , 2π
(3.94)
1 Nk = √ . 2π
(3.95)
|Nk |2 = e quindi ponendo arbitrariamente la fase uguale a uno
Possiamo interpretare quindi la Eq. (3.89) come una rappresentazione della δ di Dirac: Z ∞ 1 δ(x) = dq eiqx . 2π −∞
(3.96)
Questo significa che la δ di Dirac `e la trasformata di Fourier dell’identit`a. Concludiamo che le autofunzioni ψk (q) sono1 : 1 ψk (q) = √ eiqk 2π
3.3.3
(3.97)
La base degli impulsi
Avendo a disposizione l’espressione degli autostati dell’impulso nella base delle posizioni possiamo costruire anche l’espressione degli autostati della posizione nella base degli autostati dell’impulso. Infatti si ha 1 hq|ki = √ eikq 2π 1 −ikq , hk|qi = √ e 2π
(3.98) (3.99)
e quindi possiamo usare le hq|ki come matrice di passaggio dalla base degli autostati della posizione alla base degli autostati dell’impulso. Per uno stato fisico generico |ψi abbiamo Z Z 1 ψ(k) = dq hk|qihq|ψi = dq √ e−ikq ψ(q) (3.100) 2π Z Z 1 ψ(q) = dk hq|kihk|ψi = dk √ eikq ψ(k), (3.101) 2π ovvero ψ(q) e ψ(k) sono una la trasformata di Fourier dell’altra. Esse contengono quindi la stessa informazione: le relazioni (3.100) permettono di ricavare ψ(q) da ψ(k) e viceversa. Questo vuol dire che impulso e posizione non sono quindi indipendenti, e in effetti lo stesso vettore di stato determina la distribuzione di probabilit` a dei risultati delle misure di entrambi. Possiamo in conclusione scrivere gli autostati degli operatori posizione ed impulso sulla base degli autostati dell’impulso. Ovviamente l’operatore impulso `e diagonale nella base dei suoi autostati: hk|ˆ p|ψi = ~kψ(k); 1A
hk|ˆ p|k 0 i = ~k 0 δ(k − k 0 ).
(3.102)
ˆ o pˆ, oppure |ki o |pi come autostati, otteniamo espressioni lievemente differenti in quanto seconda che scegliamo k
ˆ Scegliendo autostati |pi si avrebbe hp|ˆ pˆ = ~k. p|ψi = pψ(p) e hq|pi =
iqp
√1 e ~ 2π~
.
3.3 Base delle coordinate e base degli impulsi
61
Invece hk|ˆ q |ψi non `e diagonale: Z Z Z dq 1 d d √ e−ikq ψ(q)q = i hk|ˆ q |ψi = dq hk|ˆ q |qihq|ψi = dq √ e−ikq ψ(q) = i ψ(k). dk dk 2π 2π
(3.103)
Dalle Eq. (3.103) possiamo immediatamente leggere che nella base degli impulsi gli elementi di matrice dell’operatore posizione hanno la forma hk|ˆ q |ψi = i
d ψ(k). dk
In altri termini, l’operatore posizione `e proporzionale al generatore delle traslazioni dell’impulso.
(3.104)
62
Quantizzazione canonica: la meccanica quantistica
Capitolo 4
Evoluzione temporale 4.1
Il generatore dell’evoluzione temporale
Abbiamo definito l’operatore di evoluzione temporale S(t, t0 ) Eq. (3.53) come l’operatore unitario che, agendo sugli stati fisici ad un tempo “iniziale” t0 produce gli stati fisici ad un tempo “finale” t1 . Notiamo che non `e detto che t1 > t0 , ed il fatto che l’operatore sia unitario implica che l’evoluzione temporale `e reversibile. Ora vogliamo costruire questo operatore esplicitamente.
4.1.1
Traslazioni temporali e leggi di conservazione quantistiche
In un contesto non relativistico, il tempo non `e un’osservabile, ma un parametro, dal quale dipendono le configurazioni. Le configurazioni del sistema sono date dai vettori di stato |ψi, pertanto quando diciamo che consideriamo le evoluzioni temporali i vettori di stato diventano delle famiglie ad un parametro |ψ(t)i parametrizzate dal tempo1 . Un ket di stato dipendente dal tempo pu`o sempre essere scritto come |ψ(t + δ)i = eδ dt |ψ(t)i = eiδ(−i dt ) |ψ(t)i, d
d
(4.1)
d cio`e come il risultato di una traslazione temporale generata dall’operatore −i dt . L’esistenza di un operatore unitario S calcolabile che realizza la traslazione temporale rende la meccanica quantistica predittiva. L’unitariet` a dell’operatore S implica che esso possa essere scritto come esponenziale di un opportuno operatore hermitiano OH :
S(t1 , t0 ) = eiOH (t1 ,t0 ) .
(4.2)
Per un’evoluzione temporale infinitesima si ha t1 − t0 = ε e S(t1 , t0 ) = S(t0 + ε, t0 ) = I + iε
∂ OH (t1 , t0 ) , ∂t1 t1 =t0
(4.3)
ovvero, definendo ˆ ≡ ∂ OH (t0 , t) H(t) , ∂t0 t0 =t
(4.4)
ˆ S(t0 + ε, t0 ) = I + iεH(t).
(4.5)
Mostriamo ora che un argomento analogo a quello della Sezione 3.2.3 porta immediatamente a conˆ cludere che se la dinamica `e invariante per traslazioni temporali, allora gli autovalori di H(t) si conservano. Invarianza per traslazioni temporali significa che hϕ|S(t1 , t0 )|ψi = hϕ|S(t1 + δ, t0 + δ)|ψi,
(4.6)
1 Una generalizzazione consistente al caso relativistico della meccanica quantistica richiede il passaggio alla descrizione di sistemi con infiniti gradi di libert` a, cio` e alla teoria quantistica dei campi, di cui la meccanica quantistica relativistica pu` o essere costruita come limite.
64
Evoluzione temporale
e cio`e, visto che |ψi, |ϕi sono stati generici, S(t1 , t0 ) = S(t1 + δ, t0 + δ)
(4.7)
Nel caso infinitesimo, la Eq. (4.7) implica che ˆ = I + iεH(t ˆ + δ) I + iεH(t)
(4.8)
ˆ dH = 0. dt
(4.9)
ˆ non dipende da t: ovvero che H
ˆ commuta con S. Infatti, Ma da questo segue immediatamente che H S(t1 , t0 ) = S(t1 + δ, t0 + δ) = S(t1 + δ, t1 )S(t1 , t0 )S(t0 , t0 + δ) = S(t1 + δ, t1 )S(t1 , t0 )S −1 (t0 + δ, t0 ) ˆ ˆ = S(t1 + δ, t1 )S(t1 , t0 )S † (t0 + δ, t0 ) = (I + iδ H)S(t 1 , t0 )(I − iδ H) ˆ S(t1 , t0 )] + O(δ 2 ) = S(t1 , t0 ) + iδ[H,
(4.10)
e quindi ˆ S(t1 , t0 )] = 0. [H,
(4.11)
ˆ commuta con l’operatore di D’altra parte, lo stesso argomento della Sezione 3.2.3 mostra che se H ˆ abbia autostati ed evoluzione temporale, allora i suo autovalori sono conservati. Supponiamo che H autovalori ˆ H|Ei = E|Ei.
(4.12)
La propriet` a di commutazione Eq. (4.11) implica che sfruttando quanto determinato sopra Z 0 ˆ S(t1 , t0 )]|ψi = hϕ|(HS(t ˆ 1 , t0 ) − S(t1 , t0 )H|ψi ˆ ˆ − S H)|E ˆ 0 =hϕ|[H, = dEdE 0 hϕ|EihE|(HS ihE 0 |ψi Z Z 0 0 0 0 0 = dEdE hϕ|Ei EhE|S|E i − E hE|S|E i hE |ψi = dEdE 0 E − E 0 hϕ|EihE|S|E 0 ihE 0 |ψi, (4.13) e quindi hE|S|E 0 i = 0 se E 0 6= E,
(4.14)
che significa che l’evoluzione temporale S collega solo stati che hanno lo stesso valore di E.
4.1.2
Il teorema di Noether per trasformazioni dipendenti dal tempo
Classicamente la quantit` a che si conserva quando vi `e invarianza per traslazioni temporali `e l’Hamiltoniana H. Per dimostrarlo, dobbiamo considerare la generalizzazione del teorema di Noether al caso di trasformazioni dipendenti dal tempo. In tal caso, la quantit`a la cui invarianza determina la legge di conservazione `e l’azione, ossia l’integrale della Lagrangiana rispetto al tempo. Il teorema afferma che vi `e una quantit` a conservata ogniqualvolta che per una qualunque trasformazione che agisce sia sulle coordinate che sui tempi, cio`e (nel caso infinitesimo) q(t) → q 0 (t) = q(t) + δq, 0
t → t (t) = t + δt
(4.15) (4.16)
4.1 Il generatore dell’evoluzione temporale
65
l’azione `e invariante, cio`e L(q 0 (t0 ), q˙0 (t0 ), t0 )dt0 = L(q(t), q(t), ˙ t)dt.
(4.17)
La dimostrazione generalizza quella della sezione 3.2.1. Definita l’azione infinitesima A = L(q, q, ˙ t)dt, la condizione di invarianza `e δA = L(q 0 (t0 ), q˙0 (t0 ), t0 )dt0 − L(q(t), q(t), ˙ t)dt. D’altra parte la variazione dell’azione `e esplicitamente data da ∂L ∂L dL δq + δ q˙ + δt dt + Lδdt. δA = ∂q ∂ q˙ dt
(4.18)
(4.19)
Usando come nella Eq. (3.36) l’equazione del moto Eq. (3.31), ed osservando che δdt = dt0 − dt =
dt0 d d dt0 dt − dt = − 1 dt = (t0 − t)dt = δt dt, dt dt dt dt
(4.20)
si ha: 0 = δA =
d ∂L dL d ∂L d δq + δq dt + dt dt + L δt dt, dt ∂ q˙ ∂ q˙ dt dt dt
(4.21)
ossia dQ dt = 0, dt
(4.22)
avendo posto Q=
∂L δq + Lδt, ∂ q˙
(4.23)
che `e la carica di Noether conservata. Specializziamo al caso di traslazione temporale: t → t0 = t + δ.
(4.24)
Se la traslazione agisce solo sui tempi si ha che q(t) = q 0 (t0 ),
(4.25)
q 0 (t + δ) = q 0 (t) + q˙0 (t)δ,
(4.26)
q 0 (t) = q(t) − q(t)δ ˙
(4.27)
δq = q 0 (t) − q(t) = −q(t)δ. ˙
(4.28)
e quindi, nel caso infinitesimo,
che implica
ossia
La carica di Noether Eq. (4.23) nel caso di invarianza sotto traslazioni temporali `e quindi data da ∂L ∂L Q=− qδ ˙ + Lδ = δ L − q˙ = −δH, (4.29) ∂ q˙ ∂ q˙ e dunque la quantit` a conservata `e proprio l’Hamiltoniana H≡
∂L q˙ − L. ∂ q˙
(4.30)
66
Evoluzione temporale
4.1.3
Il postulato dell’evoluzione temporale
Classicamente quando vi `e invarianza per traslazioni temporali l’hamiltoniana si conserva, mentre quantisticamente l’operatore il cui spettro `e conservato quando vi `e invarianza per traslazioni temporali `e il generatore H Eq. (4.4) dell’evoluzione temporale. Questo suggerisce di identificare, a meno di una costante di proporzionalit` a, questo operatore con l’hamiltoniana. Questa viene costruita utilizzando il principio di corrispondenza, cio`e partendo dall’hamiltoniana classica vista come funzione di p e q e sostituendo questi ultimi con i rispettivi operatori quantistici: ˆ = cH(ˆ ˆ p, qˆ). H
(4.31)
Ci` o ancora una volta realizza il principio della quantizzazione canonica di Dirac, e cio`e che le relazioni di commutazione dell’hamiltoniana con gli operatori canonici (e quindi le funzioni di essi) riproducano la struttura delle corrispondenti parentesi di Poisson classiche. Per determinare la dimensionalit` a della costante di proporzionalit`a c notiamo che la Eq. (4.5) imˆ deve essere adimensionale (tutti i termini a membro plica immediatamente che la combinazione εH ˆ ha le dimensioni di [T −1 ]. Quindi, destro dell’equazione devono avere la stessa dimensione), ossia H visto che l’hamiltoniana ha le dimensioni di un’energia (ovviamente, visto che classicamente ha proprio l’interpretazione di energia) le dimensioni della costante sono [c] = [E −1 ][T −1 ],
(4.32)
ossia quelle del reciproco di ~. Poniamo cos`ı ˆ ˆ = − 1 H, H ~
(4.33)
dove, come vedremo, il segno meno `e necessario per riprodurre il limite classico. Con la scelta di costante di proporzionalit`a Eq. (4.33) la struttura di simmetria della meccanica classica `e pienamente riprodotta a livello quantistico: per esempio, l’evoluzione temporale classica pu`o essere vista come una trasformazione canonica, da cui l’evoluzione temporale quantistica si ottiene rimpiazzando parentesi di Poisson con parentesi di commutazione. Di questo non daremo una dimostrazione formale, ma ci limiteremo a mostrare che le equazioni del moto classiche sono riprodotte dai valori medi delle osservabili quantistiche. L’esistenza di un operatore di evoluzione temporale pu`o essere vista come l’ultimo dei postulati della meccanica quantistica, da aggiungere a quelli elencati nella sezione 1.4: ˆ • Postulato 4 Esiste un operatore hermitiano H(t) che genera l’evoluzione temporale dei sistemi quantistici, cio`e tale per cui l’operatore di evoluzione temporale infinitesima ha la forma Eq. (4.334.5,4.33) S(t0 + ε, t0 ) = I −
i ˆ H(t). ~
(4.34)
Questo postulato pu` o essere visto come una propriet`a fondamentale della fisica quantistica che va al di l` a della meccanica, e della forma specifica che l’operatore di evoluzione temporale assume per sistemi meccanici, e che consiste nel postulare che l’evoluzione temporale dei sistemi quantistici deterministica e unitaria, cio`e equivalentemente generata da un operatore hermitiano.
4.2
L’equazione di Schr¨ odinger
Eguagliando l’evoluzione temporale identicamente definita come una traslazione del tempo secondo la Eq. (4.1), con quella dinamicamente ottenuta da S(t1 , t0 ) Eq. (4.2) con il generatore Eq. (4.4), espresso in termini dell’hamiltoniana mediante la Eq. (4.33) troviamo che l’operatore di evoluzione temporale, e quindi lo stato fisico, devono soddisfare un’equazione differenziale del primo ordine rispetto al tempo: l’equazione di Schr¨ odinger.
4.2 L’equazione di Schr¨ odinger
4.2.1
67
Forme alternative dell’equazione di Schr¨ odinger
Per trasformazioni infinitesime abbiamo i d ˆ I + (t − t0 )H(t) |ψ(t0 )i = I + (t − t0 ) |ψ(t)i ~ dt t=t0
(4.35)
da cui i~
d ˆ |ψ(t)i = H(t)|ψ(t)i, dt
(4.36)
che `e appunto l’equazione di Schr¨ odinger. Nella forma data dalla Eq. (4.36) essa `e vista come equazione differenziale soddisfatta dai ket di stato. ` particolarmente interessante considerare una Hamiltoniana H ˆ scritta come somma di un termine E ˆ = Tˆ + Vˆ , ossia cinetico e di un termine potenziale dipendente solo dalla posizione, H 2 ˆ = pˆ + V (ˆ q ). H 2m
(4.37)
L’espressione dell’equazione di Schr¨ odinger nella base delle coordinate si trova notando che ∂ d hq|ψ(t)i = ψ(q, t), dt ∂t
(4.38)
poich`e la derivata agisce sulla dipendenza parametrica dal tempo dei coefficienti della decomposizione del vettore di stato sui vettori di base (autostati della coordinata indipendenti dal tempo). Inoltre, usando la Eq. (3.29) si ha immediatamente hq|V (ˆ q )|ψ(t)i = V (q)ψ(q, t),
(4.39)
e hq|ˆ p2 |ψ(t)i =
Z
dq 0 hq|ˆ p|q 0 ihq 0 |ˆ p|ψi =
Z
dq 0
− i~
∂ ∂ψ(q 0 ) ∂2ψ δ(q − q 0 )(−i~) = −~2 2 . 0 ∂q ∂q ∂q
(4.40)
Si ottiene cos`ı infine i~
~2 ∂ 2 ψ(q, t) ∂ψ(q, t) =− + V (q)ψ(q, t). ∂t 2m ∂q 2
(4.41)
Questa `e la forma pi` u comune dell’equazione di Schr¨odinger, ed anzi spesso il nome viene usato in riferimento a questa specifica forma, che per`o `e meno generale della Eq. (4.36) perch`e valida solo per hamiltoniane della forma Eq. (4.37). Come gi` a detto, l’equazione di Schr¨ odinger pu`o anche essere vista come un’equazione per l’operatore di evoluzione temporale stesso, come si vede riscrivendo l’Eq. (4.36) come i~
∂ ˆ S(t, t0 )|ψ(t0 )i = H(t)S(t, t0 )|ψ(t0 )i, ∂t
(4.42)
∂ ˆ S(t, t0 ) = H(t)S(t, t0 ). ∂t
(4.43)
da cui i~
Possiamo quindi ottenere l’operatore di evoluzione temporale come soluzione formale della Eq. (4.43), con la condizione inziale S(t0 , t0 ) = I. Risolviamo quindi la Eq. (4.43), considerando tre casi di complessit`a crescente:
(4.44)
68
Evoluzione temporale
1. L’Hamiltoniana `e indipendente dal tempo: ˆ dH = 0; dt
(4.45)
2. l’hamiltoniana dipende dal tempo, ma commuta a tempi diversi: ˆ dH 6= 0 dt
ma
ˆ ˆ 0 )] = 0 ∀ t, t0 ; [H(t), H(t
(4.46)
3. l’hamiltoniana dipende dal tempo e a tempi diversi non commuta: ˆ dH 6= 0 dt
4.2.2
ˆ ˆ 0 )] 6= 0. e in generale [H(t), H(t
(4.47)
Soluzione dell’equazione di Schr¨ odinger: hamiltoniane commutanti
Risolviamo dapperima l’equazione differenziale (4.43) con la condizione iniziale (4.44) nel caso La soluzione `e l’esponenziale S(t, t0 ) = exp
1 ˆ (t − t0 )H. i~
ˆ ∂H ∂t
= 0.
(4.48)
Verifichiamo che sia una soluzione: S(t, t0 ) = exp
2 1 ˆ = I + 1 (t − t0 )H ˆ + 1 1 (t − t0 )2 H ˆ2 + ... (t − t0 )H i~ i~ i~ 2
e quindi i~
∂ ˆ exp 1 (t − t0 )H. ˆ S(t, t0 ) = H ∂t i~
Consideriamo ora il caso di hamiltoniane dipendenti dal tempo, ma commutanti. Risolviamo nuovamente l’equazione differenziale (4.43) con la condizione al contorno (4.44). Abbiamo Z 1 t 0 ˆ 0 S(t, t0 ) = exp dt H(t ), (4.49) i~ t0 come possiamo verificare: Z Z Z t ∂ 1 t 0 ˆ 0 ∂ 1 1 2 t 0 ˆ 0 ˆ 00 ) + . . . S(t, t0 ) = I+ dt H(t ) + dt H(t ) dt00 H(t ∂t ∂t i~ t0 2 i~ t0 t0 Z t 2 1 1 1 ˆ ˆ ˆ 00 ) + . . . + 2 = H(t) H(t) dt00 H(t i~ 2 i~ t0 1 ˆ = H(t)S(t, t0 ). i~
4.2.3
(4.50) (4.51) (4.52)
Soluzione dell’equazione di Schr¨ odinger: hamiltoniane non commutanti
Se le hamiltoniane a tempi diversi non commutano si ha: Z t Z Z t Z t Z t d t 0 ˆ 0 00 ˆ 00 00 ˆ 00 0 ˆ 0 ˆ ˆ ˆ ˆ 0 ), dt H(t ) dt H(t ) = H(t) dt H(t ) + dt H(t ) H(t) 6= 2H(t) dt0 H(t dt t0 t0 t0 t0 t0 (4.53) quindi il passaggio Eq. (4.50) non `e pi` u corretto, e la soluzione Eq. (4.49) non vale pi` u. Per costruire una soluzione in questo caso, definiamo il prodotto cronologico di due operatori: O1 (t1 )O2 (t2 ) se t1 > t2 T [O1 (t1 ), O2 (t2 )] ≡ (4.54) O2 (t2 )O1 (t1 ) se t2 > t1
4.2 L’equazione di Schr¨ odinger
69
ˆ 0 ), H(t ˆ 00 )) `e simmetrica rispetto Figura 4.1: Interpretazione geometrica dell’Eq (4.58). L’integranda T (H(t 0 00 alla retta t = t . La soluzione in tal caso `e data da S(t, t0 ) = T exp
1 i~
t
Z
ˆ 0) dt0 H(t
(4.55)
t0
Per dimostrarlo, calcoliamo esplicitamente fino al secondo ordine il prodotto cronologico dell’esponenziale. Troviamo Z Z Z t Z t 1 t 0 ˆ 0 1 1 1 t 0 ˆ 0 0 ˆ 0 ), H(t ˆ 00 )) + . . . , dt H(t ) = I + dt H(t ) + dt dt00 T (H(t (4.56) T exp i~ t0 i~ t0 2 (i~)2 t0 t0 ma Z
t
dt0
t0
Z
t
ˆ 0 ), H(t ˆ 00 )) = dt00 T (H(t
Z
t0
t
dt0
t0
t0
t0
t0
Z
ˆ 0 )H(t ˆ 00 ) + dt00 H(t
t0
Ma ora notiamo che (vedi Figura 4.1) Z t Z Z t Z t 0 00 ˆ 00 ˆ 0 00 dt dt H(t )H(t ) = dt t0
Z
t
Z
dt0
ˆ 00 )H(t ˆ 0) = dt H(t 0
Z
t 0
Z
(4.57)
t0
dt
t0
ˆ 00 )H(t ˆ 0 ). dt00 H(t
t0
t0
t00
t
t0
ˆ 0 )H(t ˆ 00 ) dt00 H(t
(4.58)
t0
e quindi Z
t 0
Z
t
dt t0
ˆ 0 ), H(t ˆ 00 )) = 2 dt T (H(t 00
t0
Z
t 0
t0
t0
t0
t0
dt t0
ˆ 0 )H(t ˆ 00 ). dt00 H(t
(4.59)
t0
Iterando lo stesso argomento, si pu` o dimostrare che Z t Z t Z t Z t Z ˆ 1) ˆ 2) · · · ˆ n ) = n! T dt1 H(t dt2 H(t dtn H(t dt1 t0
Z
t1
t0
Z
tn−1
dt2 · · ·
ˆ 1 ) · · · H(t ˆ n ), (4.60) dtn H(t
t0
con tn < tn−1 < · · · < t1 . Ne segue quindi che S(t, t0 ) Eq. (4.55) pu`o essere riscritta come Z Z t Z t1 1 t ˆ 1) + 1 1 2 ˆ 0 )H(t ˆ 1) + . . . dt1 H(t dt dt2 H(t S(t, t0 ) =I + 1 i~ t0 2 (i~)2 t0 t0 Z t Z tn−1 1 1 ˆ 1 ) · · · H(t ˆ n ), ... + n! dt1 · · · dtn H(t n! (i~)n t0 t0
(4.61)
(4.62)
70
Evoluzione temporale
che `e nota come serie di Dyson. Possiamo ora verificare esplicitamente che la serie di Dyson `e una soluzione dell’equazione di Schr¨odinger: Z Z t Z tn−1 1 ∂ 1 t ˆ ˆ ˆ 1 ) · · · H(t ˆ n ) (4.63) ˆ dt2 H(t2 ) + . . . H(t) dt2 · · · dtn H(t i~ S(t, t0 ) = H(t) + ∂t i~ t0 (i~)n−1 t0 t0 Z tk−1 Z Z t 1 t ˆ ˆ 1) + . . . 1 ˆ ˆ = H(t) I+ dt1 H(t dt · · · dt H(t ) · · · H(t ) (4.64) 1 k 1 k i~ t0 (i~)k t0 t0 ˆ = H(t)S(t, t0 ). (4.65)
4.2.4
Stati stazionari
Le soluzioni formali dell’equazione di Schr¨odinger costruite nelle due sezioni 4.2.2-4.2.3 riducono il calcolo dell’evoluzione temporale alla determinazione degli autostati dell’hamiltoniana. Questo `e particolarmente utile nel caso di una Hamiltoniana che non dipende dal tempo, in cui la soluzione `e espressa dalla Eq. (4.48). Infatti, in tal caso, l’operatore di evoluzione temporale `e funzione di un unico operatore, l’hamiltoniana indipendente dal tempo, ed `e perci`o diagonale nella base dei suoi autostati, pure indipendenti dal tempo. Per dimostrarlo, introduciamo autovettori |ni ed autovalori En dell’hamiltoniana ˆ H|ni = En |ni.
(4.66)
Suppponiamo per semplicit` a che lo spettro di autovalori sia discreto; nel caso di spettro continuo l’argomento vale con minime modifiche (come la sostituzione della somma con un integrale). L’operatore di evoluzione temporale Eq. (4.48), sviluppando sulla base degli autostati di energia, diventa X X 1 (t − t0 )En |nihn|. (4.67) S(t, t0 ) = |mihm|S(t, t0 )|nihn| = exp i~ n,m n Ne segue che S(t, t0 ) `e diagonale in questa base: hi|S(t, t0 )|ji = exp
1 (t − t0 )Ei δij . i~
(4.68)
Di conseguenza se il sistema si trova in un autostato di energia ci rimane. Sia infatti |ψ(t0 )i = |ki: 1 |ψ(t)i = S(t, t0 )|ki = exp (t − t0 )Ek |ki (4.69) i~ che differisce dallo stato iniziale per una fase. Naturalmente, questa `e la verifica esplicita della conservazione dell’energia quando vi `e invarianza per traslazioni temporali, da cui siamo partiti per costruire l’operatore di evoluzione temporale stesso. Per uno stato qualsiasi si ha: X X X 1 1 |ψ(t)i = exp (t − t0 )En |nihn|ψ(t0 )i = cn (t0 ) exp (t − t0 )En |ni = cn (t)|ni (4.70) i~ i~ n n n e inoltre Pn (t) = |cn (t)|2 = |cn (t0 )|2 ,
(4.71)
quindi la probabilit` a che una misura riveli il sistema in uno qualunque degli autostati di energia non dipende dal tempo. Questo implica immediatamente che il valor medio di qualunque operatore A in un autostato di energia non dipende dal tempo; questa conclusione per`o vale solo nel caso di spettro discreto. Infatti il valor medio di A `e X X hψ|A|ψi = hψ|nihn|A|mihm|ψi = c∗n (t)hn|A|micm (t). (4.72) n,m
n,m
4.3 Evoluzione temporale alla Schr¨ odinger e alla Heisenberg
Se |ψi `e un autostato dell’energia, 1 1 (t − t0 )En |n(t0 )i = hn(t0 )|A|n(t0 )i. hn|A|ni = hn(t0 )| exp − (t − t0 )En A exp i~ i~
71
(4.73)
Per questa ragione gli autostati dell’energia sono detti stati stazionari. Nel caso di spettro continuo non `e possible per` o raggiungere questa conclusione: infatti in tal caso, come abbiamo visto nel paragrafo 3.3 gli elementi di matrice degli operatori in generale sono ben definiti solo fra stati diversi, nel senso della distribuzioni. Quindi nel caso di spettro continuo possiamo solo affermare che 1 0 hn |A|ni = exp (t − t0 )(En0 − En ) hn0 (t0 )|A|n(t0 )i, (4.74) i~ ma l’elemento di matrice `e in generale mal definito se n0 = n e quindi nulla si pu`o dire. Vedremo un esempio di questa situazione nello studio della dipendenza dal tempo dell’operatore posizione negli autostati dell’energia per una particella libera, nel paragrafo 5.
4.3
Evoluzione temporale alla Schr¨ odinger e alla Heisenberg
Mentre in meccanica classica lo stato di un sistema `e specificato dai valori di alcune delle osservabili che lo caratterizzano (ad esempio la posizione e l’impulso, in un formalismo hamiltoniano), abbiamo visto come in meccanica quantistica sia necessario distinguere lo stato di un sistema (dato dal suo ket di stato) dai valori delle sue osservabili (che sono i risultati delle misure che possiamo eseguire su di esso, note solo probabilisticamente). Questo significa che mentre in meccanica classica vi `e un unico modo di descrivere l’evoluzione temporale di un sistema, attraverso la dipendenza dal tempo dei valori delle osservabili (posizione ed impulso), quantisticamente vi sono due possibilit`a. La prima `e di supporre, come abbiamo fatto finora, che lo stato dipenda dal tempo, e ci dica come cambiano nel tempo le probabilt`a dei risultati delle misure di osservabili. La seconda `e di supporre che siano gli operatori associati ad osservabili a dipendere dal tempo, e che gli stati restino fissi. La prima formulazione dell’evoluzione temporale, che abbiamo considerato finora, `e detta formulazione (o rappresentazione) di Schr¨odinger, mentre la seconda, che ora introduciamo, `e detta formulazione (o rappresentazione) di Heisenberg.
4.3.1
La rappresentazione di Heisenberg
La rappresentazione di Heisenberg `e basata sull’idea di rendere dipendenti dal tempo gli operatori: quindi, dato un operatore associato ad un’osservabile, la sua dipendenza dal tempo si pu`o ottenere attraverso l’azione dell’evoluzione temporale, vista come una trasformazione unitaria dell’operatore. Come abbiamo visto nella sezione 2.1.3, sotto una trasformazione unitaria un operatore si trasforma per azione aggiunta Eq. (2.25). Dato un certo operatore A al tempo t0 il suo evoluto temporale a qualunque altro tempo ha quindi la forma AH (t) = SH −1 (t, t0 )AH (t0 )SH (t, t0 ),
(4.75)
dove l’indice H su tutti gli operatori ci ricorda che stiamo cercando una nuova forma, diversa da quella ` facile vedere che la dipendenza considerata finora sia degli operatori che della dipendenza temporale. E temporale degli elementi di matrice di A `e la stessa di quella alla Schr¨odinger studiata finora se facciamo l’ipotesi che AH (t0 ) = AS ;
|ϕH i = |ϕS (t0 )i SH (t, t0 ) = S(t, t0 ),
(4.76)
cio`e: • che l’operatore al tempo iniziale sia l’operatore alla Schr¨odinger, ossia l’operatore indipendente dal tempo considerato finora; • che gli stati alla Heisenberg in cui si calcolano gli elementi di matrice siano indipendenti dal tempo, ed eguali agli stati alla Schr¨ odinger considerati finora, ma presi al tempo iniziale t = t0 ;
72
Evoluzione temporale
• che l’operatore di evoluzione temporale sia identico a quello introdotto nella sezione precedente. Abbiamo infatti che, usando il formalismo di Schr¨odinger della sezione 4.2, hψ|A|ϕ(t)i = hψS (t)|A|ϕS (t)i = hψS (t0 )|S −1 (t, t0 )AS(t, t0 )|ϕS (t0 )i.
(4.77)
D’altra parte, la legge di evoluzione alla Heisenberg degli operatori Eq. (4.75) con le identificazioni Eq. (4.76) implica che hψ(t)|A|ϕ(t)i = hψ(t0 )|S −1 (t, t0 )AS(t, t0 )|ϕ(t0 )i,
(4.78)
che manifestamente coincide con la Eq. (4.77). Pi` u in generale, vediamo che la legge di evoluzione alla Heisenberg degli operatori Eq. (4.75), con le identificazioni Eq. (4.76), fornisce le stesse predizioni delle leggi di evoluzione temporale alla Schr¨odinger della sezione precedente per il risultato di qualunque misura. In rappresentazione di Schr¨odinger, l’ampiezza di probabilit` a, per un sistema che si trova nello stato |ψS (t0 )i al tempo t0 , di rivelare il sistema nell’autostato |ni associato all’autovalore λn dell’operatore A, A|ni = λn |ni
(4.79)
an (t) = hn|S(t, t0 )|ψ(t0 )i.
(4.80)
`e
In rappresentazione di Heisenberg lo stato non dipende pi` u dal tempo, ma se vale la Eq. (4.75), sono gli autostati |nH (t)i di AH (t) a dipendere dal tempo. Notare che ciononostante gli autovalori non ne dipendono, visto che gli operatori A(t) a tutti i tempi t sono tutti unitariamente equivalenti fra di loro (si ricordino le Eq. (2.26-2.27)). Si ha AH (t)|nH (t)i = λn |nH (t)i,
(4.81)
S −1 (t, t0 )AS(t, t0 )|nH (t)i = λn |nH (t)i,
(4.82)
A(t0 )S(t, t0 )|nH (t)i = λn S(t, t0 )|nH (t)i.
(4.83)
che, sfruttando la Eq. (4.75), implica
ovvero
Pertanto, gli stati S(t, t0 )|nH (t)i coincidono con gli autostati di A al tempo t0 , ossia, se A(t0 ) = A, con gli stati |ni Eq. (4.79): |ni = |nH (t0 )i = S(t, t0 )|nH (t)i,
(4.84)
|nH (t)i = S −1 (t, t0 )|ni.
(4.85)
ovvero
L’ampiezza di probabilit` a di una misura che rivela il sistema nello stato associato all’autovalore λn `e quindi hnH (t)|ψi = hn|S(t, t0 )|ψi,
(4.86)
che manifestamente coincide con la Eq. (4.80). Visto che le ampiezze di probabilit`a dei risultati di misure esprimono il contenuto predittivo della meccanica quantistica, ne concludiamo che le formulazioni alla Schr¨ odinger ed alla Heisenberg delle leggi di evoluzione temporale sono del tutto equivalenti.
4.3 Evoluzione temporale alla Schr¨ odinger e alla Heisenberg
4.3.2
73
Leggi del moto alla Heisenberg
Analogamente a quanto fatto in rappresentazione di Schr¨odinger, vogliamo ora scrivere le leggi del moto alla Heisenberg sotto forma di equazioni differenziali. Visto che in rappresentazione di Heisenberg sono gli operatori, e non gli stati, a dipendere dal tempo, l’equazione di Schr¨odinger Eq. (4.36) per gli stati `e rimpiazzata da un’equazione per gli operatori. Utilizzando la legge Eq. (4.75), che esprime la dipendenza temporale degli operatori alla Heisenberg attraverso l’operatore di evoluzione temporale, l’identificazione Eq. (4.76) tra operatori alla Schr¨odinger a alla Heisenberg, e l’Equazione di Schr¨ odinger Eq. (4.43) soddisfatta dall’operatore di evoluzione temporale, troviamo che d −1 d S (t, t0 )AS S(t, t0 ) = AH (t) = dt dt (4.87) ∂S −1 (t, t0 ) ∂AS ∂S(t, t0 ) = AS (t, t0 )S(t, t0 ) + S −1 (t, t0 ) S(t, t0 ) + S −1 (t, t0 )AS . ∂t ∂t ∂t Notiamo che il primo e l’ultimo termine contengono la dipendenza dal tempo dell’operatore A dovuta alla sua evoluzione temporale alla Heisenberg Eq. (4.75), mentre il secondo contiene una eventuale dipendenza parametrica dal tempo gi` a presente nell’operatore alla Schr¨odinger. Infatti, la legge di evoluzione alla Heisenberg Eq. (4.75) per gli operatori vale per qualunque operatore: sia quelli che alla Schr¨odinger non dipendono dal tempo (come per esempio l’impulso), sia per quelli che ne dipendono (come per esempio una hamiltoniana alla Schr¨ odinger con un potenziale che dipende dal tempo). L’equazione di Schr¨ odinger (4.43) fornisce un’espressione per ∂S ∂t , ed inoltre implica che
i~
∂S † ˆ †, = (HS) ∂t
(4.88)
ˆ da cui, sfruttando l’unitariet` a di S e l’hermiticit`a di H, −i~
∂S −1 ˆ = S −1 H. ∂t
(4.89)
Sostituendo quest’ultima espressione e la Eq. (4.43) nella legge del moto per gli operatori (4.87) otteniamo ˆ d 1 ∂AS H(t) −1 ˆ AH (t) = − S(t, t0 )−1 H(t)A (t, t0 ) S(t, t0 ) + S −1 (t, t0 )AS S(t, t0 ), S S(t, t0 ) + S dt i~ ∂t i~
(4.90)
e quindi, usando di nuovo la Eq. (4.75), ˆ d 1 ∂AS H(t) ˆ AH (t) = − S(t, t0 )−1 H(t)S(t, t0 )AH (t) + S −1 (t, t0 ) S(t, t0 ) + AH (t)S −1 (t, t0 ) S(t, t0 ) dt i~ ∂t i~ (4.91) che possiamo riscrivere come d 1 ˆ H (t)] + ∂AH (t) , AH (t) = [AH (t), H dt i~ ∂t
(4.92)
dove abbiamo posto, in accordo con la Eq. (4.75) (l’hamiltoniana `e un operatore come gli altri) ˆ H (t) = S(t, t0 )−1 H ˆ S (t)S(t, t0 ). H
(4.93)
Notiamo che l’eventuale dipendenza temporale sia dell’hamiltoniana HS che dell’operatore AS alla Schr¨ odinger `e una dipendenza parametrica: HS = HS (ˆ pS , qˆS ; t), con pˆS e qˆS indipendenti dal tempo, e con un’eventuale dipendenza dal tempo contenuta dei parametri del sistema (per esempio, nei coefficienti che caratterizzano il potenziale). In caso di dipendenza parametrica, AS = A(t) e le Eq. (4.75-4.76) andrebbero pi` u propriamente riscritte come AH (ˆ pH (t), qˆH (t); t) = SH −1 (t, t0 )AH (t0 ; t)SH (t, t0 ),
AH (t0 ; t) = AS (t),
(4.94)
74
Evoluzione temporale
che nel caso particolare dell’hamiltoniana coincide con la Eq. (4.93). La derivata parziale nell’ultimo termine a membro destro della Eq. (4.92) indica la derivata rispetto al tempo per fissi pˆ e qˆ. Naturalmente, se le hamiltoniane a tempi diversi commutano (e quindi in particolare se il sistema `e invariante per ˆ H (t) = H ˆ S (t). traslazioni temporali) H Per i singoli elementi di matrice dell’operatore abbiamo invece: d d Aϕψ (t) = hϕS (t)|AS |ψS (t)i dt dt d = hϕH |AH (t)|ψH i dt 1 ˆ H (t)]|ψH i + hϕH | ∂AH (t) |ψH i = hϕH | [AH (t), H i~ ∂t 1 ∂A S ˆ S (t)i + hϕS (t)| = hϕS (t)| [AS , H]|ψ |ψS (t)i. i~ ∂t
4.3.3
(4.95) (4.96) (4.97) (4.98)
Leggi di conservazione: il teorema di Noether in meccanica quantistica
Le equazioni (4.95-4.98) mostrano esplicitamente che tutti gli elementi di matrice di un operatore che commuta con l’hamiltoniana (e non dipende dal tempo esplicitamente) si conservano. D’altra parte, il commutatore del generatore di una trasformazione con un operatore fornisce la trasformazione dell’operatore stesso: si ricordi la Eq. (3.70). Quindi un operatore commuta con l’hamiltoniana se e solo se la trasformazione da esso generata lascia l’hamiltoniana invariata. In tal caso, lo spettro dell’operatore si conserva. Concludiamo perci` o che anche nel caso quantistico ad un’invarianza della dinamica — nel nostro caso un’invarianza dell’hamiltoniana — corrisponde una quantit`a conservata: condizione necessaria e sufficiente affinch`e l’evoluzione temporale preservi l’autovalore di un operatore `e che esso commuti con l’hamiltoniana. Questo `e il risultato la cui dimostrazione (si ricordi la Sezione 3.2.4) ha motivato la costruzione degli operatori associati ad osservabili. Ora vediamo che esso `e immediata conseguenza delle leggi del moto alla Heisenberg. Ci` o esprime, nella forma pi` u generale e compatta, l’insieme delle leggi di conservazione che abbiamo gi` a visto, nel caso di trasformazioni indipendenti dal tempo nel paragrafo 3.2, e nel paragrafo 4.1 nel caso delle traslazioni temporali.
4.3.4
Teorema di Ehrenfest e transizione classico-quantistico
Le equazioni del moto per gli operatori in rappresentazione di Heisenberg sono strettamente legate alle equazioni del moto classiche. Consideriamo in particolare le equazioni del moto per gli operatori posizione ed impulso alla Heisenerg: dˆ qH 1 ˆH ] = [ˆ qH , H (4.99) dt i~ 1 dˆ pH ˆ H ]. = [ˆ pH , H (4.100) dt i~ Il commutatore tra qˆ ed una funzione f (ˆ p), o tra pˆ ed una funzione f (ˆ q ), si pu`o calcolare ricordando che una funzione di un operatore `e definita dalla sua serie di Taylor (o di Laurent): X X X X k [ˆ q , f (ˆ p)] = qˆ, fk pˆ = fk [ˆ q , pˆpˆk−1 ] = fk pˆ[ˆ q , pˆk−1 ] + fk [ˆ q , pˆ]ˆ pk−1 (4.101) k
=
X k
=
X k
k
fk pˆ[ˆ q , pˆk−1 ] + i~
k
X
fk pˆk−1 =
k
fk pˆ2 [ˆ q , pˆk−2 ] + 2i~
X
k
X fk pˆ pˆ[ˆ q , pˆk−2 ] + [ˆ q , pˆ]ˆ pk−2 + i~ fk pˆk−1
k
X
(4.102)
k
fk pˆk−1 = · · · = i~
k
X
fk k pˆk−1 .
(4.103)
k
Analogamente [ˆ p, f (ˆ q )] = −i~
X k
fk k qˆk−1 .
(4.104)
4.3 Evoluzione temporale alla Schr¨ odinger e alla Heisenberg
75
Ne segue che ∂f (ˆ p) ∂ pˆ ∂f (ˆ q) [ˆ p, f (ˆ q )] = −i~ ∂ qˆ [ˆ q , f (ˆ p)] = i~
(4.105) (4.106)
Possiamo sfruttare le Eq. (4.105-4.106) per determinare le equazioni del moto (4.99-4.100) per una hamiltoniana della forma Eq. (4.37): ˆ ∂H pˆH dˆ qH = = dt ∂ pˆ m ˆ dˆ pH ∂H ∂ Vˆ (ˆ q) =− =− , dt ∂q ∂ qˆ
(4.107) (4.108)
che coincidono con le equazioni classiche del moto nella forma di Hamilton, con la sostituzione delle variabili canoniche classiche con i corrispondenti operatori quantistici. Nel caso di potenziali che dipendono anche dalla velocit`a l’argomento in generale non vale: la funzione Vˆ (ˆ p, qˆ) in generale dipende dall’ordinamento degli operatori pˆ e qˆ. Tuttavia, se Vˆ (ˆ q , pˆ) = pˆf (ˆ q ) + f (ˆ q )ˆ p
(4.109)
le equazioni del moto continuano ad avere la stessa forma delle equazioni classiche, infatti pˆ pˆ ∂ Vˆ (ˆ q , pˆ) dˆ q = + 2f (ˆ q) = + dt m m ∂ pˆ dˆ p ∂f (ˆ q ) ∂f (ˆ q) = − pˆ + pˆ . dt ∂ qˆ ∂ qˆ
(4.110) (4.111)
Le equazioni del moto Eq. (4.107-4.108) implicano le equazioni per i valori medi ˆ ∂H ∂ pˆ ˆ d ∂H hˆ pi = − , dt ∂ qˆ d hˆ qi = dt
(4.112) (4.113)
che evidentemente valgono indipendentemente dalla scelta della rappresentazione, visto che i valori medi degli operatori sono osservabili fisiche, la cui dipendenza temporale `e univocamente predetta dalla teoria. Le Eq. (4.112-4.113) sono note come teorema di Ehrenfest. Esso afferma che i valori medi degli operatori quantistici soddisfano le leggi del moto classiche. La meccanica classica emerge quindi dalla meccanica quantistica nel limite in cui l’indeterminazione, ossia la deviazione standard dei risultati di una misura, `e piccola rispetto al tipico valore della misura stessa. Stimeremo questa deviazione standard nel prossimo capitolo.
4.3.5
Leggi del moto, parentesi di Poisson e commutatori
La legge di evoluzione temporale di una osservabile classica A(q, p) `e data da dA ∂A ∂A ∂A = q˙ + p˙ + dt ∂q ∂p ∂t ∂A ∂H ∂A ∂H ∂A = − + ∂q ∂p ∂p ∂q ∂t ∂A = {A, H} + , ∂t
(4.114) (4.115) (4.116)
76
Evoluzione temporale
dove {A, H} `e la parentesi di Poisson delle funzioni A e H. Vediamo cos`ı come le leggi del moto quantistiche nella forma di Heisenberg Eq. (4.92) si possano ottenere da quelle classiche sostituendo le parentesi di Poisson con un commutatore, a meno di un fattore i~. Questo dimostra esplicitamente quanto affermato al termine della sezione 4.1.3, e cio`e che l’evoluzione temporale quantistica si ottiene da quella classica, rimpiazzando la trasformazione canonica generata dalle parentesi di Poisson con una traslazione temporale generata dalle parentesi di commutazione.
Parte III
Meccanica quantistica in una dimensione
Capitolo 5
La particella unidimensionale libera Studieremo ora gli stati fisici, ed in particolare lo spettro dell’hamiltoniana, per diversi sistemi unidimenˆ = Tˆ + Vˆ Eq. (4.37). Finora abbiamo sionali nello spazio delle coordinate, con hamiltoniane della forma H indicato l’operatore posizione con qˆ, sottintendendo che il suo autovalore q potesse corrispondere al valore di una coordinata Lagrangiana qualunque. In questo capitolo faremo esplicito rifermiento a sistemi descritti da una coordinata cartesiana, che chiameremo x: l’operatore pˆ ne generer`a le traslazioni, ed il commutatore canonico sar` a quindi [ˆ p, x ˆ] = −i~.
(5.1)
Cominciamo dal caso pi` u semplice, in cui il potenziale `e nullo, Vˆ = 0 dimodoch´e 2 ˆ = pˆ : H 2m
(5.2)
la particella libera.
5.1
Autostati dell’hamiltoniana
Gli autostati dell’hamiltoniana per una particella libera possono essere scelti come autostati dell’operatore ˆ pˆ]=0: se impulso, visto che [H, pˆ|ki = ~k|ki
(5.3)
ˆ H|ki = Ek |ki
(5.4)
si ha quindi
2 2
Ek =
~ k . 2m
(5.5)
Notiamo che vi `e una coppia di autostati dell’impulso, | ± ki, associati ad ogni autovalore Ek dell’energia: si dice in tal caso che lo spettro `e degenere (doppiamente degenere). Questo implica in particolare che qualunque combinazione lineare |ψE i = c1 |ki + c2 | − ki
(5.6)
di questi due stati `e ancora un autostato associato allo stesso autovalore Ek . Poich´e una delle due costanti ci pu` o essere fissata per normalizzazione (essendo al solito inosservabile la fase globale della funzione d’onda), in questo caso di doppia degenerazione il pi` u generale autostato di fissa energia dipende da un parametro libero. Nella base delle coordinate l’equazione agli autovalori ˆ hq|H|ki = Ek hq|ki
(5.7)
80
La particella unidimensionale libera
ha la forma esplicita ~2 ∂ 2 ψk (x) = Ek ψk (x), 2m ∂x2 e le ψk (x) possono essere scelte come onde piane −
1 ψk (x) = √ eikx , 2π
(5.8)
(5.9)
che soddisfano la condizione di normalizzazione impropria hk|k 0 i = δ(k − k 0 ).
5.1.1
(5.10)
Evoluzione temporale degli stati
La dipendenza dal tempo degli autostati dell’hamiltoniana si determina immediatamente usando la Eq. (4.69) ed `e data da Ek 1 ˆ 1 1 hx|k; ti = hx|e i~ Ht |k; t0 = 0i = e i~ Ek t hx|k; 0i = √ ei kx− ~ t (5.11) 2π che spesso viene riscritta come 1 hx|k; ti = √ ei 2π
kx−ωk t
,
(5.12)
dove si `e definita la pulsazione ωk =
Ek , ~
(5.13)
e per un’onda piana ~k 2 . (5.14) 2m Gli autostati evolvono nel tempo come le onde piane libere dell’elettrodinamica. Contrariamente alle onde elettromagnetiche, la relazione tra la frequenza di oscillazione nel tempo e la frequenza di oscillazione nello spazio `e di tipo quadratico, mentre nel caso dell’ottica la relazione `e di proporzionalit` a diretta. L’equazione (5.14) viene chiamata relazione di dispersione non relativistica, in quanto `e basata sulla relazione Eq. (5.5) tra energia cinetica ed impulso per la particella non relativistica libera. ωk =
5.1.2
Equazioni del moto per posizione ed impulso
In rappresentazione di Heisenberg, lo stato di un sistema di particella libera `e l’onda piana Eq. (5.9), a tutti i tempi, mentre gli operatori dipendono dal tempo. Come abbiamo visto, la dipendenza dal tempo degli operatori posizione ed impulso soddisfa equazioni del moto che coincidono con quelle classiche. Ne segue che gli operatori pˆH (t), x ˆH (t) dipendono dal tempo secondo le leggi del moto classiche: pˆH (t) = pˆH (t0 ) = pˆS
(5.15)
pˆH pˆS x ˆH (t) = x ˆH (t0 ) + (t − t0 ) =x ˆS + (t − t0 ) . m m
(5.16)
` istruttivo chiedersi come lo stesso risultato si possa ritrovare utilizzando la rappresentazione di E Schr¨ odinger: come vedremo, si trova lo stesso risultato, ma in modo pi` u laborioso. Per l’operatore impulso abbiamo Z Z dx exp i[(k − k 0 )x − (ωk − ωk0 )t] (5.17) hk 0 ; t|ˆ p|k; ti = ~khk 0 ; t|k; ti = ~k dx hk 0 ; t|xihx|k; ti = ~k 2π Z 0 0 dx i(k−k0 )x = ~ke−i(ωk −ωk )t e = ~ke−i(ωk −ωk )t δ(k − k 0 ) (5.18) 2π = ~kδ(k − k 0 ), (5.19)
5.1 Autostati dell’hamiltoniana
81
dove nell’ultimo passaggio abbiamo notato che se k = k 0 allora Ek = Ek0 . Quindi gli elementi di matrice dell’operatore impulso non dipendono dal tempo hk 0 ; t|ˆ p|k; ti = ~kδ(k − k 0 ). Studiamo ora la dipendenza temporale degli elementi di matrice dell’operatore posizione x ˆ Z Z hk 0 ; t|ˆ x|k; ti = dx hk 0 ; t|ˆ x|xihx|k; ti = dx xhk 0 ; t|xihx|k; ti Z dx = x exp i[(k − k 0 )x − (ωk − ωk0 )t]. 2π
(5.20)
(5.21) (5.22)
Ora osserviamo che 0 0 1 d i[(k−k0 )x−(ωk −ωk0 )t] 1 dωk i[(k−k0 )x−(ωk −ωk0 )t] e = xei[(k−k )x−(ωk −ωk )t] + (−it) e i dk i dk 0 0 ~kt i[(k−k0 )x−(ωk −ωk0 )t] = xei[(k−k )x−(ωk −ωk )t] − e , m
(5.23) (5.24)
e di conseguenza 0
0
xei[(k−k )x−(ωk −ωk )t] =
~kt i[(k−k0 )x−(ωk −ωk0 )t] 1 d + e . i dk m
(5.25)
Possiamo quindi riscrivere la Eq. (5.22) come Z 0 ~kt i[(k−k0 )x−(ωk −ωk0 )t] d ~kt dx 1 d 0 + e = −i δ(k − k 0 )ei(ωk −ωk )t + δ(k − k 0 ), hk ; t|ˆ x|k; ti = 2π i dk m dk m (5.26) cio`e hk 0 ; t|ˆ x|k; ti = −i
d ~kt δ(k − k 0 ) + δ(k − k 0 ). dk m
(5.27)
Pertanto gli elementi di matrice dell’operatore posizione soddisfano hk 0 |ˆ x|ki = hk 0 |ˆ xS |ki +
t 0 hk |ˆ pS |ki, m
(5.28)
che `e lo stesso risultato che avevamo trovato in rappresentazione di Heisenberg. Notiamo che, come avevamo osservato nella discussione degli stati stazionari nel paragrafo 4.2, quando, come in questo caso, lo spettro di energia `e continuoo, non possiamo concludere che l’elemento di matrice diagonale degli operatori in uno stato stazionario `e indipendente dal tempo, perch´e l’elemento di matrice diagonale non `e ben definito, e quindi possiamo solo concludere che l’elemento di matrice tra due autostati dell’energia dipende daql tempo, come nel caso dell’Eq. (5.28)
5.1.3
Dipendenza dal tempo dell’indeterminazione
Una immediata conseguenza di queste leggi del moto `e il fatto forse sorprendente che anche per una particella libera, quindi non soggetta a forze, gli operatori posizione alla Heisenberg a tempi diversi non commutano fra loro: [ˆ xH (t), x ˆH (t0 )] =
i~(t − t0 ) (t − t0 ) [ˆ xS , x ˆS ] = . m m
(5.29)
Quindi se il sistema `e preparato in un autostato della posizione al tempo t0 , esso non `e pi` u in un autostato della posizione a tempi successivi.
82
La particella unidimensionale libera
Infatti, il principio di indeterminazione, assieme al commutatore Eq. (5.29), implica ∆2ψ x(t)∆2ψ x(t0 ) ≥
~2 (t − t0 )2 . 4m2
(5.30)
Ci` o significa che, per un sistema non soggetto a forze, se si effettua una misura di posizione con una certa indeterminazione, la dispersione dei risultati di una seconda misura di posizione fatta ad un tempo successivo `e tanto pi` u grande quanto pi` u tempo `e passato tra le due misure. Questo si pu` o capire fisicamente nel modo seguente: se al tempo t si effettua una misura di posizione 2 con indeterminazione ∆2ψ x(t), allora l’impulso ha indeterminazione ∆2ψ p(t) ≥ ~4 ∆2 1x(t) . Ma visto che per ψ
il teorema di Ehrenfest Eq. (4.112-4.113) le leggi del moto classiche valgono in media, la dispersione di valori dell’impulso implica una dispersione di valori di posizione che cresce nel tempo secondo la legge del moto classica. Renderemo questo argomento pi` u quantitativo nella Sez. 5.3.2.
5.2
Pacchetti d’onde
Le autofunzioni dell’impulso, e quindi le autofunzioni dell’hamiltoniana di particella libera, ossia le onde piane Eq. (3.97), sono stati di definito impulso e quindi posizione completamente indeterminata, come si vede notando che la densit` a di probabilit` a per una misura di posizione che se ne ottiene `e una costante indipendente dalla posizione. Tuttavia, in qualunque situazione realistica, l’impulso viene misurato con risoluzione finita, su sistemi localizzati in una porzione finita di spazio. Una qualunque particella libera realistica `e cio`e in uno stato sovrapposizione di autostati dell’impulso: un pacchetto d’onde. Il pi` u generale pacchetto d’onde si ottiene costruendo una sovrapposizione di autostati dell’impulso, ciascuno dei quali evolve nel tempo come onda piana: Z Z Z 1 ψ(x; t) = dk hx|kihk|ψ(t)i = dk hx|kihk|S(t, 0)|ψ(t = 0)i = dk √ ei(kx−ωk t) ψ(k; t = 0). (5.31) 2π Sapendo come `e fatto lo stato sulla base di autostati dell’impulso al tempo iniziale possiamo calcolare la sua evoluzione per tempi successivi dato che `e nota quella dei suoi autostati.
5.2.1
Stati di minima indeterminazione
Ci concentriamo ora su una particolare classe di pacchetti d’onda, cio´e quelli di minima indeterminazione, tali da soddisfare, al tempo iniziale t = 0 la condizione ∆2ψ x∆2ψ p =
~2 , 4
(5.32)
ossia il minimo valore del prodotto delle indeterminazioni posizione-impulso permesso dal principio di indeterminazione di Heisenberg. Per costruire uno stato di minima indeterminazione ricordiamo la dimostrazione del principio di indeterminazione presentata nella Sez. 2.2.3: dati due operatori A e B abbiamo ottenuto la relazione di indeterminazione combinando le due disuguaglianze 2 hψ|A2 |ψihψ|B 2 |ψi ≥ hψ|AB|ψi hψ|AB|ψi 2 ≥ 1 hψ|[A, B]|ψi 2 . 4
(5.33) (5.34)
Pertanto, identifichiamo A = ∆ˆ p = pˆ − hˆ pi;
B = ∆ˆ x=x ˆ − hˆ xi,
(5.35)
e chiediamo che le due disuguaglianze Eq. (5.33-5.34) siano soddisfatte come uguaglianze. Attenzione alla notazione: ∆ˆ p e ∆ˆ q sono operatori (definiti secondo la Eq. (5.35)). Invece le indeterminazioni ∆2ψ p
5.2 Pacchetti d’onde
83
e ∆2ψ q sono dei numeri — si tratta infatti di deviazioni standard di risultati di misure. Con le nostre definizioni 2
2
∆2ψ p = hψ| (∆ˆ p) |ψi∆2ψ q
= hψ| (∆ˆ q ) |ψi.
Cominciamo trovando le condizioni per l’uguaglianza nella disuguaglianza di Schwartz Eq. (5.33). Come nella Sez. 2.2.3, poniamo A|ψi = |αi e B|ψi = |βi
(5.36)
hα|βi 2 ≤ hα|αihβ|βi
(5.37)
|βi = z|αi.
(5.38)
dimodoch´e la disuguaglianza
diventa un’uguaglianza se
Per quanto concerne la Eq. (5.34), ricordiamo che 1 1 hψ|{A, B}|ψi + hψ|[A, B]|ψi 2 2 = Re hψ|AB|ψi + iIm hψ|AB|ψi,
hψ|AB|ψi =
(5.39) (5.40)
quindi, affinch´e la (5.34) sia soddisfatta come uguaglianza, `e necessario che hψ|{A, B}|ψi = Re hψ|AB|ψi = 0,
(5.41)
che, utilizzando la Eq. (5.38), implica Re (zhψ|A2 |ψi) = 0,
(5.42)
z = iλ
(5.43)
e quindi
con λ reale, visto che hψ|A2 |ψi = hφ|φi, avendo definito |φi = A|ψi. Usando la Eq. (5.35), e combinando le Eq. (5.38-5.42) si ha cos`ı che la condizione necessaria affinch´e lo stato |ψi sia di minima indeterminazione `e ∆ˆ p|ψi = iλ∆ˆ q |ψi. Nella base delle coordinate, la Eq. (5.44) diventa l’equazione differenziale hx| pˆ − hˆ pi |ψi = iλhx| x ˆ − hˆ xi |ψi.
(5.44)
(5.45)
Ponendo x0 ≡ hˆ xi;
p0 ≡ hˆ pi
(5.46)
la Eq. (5.44) diventa ∂ψ(x) ip0 λ = ψ(x) − (x − x0 )ψ(x), ∂x ~ ~
(5.47)
la cui soluzione `e
ip0 x λ 2 ψ(x) = N exp − (x − x0 ) , ~ 2~
(5.48)
84
La particella unidimensionale libera
dove la condizione iniziale N `e fissata per normalizzazione. Quest’ultima `e fissata dalla condizione r Z ∞ Z ∞ π~ 2 −λ 0 2 −λ (x−x0 )2 x02 2 ~ ~ dx |N | e 1 = hψ|ψi = dx |N | e = = |N | , (5.49) λ −∞ −∞ da cui |N | =
λ π~
14 .
(5.50)
Concludiamo che lo stato di minima indeterminazione `e una gaussiana, centrata in x0 (che determina cos`ı il valor medio della posizione), di larghezza inversamente proporzionale a λ e modulata da un’onda piana che determina il valore medio p0 dell’impulso.
5.2.2
Indeterminazione del pacchetto d’onde
Vogliamo ora calcolare l’indeterminazione di posizione ed impulso in questo stato. Calcoliamo quindi ∆2ψ x = h(ˆ x − hˆ xi)2 i e ∆2ψ p = h(ˆ p − hˆ pi)2 i. Innanzitutto verifichiamo che effettivamente x0 = hˆ xi e p0 = hˆ pi: Z ∞ Z ∞ Z ∞ 2 λ 02 λ dx0 e− ~ x (x0 + x0 ) = x0 , hˆ xi = hψ|ˆ x|ψi = dx |ψ(x)|2 x = |N |2 dx e− ~ (x−x0 ) x = |N |2 −∞
−∞
−∞
(5.51) dove nell’ultimo passaggio il termine contenente x0 si annulla perch´e si tratta dell’integrale R ∞ di unaλfunzione 02 dispari su dominio pari, ed abbiamo usato la condizione di normalizzazione |N |2 −∞ dx0 e− ~ x = 1. Analogamente Z ∞ Z ∞ ip0 ∂ψ(x) ∗ ∗ = dx ψ (x) (−i~) hˆ pi = hψ|ˆ p|ψi = dx ψ (x)(−i~) ψ(x) (5.52) ∂x ~ −∞ −∞ Z ∞ Z ∞ λ 2(x − x0 )ψ(x) = + dx |ψ(x)|2 p0 = p0 , (5.53) dx ψ ∗ (x)(−i~) − 2~ −∞ −∞ dove nuovamente il secondo termine `e nullo in quanto si tratta dell’integrale di una funzione dispari su dominio pari. Possiamo ora calcolare le indeterminazioni: Z ∞ ∂ ∂ hψ|(ˆ p − p0 )2 |ψi = − p0 − p0 ψ(x) dx ψ ∗ (x) − i~ − i~ (5.54) ∂x ∂x −∞ Z ∞ λ ∂ − p0 (−i~) − (x − x0 ) ψ(x) (5.55) = dx ψ ∗ (x) − i~ ∂x ~ −∞ Z ∞ 2 λ = ~λ − λ2 dx |N |2 (x − x0 )2 e− ~ (x−x0 ) (5.56) −∞ Z ∞ λ 02 ~λ = ~λ − λ2 dx0 |N |2 x02 e− ~ x = . (5.57) 2 −∞ L’ultimo integrale `e stato calcolato a partire da quello gaussiano differenziando sotto il segno di integrale: r r Z ∞ Z ∞ Z ∞ d d d π 1 π −∆x2 −∆x2 2 −∆x2 dx x e = dx − e =− dx e =− = (5.58) d∆ d∆ −∞ d∆ ∆ 2∆ ∆ −∞ −∞ Per la posizione abbiamo 2
Z
∞ 2
2
Z
∞
dx|ψ(x)| (x − x0 ) =
hψ|(ˆ x − x0 ) |ψi = −∞
−∞
λ
02
dx0 |N |2 x02 e− ~ x =
~ , 2λ
(5.59)
5.2 Pacchetti d’onde
85
facendo nuovamente uso della Eq. (5.58). Siamo quindi arrivati a stabilire che ~λ 2 ~ 2 : ∆ x= 2λ ∆2 p =
(5.60) (5.61)
di conseguenza, abbiamo confermato che il pacchetto gaussiano che abbiamo trovato `e effettivamente un pacchetto di minima indeterminazione, per cui ∆2 pˆ∆2 x ˆ=
~2 . 4
(5.62)
Conviene esprimere λ in termini dell’indeterminazione in posizione usando la Eq. (5.60). Otteniamo cos`ı p0 1 (x − x0 )2 hx|ψi = ψ(x) = N exp i x − , (5.63) ~ 4 ∆2 x ˆ che mostra esplicitamente come l’indeterminazione in posizione ∆2 x determini la larghezza della densit` a di probabilit` a di posizione.
5.2.3
Indeterminazione posizione-impulso
Il fatto che la larghezza del pacchetto gaussiano dia l’indeterminazione in posizione `e intuitivamente chiaro. Che il suo reciproco determini l’indeterminazione in impulso `e di nuovo chiaro ricordando che la funzione d’onda nello spazio degli impulsi `e la trasformata di Fourier della funzione d’onda nello spazio delle posizioni, si ricordi la Eq. (3.100), e che la trasformata di Fourier di una gaussiana `e anch’essa una gaussiana, di larghezza reciproca: Z ∞ Z ∞ dx dx i( p0 −k)x− λ (x−x0 )2 2~ √ e−ikx ψ(x) = N √ ψ(k) = e ~ (5.64) 2π 2π −∞ −∞ Z ∞ (k0 −k)2 ~ dx0 i(k0 −k)x0 − λ x02 2~ √ e = N 0 e−ikx0 e 2λ (5.65) = N ei(k0 −k)x0 2π −∞ dove |N 0 | =
~ πλ
14 .
(5.66)
Alternativamente, possiamo ottenere ψ(k) ricordando che abbiamo ottenuto ψ(x) come soluzione dell’equazione differenziale ottenuta scrivendo l’Eq. (5.44) nella base delle posizioni. Ma se invece scriviamo la stessa equazione nella base degli impulsi abbiamo hk| pˆ − hˆ pi |ψi = iλhk| x ˆ − hˆ xi |ψi, (5.67) ossia, ponendo di nuovo hˆ xi = x0 e hˆ pi = p0 , i~2 ∂ + ~x0 ψ(k) = (k − k0 )ψ(k), − i~ ∂k λ
(5.68)
che ha per soluzione ~ ψ(k) = N 0 exp − ikx0 − (k − k0 )2 , 2λ in accordo con la Eq. (5.65) trovata prima.
(5.69)
86
La particella unidimensionale libera
Il fatto che la trasformata di Fourier di un pacchetto d’onde localizzato in un punto abbia larghezza reciproca di quella del pacchetto originario `e qualitativamente vero per qualunque pacchetto. Per capirlo, consideriamo la trasformata di Fourier Z ∞ Z ∞ ikx ψ(k) = dx e ψ(x) = dx(cos kx + i sin kx)ψ(x) (5.70) −∞
−∞
di una funzione ψ(x) che supponiamo localizzata attorno ad un punto x = 0 (si veda la Fig. 5.1). L’onda piana ha una parte reale ed una parte immaginaria, che oscillano in x con periodo 2π k . Se la frequenza delle oscillazioni `e elevata rispetto alla scala della variazione della ψ(x), cio`e se la ψ(x) `e circa costante lungo un periodo, allora l’integrale in x si annulla. Infatti, la media del seno o del coseno su un periodo `e zero. Se il seno od il coseno sono modulati da una funzione circa costante, l’integrale `e circa zero. Visto e ∆x, ne concludiamo che ψ(k) ≈ 0 che il periodo di oscillazione `e 2π k , se la scala di variazione della ψ(x) ` 2π se k ∆x . Quindi, la ψ(k) `e localizzata intorno a k = 0, con larghezza circa proporzionale al reciproco della larghezza della ψ(x). Il coefficiente di proporzionalit`a esatto dipende dalla forma esplicita della funzione.
Figura 5.1: Onda piana rapidamente oscillante rispetto alla scala della variazione della funzione d’onda ψ(x). L’argomento `e facilmente generalizzabile al caso di funzioni d’onda ψ(x) e ψ(k) localizzate attorno a x0 e k0 rispettivamente, sfruttando l’invarianza per traslazioni sia rispetto a x che rispetto a k.
5.3
Moto di un pacchetto d’onde
In un pacchetto d’onda generalizzato la dipendenza dal tempo `e data da Z ψ(x; t) = dk ei(kx−ωk (k)(t−t0 )) ψ(k; t0 ),
(5.71)
ossia dalla dipendenza dal tempo dei fattori di fase che compaiono nello sviluppo in autostati di energia, ciascuno dei quali oscilla nel tempo con pulsazione ωk .
5.3.1
Velocit` a di fase e velocit` a di gruppo
Ciascuno degli autostati di energia di cui il pacchetto `e sovrapposizione si muove nel tempo con impulso k e velocit` a di fase definita da: k vk = . (5.72) m
5.3 Moto di un pacchetto d’onde
87
Tuttavia, il pacchetto pu` o essere considerato come un oggetto singolo, che si muove con un’unica velocit` a, detta velocit` a di gruppo, che identifichiamo con la velocit`a con cui si sposta il valor medio (che possiamo interpretare come il “centro”) del pacchetto: vg =
d hˆ xi . dt
(5.73)
La velocit` a di gruppo pu` o essere determinata facilmente ricordando che, come visto nella Sez. 4.3, gli operatori canonici alla Heisenberg x ˆ e pˆ soddisfano le leggi del moto classiche, ovvero pˆH (t) = pˆS ,
(5.74)
x ˆH (t) = x ˆS +
t pˆS . m
(5.75)
Ne segue che hˆ x(t)i = hψ|ˆ xH |ψi = hψ|ˆ xS |ψi + hψ|
t ~k0 pˆS |ψi = x0 + t m m
hˆ p(t)i = hψ|ˆ pH |ψi = ~k0 ,
(5.76) (5.77)
e quindi vg =
5.3.2
~k0 . m
(5.78)
Allargamento di un pacchetto d’onde
Abbiamo visto nella Sez. 5.1.3 che gli operatori posizione alla Heisenberg a tempi diversi non commutano, e che ci` o implica che, oltre allo spostamento del centro del pacchetto, si assiste in generale anche ad un suo allargamento. Vogliamo ora determinare esattamente il tasso di allargamento del pacchetto (anzich´e solo una maggiorazione su di esso), sia in generale che per i pacchetti gaussiani. Data la forma esplicita della funzione d’onda al tempo iniziale, la Eq. (5.71) permette di determinarne la forma a tutti i tempi, che pu` o essere utilizzata per calcolare l’indeterminazione. Risulta tuttavia pi` u generale ed efficiente utilizzare la rappresentazione di Heisenberg per calcolare ∆2 p(t) = hˆ p2H (t)i − hˆ pH (t)i2 2
∆ x(t) =
hˆ x2H (t)i
2
− hˆ xH (t)i .
(5.79) (5.80)
Utilizzando le equazioni del moto (5.75-5.74) troviamo immediatamente che ∆2 pˆ(t) = hˆ p2S i − hˆ pS i2 = ∆2 pˆ(0)
(5.81)
cio`e l’indeterminazione in impulso non dipende dal tempo. Questa `e una conseguenza del fatto che l’operatore impulso commuta con l’hamiltoniana, e quindi si conserva: il potenziale non dipende dalla posizione, e quindi il sistema `e invariante per traslazioni. L’indeterminazione in posizione dipende dal tempo come 2 t t xS + pˆS i2 ∆2 x(t) = h x ˆS + pˆS i − hˆ m m t2 t = hˆ x2S i − hˆ xS i2 + 2 hˆ p2S i − hˆ p S i2 + (hˆ xS pˆS + pˆS x ˆS i − 2hˆ xS ihˆ pS i) (5.82) m m t2 t = ∆2 x(0) + 2 ∆2 pˆ + (h∆ˆ xS ∆ˆ pS + ∆ˆ pS ∆ˆ xS i) , (5.83) m m dove ∆2 x(0) e ∆2 pˆ sono le indeterminazioni in posizione ed impulso al tempo iniziale (quest’ultima pari all’indeterminazione in impulso a qualunque tempo, secondo la Eq. (5.81)), e ∆ˆ xS e ∆ˆ pS sono gli operatori definiti nella Eq. (5.35). Si vede quindi che, al crescere di t in modulo, l’indeterminazione in posizione
88
La particella unidimensionale libera
aumenta, e per grandi t cresce quadraticamente. Notiamo che mentre t → ∞ il termine quadratico domina e quindi l’indeterminazione cresce sempre, per piccoli tempi potrebbe dominare il termine lineare in t, ed in tal caso l’indeterminazione pu` o anche diminuire, visto che possiamo sempre considerare intervalli di tempo sia positivi che negativi. Consideriamo ora il caso particolare di un pacchetto gaussiano Eq. (5.48). Osserviamo che la condizione Eq. (5.41), avendo identificato gli operatori A e B con ∆ˆ p e ∆ˆ x rispettivamente, secondo la Eq. (5.35), implica h∆ˆ p∆ˆ x + ∆ˆ x∆ˆ pi = 0.
(5.84)
hˆ xS pˆS + pˆS x ˆS i = 2Re hˆ xS pˆS i,
(5.85)
Possiamo verificarlo esplicitamente:
ma ricordiamo che il ket di stato per un pacchetto gaussiano soddisfa la condizione Eq. (5.44), che, con le definizioni Eq. (5.46) e usando la Eq. (5.60) ha la forma pˆ|ψi = pˆ0 |ψi + i
~ (ˆ xS − x ˆ0 )|ψi. 2∆2 x ˆ
(5.86)
Di conseguenza 2Re hψ|ˆ xS pˆS |ψi = 2Re
~ p0 hψ|ˆ xS |ψi + i 2 hψ|ˆ xS (ˆ xS − x0 )|ψi = 2x0 p0 . 2∆ x
(5.87)
Quindi il termine lineare in t nella Eq. (5.82) si annulla, e per un pacchetto gaussiano abbiamo ∆2 x(t) = ∆2 x(0) +
t2 2 ∆ p. m2
(5.88)
Quindi il pacchetto `e di minima indeterminazione esclusivamente al tempo t = 0, mentre a tutti gli altri tempi l’indeterminazione `e maggiore. Il secondo termine a membro destro della Eq. (5.88) pu`o essere interpretato come un termine di diffusione: se al tempo t = 0 l’impulso `e indeterminato di ∆p, allora la velocit` a `e indeterminata di ∆p m , e quindi in assenza di forze (e quindi per moto uniforme) la posizione finale ∆p `e indeterminata di t m . L’incertezza quadratica sulla posizione `e perci`o data dalla somma in quadratura di tale incertezza, e dell’incertezza sulla posizione iniziale. Notiamo inoltre che, usando la condizione di minima indeterminazione al tempo iniziale, possiamo riscrivere l’Eq. (5.88) come ∆2 x(t) = ∆2 x(0) +
~2 t2 4m2 ∆2 x(0)
(5.89)
Ma ricordando che il principio di indeterminazione applicato a misure di posizione a tempi diversi Eq. (5.29) implica ∆2 x(t) ≥
~2 t2 4m2 ∆2 x(0)
(5.90)
vediamo che per t grande l’indeterminazione del pacchetto gaussiano cresce, ma con il minimo valore compatibile con la Eq. (5.30).
5.3.3
L’ordine di grandezza degli effetti quantistici
Possiamo chiederci quanto questi effetti di indeterminazione ed allargamento siano rilevanti in situazioni realistiche. La relazione tra indeterminazione in posizione ed impulso `e fissato dal valore della costante ~. In contesti in cui gli effetti quantistici sono rilevanti si usano solitamente unit`a di misura tipiche della fisica atomica o nucleare. Le energie si misurano in elettronvolt (eV): 1 eV `e l’energia cinetica acquisita
5.3 Moto di un pacchetto d’onde
89
da un elettrone sottoposto ad una differenza di potenziale di 1 Volt. Le distanze vengono misurate in Fermi (Fm), che `e dell’ordine di grandezza del raggio di un protone. In questo contesto `e conveniente utilizzare la stessa unit` a di misura per masse, energie, ed impulsi, utilizzando la velocit`a della luce c = 3 · 1010 cm s−1
(5.91)
come fattore di conversione. La relazione tra queste unit`a di misura per energia e lunghezza e le consuete unit` a macroscopiche `e 1 eV = 1.6 · 10−19 J = 1.8 · 10−36 kg c2 ,
(5.92)
(infatti una massa per una velocit` a al quadrato ha le dimensioni di un’energia), mentre 1 Fm = 10−13 cm.
(5.93)
La conversione tra lunghezza e energie si effettua facilmente ricordando che ~c = 197 MeV Fm.
(5.94)
Supponiamo ora di misurare l’energia o l’impulso di una particella con un’accuratezza ∆p ∼ 100 eV.
(5.95)
Per riferimento, la massa di un elettrone `e circa 0.5 MeV, mentre quella di un protone `e circa 1 GeV: si ~ . tratta quindi di una misura piuttosto accurata. In una condizione di minima indeterminazione ∆x ∼ 21 ∆p Usando ~c come fattore di conversione, possiamo dire che vale 1 Fm '
1 200 MeV
(5.96)
e quindi ∆x ∼
1 ~ ~ = = 106 Fm = 10−7 cm = 10−3 µm 2 ∆p 200 eV
(5.97)
In Fig. 5.2 si mostrano le tracce lasciate da particelle cariche in un’emulsione nucleare. La tipica energia ceduta dalla particella alle molecole dell’emulsione (energia di ionizzazione) `e dell’ordine della Eq. (5.95), quindi la minima indeterminazione con cui `e possibile misurare la posizione della particella `e data dalla Eq. (5.97). Si vede che la traccia inizia a mostrare fluttuazione che sono dell’ordine di almeno uno o forse due ordini di grandezza pi` u grandi rispetto a questo limite.
Figura 5.2: Tracce di particelle (nuclei di O e C e protoni) in un’emulsione nucleare. Veniamo ora all’indeterminazione a tempi successivi. Si `e detto che l’allargamento `e dovuto all’incertezza che si ha sull’impulso. Supponiamo di misurare la posizione di un oggetto a tempi diversi che ha
90
La particella unidimensionale libera
lasciato una traccia in un rivelatore. La posizione finale ha sia una indeterminazione che riflette quella iniziale, sia una indeterminazione dovuta al fatto che l’impulso iniziale avesse una sua indeterminazione. Dopo un tempo t, una particella di impulso costante si `e spostata di una lunghezza l=
p t, m
(5.98)
e l’indeterminazione extra dovuta all’allargamento del pacchetto `e ∆t x =
∆p t. m
(5.99)
Quindi l’incertezza sulla posizione della particella, in percentuale della lunghezza della traccia, `e ∆t x ∆p = . l p
(5.100)
In situazioni come quella discussa prima, in cui l’indeterminazione relativa in impulso `e piccola l’effetto di allargamento `e trascurabile: nell’esempio precedente, l’indeterminazione relativa per un protone p ∼ −7 , quindi l’allargamento della traccia `e di un fattore 10−7 pi` u piccolo della sua lunghezza. 1 GeV `e ∆p p ∼ 10
Capitolo 6
Problemi unidimensionali Affronteremo ora la determinazione dello spettro dell’hamiltoniana per alcuni semplici potenziali, che possono essere usati per modellizzare schematicamente alcune situazioni realistiche. Ci limiteremo per il momento alla trattazione di problemi unidimensionali, e considereremo in particolare potenziali costanti a tratti, come buche rettangolari, gradini e barriere. Saremo in particolare interessati a descrivere due classi di problemi: quelli in cui si possono formare degli stati legati in una buca di potenziale (mostrata schematicamente in a sinistra in Fig. 6.1), e quelli in cui la presenza di un potenziale localizzato (per esempio un gradino, mostrato schematicamente a destra in Fig. 6.1) influenza il moto di una particella altrimenti libera. Essi costituiscono rispettivamente il prototipo di problemi di stato legato, e di problemi d’urto (o diffusione).
Figura 6.1: Buca di potenziale e gradino di potenziale.
6.1
La buca di potenziale infinita
Il primo problema che affrontiamo `e il pi` u semplice dei problemi di stato legato: consideriamo una buca rettangolare centrata nell’origine con un potenziale ( 0 se |x| < a V (x) = . (6.1) V0 se |x| > a con V0 → ∞ Dal punto di vista classico i moti consentiti sono quelli di particella libera all’interno della buca; ogni volta che il sistema urta contro le pareti rimbalza elasticamente. I moti sono quindi moti liberi con velocit` a v , e possono assumere ogni valore di energia cinetica permesso. v uniforme, periodici con periodo 4a
6.1.1
Determinazione dello spettro
Come nella maggior parte dei problemi che seguiranno, utilizziamo la rappresentazione delle coordinate. ˆ L’equazione agli autovalori per l’Hamiltoniana H ˆ E i = E|ψE i H|ψ diventa
(6.2)
92
Problemi unidimensionali
Figura 6.2: Buca di potenziale 1. regione |x| < a: ~2 ∂ 2 ψE (x) = EψE (x) 2m ∂x2
(6.3)
~2 ∂ 2 ψE (x) = (E − V0 )ψE (x) 2m ∂x2
(6.4)
− 2. regione |x| > a: −
Le soluzioni si determinano facilmente in entrambe le regioni. 1. regione |x| > a Le soluzioni dell’Eq. (6.4) sono r ψE (x) = NE exp ±x
! 2m (V0 − E) . ~2
(6.5)
Poich`e siamo interessati al limite V0 → ∞, l’argomento della radice `e reale positivo per ogni valore dell’energia E. Ne segue che solo una delle due soluzioni Eq. (6.5) `e normalizzabile, mentre l’altra diverge all’infinito. Abbiamo quindi che l’unica soluzione fisicamente accettabile `e r 2m ψE (x) = NE exp −k|x|; k= (V0 − E). (6.6) ~2 Nel limite V0 → ∞, ψE (x) = 0 identicamente in questa regione. 2. regione |x| < a In questa regione l’hamiltoniana `e quella di particella libera, quindi le soluzioni generale dell’equazione agli autovalori (6.3) per fissata energie E `e (ricordando la sezione 5.1) 0 −ikE x ψE (x) = A0E eikE x + BE e ;
E=
2 ~2 k E , 2m
(6.7)
che possiamo equivalentemente riscrivere come ψE (x) = AE sin kE x + BE cos kE x.
(6.8)
6.1 La buca di potenziale infinita
93
La soluzione generale dell’equazione agli autovalori (6.3) nel limite V0 → ∞ `e quindi data dalla Eq. (6.8), con la condizione al contorno ψE (±a) = 0,
(6.9)
necessaria per raccordare le soluzioni nelle due regioni. Notiamo che nella regione |x| > a si annullano la funzione d’onda e tutte le sue derivate, quindi il problema va considerato come un problema agli autovalori formulato in una regione finita. L’equazione agli autovalori Eq. (6.4) fornisce una condizione sulla derivata seconda della funzione (quindi in particolare la condizione al contorno Eq. (6.9) implica che anche la derivata seconda si annulla). Non vi sono ulteriori condizioni in quanto nel punto x = a il potenziale ha una discontinuit` a di ampiezza infinita. Ora, `e facile vedere, integrando in un intorno della discontinuit` a ,che se la derivata seconda ha una discontinuit`a di ampiezza finita, la derivata prima `e continua, ma se la discontinuit` a `e infinita anche la derivata prima diventa discontinua. Le uniche soluzioni Eq. (6.8) compatibili con la condizione Eq. (6.9) corrispondono al caso in cui il coefficiente davanti al seno oppure al coseno si annulla: infatti, il seno ed il coseno non possono mai essere entrambi nulli in x = a per fisso k. Abbiamo quindi due classi di soluzioni: • BE = 0 In tal caso I ψE (x) = AE sin kx
(6.10)
e imponendo sin(ka) = sin(−ka) = 0 otteniamo la condizione ka = πn, ossia kn =
2nπ ; 2a
En =
~2 kn2 . 2m
(6.11)
• AE = 0 In tal caso II ψE (x) = BE cos kx
(6.12)
e imponendo cos(ka) = cos(−ka) = 0 otteniamo la condizione ka = kn =
(2n + 1)π ; 2a
En =
~2 kn2 . 2m
π 2
+ πn = (2n + 1) π2 , ossia (6.13)
Lo spettro di autovalori di eneregia `e quindi: En =
~2 kn2 2m
(6.14)
con kn =
nπ con 2a
n pari n dispari
soluzione I soluzione II
(6.15)
Di conseguenza possiamo riscrivere En =
~2 n2 π 2 ~2 n 2 π 2 = 2 8a m 2L2 m
(6.16)
dove L `e la larghezza della buca. Osserviamo che lo spettro `e non-degenere, ovvero per ogni autovalore di energia vi `e una sola autofunzione. Determiniamo infine la normalizzazione delle autofunzioni: Z a Z a 2nπ (2n + 1)π dx cos2 x= dx sin2 x = a, (6.17) 2a 2a a −a quindi AE = BE =
√1 . a
94
Problemi unidimensionali
6.1.2
Propriet` a delle autofunzioni
Lunghezza d’onda Le autofunzioni Eq. (6.10,6.12) oscillano con lunghezza d’onda λn =
2π 2π2a 2L = = kn nπ n
(6.18)
Ci` o significa che la buca contiene un numero intero di semiperiodi: le funzioni d’onda si comportano come una corda vibrante fissa alle estremint` a. Vi `e uno stato di energia minima, o stato fondamentale, che corrisponde ad una soluzione di tipo II ed ha energia k=
π ; 2a
E=
~2 π 2 . 8a2 m
(6.19)
Gli stati con n > 1, o stati eccitati, corrispondono alle armoniche della frequenza fondamentale del sistema. Ne concludiamo che una particella quantistica libera vincolata su un segmento pu`o assumere valori discreti di impulso, corrispondenti, secondo la Eq. (6.18), alle lunghezze d’onda permesse per un sistema oscillatorio classico della stessa lunghezza (si veda la Fig. 6.3). Vedremo pi` u avanti che per un’ampia classe di potenziale le autofunzioni normalizzabili dell’hamiltoniana danno sempre luogo ad uno spettro discreto di autovalori di energia.
𝑎
-𝑎
Figura 6.3: Stato fondamentale e primi due stati eccitati per una buca di potenziale infinita
Parit` a Le soluzioni che abbiamo trovato hanno tutte parit`a definita. Infatti, definendo l’operatore parit`a P come hx|P|ψi = h−x|ψi
(6.20)
che ha come autovalori 1 e -1 e le cui autofunzioni sono le funzioni pari (con autovalore 1) e le funzioni dispari (con autovalore -1), si ha che: P|ψE i = ±|ψE i =
+1 soluzione tipo II . −1 soluzione tipo I
(6.21)
6.1 La buca di potenziale infinita
95
Il fatto che le autofunzioni di energia siano anche autofunzioni della parit`a `e conseguenza del fatto che il potenziale `e simmetrico attorno all’origine, e quindi l’hamiltoniana `e invariante sotto una trasformazione di parit` a: ˆ ˆ P −1 HP = H,
(6.22)
ˆ = 0. [P, H]
(6.23)
il che implica immediatamente che
Poich`e l’hamiltoniana e la parit` a commutano, i due operatori possono essere diagonalizzati simultaneamente. Ma poich´e lo spettro `e nondegenere le autofunzioni dell’energia devono essere automaticamente autofunzioni della parit` a. Energia di punto zero ed indeterminazione Abbiamo visto che lo spettro ammette uno stato fondamentale di minima energia, pari a E0 Eq. (6.19). La ragione per cui l’energia dello stato fondamentale non pu`o essere nulla `e legato al principio di indeterminazione. Infatti, poich´e il sistema `e localizzato nell’intervallo |x| < a, l’indeterminazione in posizione non pu` o crescere indefinitamente, ed ha un valore massimo dell’ordine di ∆2 x . a2 . Ma il principio di indeterminazione implica quindi che l’indeterminazione in impulso `e vincolata inferiormente: ~2 , 4a2
(6.24)
∆2 p ~2 ∼ , 2m 8ma2
(6.25)
∆2 p & e quindi Emin ∼
in accordo qualitativo con la Eq. (6.19). ` importante notare che l’indeterminazione in impulso per ciascun autostato dell’hamiltoniana non `e E mai nulla, in seguito al fatto che la condizione al contorno ci obbliga a scegliere le autofunzioni di energia come sovrapposizioni di coppie di autostati dell’impulso con valore dell’impulso uguale e contrario, anzich`e come autostati dell’impulso, che darebbero luogo ad indeterminazione ∆p = 0.
6.1.3
Degenerazione dello spettro e stati legati
Lo spettro di energia della buca di potenziale infinita non `e degenere. Questa in realt`a `e una propriet` a generale dello spettro per qualunque hamiltoniana della forma Eq. (4.37) in una dimensione quando le autofunzioni sono normalizzabili. Possiamo dimostrare cio`e che due autofunzioni normalizzabili di una hamiltoniana unidimensionale del tipo Eq. (4.37) associate allo stesso autovalore differiscono al pi` u per una costante moltiplicativa (e quindi corrispondono allo stesso stato del sistema, visto che la normalizzazione `e convenzionale e la fase `e inosservabile). Supponiamo che siano date due autofunzioni ψI (x), ψII (x) di un’hamiltoniana della forma standard Eq. (4.37) associate allo stesso autovalore di energia E: 2m d2 ψI (x) = 2 (V (x) − E)ψI (x) dx2 ~ 2m d2 ψII (x) = 2 (V (x) − E)ψII (x). dx2 ~
(6.26) (6.27)
Le Eq. (6.26-6.27) implicano immediatamente che ψII (x)
d2 ψI (x) d2 ψII (x) − ψI (x) = 0, 2 dx dx2
(6.28)
96
Problemi unidimensionali
ossia d dx
dψI (x) dψII (x) ψII (x) − ψI (x) =0 dx dx
(6.29)
che implica ψII (x)
dψI (x) dψII (x) − ψI (x) = k, dx dx
(6.30)
dove k `e una costante arbitraria. Ma affinch´e gli stati ψI e ψII siano normalizzabili, lim ψI (x) = lim ψII (x) = 0,
(6.31)
ψI0 (x) ψ 0 (x) = II , ψI (x) ψII (x)
(6.32)
d d ln ψI (x) = ln ψII (x), dx dx
(6.33)
ln ψI (x) = ln ψII (x) + λ,
(6.34)
ψI (x) = eλ ψII (x),
(6.35)
x→±∞
x→±∞
e quindi k = 0. Pertanto
ossia
da cui
dove λ `e una costante arbitraria, cio´e
e quindi ψI (x) ψI (x) sono proporzionali, come si voleva dimostrare.
6.2
Il gradino di potenziale
Il potenziale a gradino `e la schematizzazione pi` u semplice di una situazione fisica reale in cui il potenziale varia in modo spazialmente localizzato. Nel nostro modello il potenziale vale: ( 0 se x < 0 V (x) = V0 Θ(x) = (6.36) V0 se x > 0 dove Θ `e la funzione detta theta di Heaviside (si veda la Figura 6.4).
6.2.1
Funzione a gradino e condizioni di continuit` a
Per affrontare questo problema, conviene fare alcune considerazioni preliminari sulla theta di Heaviside. Pu` o essere utile vedere la theta come una distribuzione, anzich´e come una funzione discontinua, ossia interpretarla attraverso la sua azione su una funzione di prova sotto integrazione. In tal caso, possiamo mostrare che la theta soddisfa l’equazione dΘ(x) = δ(x). dx Questo significa che sotto integrazione con una funzione di prova f (x) Z ∞ Z ∞ dΘ(x) dx dx δ(x)f (x). f (x) = dx −∞ −∞
(6.37)
(6.38)
6.2 Il gradino di potenziale
97
Figura 6.4: Potenziale a gradino Per dimostrare la Eq. (6.38) osserviamo dapprima che Z ∞ Z ∞ dx Θ(x)f 0 (x) = dx f 0 (x) = f (∞) − f (0). −∞
D’altra parte, integrando per parti, Z ∞ Z ∞ 0 dx Θ(x)f (x) = Θ(x)f (x) − −∞
(6.39)
0
∞
dΘ(x) dx f (x) = f (∞) − dx −∞
−∞
Z
∞
dx −∞
dΘ(x) f (x), dx
(6.40)
Uguagliando i membri di destra delle Eq. (6.39-6.2.1) si ottiene immediatamente la Eq. (6.38). La Eq. (6.37) implica immediatamente alcune interessanti conclusioni circa la forma delle autofunzioni per potenziali del tipo di quello della Fig. 6.4, ossia in generale dei potenziali continui a tratti e con discontinuit` a isolate. Osserviamo che l’equazione agli autovalori dell’hamiltoniana ∂ 2 ψE (x) 2m = − 2 (E − V0 Θ(x))ψE (x) ∂x2 ~
(6.41)
implica che nell’origine la derivata seconda della funzione d’onda `e discontinua. Possiamo per`o concludere che la funzione d’onda e la sua derivata sono funzioni continue nell’origine. Se infatti la funzione d’onda avesse derivata discontinua, allora la derivata seconda dovrebbe essere proporzionale ad una δ, e se ad essere discontinua fosse la funzione d’onda stessa, allora la sua derivata seconda dovrebbe essere proporzionale alla derivata di una δ: ma nessuno di questi casi `e compatibile con la Eq. (6.41). Dobbiamo quindi risolvere il problema separatamente nelle regioni x < 0 ed x > 0, imponendo quindi le condizioni di raccordo lim ψ(x + ) = lim ψ(x − )
→0
→0
0
0
lim ψ (x + ) = lim ψ (x − ).
→0
→0
(6.42) (6.43)
` chiaro che questo vale per qualunque potenziale che abbia una discontinuit`a localizzata, cio`e un E contributo proporzionale ad una funzione a gradino: la corrispondente equazione agli autovalori per l’hamiltoniana andr` a risolta separatamente a sinistra ed a destra della discontinuit`a, e la continuit`a della funzione e della derivata prima dovr` a quindi essere imposta nel punto in cui il potenziale `e discontinuo. Ricordiamo che, come gi` a osservato, nel caso della buca infinita discusso nella sezione precedente il coefficiente della discontinuit` a, ossia il coefficiente della funzione a gradino, `e infinito: perci`o non vi `e una condizione di continuit` a della derivata prima nel punto di discontinuit`a.
6.2.2
Autofunzioni di energia: stati di scattering
Possiamo ora determinare le autofunzioni di energia che soddisfano la Eq. (6.41). Distinguiamo due casi E > V0 e E < V0 , che chiamiamo rispettivamente caso di urto (scattering) e caso di penetrazione (tunneling), per ragioni che saranno chiare fra breve.
98
Problemi unidimensionali
Discutiamo dapprima il caso E > V0 . In tal caso, le autofunzioni di energia Eq. (6.41) nelle due regioni I (x < 0) e II (x > 0) (vedi Fig. 6.4) sono q ψ I (x) = AE eikE x + BE e−ikE x , kE = 2m 2 E E q~ , (6.44) 0 0 ψ II (x) = CE eikE x + DE e−ikE x , k 0 = 2m E E ~2 (E − V0 ) con le condizioni di raccordo (
I II ψE (0) = ψE (0) I ∂ψE (0) ∂x
=
II ∂ψE (0) ∂x
,
(6.45)
che implicano i vincoli ( AE + BE = CE + DE 0 0 ikE AE − ikE BE = ikE CE − ikE DE
.
(6.46)
Le soluzioni sono cio`e onde piane in entrambe le regioni, con diversi valori dell’impulso, determinati in modo che l’energia rimanga la stessa, e normalizzazione relativa fissata dalle condizioni di raccordo. Osserviamo che le condizioni di raccordo Eq. (6.46) forniscono due condizioni sui quattro coefficienti (complessi) AE , BE , CE , DE da cui dipende la soluzione Eq. (6.44). Di questi quattro coefficienti uno non `e significativo, in quanto il suo modulo `e fissato per normalizzazione, mentre al solito la fase complessiva della funzione d’onda `e inosservabile. Pertanto, la pi` u generale soluzione per fissato valore di energie dipende da un parametro libero. Questo significa che (come nel caso della particella libera Eq. (5.6)) per fissata energia vi `e una famiglia ad un parametro di soluzioni, ovvero vi sono due soluzioni indipendenti, di cui la soluzione generale pu`o essere scritta come combinazione lineare. Determiniamo quindi una soluzione ponendo a zero una delle quattro costanti, e mostrando che con questa scelta la soluzione esiste. Discuteremo in seguito come costruire un’altra soluzione linearmente indipendente da essa. Poniamo quindi DE = 0, sicch´e la Eq. (6.46) diventa ( AE + BE = CE (6.47) 0 CE . ikE AE − ikE BE = ikE Abbiamo tre incognite e due equazioni, che usiamo per esprimere BE e CE in funzione di AE : ( k −k0 BE = kEE +kE0 AE E
CE =
2kE 0 AE . kE +kE
(6.48)
Queste condizioni fissano completamente la soluzione Eq. (6.44) a meno della costante di normalizzazione AE : ψ I (x) = A eikE x + kE −kE00 e−ikE x E E kE +kE (6.49) 0 II ψE (x) = AE 2kE 0 eikE x . kE +kE
6.2.3
Corrente di probabilit` a
Per interpretare fisicamente la soluzione che abbiamo trovato introduciamo il concetto di corrente di probabilit` a, definita come ∗ i~ ∂ψ(x, t) ∂ψ (x, t) j(x, t) ≡ − ψ ∗ (x, t) − ψ(x, t) . (6.50) 2m ∂x ∂x La corrente j(x, t) soddisfa l’equazione di continuit`a ∂j(x, t) ∂ρ(x, t) + = 0, ∂x ∂t
(6.51)
6.2 Il gradino di potenziale
99
dove 2 2 ρ(x, t) = hx|ψ(t)i = ψ(x, t)
(6.52)
`e la consueta densit` a di probabilit` a per il risultato di una misura di posizione. Abbiamo infatti che ∂j(x, t) i~ ∂ 2 ψ(x, t) ∂ 2 ψ ∗ (x, t) ∗ − ψ(x, t) , (6.53) =− ψ (x, t) ∂x 2m ∂x2 ∂x2 ma l’equazione di Schr¨ odinger nella base delle coordinate ∂ 2 ψ(x, t) 2m ∂ψ(x, t) = − i~ − V (x)ψ(x, t) ∂x2 ~2 ∂t
(6.54)
implica appunto che ∂j(x, t) ∂ψ(x, t) ∂ψ ∗ (x, t) ∂ρ(x, t) = − ψ ∗ (x, t) + ψ(x, t) = − . ∂t ∂t ∂t ∂t
(6.55)
L’equazione (6.51) implica che j(x, t) `e il flusso spaziale della densit`a di probabilit`a di posizione, nel senso che Z b Z b dx ∂t ρ(x, t) = − dx ∂x j(x, t) = −(j(b, t) − j(a, t)), (6.56) a
a
ovvero j(a, t) − j(b, t) misura la “quantit` a di probabilit`a” integrata nell’intervallo [a, b] che fluisce entro di esso dai suoi estremi. Osserviamo inoltre che valor medio della corrente di probabilit`a vale Z Z 1 1 dx hψ|xihx|ˆ p|ψi = hψ|ˆ p|ψi, (6.57) dx j(x, t) = m m che vuol dire che il valor medio della corrente corrisponde al valor medio dell’impulso diviso per m, consistentemente con l’interpretazione di j come flusso di probabilit`a. Infine, notiamo che, in un autostato dell’impulso hx|ki, j(x, t) =
~k 1 |hx|ki|2 ≡ jk |hx|ki|2 = jk , m 2π
(6.58)
indipendente dal tempo e dalla posizione. Inoltre, in una sovrapposizione di onde piane con impulsi uguali e opposti ψ(x, t) = exp(iωt) [A exp(ikx) + B exp −(ikx)]
(6.59)
si ha i~ j(x, t) = − 2m =
"
# ∗ −ikx
A e
∗ ikx
+B e
ik Ae
ikx
− Be
−ikx
∗ −ikx
− ik −A e
~k |A|2 − |B|2 = |A|2 jk + |B|2 j−k , m
∗ ikx
+B e
Ae
ikx
+ Be
−ikx
(6.60)
dove nell’ultimo passaggio usando la Eq. (6.58) abbiamo identificato i due contributi a membro destro della Eq. (6.59) come correnti di probabilit` a associate alle due componenti della funzione d’onda (indipendenti dal tempo e dalla posizione). In altri termini se il vettore di stato |ψi `e la sovrapposizione di due autostati dell’impulso associati ad autovalori eguali in modulo ed opposti in segno |ψi = |kihk|ψi + | − kih−k|ψi,
(6.61)
100
Problemi unidimensionali
allora la corrente di probabilit` a `e la somma di due termini, corrispondenti ciascuno al flusso di probabilt` a associato alle due componenti: j(x, t) =
~k |hk|ψi|2 − |h−k|ψi|2 , m
(6.62)
dove |hk|ψi|2 e |h−k|ψi|2 sono due coefficienti costanti. Possiamo finalmente usare questi risultati per interpretare fisicamente la soluzione Eq. (6.44). Vediamo che nella regione I (x < 0) vi `e una sovrapposizione di due onde piane, e quindi la corrente di probabilit` a ha la forma Eq. (6.60), mentre nella regione II la soluzione `e una singola onda piana, e la corrente ha la forma Eq. (6.58). Notiamo inoltre che nel nostro caso manifestamente la densit`a di probabilit`a non dipende dal tempo (si tratta di uno stato stazionario), quindi la densit`a di corrente non dipende da x, e l’equazione di continuit` a implica che |A|2 jk + |B|2 j−k = |C|2 jk0 ,
(6.63)
ossia, usando l’espressione esplicita Eq. (6.58) |A|2 jk = |B|2 jk + |C|2 jk0 ,
(6.64)
` facile verificare, utilizzando le condizioni di dove abbiamo notato che la Eq. (6.58) implica j−k = −jk . E raccordo Eq. (6.48), che quest’ultima condizione `e soddisfatta. Possiamo quindi interpretare la corrente ji ≡ |A|2 jk
(6.65)
come corrente di probabilit` a incidente sul gradino da sinistra, e le correnti jt ≡ |C|2 jk0 ;
jr ≡ |B|2 jk
(6.66)
rispettivamente come corrente trasmessa dalla regione I alla regione II e come corrente riflessa all’indietro dal gradino nella regione I, con impulso opposto. La Eq. (6.64) esprime la conservazione della corrente di probabilit` a, ossia il fatto che la corrente incidente `e pari alla somma della corrente trasmessa e di quella riflessa. Possiamo infine identificare i coefficienti 2 2 0 0 2kE kE jr kE − kE jt = ; R = = (6.67) T ≡ 0 0 ji kE + kE ji kE + kE rispettivamente come dei coefficienti di trasmissione e riflessione, che esprimono la percentuale di corrente incidente che `e stata trasmessa attraverso la barriera o riflessa all’indietro.
6.2.4
Soluzione regressiva
Abbiamo finora determinato solo una delle due soluzioni indipendenti che sono a priori permesse dal fatto che uno dei parametri della soluzione generale Eq. (6.44) `e libero. Una soluzione indipendente pu`o essere costruita ponendo A = 0 e usando le condizioni di raccordo Eq. (6.46) per determinare C e D in termini di B. Seguendo la discussione della sezione 6.2.3, interpretiamo questa soluzione fisicamente come la situazione in cui la particella che interagisce con il potenziale ora proviene da destra, essendone in parte riflessa ed in parte trasmess. Si vede immediatamente che questa situazione corrisponde a eseguire le sostituzioni x → −x e V0 (x) → V0 (−x) nell’equazione di Schr¨ odinger. Quindi, la soluzione si ottiene dalla forma esplicita della soluzione 0 Eq. (6.49) scambiando le regioni I e II e scambiando dappertutto x → −x e kE ↔ kE . I nuovi coefficienti 0 di trasmissione e riflessione si ottengono scambiando kE ↔ kE nell’espressione Eq. (6.67), e sono quindi invariati. Quindi i coefficient di trasmissione e riflessione sono gli stessi sia che l’onda arrivi da sinistra, sia che arrivi da destra.
6.3 La barriera di potenziale
6.2.5
101
Autofunzioni di energia: stati di tunneling
Passiamo ora al caso E < V0 . La soluzione ora ha la forma q ψ I (x) = AE eikE x + BE e−ikE x , kE = 2m E ~2 E q 0 ψ II (x) = CE e−βE x , βE = 2m E ~2 (V0 − E)
:
(6.68)
nella regione I ovviamente non `e cambiato nulla, mentre nella regione II la soluzione ora `e esponenzialmente smorzata. Notare che abbiamo scartato la soluzione esponenzialmente crescente, che divergerebbe all’infinito, come gi` a fatto nel caso della buca Eq. (6.6). Le condizioni di raccordo Eq. (6.47) e la soluzione Eq. (6.48) restano invariate con l’identificazione 0 kE = iβE .
(6.69)
Ne segue che in questo caso vi `e una soluzione sola per ogni valore di energia. Si vede immediatamente che in questo caso la corrente nella regione II si annulla identicamente, infatti jC (x, t) = −
i~ ∗ −βE x C e (−βE )Ce−βE x − C ∗ (−βE )e−βE x Ce−βE x = 0. 2m
(6.70)
Ne segue che l’equazione di continuit` a implica jA = −jB ,
(6.71)
ed in effetti, usando le condizioni di raccordo Eq. (6.48) con l’identificazione Eq. (6.69) troviamo 2 k − iβE 2 B = 1. R= = A k + iβE
(6.72)
Osserviamo che la densit` a di probabilit` a a destra della barriera non `e nulla: vi `e penetrazione attraverso la barriera, con una densit` a di probabilit`a esponenzialmente soppressa di rivelare il sistema al di l` a della barriera stessa. Tuttavia, il flusso di probabilit`a a destra della barriera si annulla, e la corrente di probabilit` a subisce una riflessione totale. Ovviamente, quando il gradino `e di altezza infinita V0 → ∞ questa `e l’unica soluzione. In tal caso si ha che βE → ∞, e ( limβE →∞ BE = −AE . (6.73) limβE →∞ CE = 0 Questo significa che la funzione d’onda e la densit`a di probabilit`a si annullano sotto la barriera, e l’onda viene interamente riflessa. Notiamo che in questo limite le condizioni di raccordo sono analoghe a quelle della buca infinita: ψ(0) = 0, ma la derivata nell’origine diventa discontinua.
6.3
La barriera di potenziale
Un problema d’urto leggermente pi` u complesso `e quello che si ha in presenza di un potenziale a barriera ( 0 se |x| > a V (x) = . (6.74) V0 se |x| < a
6.3.1
Autofunzioni di energia ed effetto tunnel
In questo caso, vi sono tre regioni (si veda la Fig. 6.5). La soluzione generale pu`o assumere due forme diverse, a seconda che nella regione II l’energia sia maggiore o minore del potenziale V0 :
102
Problemi unidimensionali
Figura 6.5: Barriera di potenziale 1. V0 < E Si ha I ikE x + BE e−ikE x ψE (x) = AE e 0 0 II ik x ψE (x) = ψE (x) = CE e E + DE e−ikE x III ψE (x) = FE eikE x + GE e−ikE x
se x < −a se − a < x < a , se x > a
(6.75)
con r
2mE kE = ~2 r 2m(E − V0 ) 0 kE = ; ~2
(6.76) (6.77)
2. V0 > E Si ha I ikE x + BE e−ikE x ψE (x) = AE e II ψE (x) = ψE (x) = CE e−βE x + DE eβE x III ψE (x) = FE eikE x + GE e−ikE x
se x < −a se − a < x < a se x > a
(6.78)
con r
2mE kE = ~2 r 2m(V0 − E) βE = . ~2
(6.79) (6.80)
Le soluzioni con E > V0 sono una semplice generalizzazione del problema del gradino di potenziale discusso nella sezione precedente. Gli andamenti che si trovano sono simili a quelli di onde luminose che si propagano tra mezzi con diversi indici di rifrazione: in particolare, come nel caso della luce, per opportuni valori dell’energia si possono avere fenomeni di riflessione totale. Il caso V0 > E `e particolarmente interessante: in questo caso si vede come una particella incidente, ad esempio dalla regione I, su una barriera di altezza finita non ne venga completamente riflessa anche se l’altezza della barriera `e maggiore dell’energia cinetica della particella. In generale, vi `e una componente di onda che viene trasmessa al di l` a della barriera, e si propaga quindi nella regione III, dove continua a propagarsi come una particella libera. Questa situazione (rappresentata schematicamente in Fig. 6.6) `e detta effetto tunnel.
6.3 La barriera di potenziale
103
V0
-‐𝑎
𝑎
Figura 6.6: Effetto tunnel
6.3.2
Soluzione generale di tunneling
Consideriamo quindi in dettaglio la costruzione della soluzione nel caso E < V0 . Abbiamo quattro condizioni di raccordo: I II (−a) ψE (−a) = ψE ψ 0 I (−a) = ψ 0 II (−a) E E . (6.81) III II (a) (a) = ψ ψ E E 0 0 II ψE (a) = ψEIII (a) In questo caso vi sono quindi quattro equazioni e sei costanti, quindi, con una costante fissata per normalizzazione, abbiamo una famiglia ad un parametro di soluzioni, ossia due soluzioni linearmente indipendenti, come nel caso del gradino di potenziale. Ad esempio, potremmo determinare la soluzione ponendo GE = 0: questa scelta corrisponde ad un’onda incidente sulla barriera da sinistra. Per risolvere il sistema di condizioni di raccordo Eq. (6.81) conviene far uso di una notazione matriciale: le prime due condizioni implicano −ik a eβE a e−βE a e E eikE a AE CE = . (6.82) βE βE a βE −βE a BE DE − ik e e−ikE a −eikE a ikE e E Ora, osserviamo che se si moltiplica la matrice a primo membro per un fattore √12 si ottiene una matrice unitaria, e quindi possiamo riscrivere il sistema Eq, (6.82) come ik a eβE a e−βE a 1 AE e E e−ikE a CE CE = = M (a) , (6.83) βE βE a βE −βE a BE DE DE − ik e e−ikE a −eikE a 2 ikE e E dove la matrice M (a) `e esplicitamente data da iβE (βE +ikE )a 1 + 1 kE e M (a) = 2 1 − iβE e(βE −ikE )a kE
1−
1+
iβE (−βE +ikE )a kE e iβE e(−βE −ikE )a kE
Osserviamo ora che la simmetria del problema implica che FE CE = M (−a) GE DE
.
(6.84)
(6.85)
104
Problemi unidimensionali
da cui
AE BE
= M (a)M −1 (−a)
FE GE
=T
FE GE
.
(6.86)
La soluzione generale viene cos`ı espressa in termini di una cosiddetta matrice di trasferimento T , che fornisce i coefficienti nella regione III in termini dei coefficienti nella regione I, raccordando le soluzioni nelle due regioni in cui l’onda si propaga come una particella libera. Utilizzando la forma esplicita Eq. (6.84 della matrice M (a) abbiamo che M −1 (−a) =
1−
1 2 1+
iβE (βE +ikE )a kE e iβE e(−βE +ikE )a kE
1+
1−
iβE (βE −ikE )a kE e iβE e(−βE −ikE )a kE
,
(6.87)
e quindi 1 T = 2
cosh 2βE a + i 2 sinh 2βE a e2ikE a − iη 2 sinh 2βE a
iη 2
sinh 2βE a cosh 2βE a − i 2 sinh 2βE a e−2ikE a
,
(6.88)
dove abbiamo posto kE βE − kE βE βE kE η= + . kE βE
(6.89)
=
6.3.3
(6.90)
Coefficienti di trasmissione e riflessione
Costruiamo ora una soluzione particolare ponendo GE = 0. Come nel caso del gradino di potenziale, possiamo definire densit` a e correnti di probabilit`a, e conseguentemente coefficienti di trasmissione e riflessione FE 2 jt ; T ≡ = ji AE
BE 2 jr . R≡ = ji AE
(6.91)
Abbiamo −1 i FE = cosh 2βa + sinh 2βE a e−2ikE a AE 2 BE FE BE η BE = ; = −i sinh 2βE a. AE FE AE FE 2
(6.92) (6.93)
Troviamo cos`ı T =
1+ 1+
ε2 4
1 ; sinh2 (2βE a)
R = 1 − T,
(6.94)
avendo usato la conservazione della corrente. Notiamo infine che nel limite in cui βE a 1 si ha T ∼ e−4βE a .
(6.95)
Questo significa che la probabilit` a di attraversare la barriera resta finita, ma `e esponenzialmente soppressa al crescere della larghezza della barriera.
6.4 Problemi di stato legato: una discussione qualitativa
6.4
105
Problemi di stato legato: una discussione qualitativa
Ci chiediamo ora in generale quali siano le caratteristiche qualitative dello spettro per una 2 ˆ = pˆ + Vˆ (ˆ H x). 2m
(6.96)
∂ 2 ψ(x) 2m = 2 (V (x) − E)ψ(x) ∂x2 ~
(6.97)
Osserviamo che l’equazione di Schr¨ odinger
lega in ogni punto la derivata seconda della funzione al valore della funzione stessa. Ne segue che l’andamento qualitativo delle soluzioni `e determinato dal segno di V (x) − E. Questo ci permette innanzitutto di capire quando le autofunzioni di energia sono normalizzabili in senso proprio. Infatti, osserviamo che se, per x → ±∞, V (x) > E, allora le soluzioni all’infinito hanno un andamento di tipo esponenziale, mentre se V (x) < E esse hanno un andamento oscillante. Ne segue che possiamo avere soluzioni normalizzabili, ossia stati legati, se e solo se V (x) > E sia quando x → ∞ che quando x → −∞. Questo, a sua volta, `e possibile solo se il potenziale ha un minimo al finito. Quindi solo un potenziale con un minimo ammette stati legati, che possono quindi esistere per valori dell’energia E < limx→±∞ V (x). Consideriamo quindi per semplicit` a il caso particolare di un potenziale simmetrico con un unico minimo al finito un minimo, tale cio`e che V (x) < 0, V (x) = V (−x), limx→±∞ = 0 (si veda la Fig. 6.7). Questo `e il caso pi` u semplice di potenziale attrattivo. Il potenziale `e definito a meno di una costante, che scegliamo imponendo che il potenziale si annulli all’infinito. Nel caso pi` u generale naturalmente il potenziale non `e simmetrico.
Figura 6.7: Generico potenziale attrattivo L’andamento qualitativo delle soluzioni nelle varie regioni `e determinato dalla Eq. (6.97). I casi possibili sono i seguenti: 1. V (x) − E > 0 Questo `e il caso in cui E < V (x) (Fig. 6.8). Ne segue che ψ 00 ha lo stesso segno di ψ, cio`e la funzione `e concava. Se ψ(x) > 0 allora anche ψ 00 (x) > 0 e quindi si hanno delle soluzioni della forma mostrata in Fig. 6.9: per x > 0 • se ψ(x) decresce, continua a decrescere tendendo a 0 sempre pi` u lentamente; • se ψ(x) cresce, continua a crescere sempre pi` u velocemente,
106
Problemi unidimensionali
Figura 6.8: Regione E < V (x)
Figura 6.9: Forma qualitativa delle soluzioni se V (x) > E e ψ > 0
6.4 Problemi di stato legato: una discussione qualitativa
107
Gli andamenti per x < 0 si determinano per simmetria. Se ψ(x) < 0 allora anche ψ 00 (x) < 0 e quindi si hanno delle soluzioni della forma mostrata in Fig. 6.10: per x > 0 • se ψ(x) cresce, continua a crescere sempre pi` u lentamente; • se ψ(x) decresce, continua a decrescere sempre pi` u velocemente.
Figura 6.10: Forma qualitativa delle soluzioni se V (x) > E e ψ < 0 2. V (x) − E < 0 Questo `e il caso in cui V (x) < E. Ne segue che ψ 00 ha il segno opposto a ψ, cio`e la funzione `e convessa.
Figura 6.11: Regione E > V (x). I punti x0 in cui V (x) = E sono detti punti di inversione. Se ψ(x) > 0 allora ψ 00 (x) < 0 e quindi si hanno delle soluzioni della forma mostrata in Fig. 6.12: per x > 0 • se ψ(x) decresce, continua a decrescere tendendo a 0 sempre pi` u velocemente; • se ψ(x) cresce, continua a crescere sempre pi` u lentamente. Se ψ(x) < 0 allora ψ 00 (x) > 0 e quindi si hanno delle soluzioni della forma mostrata in Fig. 6.13: per x > 0 • se ψ(x) decresce, continua a decrescere sempre pi` u lentamente; • ψ(x) cresce, continua a crescere sempre di pi` u velocemente. Le soluzioni per l’equazione agli autovalori si determinano raccordando gli andamenti descritti sopra nelle varie regioni. Definendo Vmin il valore del potenziale al minimo, possiamo considerare tre casi:
108
Problemi unidimensionali
Figura 6.12: Forma qualitativa delle soluzioni se V (x) < E e ψ > 0
Figura 6.13: Forma qualitativa delle soluzioni se V (x) < E e ψ < 0 1. V (x) − E > 0 ∀x In questo caso non possono esistere soluzioni normalizzabili, in quanto la soluzione dovrebbe avere la forma mostrata nelle Fig. (6.9-6.10) per ogni x. Si vede quindi che la soluzione o ha derivata discontinua nell’origine, o non `e normalizzabile. Questo corrisponde all’aspettativa fisica che non possano esistere soluzioni aventi energia minore del minimo del potenziale. 2. Vmin < E < 0 In questo caso, esistono due punti (detti punti di inversione, si veda la Fig. 6.11) x = ±x0 , in cui l’energia `e uguale al potenziale, V (±x0 ) = E, e quindi E > V (x) all’interno dell’intervallo |x| < x0 . La funzione d’onda ha quindi l’andamento delle figure Fig. 6.12-6.13 all’interno dell’intervallo compreso tra i punti di inversione, e l’andamento delle figure Fig. 6.9-6.10 all’esterno di questo intervallo. I punti di inversione sono punti di flesso per la funzione d’onda (la derivata seconda si annulla). All’aumentare dell’energia i punti di inversione si muovono verso l’esterno, mentre, avvicinandosi all’origine, a seconda che la derivata della funzione sia negativa o positiva per x > 0 (rispettivamente figura di sinistra o di destra nella Fig. 6.12) la curvatura rispettivamente cresce, o decresce. Le soluzioni per x < 0 e x > 0 si possono raccordare solo se nell’origine sono continue sia ψ(x) che ψ 0 (x). Questo pu` o essere fatto in due modi, nei due casi appena visti: se la curvatura nell’origine `e massima, la derivata prima cambia segno e la funzione d’onda nell origine `e diversa da zero. In tal caso si raccordano due soluzioni della forma Fig. 6.12 oppure due soluzione della forma Fig. 6.13: la derivata prima si annulla nell’origine. Questa `e la soluzione di tipo pari mostrata in Fig. 6.14. Se invece la curvatura nell’origine `e minima questo vuol dire che la funzione d’onda si deve annullare, mentre la derivata nell’origine `e diversa da zero. In tal caso si raccorda una soluzione della forma Fig. 6.12 con una della forma Fig. 6.13: la funzione d’onda, e la derivata seconda ad essa proporzionale, si annullano. Questa `e la soluzione di tipo dispari mostrata in Fig. 6.14. ` facile convincersi del fatto (che si pu`o dimostrare rigorosamente) che almeno una soluzione E pari `e sempre possibile. Infatti, per quanto sia poco profondo il potenziale, possiamo sempre scegliere un valore di |E| sufficientemente prossimo a zero per cui i punti di inversione si allontanino arbitrariamente, finch´e la curvatura nell’origine si raccorda. Al crescere dell’energia compaiono quindi soluzioni in cui la derivata cambia segno, ed il numero di tali soluzioni dipende dalla profondit`a del potenziale. All’interno della regione compresa tra i punti di inversione si hanno cos`ı delle soluzioni di tipo oscillante. All’esterno della regione compresa
6.4 Problemi di stato legato: una discussione qualitativa
109
Figura 6.14: Soluzioni di stato legato: caso pari (sinistra) e caso dispari (destra). tra i punti di inversione si hanno soluzioni della forma Fig. 6.9-6.10, che quindi all’infinito hanno sempre andamenti di tipo esponenziale: sar`a quindi sufficiente scegliere la soluzione esponenzialmente smorzata, raccordandola opportunamente alla soluzione oscillante all’interno dell’intervallo tra i punti di inversione. Si vede cos`ı che si ottiene uno spettro discreto e di stati legati, cio`e localizzati al finito e normalizzabili. 3. E > 0 In questo caso, le soluzioni non sono mai esponenzialmente smorzate, ed all’infinito si riducono a stati di particella libera. Si ottiene cos`ı uno spettro continuo di autostati di energia, normalizzabili solo in senso improprio.
110
Problemi unidimensionali
Capitolo 7
L’oscillatore armonico
Figura 7.1: Il potenziale armonico Il potenziale armonico `e di grande importanza in quanto descrive la situazione generica di piccole oscillazioni attorno ad un minimo stabile. Infatti, qualunque potenziale V (x) che abbia un minimo in x = x0 , cio`e tale che dVdx(x) x=x = 0, pu` o essere sviluppato attorno al minimo 0
1 d2 V (x) V (x) = V (x0 ) + (x − x0 )2 + O((x − x0 )2 ). 2 dx2 x=x0
(7.1)
Il potenziale Eq. (7.1) `e detto potenziale armonico (Fig. 7).
7.1
L’oscillatore armonico classico
L’oscillatore armonico classico `e descritto dall’Hamiltoniana H=
p2 1 + mω 2 x2 . 2m 2
(7.2)
112
L’oscillatore armonico
L’equazione del moto che governa il sistema `e: x ¨(t) = −ω 2 x(t),
(7.3)
x(t) = A sin ωt + B cos ωt
(7.4)
x(t) = C cos(ωt + ϑ).
(7.5)
p(t) = −mωC sin(ωt + ϑ).
(7.6)
la cui generica soluzione `e:
che possiamo anche riscrivere come
Poich´e p(t) = mx(t), ˙ si ottiene
Il potenziale `e invariante per traslazioni temporali, ma non per traslazioni spaziali. Di conseguenza si ha conservazione dell’energia totale, mentre l’energia cinetica e quella potenziale non si conservano separatamente. Infatti T +V =
1 1 mω 2 C 2 (cos2 (ωt + ϑ) + sin2 (ωt + ϑ)) = mω 2 C 2 2 2
(7.7)
`e indipendente dal tempo, mentre manifestamente p(t) Eq. (7.6) dipende dal tempo, e quindi ne dipendono l’energia cinetica e perci` o anche quella potenziale.
7.2
Lo spettro di energia dell’oscillatore armonico quantistico
Quantisticamente, la dinamica dell’oscillatore armonico `e descritta dall’hamiltoniana 2 ˆ = pˆ + 1 mω 2 x ˆ2 . H 2m 2
(7.8)
Determineremo dapprima lo spettro di autovalori di energia, quindi le autofunzioni, e studieremo infine l’evoluzione temporale.
7.2.1
Caratteristiche qualitative dello spettro
Visto che il potenziale armonico ha la forma di una buca infinitamente profonda, la discussione qualitativa della sezione precedente suggerisce che lo spettro `e discreto e consiste di un numero infinito di stati legati. Possiamo dimostrare facilmente che gli autovalori di energia sono tutti positivi, e che lo spettro `e discreto, manipolando l’equazione agli autovalori ˆ H|ni = En |ni.
(7.9)
• Autovalori positivi Gli autovalori di energia soddisfano X hn|ˆ p|kihk|ˆ p|ni 1 2 En = + mω hn|ˆ x|kihk|ˆ x|ni 2m 2 k X 1 X 1 = |hn|ˆ p|ki|2 + mω 2 |hn|ˆ x|ki|2 , 2m 2 k
(7.10) (7.11)
k
sicch´e En ≥ 0. Osserviamo inoltre che En = 0 richiederebbe hn|ˆ p|ki = hn|ˆ x|ki = 0 per ogni k. Ma questo `e vietato dal principio di indeterminazione, in quanto X [hn|ˆ x|kihk|ˆ p|ni − hn|ˆ p|kihk|ˆ x|ni] = i~ > 0. (7.12) k
Pertanto En > 0.
7.2 Lo spettro di energia dell’oscillatore armonico quantistico
113
• Spettro discreto Osserviamo che ˆ = i~ pˆ ; [ˆ x, H] m
ˆ = −i~ω 2 mˆ [ˆ p, H] x.
(7.13)
Ne segue che pˆ |ki m hn|ˆ p|ki(Ek − En ) = −i~hn|mω 2 x ˆ|ki.
hn|ˆ x|ki(Ek − En ) = i~hn|
(7.14) (7.15)
Sostituendo la prima equazione nella seconda abbiamo (Ek − En )2 hn|ˆ x|ki = ~2 ω 2 hn|ˆ x|ki,
(7.16)
che implica che hn|ˆ x|ki = 0 a meno che En − Ek = ±~ω. Concludiamo che le matrici degli operatori x ˆ e pˆ hanno elementi nonnulli solo tra autostati di energia associati ad autovalori che differiscono di ±~ω. Poich`e l’hamiltoniana `e un polinomio in x ˆ e pˆ, questo implica immediatamente che lo spettro deve essere discreto.
7.2.2
Operatori di creazione e distruzione
La struttura delle matrici degli operatori x ˆ e pˆ suggerisce di definire gli operatori r mω iˆ p x ˆ+ a= 2~ mω r iˆ p mω x ˆ− , a† = 2~ mω che sono l’uno l’aggiunto dell’altro. L’hamiltoniana si scrive facilmente in termini di questi operatori notando che pˆ2 mω i x ˆ2 + 2 2 + [ˆ x, pˆ], a† a = 2~ m ω 2~
(7.17) (7.18)
(7.19)
e quindi 1 † ˆ H = ~ω a a + . 2
(7.20)
N = a† a
(7.21)
1 ˆ H = ~ω N + . 2
(7.22)
Conviene cos`ı definire l’operatore
in termini del quale
Ma lo spettro dell’operatore N , che a sua volta determina facilmente lo spettro dell’hamiltoniana, si pu` o ottenere notando che [a, a† ] =
pˆ mω 2i[ˆ x, ] = 1, 2~ mω
(7.23)
che implica [N, a] = −a;
[N, a† ] = a† .
Lo spettro di N `e quindi determinato dalle due seguenti osservazioni:
(7.24)
114
L’oscillatore armonico
• Dato un autostato |zi di N con autovalore z N |zi = λz |zi
(7.25)
anche a† |zi ed a|zi sono autostati di N , aventi rispettivamente autovalori pi` u grandi o pi` u piccoli di una unit` a. Infatti, usando le relazioni di commutazione Eq. (7.24) , si vede immediatamente che N a† |zi = (a† N + a† )|zi = (λz + 1)a† |zi
(7.26)
N a|zi = (aN − a)|zi = (λz − 1)a|zi.
(7.27)
• Deve esistere un autostato |0i di N tale che a|0i = 0.
(7.28)
Infatti, gli autovalori λz sono non-negativi: λz =
hz|N |zi hz|a† a|zi hz − 1|z − 1i = = ≥ 0, hz|zi hz|zi hz|zi
(7.29)
dove abbiamo definito |z − 1i ≡ a|zi. Ma la Eq. (7.27) implica che N ak |zi = (λz − k) |zi.
(7.30)
Questo comporta che per k sufficientemente grande lo stato ak |zi sia un autostato di N con autovalore negativo, e quindi una contraddizione con la Eq. (7.29), a meno che non esista un valore di k0 < λz tale per cui lo stato |0i = ak0 |zi
(7.31)
N |0i = 0.
(7.32)
soddisfi la Eq. (7.28) e
In altri termini, deve esistere uno stato |0i = 0, autostato di N associato all’autovalore nullo. Osserviamo inoltre che la Eq. (7.28) (e la sua aggiunta h0|a† = 0) implicano immediatamente che gli elementi di matrice diagonali degli operatori a ed a† si annullano tutti: h0|ap |0i = h0|(a† )p |0i = 0
(7.33)
Concludiamo quindi che gli autostati di N sono |ni = Kn (a† )n |0i
(7.34)
(dove Kn `e una costante di normalizzazione) con autovalori N |ni = n|ni.
(7.35)
Lo stato fondamentale |0i `e comunemente detto “vuoto”, gli operatori a† ed a sono detti rispettivamente operatori di creazione e distruzione (o di innalzamento ed abbassamento), e l’operatore N `e detto operatore numero. Noto lo spettro dell’operatore numero, la Eq. (7.22) determina immediatamente lo spettro dell’hamiltoniana: 1 En = ~ω n + . (7.36) 2 Lo stato fondamentale ha quindi energia E0 =
~ω . 2
(7.37)
7.2 Lo spettro di energia dell’oscillatore armonico quantistico
7.2.3
115
Normalizzazione ed elementi di matrice
La costante di normalizzazione degli stati Kn si determina usando ripetutamente le relazioni di commutazione 1 = hn|ni = |Kn |2 h0|(a)n (a† )n |0i = |Kn |2 h0|(a)n−1 (aa† )(a† )n−1 |0i 2
n−1
= |Kn | h0|(a) 2
† n−1
(a a + 1)(a )
n−1
= |Kn | nh0|(a)
†
† n−1
(a )
2
n−1
|0i = |Kn | h0|a 2
† n−1
(N + 1)(a )
n−2
|0i = |Kn | n(n − 1)h0|(a)
† n−2
(a )
(7.38) |0i
|0i
2
= · · · = |Kn | n!h0|0i.
(7.39) (7.40) (7.41)
Notiamo che lo stesso argomento implica immediatamente che hn|mi = 0,
se n 6= m,
(7.42)
in quanto, se n 6= m, nell’ultimo passaggio resta sempre l’elemento di matrice di una potenza di a o di a† nel vuoto, che si annulla per la Eq. (7.33). Supponendo che il vuoto sia normalizzato h0|0i = 1
(7.43)
1 Kn = √ . n!
(7.44)
si ha
Con questa normalizzazione la Eq. (7.42) implica che lo spettro di autostati `e ortonormalizzato: hn|mi = δnm .
(7.45)
La normalizzazione determina completamente l’azione degli operatori di creazione e distruzione sugli autostati di energia: √ Kn |n + 1i = n + 1|n + 1i Kn+1 √ a|ni = n|n − 1i,
a† |ni =
da cui si ottengono immediatamente gli elementi di matrice √ hm|a† |ni = δm,n+1 n + 1 √ hm|a|ni = δm,n−1 n.
(7.46) (7.47)
(7.48) (7.49)
Invertendo l’espressione Eq. (7.17-7.18) degli operatori di creazione e distruzione in termini di posizione ed impulso abbiamo r ~ x ˆ= (a + a† ) (7.50) 2mω r mω~ pˆ = −i (a − a† ), (7.51) 2 e quindi anche gli elementi di matrice di posizione ed impulso negli autostati di energia sono completamente determinati: r √ √ ~ hm|ˆ x|ni = δm,n−1 n + δm,n+1 n + 1 (7.52) 2mω r √ √ m~ω hm|ˆ p|ni = −i δm,n−1 n − δm,n+1 n + 1 . (7.53) 2
116
L’oscillatore armonico
Possiamo rappresentare la matrice dell’operatore x ˆ come: √ 1 √ √0 1 0 2 √ r 2 0 ~ . hm|ˆ x|ni = . 2mω . 0
...
0
√
.. .
..
3 .
...
(7.54)
0
e analogamente per l’operatore pˆ. Naturalmente, questa `e la propriet`a che avevamo dimostrato in precedenza (si ricordi la Eq. (7.16)), per cui gli elementi di matrice dell’operatore x ˆ sono nonnulli solo tra autostati di energia associati ad autovalori che differiscono di ~ω. Notiamo in particolare che hn|ˆ x|ni = 0;
hn|ˆ p|ni = 0.
(7.55)
Calcoliamo infine i valori medi delle indeterminazioni di posizione ed impulso in un autostato di energia. Osserviamo che ~ 2 ~ 2 2 2 x ˆ2 = a + a† + aa† + a† a = a + a† + 2N + 1 (7.56) 2mω mω ~mω 2 2 2 pˆ2 = −a − a† + aa† + a† a = ~mω −a2 − a† + 2N + 1 . (7.57) 2 Pertanto 1 n+ 2 1 2 hn|ˆ p |ni = ~mω n + . 2
~ hn|ˆ x |ni = mω 2
Ne segue che i valori medi di energia cinetica e potenziale sono eguali fra loro, e dati da p2 ~ω 1 hT i = h i= n+ , 2m 2 2 1 ~ω 1 2 2 hV i = mω hx i = n+ . 2 2 2
(7.58) (7.59)
(7.60) (7.61)
L’indeterminazione in posizione ed impulso si calcola utilizzando le equazioni Eq. (7.55,7.58,7.59): 1 ~ n+ (7.62) ∆2n x = mω 2 1 ∆2n p = ~mω n + (7.63) 2 da cui segue che ∆2n x ˆ∆2n pˆ =
~
2
1 n+ 2
2 .
(7.64)
Questo significa che lo stato fondamentale `e uno stato di minima indeterminazione, mentre il prodotto delle indeterminazioni cresce al crescere dell’energia.
7.3
Autofunzioni nella base delle coordinate
Vogliamo ora determinare le autofunzioni nella base delle coordinate.
7.3 Autofunzioni nella base delle coordinate
7.3.1
117
Funzione d’onda per lo stato fondamentale
Osserviamo innanzitutto che la condizione Eq. (7.28), ovvero che l’operatore di distruzione annichili il vuoto, determina completamente la funzione d’onda dello stato fondamentale. Infatti, utilizzando l’espressione Eq. (7.17) dell’operatore di distruzione in termini di operatori posizione ed impulso, e le note espressioni di questi ultimi nella base delle coordinate, e definendo hx|ψi = ψ0 (x)
(7.65)
mω ∂ψ0 (x) = −xψ0 (x) , ∂x ~
(7.66)
la Eq. (7.28) implica
la cui soluzione `e x2 mω ψ0 (x) = N0 exp − 2~
cio`e una gaussiana di larghezza ∆x =
~ mω .
,
(7.67)
La condizione di normalizzazione Eq. (7.43) fissa N0 =
mω 41 π~
.
(7.68)
Notiamo che il fatto che lo stato fondamentale sia una gaussiana `e in accordo con la Eq. (7.64) che dice che lo stato fondamentale `e di minima indeterminazione.
7.3.2
Stati eccitati e polinomi di Hermite
Gli stati eccitati si ottengono utilizzando la Eq. (7.34), cio`e agendo sul vuoto con l’operatore di creazione. In particolare il primo stato eccitato `e r r mω ~ ∂ mωx2 mω mωx2 ψ1 (x) = N0 x− exp − = 2xN0 exp − . (7.69) 2~ mω ∂x 2~ 2~ 2~ Agendo ripetutamente con l’operatore di creazione si trovano potenze crescenti di x e ulteriori derivate, che agendo sull’esponenziale si riducono a potenze di x che moltiplicano l’esponenziale. Si vede cos`ı che la funzione d’onda per l’n-esimo stato eccitato ha la forma ψn (x) = hx|ni = ψ0 (x)Hn (x)
(7.70)
dove Hn (x) `e un polinomio di grado n (si veda la Fig. 7.2). I polinomi Hn (x) sono noti come polinomi di Hermite. La condizione di ortonormalizzazione Eq. (7.45) implica che essi devono soddisfare Z hn|mi = dx|ψ0 (x)|2 Hn∗ (x)Hm (x) = δnm . (7.71) Essi sono cio`e ortonormali rispetto ad una misura di integrazione con un peso gaussiano. Si dimostra inoltre che essi soddisfano la relazione di completezza X |nihn| = I, (7.72) n
` interessante osservare che la che noi abbiamo finora supposto essere valida senza dimostrazione. E relazione di completezza Eq. (7.72), scritta nella base delle coordinate, pu`o essere vista come una rappresentazione esplicita della delta di Dirac X hx|nihn|x0 i = δ(x − x0 ). (7.73) n
118
L’oscillatore armonico
8
6
4
2
4
2
2
4
Figura 7.2: Rappresentazione delle autofunzioni dell’oscillatore armonico unidimensionale.
7.4 7.4.1
Evoluzione temporale Operatore di evoluzione temporale ed evoluzione degli stato
L’operatore di evoluzione temporale nella base delle coordinate ha la forma S(t, 0) =
∞ X
hx|nihn|x0 ie−
iEn t ~
=
k=0
∞ X
ψn∗ (x)ψn (x0 )e−iω(n+ 2 )t , 1
(7.74)
k=0
dove le autofunzioni ψn (x) sono date dalla Eq. (7.70). L’evoluzione temporale di un vettore di stato qualunque in rappresentazione di Schr¨ odinger `e quindi data da X 1 (7.75) ψ(x, t) = hx|ψ(t)i = Cnψ e−iω(n+ 2 )t |ni, n
con Cn = hn|ψ(0)i.
7.4.2
(7.76)
Evoluzione degli operatori posizione ed impulso e formule di BCH
` interessante studiare l’evoluzione temporale degli operatori posizione ed impulso in rappresentazione E di Heisenberg. Ricordiamo le equazioni del moto dˆ xH pˆH = dt m dˆ pH = −mω 2 x ˆH . dt
(7.77) (7.78)
La dipendenza temporale pu` o ora essere determinata in vari modi, di cui il pi` u diretto `e la risoluzione di questo sistema accoppiato di equazioni differenziali. Discutiamo per`o altri due metodi, ciascuno dei quali presenta aspetti istruttivi. Il primo metodo consiste nell’osservare che la soluzione formale delle equazioni di Hisenberg in termini dell’operatore di evoluzione temporale, e cio`e 1
ˆ
1
ˆ
x ˆH (t) = e− i~ Ht x ˆS e i~ Ht pˆH (t) = e
1 ˆ − i~ Ht
pˆS e
1 ˆ i~ Ht
(7.79) (7.80)
7.4 Evoluzione temporale
119
pu` o essere resa esplicita se si `e in grado di determinare espressioni del tipo ˆB ˆ exp(A). ˆ exp(−A)
(7.81)
Questo si pu` o fare usando le cosiddette formule di Baker-Campbell-Hausdorff. Abbiamo in primo luogo che ˆ ˆ A ˆ ˆ [−A, ˆ B]] ˆ + 1 [−A, ˆ [−A, ˆ [−A, ˆ B]]] ˆ + ... ˆ + [−A, ˆ B] ˆ + 1 [−A, e−A Be =B 2! 3! 1 ˆ [−A, ˆ · · · [−A, ˆ B]] ˆ ···] + [−A, n!
(7.82)
(prima formula di BCH). Per dimostrarlo, notiamo che, sviluppando in serie di Taylor, possiamo scrivere # "∞ X (λ)n d ˆ ˆ λA ˆ ˆ ˆ λA ˆ −λA −λA e e Be |λ=1 = Be n n! dλ λ=0 n=0 λ=1
ˆ + e−λAˆ (−AˆB ˆ +B ˆ A)e ˆ λAˆ + . . . + + 1 (−Aˆ . . . B ˆ + ...B ˆ A) ˆ =B n! ˆ . . . B]. ˆ ˆ + [−A, ˆ B] ˆ + 1 [−A, =B n!
(7.83)
Utilizzando questo risultato, si pu` o ulteriormente dimostrare la seconda formula di BCH, ˆ ˆ
ˆ
ˆ
1
ˆ ˆ
eA eB = eA+B e 2 [A,B] e . . .
(7.84)
di cui omettiamo la dimostrazione. Usando la formula di BCH Eq. (7.82) troviamo quindi x ˆH (t) = e
1 ˆ HS t − i~
1
ˆ
xS e
1 ˆ i~ HS t
1
ˆ
pˆH (t) = e− i~ HS t pˆS e i~ HS t
h i 1 it 2 h h ii it ˆ ˆ H, ˆ x =x ˆS + H, x ˆS + H, ˆS + . . . ~ 2 ~ h 2 h h i ii it ˆ pˆS + 1 it ˆ H, ˆ pˆS + . . . . = pˆS + H, H, ~ 2 ~
(7.85) (7.86)
I commutatori si calcolano facilmente: i pˆ i hˆ S H, x ˆS = ~ m 2 h h ii i i ˆ pˆS ˆ ˆ H, H, H, x ˆS = = −ω 2 x ˆS ~ ~ m 2 h h h iii i i hˆ pˆS i ˆ H, ˆ H, ˆ x H, ˆS = − ω 2 H, x ˆS = −ω 2 ~ ~ m
(7.87) (7.88) (7.89)
e i i hˆ H, pˆS = −mω 2 x ˆS ~ 2 h h ii i 2 h i ˆ H, ˆ pˆS = i mω H, ˆ x H ˆS = −ω 2 pˆS ~ ~ i~ " # 3 h h h iii h i ˆ i i i H 2 ˆ H, ˆ H, ˆ pˆS ˆ pˆS = (ω 2 )2 mˆ H, = , −ω pˆS = − (ω 2 ) H, xS . ~ ~ ~
(7.90) (7.91) (7.92)
ˆ con x Vediamo quindi come commutando un numero pari di volte H ˆS si trovi x ˆS volte una potenza 2 ˆ di ω , e commutando un numero dispari di volte H con x ˆS si trovi pˆS volte una potenza di ω 2 , ed
120
L’oscillatore armonico
inversamente scambiando pˆS con x ˆS . Troviamo cos`ı pˆS ω 3 t3 ω 5 t5 t2 2 t4 2 4 x ˆH (t) = t− + + ... + x ˆS 1 − (ω ) + (ω ) + . . . mω 3! 5! 2! 4! pˆS =ˆ xS cos(ωt) + sin(ωt); mω3 3 ω t ω 5 t5 t2 t4 pˆH (t) = − mωxS t − − + . . . + pˆS 1 − ω 2 + ω 4 + . . . 3! 5! 2! 4! = − mωˆ xS sin(ωt) + pˆS cos(ωt).
(7.93) (7.94) (7.95)
Naturalmente, queste coincidono con le equazioni classiche del moto.
7.4.3
Evoluzione temporale degli operatori di creazione e distruzione
Il secondo metodo di soluzione consiste nell’osservare che gli operatori di creazione e distruzione soddisfano equazioni del moto disaccoppiate. Usando i commutatori Eq. (7.24) abbiamo infatti che 1 da ˆ = −iωa = [a, H] dt i~ 1 da† ˆ = iωa† . = [a† , H] dt i~
(7.96) (7.97)
La soluzione `e perci` o immediata: aH (t) = exp(−iωt)aS
(7.98)
a†H (t)
(7.99)
=
exp(iωt)a†S .
L’evoluzione temporale degli operatori di creazione e distruzione `e consistente con il fatto che essi aggiungono o tolgono un quanto di energia. Infatti √ hn + 1|a†H (t)|ni = eiωt hn + 1|a†S |ni = eiωt n + 1, (7.100) ma d’altra parte hn + 1; t|a†S |n; ti = hn + 1|e− i~ a†S e i~ |n; ti = hn + 1|e− i~ ~ω(n+1+ 2 )t a†S e~ω(n+ 2 )t |ni √ ωt = e− i hn + 1|a†S |ni = eiωt n + 1. Ht
Ht
1
1
1
(7.101)
Possiamo usare questo risultato per determinare l’evoluzione temporale degli operatori posizione ed impulso: usando le loro espressioni Eq. (7.50) in termini degli operatori di creazione e distruzione abbiamo r r ~ ~ † x ˆ(t) = (a(t) + a (t)) = (e−iωt aS + eiωt a†S ) 2mω 2mω r r r ~ mω iˆ pS mω iˆ pS = e−iωt x ˆS + + eiωt x ˆS − (7.102) 2mω 2~ mω 2~ mω pˆS =x ˆS cos(ωt) + sin(ωt) mω r r mω~ mω~ −iωt pˆ(t) = −i (a(t) − a† (t)) = −i (e aS − eiωt a†S ) 2 2 r r r mω~ −iωt mω iˆ pS mω iˆ pS iωt = −i e x ˆS + −e x ˆS − 2 2~ mω 2~ mω = −mωˆ xS sin(ωt) + pˆS cos(ωt), che naturalmente riproduce il risultato Eq. (7.93).
(7.103)
7.5 Stati coerenti e “gatti di Schr¨ odinger”
7.5
121
Stati coerenti e “gatti di Schr¨ odinger”
Possiamo ora descrivere un tipico esperimento di interferenza quantistica, come l’esperimento in Zeilinger visto nella Sez. 1.1 utilizzando opportuni stati, realizzati come sovrapposizioni di stati di energia di oscillatore armonico: gli stati coerenti.
7.5.1
Gli stati coerenti
In presenza di un potenziale armonico, `e possibile costruire dei pacchetti d’onda di minima indeterminazione che non si allargano nel tempo, e tali per cui il centro del pacchetto oscilla con il periodo dell’oscillatore armonico classico, sia nella base delle posizioni che nella base degli impulsi. Questi stati sono detti stati coerenti, e possono essere cosrtuiti come autostati dell’operatore di distruzione, come ora vediamo. Consideriamo un’Hamiltoniana di oscillatore armonico, 2 ˆ = pˆ + 1 mω 2 x H ˆ2 . 2m 2
Cerchiamo degli stati |zi in modo che si abbia: a|zi = z|zi
(7.104)
con z ∈ C. In particolare, dato |ni autostato dell’Hamiltoniana (ovvero dell’operatore numero): |zi =
∞ X
|nihn|zi.
(7.105)
n=0
si ha: a|zi =
∞ X
a|nihn|zi =
∞ X √
n|n − 1ihn|zi =
n0 + 1|n0 ihn0 + 1|zi.
(7.106)
n0 =0
n=0
n=0
∞ X √
Tuttavia abbiamo imposto che |zi sia un autostato di a. Quindi posssiamo scrivere: a|zi = z
∞ X
|nihn|zi.
(7.107)
n=0
Le due espressioni devono essere uguali: quindi otteniamo che il coefficiente dell’n-esimo stato `e: √ (7.108) zhn|zi = n + 1hn + 1|zi. Ne segue che z z z zn hn|zi = √ hn − 1|zi = √ √ hn − 2|zi = . . . = √ h0|zi. n n n−1 n!
(7.109)
Lo stato coerente |zi `e quindi |zi =
∞ ∞ X X † |niz n (za† )n √ h0|zi = |0ih0|zi = eza |0ih0|zi. n! n! n=0 n=0
(7.110)
La condizione di normalizzazione dello stato `e ∞ X 2 z n (z ∗ )n |z|n √ hz|zi = |h0|zi| hm|ni = |h0|zi|2 = e|z| |h0|zi|2 , n! n!m! n,m=0 n=0 2
∞ X
(7.111)
122
L’oscillatore armonico
da cui segue 1
2
h0|zi = e− 2 |z| .
(7.112)
L’espressione generale di uno stato coerente `e dunque 1
2
†
|zi = e− 2 |z| eza |0i.
(7.113)
Calcoliamo i valori medi di x ˆ e pˆ a tempo t = 0, servendoci degli operatori di creazione e distruzione e ricordando la Eq. (7.50): r
r r ~ ~ 2~ † ∗ hz|ˆ x|zi = hz|(a + a )|zi = (z + z ) = Re z 2mω 2mω mω r r √ m~ω ~ hz|ˆ p|zi = −i hz|(a − a† )|zi = −i (z − z ∗ ) = 2m~ω Im z. 2 2mω
(7.114) (7.115)
Al tempo t invece si ha |z; ti = e
− 12 |z|2
∞ ∞ X X 2 1 1 1 1 zn (ze−iωt )n √ e−iω(n+ 2 )t |ni = e− 2 |z| −i 2 ωt √ |ni = e−i 2 ωt |ze−iωt i. n! n! n=0 n=0
(7.116)
1
Quindi, a meno di un fattore di fase globale e−i 2 ωt |z; ti = |ze−iωt i.
(7.117)
Vediamo quindi che l’evoluzione temporale di uno stato coerente pu`o essere espressa in termini della dipendenza dal tempo del parametro z che lo caratterizza: z(t) = ze−iωt si muove in senso orario sulla circonferenza di raggio |z| nel piano complesso. Vediamo ora conme questo implichi che lo stato coerente non si allarga durante l’evoluzione temporale. A questo fine, calcoliamo l’indeterminazione: ∆2 x ˆ = hz|(x − hxi)2 |zi =
~ hz|((a + a† ) − (hai + ha† i))2 |zi. 2mω
(7.118)
Tuttavia, essendo |zi autostato di a si ha che hai = z;
ha† i = z ∗ .
(7.119)
Perci` o ~ hz|(a + z ∗ − z − z ∗ )(z + a† − z − z ∗ )|zi 2mω ~ ~ = hz|(a − z)(a† − z ∗ )|zi = hz|(a† − z ∗ )(a − z) + [(a − z), (a† − z ∗ ))]|zi 2mω 2mω ~ ~ hz|[a, a† ]|zi = . = 2mω 2mω
∆2 x ˆ=
(7.120) (7.121) (7.122)
Allo stesso modo si ha: ~mω hz|((a − a† ) − (hai − ha† i))2 |zi 2 ~mω =− hz|((a − a† ) − (hai − ha† i))((a − a† ) − (hai − ha† i))|zi 2 ~mω ~mω = hz|[a, a† ]|zi = . 2 2
∆2 pˆ = −
(7.123) (7.124) (7.125)
7.5 Stati coerenti e “gatti di Schr¨ odinger”
123
Di conseguenza, riassumendo ~ 2mω ~mω 2 ∆ pˆ = . 2 Vediamo quindi che gli stati coerenti sono effettivamente stati di minima indeterminazione: ∆2 x ˆ=
(7.126) (7.127)
~2 . (7.128) 4 Inoltre, abbiamo visto che la dipendenza temporale dello stato pu`o essere espressa come una dipendenza dal tempo del parametro z. Ma le indeterminazioni Eq. (7.126) non dipendono da z, quindi ne concludiamo che lo stato coerente non si allarga. Possiamo quindi riscrivere in termini delle indeterminazioni, indipendenti dal tempo, le leggi del moto per i valori medi di posizione ed impulso, Eq. (7.114), ricordando che ∆2 x ˆ∆2 pˆ =
hˆ xi = 2∆ˆ x Re z hˆ pi = 2∆ˆ p Im z.
(7.129)
Si ha cos`ı r hˆ x(t)i = 2∆ˆ x Re z(t) =
2~ Re ze−iωt = mω
r
2~ Re mω
r
mω 2~
ip0 −iωt x0 + e mω
p0 sin ωt mω r √ √ ip0 mω hˆ p(t)i = 2∆ˆ p Im z(t) = 2~mω Im ze−iωt = 2~mω Im x0 + e−iωt 2~ mω = x0 cos ωt +
= p0 cos ωt − mωx0 sin ωt. Vediamo quindi che il centro del pacchetto oscilla sia nello spazio delle posizioni che nello spazio degli impulsi, mantenendo costante l’indeterminazione: p0 hˆ x(t)i = x0 cos ωt + sin ωt (7.131) mω hˆ p(t)i = p0 cos ωt − mωx0 sin ωt. (7.132) Notiamo anche che le Eq. (7.129) ci dicono che l’interpretazione fisica del parametro z `e di fornire il valor medio di impulso e posizione (a seconda che se ne considerino la parte reale o la parte immaginaria) in unit` a di indeterminazione. Questo vuol dire che uno stato coerente con le parti reale ed immaginaria di z sufficientemente grandi pu` o essere visto come uno stato ben localizzato sia in posizione che in impulso. Consideriamo infine il prodotto scalare tra due stati coerenti |z1 i e |z2 i. Si ha hz1 |z2 i =
∞ X ∗ 2 2 1 1 (z1∗ z2 )n − 1 |z1 |2 − 1 |z2 |2 e 2 e 2 = ez1 z2 e− 2 |z1 | − 2 |z2 | . n! n=0
(7.133)
Quindi gli stati coerenti sono normalizzati, ma non sono ortogonali. Tuttavia, consideriamo per esempio il caso in cui se |z1 i = |zi e |z2 i = | − zi, 2
1
2
hz| − zi = e−|z| e− 2 |z|
− 12 |z|2
= e−2(Re
2
+Im2 z)
.
(7.134)
Ricordando che 1 hˆ xi 2 ∆ˆ x 1 hˆ pi Im z = 2 ∆ˆ p vediamo che se gli stati coerenti sono localizzati in punti lontani in unit`a di indeterminazione, nello spazio delle posizioni o degli impulsi, il loro prodotto scalare `e sopresso esponenzialmente e quindi gli stati sono quasi rtogonali. Re z =
124
7.5.2
L’oscillatore armonico
Gatti di Schr¨ odinger
Possiamo riprodurre molte delle idee dell’esperimento di Zeilinger considerando uno stato sovrapposizione della forma |ψcat i = eiα1 |z1 i + eiα2 |z2 i,
(7.135)
che chiamiamo “gatto di Schr¨ odinger”. Nel caso dell’espemento di Zeilinger, i due stati |zi i corrispondono ad aver fatto passare il sistema attraverso fenditure, in esperimenti di ottica quantistica essi possono corrispondere a far passare il sistema attraverso un interferometro di Mach-Zender (si veda la Figura 7.3), nel qual caso i due stati corrispondono al sistema che si `e propagato attraverso ciascuno dei due bracci dell’interferometro.
Figura 7.3: Interferometro di Mach-Zender Per fabbricare un gatto a partire da uno stato coerente |zi lo si fa interagire con un potenziale opportuno per un tempo opportuno. Al termine dell’interazione si ottiene uno stato |ψcat i. Un esempio semplice consiste nell’introdurre un potenziale di interazione dato dalla somma di un termine di interazione libero (di oscillatore armonico) e del prodotto di un termine di accoppiamento per il quadrato dell’operatore numero, cosa che si pu` o realizzare mediante campi elettrici appositamente calibrati (effetto Kerr): ˆ =H ˆ 0 + ~gN 2 . H
(7.136)
L’evoluzione temporale dello stato coerente iniziale `e 2
1
|ψ; ti = e i~ ~gN t |z(t)i,
(7.137)
dove l’effetto del termine H0 `e gi` a contenuta nell’evoluzione temporale che trasforma z in z(t). Si ha quindi 1
2
|ψ; ti = e i~ ~gN t |zi =
∞ X
1
2
e i~ ~gN t |nihn|zi =
n=0
∞ X
1
2
e i~ ~gn t |nihn|zi.
(7.138)
n=0
Possiamo ora fabbricare uno stato di tipo gatto scegliendo t in modo che |ψ; ti =
∞ X n=0
π
e−i 2
n2
|nihn|zi.
(7.139)
7.5 Stati coerenti e “gatti di Schr¨ odinger”
125
Si ha: e
−i π 2
n2
= (−i)n
2
( 1 n pari = −i n dispari
,
(7.140)
e quindi π
e−i 2
n2
π π 1 = √ e−i 4 + ei 4 (−1)n . 2
(7.141)
Lo stato “gatto” Eq. (7.139) `e quindi 1 |ψ; ti = √ 2
e
−i π 4
iπ 4
|zi + e
∞ X
! |nihn|zi(−1)
n
n=0
π π 1 = √ e−i 4 |zi + ei 4 | − zi . 2
(7.142)
Vediamo ora come questo stato ci permetta di riprodurre la situazione che abbiamo visto negli esperimenti di misura quantistica, come l’esperimento di Zeilinger. Inizialmente, eseguiamo una misura di posizione sullo stato. Supponiamo di partire con uno stato avente z = ip0 , co p0 reale, dimodoch´e hˆ xi = 2∆ˆ x Re z = 0,
(7.143)
hˆ pi = 2∆ˆ p Im z = 2p0 ∆ˆ p.
(7.144)
Lo stato gatto in tal caso `e la sovrapposizione di due stati aventi impulso medio eguale ed opposto. Calcoliamo la probabilit` a di posizione |hx|ψcat i|2 . Le funzioni d’onda nello spazio delle posizioni sono della forma hx| ± zi = N e±
ip0 x ~
1
x2
e− 4 ∆2 xˆ ,
(7.145)
visto che si tratta di stati di minima indeterminazione. Si ha perci`o: 2 2 ip0 x ip0 x 1 x2 1 x2 π π 1 −i π 1 π e 4 hx|zi + ei 4 hx| − zi = e−i 4 N e ~ e− 4 ∆2 xˆ + ei 4 N e− ~ e− 4 ∆2 xˆ 2 2 2 p x π 2 1 x2 π π i i 1 0 p x i p x 2 − 12 ∆x2 x −i − 4 e~ 0 ˆ e + e 4 e ~ 0 = 2|N |2 e− 2 ∆2 xˆ cos2 = |N | e − . (7.146) 2 ~ 4
P (x) = |hx|ψcat i|2 =
Troviamo quindi la figura di interferenza tipica di esperimenti tipo Zeilinger, in cui lo stato del sistema `e una sovrapposizione di stati sfasati: specificamente, troviamo una probabilit`a gaussiana modulata da un coseno. La lunghezza d’onda di oscillazione del coseno `e λ=
~ ~ ∆x = = , p0 2∆pIm z Im z
(7.147)
mentre la larghezza della gaussiana `e ∆x. Pertanto, saranno visibili dell’ordine di Im z oscillazioni prima che la gaussiana smorzi l’interferenza, che `e quindi visibile purch`e Im z sia abbastanza grande, cio`e purch´e i due stati di cui stiamo considerando la sovrapposizione siano abbastanza ben separati nello spazio degli impulsi. Lo stato “gatto” descrive quindi la situazione in cui si ha uno stato che `e sovrapposizione di due stati ben distinti, come gli stati dell’esperimento di Zeilinger corrispondenti alla particella passata dalla prima o dalla seconda fenditura. Vediamo ora come una misura fa sparire l’interferenza: in questo caso quindi l’interferenza scompare se si esegue una misura di impulso che ci dice in quale dei due stati di cui il gatto `e sovrapposizione esso si trova. Nel caso dell’esperimento di Zeilinger, questo corrisponde ad avere un rivelatore che ci dice da che fenditura sia passata la particella.) Un rivelatore, per definizione, `e un ulteriore grado di libert`a del sistema, al quale perci` o `e associato un ket di stato. In presenza di rivelatore, quindi, il ket di stato del sistema `e |ψcat idet = |ψcat i|ψdet i
(7.148)
126
L’oscillatore armonico
dove |ψdet i `e lo stato in cui si trova il rivelatore. Lo stato gatto in presenza di rivelatore `e quindi π π 1 |ψcat idet = √ e−i 4 |zi|+det i + ei 4 | − zi|−det i , 2
(7.149)
dove ±det i sono due stati in cui il rivelatore si trova, che supponiamo ben distinti, h+det |−det i = 0,
(7.150)
per definizione di cio` o che intendiamo con rivelatore La probabilit` a di una misura di posizione `e ora 1 2 |hx|ψcat idet | 2 π π 1 = |hx|zi|2 |h+det |+det i|2 + |hx| − zi|2 |h−det |−det i|2 + e−i 2 hz| − zih+det |−det i + ei 2 h−z|zih−det |+det i 2 (7.151) 2 2 2 2 = |hx|zi| |h+det |+det i| + |hx| − zi| |h−det |−det i| ,
P (x) =
dove nell’ultimo passaggio abbiamo usato la Eq. (7.150). L’interferenza `e quindi scomparsa perch`e i termini di interferenza sono pesati dal prodotto h+det |−det i. Possiamo ad esempio supporre che gli stati |±i siano anch’essi stati coerenti, cui gli stati di cui il “gatto” `e sovrapposizione cede una frazione del proprio impulso: |±i = | ± µpi,
(7.152)
dove µ `e una costante sufficientemente piccola che dopo la misura gli stati ±pi non siano eccessivamente perturbati, ma sufficientemente grande perch´e valga la Eq. (7.150). Vediamo cos`ı che il “collasso della funzione d’onda”, ossia il fatto che dopo una misura la funzione d’onda si riduca a quella dello stato in cui il sistema `e stato rivelato `e inevitabile conseguenza dell’aver trattato anche il rivelatore in modo quantistico.
Parte IV
Meccanica quantistica in pi` u dimensioni
Capitolo 8
Sistemi quantistici in pi` u di una dimensione 8.1
Spazi prodotto diretto
Introduciamo problemi quantistici in spazi rappresentabili come prodotto diretto. Consideriamo sinonimi prodotto diretto o prodotto tensoriale: dati due spazi vettoriali lineari H, K, ne denotiamo il prodotto diretto con H ⊗ K, e lo definiamo nel modo seguente. Prima di tutto, dati due insiemi di stati di base |ei i ∈ H e |fi i ∈ K, definiamo gli stati prodotto diretto |ei i ⊗ |fj i. Il prodotto scalare tra due stati prodotto diretto `e definito come (hei0 | ⊗ hfj 0 |) (|ei i ⊗ |fj i) ≡ hei0 |ei ihfi0 |fj i.
(8.1)
Si noti che il prodotto scalare cos`ı definito eredita le consuete propriet`a di linearit`a e hermiticit`a dai prodotti scalari relativi agli spazi H e K. Se le basi sono ortonormali si ha cos`ı (hei0 | ⊗ hfj 0 |) (|ei i ⊗ |fj i) = δii0 δjj 0 .
(8.2)
Lo spazio prodotto diretto H ⊗ K `e definito come lo spazio lineare ricoperto dagli stati |ψi =
X
cij |ei i ⊗ |fj i,
(8.3)
i,j
dove cij sono numeri complessi. Bisogna prestare attenzione al fatto che anche se gli stati di base sono un prodotto diretto, gli stati generici sono una sovrapposizione di stati prodotto diretto, ma non sono in generale scrivibili come prodotti: uno stato della forma ! |φi =
X i
ai |ei i
X ⊗ bj |fj i
(8.4)
j
pu` o essere sempre sempre essere scritto nella forma Eq. (8.3) sviluppando il prodotto, ma naturalmente non tutti gli stati Eq. (8.3) possono essere scritti nella forma fattorizzata Eq. (8.4). Vedremo molto pi` u avanti, nella sezione 14, come questo fatto sia alla base del fenomeno fisico dell’entanglement.
130
8.1.1
Sistemi quantistici in pi` u di una dimensione
Sistemi di dimensione finita
Come primo semplice esempio, consideriamo un sistema formato da 2 qubit1 . In questo caso abbiamo i 4 stati complessivi possibili |ψ1 i =|+i ⊗ |+i |ψ2 i =|+i ⊗ |−i |ψ3 i =|−i ⊗ |+i
(8.5)
|ψ4 i =|−i ⊗ |−i. Possiamo usare questo insieme di stati per descrivere una situazione fisica in cui lo stato del sistema `e caratterizzato da due osservabili, ciascuna delle quali pu`o assumere due valori possibili. Per semplicit` a di notazione useremo nel seguito, qualora non ci siano ambiguit`a, una notazione in cui il segno di prodotto tensoriale viene omesso, scrivendo i quattro stati come nella Eq. (8.6) ma senza il segno di prodotto diretto, oppure anche come |ψ1 i =| + +i |ψ2 i =| + −i |ψ3 i =| − +i
(8.6)
|ψ4 i =| − −i. Osserviamo che un operatore che agisce sullo spazio degli stati fisici non `e la somma di due matrici 2 × 2, ma un’unica matrice 4 × 4, i cui elementi sono hmn|A|iji = Amn,ij .
(8.7)
Ponendo |mni = |ai e |iji = |bi possiamo scrivere hmn|A|iji = Aa,b ,
(8.8)
chiamando i 4 stati, per esempio, 1, 2, 3, 4. Nel caso finito-dimensionale generale, il prodotto diretto di due spazi di dimensione n `e uno spazio di dimensione n × n. Gli operatori su tale spazio sono matrici il cui rango `e pari alla dimensione del nuovo spazio prodotto diretto.
8.1.2
Pi` u dimensioni e pi` u particelle
Il concetto di spazio prodotto diretto ci permette di estendere al caso d-dimensionale la trattazione dei sistemi meccanici sviluppata nel Capitolo 4 della prima parte. ˆ». Definiamo la versione d-dimensionale dell’operatore di posizione x ˆ, ossia il vettore di operatori #x Esso `e una collezione di operatori: x ˆ1 x ˆ2 #x ˆ» = (8.9) .. . x ˆd dove ogni coordinata `e indipendente dalle altre. Come in geometria, si pu`o preferire una rappresentazione ˆ», una rappresentazione esplicita in cui si rappresentano di tipo vettoriale, in cui si manipolano dei vettori #x i vettori come colonne e si indicano le loro componenti od ancora una notazione per componenti in cui si denota l’i-esima componente con x ˆi . Notiamo una potenziale ambiguit` a terminologica che potrebbe essere fonte di confusione. Abbiamo spesso usato il termine “vettore” per indicare gli stati nello spazio di Hilbert (come nell’espressione ˆ» `e invece un vettore nel senso della Eq. (8.9), ossia una collezione di “vettore di stato”). L’operatore #x 1 Ricordiamo
che un qubit ` e il sistema formato da una particella che pu` o trovarsi in due stati |+i o |−i.
8.1 Spazi prodotto diretto
131
operatori etichettati da un indice, che corrisponde al fatto che ciascun x ˆi `e l’operatore posizione relativo ad un diverso spazio unidimensionale — quello relativo alla i-esima coordinata. Non vi `e in generale alcuna relazione tra lo spazio vettoriale cui appartiene questo vettore di operatori — lo spazio delle coordinate — e lo spazio vettoriale cui appartengono i vettori di stato — lo spazio degli stati fisici. Ad esempio, lo spazio delle coordinate `e uno spazio vettoriale reale, mentre lo spazio degli stati fisici `e uno spazio di Hilbert, cio`e uno spazio vettoriale complesso. Dato un vettore di operatori posizione, possiamo introdurre lo spazio degli stati fisici costruito a partire dai risultati di misure di ciascuna delle componenti di questo operatore, in analogia con il caso unidimensionale, dove gli autostati |xi i della posizione rispetto alla i-esima coordinata soddisfano x ˆi |xi i = xi |xi i.
(8.10)
In d dimensioni il vettore di operatori agisce su stati fisici costruiti a partire dagli autostati della posizione d-dimensionale. Effettuando una misura del vettore posizione riveliamo il sistema in un autostato del vettore di operatori: #x ˆ»| #» x i = #» x | #» x i.
(8.11)
La notazione compatta | #» x i indica lo stato prodotto diretto | #» x i = |x1 i ⊗ |x2 i ⊗ · · · |xd i,
(8.12)
ossia lo stato in cui il sistema sia simultaneamente in un autostato della posizione lungo ciascuno dei d assi ˆ», ossia l’operatore xˆi `e l’operatore coordinati. Notiamo qundi che la componente i−esima del vettore #x che agisce come l’operatore posizione sul vettore di base |xi i che entra a costituire il prodotto diretto Eq. (8.12), e come l’identit` a su tutti gli altri vettori |xi i La densit` a di probabilit` a di rivelare in #» x un sistema d-dimensionale che si trova in nello stato |ψi `e data da 2 #» #» dP #» x = |h x |ψi| d x ,
(8.13)
h #» x |ψi = ψ(x1 , x2 , . . . , xd ) = ψ( #» x ).
(8.14)
dove ψ( #» x ) `e la funzione d’onda
La funzione d’onda `e quindi una funzione a valori complessi di d variabili reali. Il fatto che, come abbiamo gi` a osservato, lo stato fisico generico non si possa scrivere nella forma fattorizzata Eq. (8.4) equivale a dire che in generale non `e detto che la funzione d’onda si possa fattorizzare in tante sottofunzioni d’onda: generalmente ψ( #» x ) 6= ψ1 (x1 )ψ2 (x2 ) · · · ψd (xd ),
(8.15)
anche se naturalmente questo pu` o succedere in casi particolari. Oltre che per descrivere sistemi in pi` u di una dimensione, gli spazi prodotto tensoriale servono a descrivere il caso di sistemi di pi` u di una particella. Lo spazio degli stati fisici per un sistema di n particelle `e il prodotto diretto degli n spazi di stati ad una particella. Indichiamo con |mk i i vettori di base della k-esima particella: ad esempio, autostati di energia associati all m-esimo autovalore Em . In questo casi, possiamo costruire descrivere un sistema di n particelle come X |ψi = cm1 ,...,mn |m1 i ⊗ |m2 i ⊗ · · · |mn i. (8.16) m1 ,...,mm
8.1.3
Sistemi d-dimensionali in coordinate cartesiane
Consideriamo ora il caso di un sistema di una particella soggetta ad un potenziale in d dimensioni, descritto da un vettore di stato che nello spazio delle posizioni ha la forma della funzione d’onda d-dimensionale
132
Sistemi quantistici in pi` u di una dimensione
ψ( #» x ) Eq. (8.14). Gli operatori canonici, posizione ed impulso, si possono costruire generalizzando direttamente al caso d dimensionale la costruzione unidimensionale vista nella prima parte: ad esempio, la componente dell’impulso lungo l’i-esimo asse si costruisce a partire dal generatore delle traslazioni lungo quell’asse: ∂ #» #» ˆ»|ψi = −i~∇ψ( h #» x | #p x ) = −i~
∂x1
.. .
∂ ∂xd
#» ψ( x ).
(8.17)
L’evoluzione temporale del sistema `e generata da un’hamiltoniana che possiamo scrivere per sistemi meccanici come somma di un termine cinetico d-dimensionale e di un potenziale, generalizzando in modo ovvio il caso unidimensionale: #ˆ»2 ˆ»). ˆ = p + Vˆ ( #x H 2m
(8.18)
Esplicitamente, il termine cinetico `e dato da 2 d #p ˆ»2 1 #» #ˆ» #ˆ» 1 #» 1 X ∂ 2 2 2 #» ψ( #» x) |ψi = h x | p · p |ψi = h x |(p1 ) + (p2 ) + · · · + (p )d |ψi = −i~ hx| 2m 2m 2m 2m j=1 ∂xj d
=−
~2 X ∂ 2 ~2 #» #» #» #» ψ( x ) = − ∇ · ∇ψ( x ). 2m j=1 ∂(xj )2 2m
(8.19)
In particolare se d = 3 #p ˆ»2 ~2 #» |ψi = − 4ψ( #» x ), hx| 2m 2m
(8.20)
dove con 4 si intende il Laplaciano.
8.2
Separabilit` a
In molti casi, la trattazione di un problema in pi` u di una dimensione pu`o essere ridotta alla risoluzione di un problema definito in uno spazio di dimensione meno elevata. Un caso particolarmente semplice `e quello di hamiltoniane separabili.
8.2.1
Potenziali separabili in coordinate cartesiane
Consideriamo una particella d-dimensionale soggetta ad un hamiltoniana della forma della Eq. (8.18), ma con un potenziale della forma ˆ») = Vˆ1 (ˆ Vˆ ( #x x1 ) + Vˆ2 (ˆ x2 ) + . . . Vˆd (ˆ xd ) =
d X
Vˆi (ˆ xi ).
(8.21)
i=1
In tal caso, l’Hamiltoniana pu` o essere scritta come somma di hamiltoniane unidimensionali. Infatti n #p X ˆ»2 X ˆ ˆ i, + Vˆi (ˆ xi ) = H H= 2m i i=1
(8.22)
#ˆ»2 ˆ i = p i + Vˆi (ˆ H xi ). 2m
(8.23)
dove
8.2 Separabilit` a
133
La determinazione dello spettro dell’hamiltoniana si riduce cos`ı alla determinazione dello spettro di hamiltoniane unidimensionali: ˆ ˆ 1 |ψi + h #» ˆ 2 |ψi + . . . h #» x |H|ψi = h #» x |H x |H ~2 ∂ 2 ~2 ∂ 2 #» + V (x1 ) ψ( x ) + − + V (x2 ) ψ( #» x) + .... = − 2m (∂x1 )2 2m (∂x2 )2
(8.24)
Una hamiltoniana che pu` o essere scritta come somma di hamiltoniane unidimensionali si dice separabile in coordinate cartesiane. Se conosciamo gli autostati |ψik i della i-esima hamiltoniana ˆ i |ψik i = Eik |ψik i; H
hxi |ψ k i = ψik (xi )
(8.25)
si verifica facilmente che lo stato prodotto ψk1 k2 ···kd ( #» x ) = ψk1 (x1 )ψk2 (x2 ) · · · ψkd (xd )
(8.26)
`e autostato dell’hamiltoniana complessiva Eq. (8.22). Infatti 2 2 ˆ k k ···k i = − ~ ∂ ψk1 (x1 ) ψk (x2 ) · · · ψk (xd ) + V (x1 )ψk k ···k ( #» h #» x |H|ψ 1 2 2 n 1 2 s x) d 2m ∂x1 2 ~2 ∂ 2 ψk2 (x2 ) − ψk1 (x1 ) · · · ψkd (xd ) + V (x2 )ψk1 k2 ···kd ( #» x) + ··· , 2m ∂x2 2
(8.27)
ˆ i: ma le ψki sono autofunzioni di H −
~2 ∂ 2 ψk (xi ) + Vi (xi )ψki (xi ) = Eki ψki (xi ), 2m ∂x1 2 i
(8.28)
e quindi ˆ k k ···k i = Ek ψk k ···k ( #» h #» x |H|ψ x ) + Ek2 ψk1 k2 ···kd ( #» x ) + · · · + Ekd ψk1 k2 ···kd ( #» x) 1 2 1 1 2 d d #» = (E + E + . . . E )ψ ( x ). k1
8.2.2
k2
kd
k1 k2 ···kd
(8.29)
Hamiltoniane separabili
` facile vedere che le autofunzioni Eq. (8.26) sono le pi` E u generali, cio`e che tutte e sole le autofunzioni dell’hamiltoniana hanno questa forma. L’argomento ci fornisce inoltre un metodo generale per capire quando una hamiltoniana `e separabile, e che cosaq questo comporta. Notiamo preliminarmente che la generalizzazione d-dimensionale del commutatore canonico [ˆ p, x ˆ] = −i~
(8.30)
`e [ˆ pi , x ˆj ] = −i~δ ij
[ˆ xi , x ˆj ] = 0
[ˆ pi , pˆj ] = 0.
(8.31)
Infatti, la i-esima componente del vettore impulso genera le traslazioni lungo l’i-esimo asse lasciando tutte le altre coordinate invariate. Dal commutatore Eq. (8.31) segue che le singole hamiltoniane unidimensionali commutano tra loro ˆ i (ˆ ˆ j (ˆ [H xi , pˆi ), H xj , pˆj )] = 0
se i 6= j,
(8.32)
ˆ Eq. (8.22), e di conseguenza, possono essere diagonalizzate simultaneamente (e simultaneamente alla H che ne `e la somma).
134
Sistemi quantistici in pi` u di una dimensione
Ne segue immediatamente che Ek = Ek1 + Ek2 + . . . Ekd .
(8.33)
Inoltre, la dipendenza dell’autofunzione h #» x |ψi = ψ( #» x ) da ciascuna delle d variabili xi `e fissata dal fatto che la funzione `e autofunzione dell’Hamiltoniana relativa a tale variabile. Questo argomento si generalizza immediatamente a qualunque hamiltoniana che pu`o essere scritta come somma di hamiltoniane che commutano. Infatti, se ˆ =H ˆ1 + · · · + H ˆn H
(8.34)
ˆ i, H ˆj ] = 0 [H
(8.35)
e
le hamiltoniane sono diagonalizzabili simultaneamente ˆ i |ki i = Eik |ki i, H
(8.36)
e una base di autofunzioni per l’hamiltoniana d-dimensionale H Eq. (8.34) `e |k1 . . . kd i = |k1 i ⊗ · · · ⊗ |kd i.
(8.37)
L’argomento precedente implica inoltre che gli autostati dell’hamiltoniana Eq. (8.34) sono gli stati fattorizzati Eq. (8.37), con autovalore dato da Ek1 ...kd = Ek1 + · · · + Ekd .
(8.38)
Una hamiltoniana H che si pu` o scrivere come somma di hamiltoniane che commutano `e detta separabile, e vediamo cos`ı che i suoi autovalori e le sue autofunzioni possono sempre essere scritti rispettivamente usando la Eq. (8.33) e la Eq. (8.37) in termini delle autofunzioni e degli autovalori Eq. (8.36) delle hamiltoniane Hi in termini delle quali `e stata separata.
8.2.3
Esempi tridimensionali
Buca di potenziale cubica Consideriamo l’Hamiltoniana #ˆ»2 ˆ»), ˆ = p + Vˆ ( #x H 2m
(8.39)
con ˆ») = Vˆ ( #x
3 X
Vˆi (ˆ xi ),
(8.40)
i=1
dove ( 0 Vi (x ) = ∞ i
se |xi | < ai . se |xi | > ai
(8.41)
Essa corrisponde ad una buca di potenziale parallelepipedale (sistema confinato all’interno di un parallelepipedo nello spazio tridimensionale). Possiamo scomporre il problema in tre sottoproblemi come visto prima: i2 pˆ i ˆ + Vi (ˆ x ) |ψni i = Eni |ψni i (8.42) 2m
8.2 Separabilit` a
135
dove ~2 kn2 i 2m
Eni =
k ni =
ni π 2ai
(8.43)
con ni = 1, 2 . . . ∞. Ricordiamo che la forma esplicita delle autofunzioni `e: ( Ani cos kni xi ni = 2n + 1 i . hx |ψni i = Bni sin kni xi ni = 2n
(8.44)
Lo spettro dell’Hamiltoniana totale `e definito dall’equazione agli autovalori ˆ n n n i = En n n |ψn n n i H|ψ 1 2 3 1 2 3 1 2 3
(8.45)
con En1 n2 n3 =
~2 π 2 8m
n2 n2 n21 + 22 + 23 2 a1 a2 a3
.
(8.46)
n1 , n2 , n3 sono detti numeri quantici. Se i valori di ai sono commensurabili, `e possibile che lo spettro presenti delle degenerazioni. Consideriamo ad esempio il caso a1 = a2 = a3 = a (buca cubica). In questo caso si ha En1 n2 n3 =
~2 π 2 2 (n + n22 + n23 ). 8ma2 1
(8.47)
Lo stato fondamentale `e E111 =
~2 π 2 3 ma2 8
(8.48)
e non presenta degenerazioni. Per il primo stato eccitato si ha invece E211 = E121 = E112 =
~2 π 2 3 , ma2 4
(8.49)
e lo stato `e quindi 3 volte degenere. Al crescere dell’energia aumenta il numero di stati diversi associati al medesimo autovalore. Calcolare il livello di degenerazione al crescere di E `e un problema complesso di algebra combinatoria, che si pu` o risolvere per n1 + n2 + n3 tendente ad infinito: in questo limite il numero di stati cresce come la superficie di una sfera. Oscillatore armonico tridimensionale Consideriamo ora l’hamiltoniana #p ˆ»2 ˆ») ˆ H= + Vˆ ( #x 2m
(8.50)
con ˆ») = Vˆ ( #x
3 X
Vˆi (ˆ xi )
(8.51)
i=1
e dove 1 Vˆi (ˆ xi ) = mωi2 (ˆ xi ) 2 . 2
(8.52)
ˆ n n n i = En n n |ψn n n i, H|ψ 1 2 3 1 2 3 1 2 3
(8.53)
Lo spettro di energia ha la forma
136
Sistemi quantistici in pi` u di una dimensione
e la ψ( #» x ) `e il prodotto di tre autofunzioni dell’oscillatore armonico in x, y, z. Gli autovalori sono 1 En1 n2 n3 = ~ n2 ω1 + n2 ω2 + n3 ω3 + (ω1 + ω2 + ω3 ) . (8.54) 2 Supponiamo ora che ω1 = ω2 = ω3 = ω (oscillatore isotropo). Il potenziale `e quindi 3 X 1 ˆ») = 1 mω 2 ˆ»2 . Vˆ ( #x (ˆ xi )2 = mω 2 #x 2 2 i=0
(8.55)
ˆ»). In tale Si vede quindi che il potenziale ha simmetria sferica (dipende solo dalla norma del vettore #x caso si ha 3 3 = ~ω N + (8.56) En1 n2 n3 = ~ω n1 + n2 + n3 + 2 2 con N = 0, 1, . . . ∞. Lo spaziamento dei livelli `e quindi identico a quello del caso unidimensionale, pur essendo cambiata l’energia dello stato fondamentale. Inoltre, l’N -esimo livello energetico ora `e degenere. La degenerazione si calcola notando che possiamo scegliere n1 in N + 1 modi diversi (n1 = 0, 1, 2, . . . , N ). Una volta scelto n1 possiamo scegliere n2 in N − n1 + 1 modi diversi (n2 = 0, 1, . . . , N − n1 ). Una volta scelti n1 ed n2 , n3 `e fissato: n3 = N − n1 − n2 . La degenerazione `e quindi d=
N X
(N − n1 + 1) = (N + 1)
n1 =0
8.3 8.3.1
N X n1 =0
1−
N X n1
1 1 n1 = (N + 1)2 − N (N + 1) = (N + 1)(N + 2). (8.57) 2 2 =0
Problemi a due corpi e problemi centrali Il problema dei due corpi
Un sistema di due corpi che interagiscono attraverso un potenziale che dipende solo dalla loro separazione fornisce un esempio classico di problema separabile attraverso un semplice cambio di coordinate. Il sistema `e descritto dall’Hamiltoniana: #p #p ˆ»2 ˆ»2 1 ˆ»1 − #x ˆ»2 ) : ˆ H= + 2 + Vˆ ( #x 2m1 2m2
(8.58)
il potenziale dipende solo dalla differenza delle coordinate. Le variabili canoniche per questo problema soddisfano le regole di commutazione [ˆ pia , x ˆjb ] = −i~δ ij δab [ˆ pia , pˆjb ]
=
[ˆ xia , x ˆjb ]
= 0,
(8.59) (8.60)
dove a, b = 1, 2 etichettano le due particelle mentre i, j = 1, 2, 3 etichettano le tre coordinate spaziali. Il problema si separa definendo le coordinate relative e quelle del baricentro #ˆr» = #x ˆ»1 − #x ˆ»2 ˆ»1 + m2 #x ˆ»2 #ˆ» m1 #x . R= m1 + m2
(8.61) (8.62)
A queste vanno associate i rispettivi impulsi coniugati #ˆ» #ˆ» #p ˆ» = m2 p 1 − m1 p 2 m1 + m2 #ˆ» #ˆ» ˆ» . P = p + #p 1
2
(8.63) (8.64)
8.3 Problemi a due corpi e problemi centrali
137
Si verifica facilmente che le coordinate e gli impulsi Eq. (8.61-8.63) soddisfano relazioni di commutazione canoniche; ˆ j ] = −i~δ ij [ˆ pi , rˆj ] = −i~δ ij [Pˆ i , R ˆi, R ˆ j ] = [ˆ ˆ j ] = 0. [ˆ pi , pˆj ] = [ˆ ri , rˆj ] = [Pˆ i , Pˆ j ] = [R ri , Pˆ j ] = [ˆ pi , R
(8.65) (8.66)
Ad esempio, 1 m2 pˆi1 − m1 pˆi2 j ˆj2 = ,x ˆ1 − x (m1 (−i~)δ ij + m2 (−i~)δ ij ) = −i~δ ij ; m1 + m2 m1 + m2 # " ˆj1 + m2 x ˆj2 1 m2 pˆi1 − m1 pˆi2 m1 x i ˆj , = (m1 m2 δ ij − m1 m2 δ ij ) = 0, [ˆ p ,R ] = m1 + m2 m1 + m2 m1 + m2
[ˆ pi , rˆj ] =
(8.67) (8.68)
e cos`ı via. Si verifica facilmente con il calcolo esplicito che nelle nuove coordinate Eq. (8.61-8.63) il termine cinetico nell’hamiltoniana Eq. (8.58) si separa #ˆ»2 #p ˆ»2 P + = + , T = 2m1 2m2 2M 2µ #p ˆ»2 1
#p ˆ»2 2
(8.69)
dove la massa totale M e la massa ridotta µ sono rispettivamente M = m1 + m2 1 1 1 = + , µ m1 m2
(8.70) (8.71)
sicch´e l’hamiltoniana diventa #ˆ»2 #p ˆ»2 P ˆ = + + Vˆ ( #ˆr»), H 2M 2µ
(8.72)
Il problema dei due corpi `e perci` o separabile in due problemi ad un corpo, #ˆ» #ˆ» ˆ») ˆ =H ˆ B ( R, ˆ r ( #ˆr», #p H P) + H
(8.73)
con #ˆ»2 P ˆ HB = 2M #ˆ»2 ˆ r = p + Vˆ ( #ˆr») H 2µ
(8.74) (8.75)
e con ˆB, H ˆ r ] = 0. [H
(8.76)
Lo spettro pu` o quindi essere determinato come discusso nella Sez. 8.2. ` importante capire la logica con cui il cambiamento di coordinate viene costruito. Innanzitutto, `e E ˆ»1 − #x ˆ»2 affinch´e il potenziale dipenda da una coordinata sola. Inoltre, data una necessario scegliere #ˆr» = #x scelta di cambiamento di coordinate posizione, il cambiamento delle coordinate impulso `e interamente fissato dalle relazioni di commutazione canoniche, come dimostreremo nella prossima sezione. Quindi per #ˆ» #ˆ» ˆ» #ˆ» ogni scelta di R sono completamente fissati P e #p . D’altra parte, per ogni scelta di P , c’`e una sola # » ˆ che separa il termine cinetico nella somma di due termini secondo la Eq. (8.69): questo `e scelta di p facile dimostrare con un argomento identico a quello classico, visto che tutti gli operatori che compaiono nel termine cinetico commutano fra loro e quindi possono essere trattati come oggetti classici. Quindi la #x #ˆ» ˆ»1 +m2 #x ˆ»2 `e fissata dalla richiesta che si separi il termine cinetico. scelta R = m1 m 1 +m2
138
8.3.2
Sistemi quantistici in pi` u di una dimensione
Cambiamenti lineari di coordinate
Il passaggio dalle coordinate dei due corpi alle coordinate relative e del baricentro discusso nella sezione precedente `e un caso particolare di un cambiamento lineare di coordinate della forma ! #» #x ˆ»0 ˆ1 x 1 = M (8.77) 0 # ˆ»2 , #x ˆ» x 2 tale che la matrice M sia invertibile. il cambio di coordinate Eq. (8.61) ne `e un caso particolare: usando la notazione pi` u compatta #x ˆ»0 ≡ #ˆr» 1 #ˆ» #x ˆ»0 ≡ R, 2
(8.78) (8.79)
esso corrisponde alla scelta M=
1
−1
m1 m1 +m2
m2 m1 +m2
.
(8.80)
Si dimostra facilmente che, per un cambiamento di coordinate della forma generale Eq. (8.77), la trasformazione associata degli impulsi che preserva le relazioni di commutazione canoniche, ovvero tale che i
j
[pˆ0 a0 , xˆ0 b0 ] = −i~δ ij δa0 b0 .
(8.81)
ˆ»0 #p ˆ»0 ) = ( #p ˆ» #p ˆ» )N ( #p 1 2 1 2
(8.82)
N = M −1 ,
(8.83)
#p ˆ»0 0 = #p ˆ» Naa0 a a
(8.84)
`e data da
con
ovvero, in componenti
dove sottintendiamo che gli indici ripetuti vanno sommati. Infatti: i
j
[pˆ0 a0 , xˆ0 b0 ] = [ˆ pia , x ˆjb ]Naa0 Mb0 b = −i~δ ij δ ab Naa0 Mb0 b = −i~δ ij (M N )b0 a0 .
(8.85)
Di conseguenza si ha: i j [pˆ0 a0 , xˆ0 b0 ] = −i~δ ij (I)b0 a0 ⇔ N = M −1 .
(8.86)
Possiamo ricavare la trasformazione degli impulsi Eq. (8.82-8.83) da principi primi, costruendo gli impulsi come generatori delle traslazioni. Questo pu`o essere semplicemente fatto utilizando la rappresentazione delle coordinate, dove #» #» ˆ»|ψi = −i~∇ψ( h #» x | #p x) (8.87) #» 0 0 ˆ»| #» h #» x | #p x i = −i~∇ δ( #» x − #» x ). (8.88) x
Per semplificare la notazione, scriviamo pi = −i~
∂ , ∂xi
(8.89)
8.3 Problemi a due corpi e problemi centrali
139
osservando tuttavia che questo `e un abuso di notazione: gli elementi di matrice dell’operatore impulso hanno la forma Eq. (8.87) nella base delle coordinate, ma non possiamo identificare l’operatore impulso con l’operatore derivata (sono operatori che agiscono su spazi diversi: l’uno sullo spazio dei vettori di stato, l’altro sulle funzioni). Possiamo per`o vedere la Eq. (8.89) come una notazione abbreviata per l’operatore differenziale −i~∂i , che scegliamo di indicare, con abuso di notazione, con lo stesso simbolo usato per l’operatore impulso. Come esercizio, calcoliamo il commutatore canonico con questa notazione. Il calcolo standard `e h #» x |[ˆ pi , x ˆj ]|ψi = −i~ (∂i xj − xi ∂j ) ψ( #» x ) = −i~δij ψ( #» x ).
(8.90)
Con la notazione Eq. (8.89) scriviamo [pi , xj ] = −i~ (∂i xj − xi ∂j ) = −i~δij .
(8.91)
Visto che nella notazione Eq. (8.89) gli operatori pi sono operatori differenziali, si sottintende che essi agiscano (a destra) su una funzione d’onda. Questo spiega l’ultimo passaggio: nel termine ∂i xj la derivata agisce sia su xj (producendo il risultato finale), sia sulla funzione d’onda (non scritta), e il termine in cui si agisce sulla funzione d’onda si elide con −xi ∂j . Quindi, con questa notazione compatta, tutti gli operatori posizione sono rimpiazzati dai loro autovalori, gli operatori impulso sono rimpiazzati da derivate, ed infine ogni derivata va fatta su tutti gli oggetti che si trovano alla sua destra, sottintendendo sempre un’ultima derivata della funzione d’onda (anche quando questa non viene scritta). Avendo introdotto questa notazione semplificata, abbiamo che i generatori delle traslazioni nelle nuove variabili sono p0 a0 = −i~
∂ . ∂x0 ia0
∂
∂xa
i
(8.92)
Usando la regola della derivata composta −i~
(i)
(i) ∂x0 a0
= −i~
(i) ∂x0 a0
∂ (i)
,
(8.93)
∂xa
dove la parentesi attorno all’indice i indica che esso, pur essendo ripetuto, non va sommato (la trasformazione di coordinate viene infatti eseguita separatamente per ciascuna coordinata i). Ma per il cambio di coordinate Eq. (8.77) (i)
∂x0 a0
(i)
∂xa
= Ma0 a ,
(8.94)
−1 = Maa 0.
(8.95)
e perci` o (i)
∂xa
(i)
∂x0 a0 Quindi i
p0 a0 = −i~
∂ ∂ −1 −1 i 0i = −i~ i Maa 0 = pa Maa0 = p a0 , i 0 ∂xa ∂x a0
(8.96)
in accordo con le Eq. (8.82-8.83). Notiamo infine che il caso discusso qui, in cui il cambio di coordinate rimescola le coordinate delle due particelle, ma non diverse componenti cartesiane della coordinate di ciascuna particella, ed inoltre il cambio `e lo stesso per tutte le coordinate, `e un caso particolare di un pi` u generale cambio di coordinate in cui la matrice M `e una matrice generale sei per sei. La generalizzazione a questo caso `e ovvia ed immediata.
140
8.3.3
Sistemi quantistici in pi` u di una dimensione
Problemi centrali
Avendo separato il moto relativo da quello del baricentro ci concentriamo ora su una hamiltoniana ad un corpo. Per non appesantire la notazione, indichiamo la massa con m anche se nel caso del problema ottenuto riducendo un problema a due corpi si tratta della massa ridotta. Consideriamo inoltre il caso di potenziali che dipendono solo dal modulo dell’operatore posizione, ossia #p ˆ»2 ˆ»||). ˆ + Vˆ (|| #x H= 2m
(8.97)
Potenziali di questo tipo sono detti centrali. In analogia con il caso classico, vogliamo separare il moto angolare dal moto radiale. A questo scopo, introduciamo coordinate sferiche: x1 = r sin ϑ cos ϕ (8.98) x2 = r sin ϑ sin ϕ x3 = r cos ϑ In coordinate sferiche si ha V = V (r), quindi il problema si separa se siamo in grado di separare il termine cinetico. In meccanica classica, il termine cinetico in coordinate sferiche si separa #» L2 #» (8.99) p 2 = p2r + 2 r utilizzando l’identit` a vettoriale #» #» #» ( #» a · b )2 = || #» a ||2 || b ||2 − || #» a × b ||2 ,
(8.100)
da cui la Eq. (8.99) segue immediatamente ponendo #» a = #» x;
#» #» b = p;
#» #» L = #» a× b
(8.101)
ˆ» e #p ˆ» sono operatori non e definendo pr = ||~x1|| ~x · p~. Quantisticamente dobbiamo tuttavia ricordare che #x commutanti. Ricordiamo dapprima la dimostrazione dell’identit`a Eq. (8.100). Introduciamo il tensore completamente antisimmetrico εijk , definito dalle relazioni εijk = −εjik = εkij = −εikj
ε123 = 1.
(8.102)
La definizione implica che εijk si annulla quando due indici sono uguali, `e pari a +1 per ogni permutazione ciclica degli indici rispetto all’ordinamento 123, ed `e pari a −1 per ogni permutazione anticiclica. Il prodotto esterno di due vettori si pu` o scrivere in termini del tensore completamente antisimmetrico come #» ( #» a × b )i = εijk aj bk . (8.103) Si verifica facilmente che εijk εiab = (δ ja δ kb − δ jb δ ka ),
(8.104)
da cui la Eq. (8.100) segue immediatamente: #» a × b ||2 = εimn εijk am bn aj bk = (δ mj δ nk − δ mk δ nj )am bn aj bk = aj aj bk bk − aj bj ak bk || #» #» #» = || #» a ||2 || b ||2 − ( #» a · b )2 .
(8.105)
Nel caso quantistico, identifichiamo innanzitutto la componente radiale dell’operatore impulso. In coordinate cartesiane si ha #» #» p = −i~∇ (8.106)
8.3 Problemi a due corpi e problemi centrali
141
(continuando ad usare la notazione introdotta in Eq. (8.89)). Proiettiamo tale impulso lungo la componente radiale. Chiamiamo quindi #» x #» · p. r
(8.107)
#» ∂ x #» ·∇= , r ∂r
(8.108)
∂ ∂r
(8.109)
p˜r := ` facile vedere che E
per cui p˜r = −i~ e [˜ pr , r] = −i~,
(8.110)
dimodoch´e pˆ ˜r genera le traslazione della coordinata radiale. Vedremo tuttavia pi` u avanti che esso non pu` o essere direttamente identificato con l’impulso radiale, in quanto non `e hermitiano, e perci`o non `e associabile ad una osservabile fisica. Per dimostrare la Eq. (8.108), notiamo che ∂ ∂ ∂ . (8.111) + ∂i ϑ + ∂i ϕ ∂i = ∂i r ∂r ∂ϑ ∂ϕ Il secondo e il terzo termine sono dei termini trasversali a r: se li proiettiamo lungo la direzione radiale troviamo 0. ∂ϕ i ∂ϑ i x = x = 0. i ∂x ∂xi
(8.112)
Questo pu` o essere dimostrato esplicitamente ma si pu`o vedere senza eseguire alcun calcolo: se conside∂ϕ ∂ϑ riamo ϑ( #» x ) e ϕ( #» x ) come funzioni a valori reali nell spazio tridimensionale, ∂x i e ∂xi sono i gradienti di tali funzioni, e quindi sono perpendicolari alle superfici di ϑ e ϕ costante. Ma ovviamente la direzione di variazione della coordinata radiale, a ϑ e ϕ invariati, `e parallela in ogni punto al vettore xi , che `e quindi ortogonale alla direzione di entrambi questi gradienti. Troviamo quindi xi xi ∂r ∂ xi ∂ p 1 2 xi xi ∂ ∂ ∂ 2 )2 + (x3 )2 p ∂i = = = = . (x ) + (x i i 1 2 2 2 3 2 r r ∂x ∂r r ∂x ∂r r (x ) + (x ) + (x ) ∂r ∂r
(8.113)
ˆ», #» ˆ» dove #x ˆ» e #p ˆ» sono Possiamo ora ripetere il calcolo Eq. (8.3.3) con l’identificazione #» a = #x b = #p operatori quantistici che soddisfano relazioni di commutazione canoniche [ˆ pi , x ˆj ] = i~δij .
(8.114)
Si ha: εijk εilm xj pk xl pm = (δ jl δ km − δ jm δ kl )xj pk xl pm = xj pk xj pk − xj pk xk pj p 2 − i~xj pj − (xj pj pk xk + xj pk [xk , pj ]) = r2 #» = r2 #» p 2 − i~xj pj − (xj pj xk pk + xj pj [pk , xk ] + i~xj pj ) # » = r2 #» p 2 − i~ #» x · #» p − (x · p)(x · p) − (x# · » p(−i~)3 + i~x# · » p) = r2 #» p 2 − i~ #» x· 2 #»2 #» = r p + i~ x ·
#» p + 2i~ #» x · #» p − ( #» x · #» p )2 #» p − ( #» x · #» p )2 .
(8.115)
142
Sistemi quantistici in pi` u di una dimensione
Definiamo ora l’operatore #ˆ» ˆ» × #p ˆ», L = #x
(8.116)
che, come vedremo pi` u avanti, pu` o essere legato al momento angolare quantistico, e nella base delle coordinate prende la forma Li = −i~εijk xj ∂k .
(8.117)
#» Si vede immediatamente che L `e ortogonale ad #» x: 1 #» #» x · L = xi Li = εijk xi xj pk = εijk [xi , xj ]pk = 0. 2
(8.118)
Di conseguenza si tratta di un operatore differenziale che proiettato lungo la direzione radiale si annulla, e quindi non pu` o contenere derivate rispetto ad r: #» #» ∂ ∂ L=L , , ϑ, ϕ . (8.119) ϑ ϕ Mantenendo l’ordinamento, possiamo quindi riscrivere la Eq. (8.115) come 1 #»2 #» x · #» p )2 − i~( #» x · #» p) + L . p 2 = 2 ( #» r
(8.120)
Abbiamo cos`ı espresso #» p 2 come la somma di un termine dipendente dalla componente radiale ed uno che non contiene derivate rispetto ad essa. Possiamo usare la Eq. (8.120) per separare l’operatore cinetico, in analogia alla separazione classica Eq. (8.99): #» 1 ∂ p2 #»2 2 ∂ 2 ∂ = r + (−i~) r + L (−i~) r 2m 2mr2 ∂r ∂r ∂r ! 2 #» L ~2 ∂2 2 ∂ + , + =− 2 2m ∂r r ∂r 2mr2
(8.121)
avendo fatto uso del fatto che ∂r r = r∂r + 1. Nell’ultimo passaggio abbiamo inoltre tenuto conto del fatto #» #» che L non contiene derivate rispetto a r e quindi l’ordinamento di L e r `e irrilevante. Possiamo riscrivere la Eq. (8.121) in modo particolarmente elegante in termini di impulso radiale. Come si `e detto, pˆ ˜r non `e hermitiano. Infatti: pˆ ˜†r =
#x ˆ» rˆ
ˆ» · #p
!† =
#ˆ»† #p ˆ»† · x rˆ†
!
che non pu` o essere identificato con pˆ ˜r perch´e rˆ e pˆ˜r non commutano. Troviamo cos`ı xi xi xi 3 1 2i~ p˜†r = −i~∂i = −i~ ∂i − i~ ∂i = p˜r − i~ + xi ∂ i = p˜r − . r r r r r r
(8.122)
(8.123)
A questo punto `e possibile definire un impulso radiale autoaggiunto come pˆr =
1 ˆ i~ (p˜r + pˆ˜†r ) = pˆ˜r − , 2 rˆ
(8.124)
ovvero pr = −i~
∂ 1 + ∂r r
.
(8.125)
8.3 Problemi a due corpi e problemi centrali
143
Notiamo ora che p2r
= −~
2
∂ 1 + ∂r r
∂ 1 + ∂r r
2
= −~
2 #ˆ»2 2 ∂ L 2 ∂ ∂2 ∂ 1 1 ∂ 2 + + = −~ + + , + . ∂r2 r ∂r ∂r r r2 2mr2 ∂r2 r ∂r (8.126)
Confrontando con la Eq. (8.121) vediamo quindi che il termine cinetico pu`o essere scritto come #ˆ»2 #p ˆ»2 1 2 L pˆr + 2 (8.127) = 2m 2m rˆ che quindi coincide con l’espressione classica.
144
Sistemi quantistici in pi` u di una dimensione
Capitolo 9
Il momento angolare Lo studio del momento angolare in meccanica quantistica `e, anche storicamente, il prototipo per lo studio delle simmetrie nella fisica teorica. La sua importanza va quindi al di l`a del suo pur significativo ruolo nella descrizione dei sistemi quantistici tridimensionali.
9.1
Momento angolare e rotazioni
Viene spontaneo definire l’operatore momento angolare quantistico a partire da quello classico usando il principio di corrispondenza, e cio`e definendo, come in Eq. (8.116), #ˆ» ˆ» × #p ˆ», L = #x
(9.1)
ˆ» e #p ˆ» sono gli operatori posizione ed impulso. D’altra parte, abbiamo visto che in generale un’osservdove #x abile quantistica viene costruita a partire dalla legge di conservazione classica corrispondente. Ricordiamo quindi che in meccanica classica il momento angolare `e la quantit`a che si conserva quando la dinamica `e invariante per rotazioni. Verifichiamo quindi che l’espressione dell’operatore momento angolare in meccanica quantistica che si ottiene a partire dal generatore delle rotazioni, il cui spettro si conserva quando c’e’ invarianza per rotazioni, coincide con l’espressione Eq. (9.1) che si ottiene usando il principio di corrispondenza.
9.1.1
Il caso classico: teorema di Noether
Ricordiamo innanzitutto che il momento angolare classico `e la carica di Noether conservata quando vi #» `e invarianza per rotazioni: specificamente, la componente di L lungo un asse si conserva quando c’`e invarianza per rotazioni attorno a tale asse, ossia se il problema `e invariante per rotazioni sul piano ad esso ortogonale. Per dimostrarlo, consideriamo per semplicit`a un vettore che si trova nel piano xy e che ruota attorno all’asse z: il vettore `e r cos ϕ #» x = . (9.2) r sin ϕ e sotto una rotazione infinitesima di angolo diventa r cos(ϕ + ) r(cos ϕ − sin ϕ) #» x → #» x0 = = + O(2 ). r sin(ϕ + ) r(sin ϕ + cos ϕ)
(9.3)
Di conseguenza δ #» x 0 = #» x 0 − #» x =
−r sin ϕ r cos ϕ
(9.4)
146
Il momento angolare
vale a dire δx1 = −x2 2
(9.5)
1
δx = x .
(9.6)
−x2 δ 3 #» x = x1 0
(9.7)
Passando ora al caso tridimensionale
che possiamo scrivere in componenti come (3)
δ 3 xi = εi3j xj = εikj nk xj , dove #» n (3) = (0, 0, 1) `e il versore lungo il terzo asse, e nk vettoriale
(3)
(9.8)
ne `e la k-esima componente. In notazione
δ 3 #» x = #» n (3) × #» x.
(9.9)
Naturalmente, non vi `e nulla di speciale nella scelta del terzo asse, e la Eq. (9.9) per la rotazione attorno ad un asse generico #» n prende la forma δ (n) #» x = #» n × #» x,
(9.10)
δ (n) xi = εijl nj xl .
(9.11)
ossia, in componenti
Il versore diretto lungo il k-esimo asse `e (k)
nj
= δjk ,
(9.12)
perci` o la variazione della i-esima coordinata per rotazioni attorno al k-esimo asse `e δ k xi = εijl δjk xl = εkli xl .
(9.13)
La carica di Noether conservata quando vi `e invarianza rispetto a tale rotazione `e quindi data da Qk =
∂L k i δ x = pi εikl xl = εkli xl pi = Lk ∂ x˙ i
(9.14)
con Lk = εkij xi pj ,
(9.15)
cio`e il consueto momento angolare classico.
9.1.2
Il caso quantistico: generatore delle rotazioni
#ˆ» Verifichiamo ora che che l’operatore L Eq. (8.116) `e proprio il generatore delle rotazioni a meno di un fattore ~. Questo significa verificare che l’operatore #» #» #ˆ» ˆ ˆ = ei n#»~· L = I + i n · L + O(2 ), R ~
(9.16)
i cui elementi di matrice nella base delle coordinate sono ˆ |ψi = 1 + εijk ni xj ∂k ψ( #» h #» x |R x ) + O(2 )
(9.17)
9.2 Propriet` a del momento angolare
147
realizza una rotazione, ossia ha la propriet` a che ˆ |ψi = ψ( #» h #» x |R x + δ(n) #» x ),
(9.18)
dove #» x + δ(n) #» x `e il vettore #» x trasformato sotto una rotazione infinitesima di attorno all’asse #» n , secondo la Eq. (9.10-9.11). Calcoliamo il membro di destra della Eq. (9.18): #» ψ( #» x + δ(n) #» x ) = ψ( #» x ) + δ(n) #» x · ∇ψ( #» x ) + O(2 ).
(9.19)
Ricordando la forma Eq. (9.11) di δ(n) #» x si ha ψ( #» x + δ(n) #» x ) = εijl nj xl ∂i ψ( #» x ) + O(2 )
(9.20)
che coincide appunto con la Eq. (9.17).
9.2 9.2.1
Propriet` a del momento angolare Ordinamento
La definizione dell’operatore momento angolare Eq. (8.116) non dipende dall’ordinamento: infatti εijk x ˆj pˆk = εijk pˆk x ˆj + [ˆ xj , pˆk ] = εijk pˆk x ˆj + i~δ kj = εijk pˆk x ˆj . (9.21) Questo implica in particolare che il momento angolare `e hermitiano, infatti ˆ i )† = εijk pˆk x (L ˆj = εijk x ˆj pˆk .
9.2.2
(9.22)
Espressione esplicita in coordinate sferiche
Le espressioni esplicite delle tre componenti del momento angolare in coordinate sferiche si possono determinare dalla definizione, con il risultato cos ϑ ∂ ∂ ˆ + cos ϕ (9.23) Lx = i~ sin ϕ ∂ϑ sin ϑ ∂ϕ ˆ y = i~ − cos ϕ ∂ + cos ϑ sin ϕ ∂ L (9.24) ∂ϑ sin ϑ ∂ϕ ˆ z = −i~ ∂ . L (9.25) ∂ϕ Solo la terza componente, che genera rotazioni dell’angolo azimutale, ha un’espressione semplice. Diamo per completezza anche l’espressione del quadrato del momento angolare 2 ∂ cos ϑ ∂ 1 ∂2 #ˆ»2 2 L = −~ + + . (9.26) ∂ϑ2 sin ϑ ∂ϑ sin2 ϑ ∂ϕ2
9.2.3
Relazioni di commutazione
Per un sistema invariante per rotazioni, il momento angolare commuta con l’hamiltoniana. Tuttavia, le diverse componenti del momento angolare non commutano tra loro. Si ha infatti che ˆi, L ˆ j ] = [εiab x [L ˆa pˆb , εjlm x ˆl pˆm ] = εiab εjlm [ˆ xa pˆb , x ˆl pˆm ] = εiab εjlm x ˆl [ˆ xa , pˆm ]ˆ pb + x ˆa [ˆ pb , x ˆl ]ˆ pm = εiab εjlm (i~δ am x ˆl pˆb − i~δ bl x ˆa pˆm ) = i~(εbia εjla x ˆl pˆb − εiab εmjb x ˆa pˆm ) ˆ» · #p ˆ»δ ij − x ˆ» · #p ˆ»δ ij ) = i~[(δ bj δ il − δ bl δ ij )ˆ xl pˆb − (δ im δ aj − δ ij δ am )ˆ xa pˆm ] = i~(ˆ xi pˆj − #x ˆj pˆi + #x = i~(ˆ xi pˆj − x ˆj pˆi ).
(9.27)
148
Il momento angolare
Dove abbiamo fatto uso dell’identit` a Eq. (8.104). Notiamo inoltre che ˆk, x ˆi pˆj − x ˆj pˆi = εijk L
(9.28)
ˆ k = εijk εkab x εijk L ˆa pˆb = εijk εabk x ˆa pˆb = (δia δjb − δib δja )ˆ xa pˆb = x ˆi pˆj − x ˆj pˆi .
(9.29)
infatti
Di conseguenza ˆi, L ˆ j ] = i~εijk L ˆk. [L
(9.30)
Notiamo, confrontando con la Eq. (9.11), che il membro destro del commutatore `e pari alla variazione di un vettore sotto una rotazione attorno all’i-esimo asse. D’altra parte, abbiamo visto che Li `e il generatore delle rotazioni, e sappiamo (si ricordi l’Eq. (3.70) che il commutatore di un generatore di una trasformazione con un operatore fornisce la variazione dell’operatore sotto la trasformazione stessa. Quindi, possiamo interpretare il commutatore Eq. (9.30) come la variazione dell’operatore Lj sotto una trasformazione generata da Li . Il fatto che questa variazione sia eguale a quella di un vettore sotto una rotazione ci dice che il momento angolare sotto rotazioni si trasforma come un vettore. #ˆ» Questo suggerisce immediatamente che invece il modulo di L sia invariante sotto rotazioni, e quindi i ˆ , come `e facile verificare esplicitamente: commuti con ciascuna delle componenti L #ˆ»2 ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ [L , L i ] = Lk [Lk , Li ] + [Lk , Li ]Lk = i~Lk εkij Lj + i~εkij Lj Lk = i~εkij (Lk Lj + Lj Lk ) = 0.
9.3
(9.31)
Lo spettro del momento angolare
Poich´e le componenti del momento angolare non commutano fra di loro, non possono essere diagonalizzate simultaneamente. Possiamo tuttavia diagonalizzare simultaneamente una delle componenti del momento angolare ed il momento angolare totale. Convenzionalmente si sceglie di diagonalizzare la terza comˆ z , essenzialmente per la semplicit´a della sua espressione in coordinate ponente del momento angolare L sferiche Eq. (9.23). Come in altri casi gi` a studiati (ad esempio l’oscillatore armonico) `e possibile determinare lo spettro sia usando la rappresentazione esplicita degli operatori nella base delle coordinate, sia sfruttando le relazioni di commutazione. Utilizziamo questo secondo metodo, non solo per la sua semplicit` a, ma anche perch´e, come vedremo, ci permetter`a di studiare una classe pi` u ampia di autofunzioni del momento angolare di quelle che si ottengono dalla rappresentazione nella base delle coordinate. Determiniamo quindi lo spettro di autofunzioni comuni ad L2 ed Lz (d’ora in poi ometteremo l’indicazione esplicita che si tratti di operatori, e che L2 `e il modulo quadro di un vettore), ossia gli stati |` mi tali che Lz |` mi = ~m|` mi
(9.32)
L2 |` mi = λ` |` mi,
(9.33)
dove il fattore ~ nella definizione dell’autovalore di Lz `e stato introdotto per futura comodit`a, e ` `e un indice che numera le autofunzioni di L2 . Supponiamo che gli stati siano normalizzati in senso proprio come hλ`0 m0 |λ` mi = δ`0 ` δm0 m .
(9.34)
Che una normalizzazione in senso proprio sia possibile si pu`o dedurre dal fatto che gli operatori di momento angolare, visti come operatori differenziali, agiscono su un dominio compatto: l’insieme di valori possibili per le variabili angolari, o, equivalentemente, la superficie di una sfera di fisso raggio.
9.3 Lo spettro del momento angolare
9.3.1
149
Costruzione dello spettro
Introduciamo gli operatori L± = Lx ± iLy ,
(9.35)
che commutano con il momento angolare totale: [L2 , L± ] = 0.
(9.36)
[Lz , L± ] = [Lz , Lx ] ± i[Lz , Ly ] = ±~(Lx ± iLy ) = ±~L±
(9.37)
[L+ , L− ] = [Lx + iLy , Lx − iLy ] = 2~Lz .
(9.38)
Osserviamo che
e inoltre
La Eq. (9.37) implica immediatamente che L± sono operatori di innalzamento ed abbassamento per lo spettro di Lz : ossia, dato uno stato |` mi, autostato simultaneo di L2 e Lz , gli stati L± |` mi sono autostati di Lz con autovalore rispettivamente abbassato od aumentato di una unit`a. Infatti Lz (L± |` mi) = L± Lz |` mi ± ~L± |` mi = ~(m ± 1)L± |` mi.
(9.39)
Inoltre, la Eq. (9.36) implica che gli stati L± |` mi continuano ad essere autostati di L2 associati allo stesso autovalore `. Osserviamo ora che la serie di stati che si ottengono per azione di questi operatori di innalzamento ed abbassamento `e necessariamente limitata. Infatti L+ = (L− )†
(9.40)
hψ|L+ L− |ψi ≥ 0
(9.41)
hψ|L− L+ |ψi ≥ 0,
(9.42)
per cui
come si vede dal fatto che se si definisce |ϕi ≡ L+ |ψi, allora hϕ| = hψ|L− , e quindi le Eq. (9.41,9.42) sono norme di vettori. D’altra parte, L+ L− = (Lx + iLy )(Lx − iLy ) = L2x + L2y − i[Lx , Ly ] = L2 − L2z + ~Lz L− L+ = (Lx − iLy )(Lx + iLy ) = L2x + L2y + i[Lx , Ly ] = L2 − L2z − ~Lz . Combinando queste due relazioni arriviamo al risultato che ci interessa: L+ L− + L− L+ |` mi = (λ` − ~2 m2 ), h` m|(L2 − L2z )|` mi = h` m| 2
(9.43)
(9.44)
avendo supposto gli stati normalizzati ad uno, secondo la Eq. (9.34). Quindi le condizioni Eq. (9.41-9.42) implicano (λ` − ~2 m2 ) ≥ 0.
(9.45)
Ne segue inevitabilmente che, per fisso λ` , m non pu`o aumentare o diminuire indefinitamente senza violare la Eq. (9.45). Devono perci` o esistere due stati |` mmax i e |` mmin i tali che L+ |` mmax i = 0,
L− |` mmin i = 0.
(9.46)
150
Il momento angolare
Imponendo che la serie di stati termini sia superiormente che inferiormente, i valori ammessi di λ` e m sono determinati univocamente. Infatti, possiamo riscrivere la coppia di relazioni Eq. (9.46) come L− L+ |` mmax i = 0,
L+ L− |` mmin i = 0,
(9.47)
che, utilizzando le Eq. (9.43) forniscono la coppia di condizioni 0 = (L2 − L2z − ~Lz )|` mmax i = (λ` − ~2 m2max − ~2 mmax )|` mmax i 0 = (L2 − L2z + ~Lz )|` mmin i = (λ` − ~2 m2min + ~2 mmin )|` mmin i.
(9.48)
Sostituendo una equazione nell’altra otteniamo ~2 mmax (mmax + 1) − ~2 mmin (mmin − 1) = 0
(9.49)
m2max + mmax − m2min + mmin = 0.
(9.50)
e quindi
La soluzione di questa equazione di secondo grado `e mmax =
−1 ± (2mmin − 1) . 2
(9.51)
L’unica soluzione accettabile `e mmax = −mmin .
(9.52)
Ma ovviamente mmax = mmin + N,
N ∈ N,
(9.53)
quindi mmax =
N . 2
(9.54)
Ne concludiamo che gli autovalori m sono interi o seminteri. Inoltre fissato mmax la Eq. (9.48) implica λ` = ~2 mmax (mmax + 1),
(9.55)
e quindi definendo `≡
N 2
λ` = ~2 `(` + 1).
(9.56)
(9.57)
Abbiamo quindi determinato l’insieme degli autovalori possibili:
con ` =
N 2,
L2 |` mi = ~2 `(` + 1)|` mi
(9.58)
Lz |` mi = ~m|` mi,
(9.59)
N ∈ N e −` ≤ m ≤ `. Gli stati sono ortonormalizzati come h`0 m0 |`mi = δ``0 δmm0 .
(9.60)
9.3 Lo spettro del momento angolare
151
Possiamo costruire tutti gli stati per azione degli operatori di innalzamento ed abbassamento, con la normalizzazione fissata da L+ L− |` mi = ~2 (`(` + 1) − m(m − 1))|` mi L− L+ |` mi = ~2 (`(` + 1) − m(m + 1))|` mi,
(9.61)
dimodoch`e se h` m|` mi = 1 allora anche 1 L+ |` mi |` m + 1i = p ~ `(` + 1) − m(m + 1)
(9.62)
`e normalizzato come h` m + 1|` m + 1i. Analogamente 1 |` m − 1i = p L− |` mi ~ `(` + 1) − m(m − 1)
9.3.2
(9.63)
Autofunzioni nella base delle coordinate
Avendo costruito lo spettro partendo dalle relazioni di commutazione, possiamo determinare la forma esplicita delle autofunzioni in una specifica rappresentazione. Per prima cosa, studiamo la base delle coordinate. In tal caso, ricordiamo che gli operatori di momento angolare sono operatori differenziali, la cui forma esplicita in coordinate sferiche `e stata data nelle Eq. (9.23-9.25). In coordinate sferiche, le autofunzioni sono quindi funzioni degli angoli ϑ e ϕ: hϑ ϕ|` mi = Y`,m (ϑ, ϕ).
(9.64)
Usando la Eq. (9.25) l’equazione agli autovalori per la terza componente del momento angolare hϑ ϕ|Lz |` mi = ~mhϑ ϕ|` mi
(9.65)
diventa l’equazione differenziale ∂ Y`,m (ϑ, ϕ) = ~mY`,m (ϑ, ϕ). ∂ϕ
(9.66)
Y`,m (ϑ, ϕ) = eimϕ N`,m P`,m (cos ϑ).
(9.67)
−i~ La soluzione `e banale:
Le funzioni Y`,m (ϑ, ϕ) sono dette armoniche sferiche. Possiamo costruire esplicitamente le armoniche sferiche senza risolvere l’equazione agli autovalori per L2 (che `e un’equazione a derivate parziali del second’ordine), ma utilizzando invece la condizione hϑ ϕ|L− |` mmin i = 0
(Lx − iLy )Y`,−` (ϑ, ϕ) = 0,
(9.68)
che `e del primo ordine, in analogia a quanto si `e fatto quando si `e costruito lo stato fondamentale dell’oscillatore armonico nella base delle coordinate. Ricordando l’espressione Eq. (9.23-9.24) di Lx e Ly in coordinate sferiche si ha ∂ cos ϑ ∂ ∂ cos ϑ ∂ −iϕ L− = ~ (i sin ϕ − cos ϕ) + (i cos ϕ − sin ϕ) = ~e − +i . (9.69) ∂ϑ sin ϑ ∂ϕ ∂ϑ sin ϑ ∂ϕ Ricordando la forma esplicita Eq. (9.67) si vede immediatamente che il prefattore e−iϕ nell’espressione dell’operatore di abbassamento fa s`ı che esso abbassi di un’unit`a l’autovalore m di Lz . La condizione Eq. (9.68) corrisponde quindi all’equazione differenziale del primo ordine ∂ ∂ −iϕ ~e − + i cot ϑ Y`,−` (ϑ, ϕ) = 0 (9.70) ∂ϑ ∂ϕ
152
Il momento angolare
ossia ∂ + ` cot ϑ e−iϕ` P`,−` (cos ϑ) = 0. − ∂ϑ
(9.71)
∂ P`,−` (cos ϑ) = cot ϑ `P`,−` (cos ϑ). ∂ϑ
(9.72)
∂ sin ϑ ∂ ∂ ∂ = = cos ϑ . ∂ϑ ∂ϑ ∂ sin ϑ ∂ sin ϑ
(9.73)
Possiamo scrivere di conseguenza
Notiamo poi che
Possiamo quindi riscrivere l’equazione differenziale come: ∂ ` P`,−` (cos ϑ) = P`,−` (cos ϑ) ∂ sin ϑ sin ϑ
(9.74)
d sin ϑ dP`,−` (cos ϑ) =` P`,−` (cos ϑ) sin ϑ
(9.75)
P`,−` = (sin ϑ)` .
(9.76)
Y`,−` (ϑ, ϕ) = e−i`ϕ (sin ϑ)` N`,−` .
(9.77)
vale a dire
da cui segue
Di conseguenza
Tutte le altre armoniche sferiche si possono ottenere per azione dell’operatore di innalzamento. Per esempio ∂ Y`,−`+1 = KL+ Y`,−` = Keiϕ − − cot ϑ ` e−i`ϕ (sin ϑ)` N`,−` , (9.78) ∂ϑ dove K `e un’opportuna costante di normalizzazione, e cos`ı via. Vediamo quindi che le armoniche sferiche sono polinomi in sin ϑ e cos ϑ. In particolare P`,−` P`,−`+1 .. .
∼ (sin ϑ)` ∼ (sin ϑ)`−1 cos ϑ
P`,0 .. .
∼
(cos ϑ)` .
P`,`
∼
(sin ϑ)` .
(9.79)
Le armoniche sferiche Eq. (9.67) sono una base ortonormale completa per lo spazio delle funzioni definite sulla sfera. Questo significa che per le armoniche sferiche valgono le relazioni di ortonormalit` a Eq. (9.60) sotto integrazione sulla sfera Z Z 0 0 dΩ h` m |ϑϕihϑϕ|`mi = d cos θdφ Y`∗0 ,m0 (ϑ, ϕ)Y`,m (ϑ, ϕ) = δ``0 δmm0 , (9.80) e la relazione di completezza X `m
|` mih` m| = I
(9.81)
9.4 Lo spin
153
sulla sfera, cio`e X X ∗ hϑ ϕ|` mih` m|ϑ0 ϕ0 i = Y`,m (ϑ0 , ϕ0 )Y`,m (ϑ, ϕ) = δ(cos ϑ − cos ϑ0 )δ(ϕ − ϕ0 ). `m
(9.82)
`m
Quando m = 0 le armoniche sferiche non dipendono da ϕ, e coincidono con P`,0 (cos ϑ), a meno della normalizzazione. Le P`,0 (cos ϑ) a loro volta sono polinomi in cos θ. I polinomi corrispondenti al caso m = 0, ossia le P`,0 (ϑ) possono essere scritti come polinomi in cos ϑ, P`,0 (cos ϑ). Inoltre, la Eq. (9.67) implica che quando m = 0 le armoniche sferiche non dipendono da ϕ, e coincidono con P`,0 (cos ϑ), a meno della normalizzazione. Ne segue che in tal caso le condizioni di ortonormalit`a Eq. (9.80) e completezza Eq. (9.82) diventano rispettivamente Z Z 0 dΩ h` 0|ϑϕihϑϕ|`0i = 2π d cos θ|N`,0 |2 P`∗0 ,0 (cos ϑ)P`,0 (cos ϑ) = δ``0 (9.83) e X X ∗ hϑ|` 0ih` 0|ϑ0 i = |N`,0 |2 P`,0 (cos ϑ0 )P`,0 (cos ϑ) = δ(cos ϑ − cos ϑ0 ). `
(9.84)
`
I polinomi P`,0 (cos ϑ) sono cio´e una base ortonormale completa sul cerchio. Essi sono noti come polinomi di Legendre, e possono essere equivalentemente visti come un sistema ortonormale completo sul segmento cos ϑ ∈ (−1, 1). Possiamo chiederci su che valori deve correre la somma su `, m affinch´e la Eq. (9.82) sia vera. Abbiamo visto che dal punto di vista algebrico, tutti i valori interi o semi-interi di ` sono ammissibili, mentre m prende i 2` + 1 valori −` ≤ m ≤ `: di conseguenza se ` `e semintero anche m `e semintero. Ora, se imponiamo che la funzione d’onda sia monodroma, essa deve soddisfare la condizione al contorno Y`,m (ϑ, ϕ + 2π) = Y`,m (ϑ, ϕ).
(9.85)
Ma se ` e quindi m sono semi-interi, quando si confronta il valore dell’autofunzione in π con quello in φ + 2π il fattore di fase nella Eq. (9.67) vale eim(ϕ+2π) = −1.
(9.86)
Pertanto, imponendo che sia soddisfatta la condizione al contorno Eq.(9.85) i valori semi-interi di m e quindi di ` sono proibiti. Che la Eq. (9.82) valga quando la somma corre su tutti i valori interi di ` pu` o naturalmente essere dimostrato con il calcolo esplicito. Il momento angolare realizzato su funzioni monodrome nella base delle coordinate `e detto momento angolare orbitale.
9.4
Lo spin
Ci si pu` o quindi chiedere se gli stati con ` semintero abbiano un significato fisico. A questo fine, ricordiamo che abbiamo introdotto il momento angolare studiando la trasformazione del vettore di stato del sistema sotto rotazioni. Quindi, il modo pi` u generale per realizzare il momento angolare si ottiene chiedendosi quale sia il modo pi` u generale per realizzare le rotazioni. Finora, abbiamo considerato la possibilit`a di avere funzioni d’onda h #» x |ψi = ψ( #» x ), e abbiamo identificato il momento angolare studiando le realizzazioni dell’operatore di rotazione su un autostato della posizione | #» x i. Abbiamo quindi realizzato il momento angolare su uno spazio infinito-dimensionale, in cui le rotazioni agiscono ruotando le coordinate. Tuttavia, anche classicamente, possiamo considerare un’altra classe di sistemi che si trasformano sotto rotazioni: si tratta di tutti i sistemi fisici il cui stato contiene l’informazione su una direzione nello spazio, come ad esempio i sistemi rappresentati da variabili vettoriali. Come semplice esempio possiamo pensare alla direzione del vento in un punto: la direzione in cui punta la direzione del vento `e un vettore sul quale le rotazioni possono agire. Se cambiamo il sistema di coordinate la direzione del vento cambier`a nel senso che le coordinate che corrispondono ad una certa
154
Il momento angolare
direzione del vento fissata cambieranno. Tale cambiamento `e diverso dal cambiamento di posizione. Una cosa sono le coordinate di un certo punto che a loro volta sono soggette a rotazioni, una cosa diversa `e #» #» la direzione del vento in quel punto. Un altro esempio `e un campo elettrico classico E = E( #» x ). Esso #» dipende dalla coordinata x e quindi le rotazioni possono agire sulla coordinata del punto in cui noi diamo il campo elettrico. Tuttavia il campo elettrico `e una campo vettoriale; se consideriamo come si trasforma il campo sotto rotazioni dobbiamo ricordarci del fatto che si trasforma non solo perch´e si trasforma la coordinata sotto rotazioni ma perch´e cambia anche la direzione del vettore. Se consideriamo poi la ro#» tazione del campo elettrico nel punto #» x = 0 otteniamo una rotazione del vettore che per`o non cambia la coordinata. Nei sistemi classici e di conseguenza anche in sistemi quantistici possiamo pensare di realizzare le rotazioni in due modi diversi: sullo spazio delle coordinate ma anche sullo spazio che corrisponde ad un indice portato dalla quantit` a di cui stiamo parlando; se la quantit`a di cui stiamo parlando `e un vettore, possiamo studiare l’azione delle rotazioni su tale vettore. In quest’ultimo caso, stiamo considerando l’azione delle rotazioni su sistemi che hanno dimensione finita, la cui base consiste in un numero finito di stati
9.4.1
Spin uno
Per costruire un primo esempio di sistema in cui le rotazioni si realizzano sugli stati, consideriamo un sistema tripartito, cio`e su cui pu` o essere effettuata una misura che ha tre risultati possibili, corrispondenti agli stati |1i, |2i e |3i. Con un leggero abuso di notazione scriviamo questi stati di base come vettori: 0 0 1 (9.87) |1i = 0 ; |2i = 1 ; |3i = 0 . 0 1 0 Strettamente parlando questo `e un abiuso di notazione perch´e la notazione di Dirac non comporta una scelta di base, mentre la rappresentazione vettoriale s`ı: essa value appunto avento scelto i tra stati dati come vettori di base. Tuttavia in questa sezione useremo sempre questa particolare scelta di base. Lo stato generico |vi si pu` o scrivere in notazione vettoriale come c1 |vi = c1 |1i + c2 |2i + c3 |3i = c2 , (9.88) c3 dove naturalmente ci sono numeri complessi, |c1 |2 + |c2 |2 + |c3 |2 `e fissato per normalizzazione, e la fase complessiva `e inosservabile. Possiamo definire un momento angolare su questo spazio di stati se supponiamo che i tre stati di base possano agire le rotazioni. Questa naturalmente `e un’ipotesi fisica: per esempio, i tre stati potrebbero corrispondere a tre possibili direzioni in cui pu`o puntare una variabile vettoriale. Le rotazioni in tal caso corrispondono semplicemente ad un cambiamento del sistema di riferimento in cui esprimiamo queste direzioni. In tal caso, gli stati si trasformano sotto rotazioni come vettori in uno spazio tridimensionale. Costruiamo quindi il generatore della trasformazione infinitesima, ed in termini di esso costruiamo l’operatore momento angolare. Consideriamo dapprima il caso particolare dello stato cos ϕ #» (9.89) v = sin ϕ 0 e studiamo l’effetto su di esso di una rotazione infinitesima attorno all’asse z. Si ha: cos(ϕ + ) cos ϕ − sin ϕ #» #» v 0 = R(z) v = sin(ϕ + ) = sin ϕ + cos ϕ + O(2 ). 0 0
(9.90)
9.4 Lo spin
155
Vogliamo vedere ci` o come ottenuto dall’azione di un generatore: i 0 2 #» v = I − Lz + O( ) #» v. ~
(9.91)
Notiamo che il segno nella Eq. (9.91) `e coerente con quello della definizione del momento angolare orbitale: infatti le Eq. (9.16-9.17) possono essere riscritte come i (9.92) ψ( #» x 0 ) = h #» x 0 |ψi = h #» x | I + Lz |ψi, ~ che implica che la quantit` a sottoposta a rotazioni `e il bra h #» x 0 |. Si ha perci`o: i 0 #» #» h x | = h x | I + Lz , ~
(9.93)
ossia | #» x 0i =
i I + Lz ~
†
| #» xi =
i I − Lz | #» x i, ~
(9.94)
coerentemente con la Eq. (9.91). Abbiamo quindi
− sin ϕ 0 δ #» v = #» v 0 − #» v = cos ϕ = − −1 0 0
1 0 cos ϕ 0 0 sin ϕ . 0 0 0
(9.95)
Possiamo perci` o identificare Lz come:
0 Lz = −i~ −1 0
1 0 0 0 . 0 0
(9.96)
Il generatore `e una matrice 3 × 3 che possiamo scrivere come (Lz )ij = hi|Lz |ji. Possiamo generalizzare l’argomento scrivendo l’azione di una rotazione sullo stato generico nella forma cos − sin 0 v |v 0 i = R(z) |vi = sin cos 0 #» 0 0 0 1 + O(2 ) − + O(2 ) 0 0 1 0 = + O(2 ) 1 + O(2 ) 0 #» v = I − −1 0 0 #» v. (9.97) 0 0 0 0 0 0 Vediamo cos`ı che il risultato non dipende dalla forma particolare dello stato |vi, e segue dall’ipotesi che sotto rotazioni lo stato si trasformi secondo le consuete matrici di rotazione. Analogamente, i generatori delle rotazioni attorno agli altri due assi sono le matrici: 0 0 0 0 0 −1 Lx = −i~ 0 0 1 Ly = −i~ 0 0 0 . (9.98) 0 −1 0 1 0 0 Possiamo quindi in scrivere (Lz )ij come (Lz )ij = −i~εzij ,
(9.99)
(Lk )ij = −i~εkij .
(9.100)
e, in generale,
156
Il momento angolare
Possiamo verificare esplicitamente che gli operatori Eq. (9.100) cos`ı costruiti soddisfino le relazioni di commutazione del momento angolare: (Li )ab (Lj )bc − (Lj )ab (Li )bc = −~2 (εiab εcjb − εjab εcib ) = −~2 (δ ic δ aj − δ ij δ ac − δ jc δ ai + δ ji δ ac ) = −~2 (δ ic δ aj − δ jc δ ai ).
(9.101)
D’altra parte i~εijk (Lk )ac = i~εijk (−i~)εkac = −~2 εijk εcak = −~2 (δ ic δ aj − δ jc δ ai ),
(9.102)
e quindi il commutatore Eq. (9.30) `e riprodotto. Determiniamo ora gli autovalori e autovettori degli operatori di momento angolare appena definiti. Possiamo diagonalizzare simultaneamente L2 e Lz , poich´e valgono le usuali relazioni di commutazione. Per prima cosa determiniamo l’autovalore di L2 . Usando l’espressione esplicita degli operatori si trova 0 0 0 −1 0 0 −1 0 0 (9.103) L2x = −~2 0 −1 0 L2y = −~2 0 0 0 L2z = −~2 0 −1 0 0 0 −1 0 0 −1 0 0 0 e quindi
1 L2 = L2x + L2y + L2z = 2~2 0 0
0 1 0
0 0 = 2~2 I. 1
(9.104)
Gli autovettori di questa matrice sono tutti i vettori dello spazio: infatti la matrice identit`a applicata ad ogni vettore d` a il vettore stesso L2 |vi = 2~2 |vi.
(9.105)
Poich´e l’autovalore di L2 in generale `e uguale a ~2 `(` + 1) si ottiene `(` + 1) = 2 e quindi ` = 1. Abbiamo quindi scoperto che la realizzazione del momento angolare che abbiamo costruito corrisponde all’insieme di stati con momento angolare pari ad uno. Qualunque stato in questo spazio ha ` = 1. Uno stato di questo tipo viene chiamato stato di spin uno. La dimensione dello spazio `e data dal numero dei possibili valori di m, che deve variare in passi interi da -1 a 1. I valori di m permessi sono (−` ≤ m ≤ `) 1, 0 e -1. Ci` o spiega perch`e lo spazio sia tridimensionale: lo spazio degli stati fisici per un sistema di spin uno ha dimensione tre, poich´e il pi` u generale stato `e la sovrapposizione dei tre autostati con autovalori 1, 0 e -1 di una delle componenti del momento angolare. Possiamo determinare esplicitamente la forma degli autovettori, ovvero dei vettori #» v + , #» v − e #» v 0 tali che Lz #» v ± = ±~ L #» v = 0. z
(9.106) (9.107)
0
Si verifica facilmente che gli autovettori sono 1 1 #» v ± = √ ±i ; 2 0
0 #» v0 = 0 . 1
(9.108)
Notiamo che i vettori #» v ± corrispondono ai vettori di polarizzazione circolare noti dall’elettromagnetismo classico. Osserviamo in conclusione che le rotazioni , che abbiamo usato per definire il momento angolare, possono essere viste come un cambiamento di base sullo stato degli stati fisici, ma non sono il pi` u generale cambiamento di base. Questo `e dovuto al fatto che il generico vettore nello spazio degli stati fisici ha componenti complesse, e quindi il pi` u generale cambiamento di base `e dato da una trasformazione untiaria, mentre le rotazioni sono date da matrici a componenti reali, e quinei ortogonali, in quanto una matrice
9.4 Lo spin
157
unitaria reale `e ortogonale. Per esempio, potremmo scegliere di utilizzare i tre vettori Eq. (9.108) come vettori di base. La base da cui siamo partiti Eq. (9.87) `e solitamente chiamata base cartesiana, mentre i tre vettori di cui le Eq. (9.108) forniscono le componenti in base cartsiana costituiscono la base sferica. Il passaggio dalla base cartesiana alla base sferica `e manifestamente realizzato da una trasformazione unitaria che non `e una rotazione.
9.4.2
Spin
1 2
Possiamo ora costruire uno spazio con spin 12 . Per un sistema di 12 i possibili valori per la terza componente sono 12 e − 12 : si tratta quindi di un sistema bipartito. Lo spazio degli stati fisici `e lo spazio delle sovrapposizioni degli stati | 12 12 i e | 21 − 12 i. La notazione per i due stati pu`o essere semplificata ulteriormente scrivendo semplicemente |+i e |−i. Il pi` u generale stato fisico pu` o essere espresso come combinazione lineare dei due stati di base |±i: |ψi = c+ |+i + c− |−i, e pu` o essere equivalentemente rappresentato come un vettore colonna a due componenti complesse, detto spinore, rappresentano i due stati di base come 1 0 u+ = ; u− = , (9.109) 0 1 sicch´e lo stato generico `e u=
h+|ψi h−|ψi
c+ c−
=
.
(9.110)
Vogliamo ora vedere come si rappresentino gli operatori di momento angolare sulla base degli stati Eq. (9.110). Partiamo dall’osservazione che la terza componente dello spin sz `e diagonale sugli stati dati, cio`e ~ sz |±i = ± |±i, 2
(9.111)
e quindi h±|sz |±i =
~ 2
1 0
0 . −1
(9.112)
Possiamo quindi costruire gli operatori sx e sy . Per fare ci`o ci serviamo degli operatori di innalzamento e abbassamento che nel caso specifico sono: s± = sx ± isy .
(9.113)
Poich´e la loro azione `e di alzare ed abbassare l’autovalore sz si ha |+i = N+ s+ |−i.
(9.114a)
|−i = N− s− |+i.
(9.114b)
La normalizzazione si calcola ricordando le Eq. (9.62-9.63), da cui N+ = p N− = p In particolare nel caso spin
1 2
1 ~2 (`(`
+ 1) − m(m + 1)) 1
~2 (`(` + 1) − m(m − 1))
(9.115) .
(9.116)
si ha N+ = N− = ~,
(9.117)
158
Il momento angolare
e quindi s+ |−i = ~|+i
(9.118)
s− |+i = ~|−i.
(9.119)
Otteniamo infine gli elementi di matrice degli operatori sx e sy esprimendoli in termini di operatori di innalzamento e abbassamento 1 1 sx = (s+ + s− ), sy = (s+ − s− ). (9.120) 2 2i Visto che nella base degli stati |±i 0 1 0 0 h±|s+ |±i = ~ ; h±|s− |±i = ~ (9.121) 0 0 1 0 si ha sx = Gli operatori di spin
1 2
~ 2
0 1
1 0
;
sy =
~ 2
0 i
−i 0
.
(9.122)
possono quindi essere scritti come si =
~ σi , 2
(9.123)
dove σi sono le matrici di Pauli. Ricordando le relazioni tra le matrici di Pauli σi σj = iεijk σk ,
σi σj = −σj σi ,
σk2 = I.
(9.124)
`e immediato verificare le relazioni di commutazione ~2 ~ (σi σj − σj σi ) = i~εijk σk = i~εijk sk . 4 2 L’operatore spin totale infine `e uguale a ~2 3 1 1 s2 = s2x + s2y + s2z = 3I = ~2 I = ~2 + 1 I, 4 4 2 2 [si , sj ] =
(9.125)
(9.126)
coerentemente con il fatto che lo spazio degli stati fisici `e lo spazio degli autostati dello spin totale associato a spin totale uguale a 12 , dimodoch´e tutti gli stati del sistema sono suoi autostati associati allo stesso autovalore 3 (9.127) s2 |ψi = ~2 |ψi. 4 Gli stati di spin semi-intero hanno un comportamento peculiare sotto rotazioni. Consideriamo infatti uno stato |ψi = c+ |+i + c− |−i e compiamo una rotazione di 2π di tale stato attorno all’asse z: Rz2π |ψi = e−iπσz c+ |+i + c− |−i , (9.128) ma |±i sono autostati di σz , e quindi Rz2π |ψi = c+ e−iπ |+i + c− eiπ |−i = −|ψi. ◦
(9.129)
Questo significa che ruotando il sistema di 360 uno stato di spin semi-intero ritorna in meno s´e stesso. Questo impedisce di rappresentare il vettore di stato di un sistema di spin semi-intero come una funzione d’onda sullo spazio delle coordinate, ma non viola alcun principio fondamentale, ed anzi d`a luogo ad effetti sperimentalmente osservabili: per esempio, la funzione d’onda del sistema di partenza e di quello ruotato possono essere fatte interferire fra di loro. Notiamo in conclusione che in tutta questa discussione dei sistemi di spin 21 abbiamo scelto di rappresentare i vettori di stato come spinori Eq. (9.110), cio`e in termini di autostati della terza componente del momento angolare, ossia in una base che `e l’analogo della base sferica Eq. (9.108) vista nel caso di spin uno.
9.5 Composizione di momenti angolari
9.5 9.5.1
159
Composizione di momenti angolari Sistemi con momento angolare orbitale e spin
Possiamo considerare sistemi fisici che portano sia momento angolare orbitale che spin: gli elettroni ed i nuclei atomici sono esempi di sistemi di questo tipo. La funzione d’onda per un sistema siffatto pu` o essere scritta come h #» x |ψi =
s X X
h #» x |` m sz ihsz ` m|ψi =
`m sz =−s
Nel caso particolare di spin
X
z Y`,m (ϑ, ϕ)usz cs`m (r).
(9.130)
`msz
1 2
possiamo scrivere la funzione d’onda di spin come uno spinore Eq. (9.109,9.110): X X 1 0 1 −1 2 (r) + Y`,m (ϑ, ϕ) h #» x |ψi = Y`,m (ϑ, ϕ) c`m2 (r) c`m 1 0 `m `m ! 1 P 1 2 ψ 2 (r, ϑ, ϕ) `m Y`,m (ϑ, ϕ))c`m (r) = = . (9.131) 1 1 P − ψ − 2 (r, ϑ, ϕ) Y`,m (ϑ, ϕ)c 2 (r) `m
`m
Al solito, i vettori di base sono fattorizzati, visto che lo spazio `e un prodotto diretto: hθ φ|` m sz i = hθ φ| (|` mi ⊗ |sz i) = Y`,m (ϑ, ϕ)usz ,
(9.132)
ma lo stato generico non lo `e: u( #» x) =
ψ + ( #» x) . ψ − ( #» x)
(9.133)
La densit` a di probabilit` a che una misura di posizione riveli il sistema in #» x `e il modulo quadro della funzione d’onda sommata su tutti gli spin: X ρ( #» x ) = | #» u ( #» x )|2 = |usz ( #» x )|2 , (9.134) sz =−,+
mentre la probabilit` a che una misura di spin lungo l’asse z dia come risultato ± 12 `e Z ± 21 P = d3 #» x |ψ ± ( #» x )|2 .
9.5.2
(9.135)
Coefficienti di Clebsch-Gordan e cambi di base
Se un sistema porta sia momento angolare orbitale che spin pu`o essere utile descriverne la dinamica in termini di momento angolare totale, anzich´e utilizzare separatamente il momento angolare e lo spin: la situazione tipica `e quella in cui il momento angolare e lo spin sono accoppiati fra loro. Si definisce quindi un operatore momento angolare totale #» #» #» J = S + L,
(9.136)
e se ne studiano le propriet` a. Con lo stesso formalismo `e possibile descrivere anche un sistema di due corpi, ciascuno con un suo momento angolare (orbitale o di spin), del quale si pu`o quindi considerare il momento angolare totale. Manterremo quindi per la semplicit`a la notazione Eq. (9.136), intendendo #» #» che S ed L siano generalmente due operatori di momento angolare che vivono in spazi diversi (spin e momento angolare di una stessa particella, spin oppure momenti angolari di due diverse particelle). #» #» Poich´e vivono in spazi diversi, gli operatori L e S commutano tra loro: [Li , Sj ] = 0
(9.137)
160
Il momento angolare
per ogni i, j. Le componenti dell’operatore momento angolare totale Eq. (9.136) soddisfano le regole di commutazione del momento angolare [Ji , Jj ] = i~εijk Jk ,
(9.138)
[Ji , Jj ] = [Si + Li , Sj + Lj ] = [Li , Lj ] + [Si , Sj ] = i~εijk (Lk + Sk ).
(9.139)
infatti
Ne segue quindi che [J 2 , Ji ] = 0.
(9.140)
Pertanto possiamo diagonalizzare simultaneamente J 2 e Jz . Ci chiediamo ora se sia possibile diagonalizzare simultaneamente il momento angolare totale ed i due momenti angolari che lo compongono. Osserviamo che [J 2 , L2 ] = [(L + S)2 , L2 ] = [L2 + S 2 + 2Li Si , L2 ] = 0,
(9.141)
visto che [L2 , Li ] = 0. Analogamente, [J 2 , S 2 ] = 0.
(9.142)
Si ha inoltre [Jz , L2 ] = [Lz + Sz , L2 ] = 0, 2
2
[Jz , S ] = [Lz + Sz , S ] = 0,
(9.143) (9.144)
e quindi, simultaneamente a J 2 e Jz `e possibile diagonalizzare anche S 2 e L2 . Notiamo invece che [J 2 , Lz ] = [L2 + 2Li Si + S 2 , Lz ] = 2[Li Si , Lz ] = 2[Li , Lz ]Si = 2i~εizk Lk Si 6= 0.
(9.145)
Un discorso analogo vale per il commutatore [S 2 , Sz ]. Pertanto non `e possibile diagonalizzare simultaneamente anche questi due operatori. Concludendo, se scegliamo di diagonalizzare J 2 ed una delle sue componenti possiamo anche diagonalizzare L2 ed S 2 ma non le loro singole componenti. Possiamo quindi fare due diverse scelte di base per gli stati del sistema: gli stati |j jz ` si, caratterizzati dagli autovalori degli operatori J 2 , Jz , L2 e S 2 , oppure gli stati |` s `z sz i, caratterizzati dagli autovalori degli operatori L2 , Lz , S 2 e Sz . Possiamo passare da una base all’altra attraverso una trasformazione unitaria introducendo una risoluzione dell’identit`a: X |` s `z sz i = |j jz ` sihj jz ` s|` s `z sz i (9.146) jjz
|j jz ` si =
X
|` s `z sz ih` s `z sz |j jz ` si.
(9.147)
`z sz
I coefficienti hj jz ` s|` s `z sz i e h` s `z sz |j jz ` si sono noti come coefficienti di Clebsch-Gordan. Per determinare i coefficienti di Clebsch-Gordan, dobbiamo prima capire quali sono i valori possibili di j e jz per tali ` ed s. Naturalmente, per fissi ` ed s, vi sono (2` + 1)(2s + 1) stati di base |` s `z sz i. Dobbiamo quindi capire quali valori di j e jz ci forniscono un insieme di (2` + 1)(2s + 1) stati |` s `z sz i che possiamo esprimere come combinazioni lineari di stati |` s `z sz i ottenendo cos`ı una nuova base. A tal fine, osserviamo innanzitutto che h` s sz `z |j jz ` si ∝ δjz ,`z +sz .
(9.148)
Infatti per costruzione Jz = Lz + Sz e quindi 0 = h` s sz `z |Jz − Lz − Sz |j jz ` si = (jz − `z − sz )~h` s sz `z |j jz ` si,
(9.149)
9.5 Composizione di momenti angolari
161
che implica appunto che o jz = `z + sz , oppure h` s sz `z |j jz ` si = 0. Questo significa che per ogni dato valore di jz lo stato |j jz ` si `e una combinazione lineare esclusivamente degli stati |` s sz `z i tali che jz = `z + sz . Ne segue in particolare che il massimo valore accessibile di jz `e pari alla somma dei massimi valori accessibili di `z ed sz jzmax = `max + smax , z z
(9.150)
ma `max = `, smax = s e quindi da un lato, il massimo valore possibile di j `e j = ` + s, dall’altro, lo stato z z |j = ` + s jz = j ` si pu` o essere ottenuto in un modo solo |j = ` + s jz = j ` si = |` s `z = ` sz = si.
(9.151)
Notiamo per` o che il valore jz = ` + s − 1 pu`o essere ottenuto in due modi diversi nella base |` s sz `z i, e quindi lo stato |j = ` + s jz = ` + s − 1`si `e una sovrapposizione degli stati |` s `z = ` sz = s − 1i e |` s `z = ` − 1 sz = si. Possiamo a questo punto rispondere alla domanda di partenza: quali e quanti valori di j e jz forniscono una base, attraverso un semplice conteggio degli stati. Dimostriamo infatti che se |` − s| ≤ j ≤ ` + s
(9.152)
allora il numero di stati della base |j jz ` si `e pari a (2` + 1)(2s + 1), ossia al numero di stati nella base |` s sz `z i. Si ha `+s X
(2j + 1) =
j=`−s
2s X
(2(k + ` − s) + 1)
k=0
= (1 + 2(` − s))
2s X
+2
k=0
2s X k=0
1 k = (2s + 1)(2` − 2s + 1) + 2 2s(2s + 1) = (2` + 1)(2s + 1). 2 (9.153)
Visto che gli stati |j, jz , `, si sono tutti linearmente indipendenti ed ortonormali (infatti sono associati a diversi autovalori di operatori commutanti), e possono essere scritti come combinazioni lineari degli stati |`, `z , s, sz i, essi possono essere scelti come nuovi vettori di base. Concludiamo quindi che per fissi `, s gli stati |j jz ` si forniscono una base ortonormale completa purch´e j vari nell’intervallo Eq. (9.152), con −j ≤ jz ≤ j. I coefficienti di Clebsch-Gordan possono essere a questo punto determinati per costruzione esplicita, come vediamo in un esempio esplicito.
9.5.3
Composizione di due spin
1 2
Consideriamo ora in particolare l’esempio di un sistema composto da due sottosistemi di spin esempio un sistema di due elettroni. Gli stati possibili sono quindi gli stati 1 2 1 |s1 = 2 1 |s1 = 2 1 |s1 = 2
|s1 =
1 2 1 s2 = 2 1 s2 = 2 1 s2 = 2 s2 =
1 z 1 s2 = i ≡ | + +i 2 2 1 z 1 z s1 = s2 = − i ≡ | + −i 2 2 1 z 1 z s1 = − s2 = i ≡ | − +i 2 2 1 z 1 z s1 = − s2 = − i ≡ | − −i, 2 2 sz1 =
1 2:
ad
(9.154) (9.155) (9.156) (9.157)
dove nell’ultimo passaggio si `e introdotta per semplicit`a una notazione compatta. Definiamo ora gli operatori di momento angolare totale S i = S1i + S2i ,
(9.158)
162
Il momento angolare
e costruiamo gli stati che sono autostati simultanei di S 2 , Sz , S12 ed S22 . La condizione |s1 − s2 | ≤ S ≤ s1 + s2 implica immediatamente che i valori permessi dello spin totale sono S = 0, 1. I quattro stati, nella base in cui `e diagonale lo spin totale, sono quindi i tre stati di spin uno |1 1i;
|1 0i
|1 − 1i,
(9.159)
(tripletto) e lo stato di spin zero |0 0i
(9.160)
(singoletto). Vogliamo ora determinare i coefficienti di Clebsch-Gordan. L’Eq. (9.151) implica immediatamente che |1 1i = | + +i
(9.161)
poich´e entrambi gli stati sono normalizzati a 1, e ponendo arbitrariamente ad uno la fase relativa (questa `e una scelta del tutto convenzionale). Possiamo costruire lo stato |1 0i osservando che la Eq. (9.158) implica S ± = S1± + S2± ,
(9.162)
dove S ± , S1± e S2± sono rispettivamente gli operatori di innalzamento ed abbassamento per lo spin totale e per ciascuno dei due spin. Ma combinando la Eq. (9.162) con la Eq. (9.161) si ha che S − |1 1i = (S1− + S2− )| + +i. Ricordando che per qualunque operatore di momento angolare p S − |S Sz i = ~ S(S + 1) − Sz (Sz − 1)|S Sz − 1i
(9.163)
(9.164)
troviamo subito che √ ~ 2|1 0i = ~(| − +i + | + −i)
(9.165)
1 |1 0i = √ (| − +i + | + −i). 2
(9.166)
ossia
Lo stato |1 − 1i potrebbe essere costruito agendo ancora con l’operatore di abbassamento, ma `e pi` u semplice osservare che |1 − 1i = | − −i.
(9.167)
Infine, lo stato |0 0i `e, per la Eq. (9.148) necessariamente una combinazione di | + −i e | − +i, come lo stato |1 0i. |0 0i = a| + −i + b| − +i.
(9.168)
Inoltre deve essere ortogonale a tutti gli altri autostati. In particolare h1 0|0 0i = 0.
(9.169)
1 |0 0i = √ (| − +i − | + −i), 2
(9.170)
Questo `e sufficiente a determinare
a meno di una fase arbitraria. Questo metodo pu`o essere utilizzato in generale per combinare momenti angolari: si parte dallo stato pi` u alto e poi si agisce con gli operatori di innalzamento e abbassamento.
9.5 Composizione di momenti angolari
163
Concludiamo con una osservazione. In questo esempio, siamo partiti da un sistema di due particelle aventi spin 12 , che a priori sono completamente identiche, nel senso che lo spazio degli stati fisici per i due sottosistemi `e lo stesso. Gli stati |s1z s2z i distinguono le due particelle assegnando a ciascuna delle sue un valore ben definito della terza componente dello spin. Quando per`o si passa agli autostati di spin totale |s sz i si perde l’informazione circa la singola particella: lo stato del sistema complessivo `e univocamente determinato, ma non `e pi` u possibile distinguere le due particelle. Abbiamo cio`e fabbricato un sistema collettivo, i cui stati sono simmetrici o antisimmetrici sotto lo scambio delle particelle: • |1 1i, |1 0i e |1 − 1i sono simmetriche • |0 0i `e antisimmetrica. Come vedremo pi` u avanti nel Capitolo 13, questo non `e un fatto accidentale: il fatto che la funzione d’onda di un sistema quantistico di oggetti identici sia simmetrica oppure antisimmetrica sotto scambio `e una propriet` a generale.
164
Il momento angolare
Capitolo 10
Problemi tridimensionali Abbiamo ora tutti gli strumenti per affrontare il problema della determinazione dello spettro di un’hamiltoniana tridimensionale invariante per rotazioni. Dopo una discussione generale della struttura dell’equazione di Schr¨ odinger radiale e della forma delle sue soluzioni, affronteremo due problemi tridimensionali, e cio´e l’oscillatore armonico isotropo, e l’atomo di idrogeno.
10.1
L’equazione di Schr¨ odinger radiale
Il nostro punto di partenza `e una generica hamiltoniana tridimensionale invariante per rotazione, che possiamo ad esempio pensare come il risultato di una separazione di variabili di un problema a due corpi con potenziale centrale H=
p2 L2 p2 + V (r) = r + + V (r) 2m 2m 2mr2
(10.1)
dove nell’ultimo passaggio abbiamo separato il termine cinetico in parte angolare e parte radiale secondo la Eq. (8.127), e con l’impulso radiale pr definito nella Eq. (8.125). Il nostro obiettivo `e di risolvere l’equazione agli autovalori H|ψi = E|ψi
(10.2)
sfruttando l’invarianza per rotazioni ([Li , H] = 0, V = V (r)), che implica la possibilit`a di diagonalizzare contemporaneamente gli operatori H, L2 , Lz . Poich´e le autofunzioni del momento angolare sono un insieme completo nello spazio delle funzioni sulla sfera (si ricordino le Eq. (9.81,9.82)) la richiesta che la funzione d’onda sia un’autofunzione del momento angolare, cio`e che abbia valori definiti di `, m, ne fissa completamente la dipendenza angolare. In altri termini, possiamo sempre decomporre la funzione d’onda secondo la Eq. (9.130) (di cui ora stiamo considerando il caso particolare in cui lo spin `e nullo e quindi non vi `e somma sugli spin), e se `, m sono fissi solo un termine contribuisce alla sommatoria. Una autofunzione simultanea di energia e momento angolare `e quindi fattorizzabile ψE`m ( #» x ) = Y`m (ϑ, ϕ)φE`m (r). L’equazione agli autovalori prende quindi la forma 2 pr L2 + + V (r) Y`m (ϑ, ϕ)φ(r) = EY`m (ϑ, ϕ)φE`m (r), 2m 2mr2 da cui discende immediatamente l’equazione di Schr¨odinger radiale 2 pr ~2 `(` + 1) + + V (r) φE` (r) = EφE` (r), 2m 2mr2
(10.3)
(10.4)
(10.5)
166
Problemi tridimensionali
dove abbiamo rimosso la dipendenza da m dell’autofunzione in quanto manifestamente l’autovalore di energia non dipende da m: vi sar` a quindi degenerazione 2` + 1 rispetto a m per fissi E, `. Notiamo che il problema non `e per` o separabile in senso stretto, secondo la definizione data nella Sezione 8.2.2: l’hamiltoniana non pu` o essere scritta come somma di due hamiltoniane commutanti, in quanto il termine angolare proporionale ad L2 dipende da r, che non commuta con pr . La conseguenza di questo fatto `e che bench´e le autofunzioni sono fattorizzabili secondo la Eq. (10.3), le autofunzioni radiali φE` (r) dipendono dal valore del momento angolare `, cio`e a differenza che nel caso di una hamiltoniana fattorizzabile in senso stretto le autofunzioni non possono essere scritte come prodotto di autofunzioni di due hamiltoniane indipendenti l’una dall’altra.
10.1.1
Funzione d’onda radiale
L’equazione di Schr¨ odinger radiale Eq. (10.5) si semplifica notevolmente definendo u(r) r
φ(r) =
(10.6)
in seguito al fatto che pr φ(r) = −i~
1 ∂ + ∂r r
u(r) 1 ∂u = −i~ , r r ∂r
(10.7)
da cui discende immediatamente che pnr φ(r) = (−i~)n
1 ∂nu . r ∂rn
(10.8)
Quindi l’azione dell’operatore impulso radiale sulla funzione u `e particolarmente semplice. La ragione della semplificazione pu` o essere capita osservando che il prodotto scalare tra due vettori di stato corrispondenti ad autofunzioni del momento angolare φ( #» x ) = Y`0 m0 (ϑ, ϕ)τ (r) e ψ = Y`m (ϑ, ϕ)χ(r) ha la forma Z ∞ Z Z ∞ hφ|ψi = dr r2 τ ∗ (r)χ(r) d cos ϑdϕ Y`∗0 m0 (ϑ, ϕ)Y`m (ϑ, ϕ) = δ``0 δmm0 dr r2 τ ∗ (r)χ(r). (10.9) 0
0
Ponendo ora χ(r) =
χ ¯ ; r
τ (r) =
τ¯ r
(10.10)
si trova Z hφ|ψi = δ``0 δmm0
∞
dr τ¯∗ (r)χ(r), ¯
(10.11)
0
ossia la ridefinizione della funzione d’onda radiale assorbe il fattore dovuto alla misura di integrazione. ∂ Questo in particolare implica che l’operatore −i ∂r sulle funzioni ridefinite `e hermitiano, il che spiega ∂ perch´e sulle funzioni ridefinite l’impulso radiale agisca proprio come −i ∂r , secondo la Eq. (10.7). Possiamo ora risolvere l’equazione agli autovalori con la sostituzione appena introdotta, in modo tale da trasformarla in una equazione unidimensionale. In termini della funzione d’onda radiale ridefinita u(r) l’equazione di Schr¨ odinger radiale diventa ~2 ∂ 2 ~2 `(` + 1) − + + V (r) u(r) = Eu(r). (10.12) 2m ∂r2 2mr2 Questa ha la forma di un’equazione di Schr¨odinger unidimensionale, con un potenziale efficace dato dalla somma di un termine radiale e di un termine centrifugo repulsivo (barriera centrifuga di potenziale), il cui effetto aumenta al crescere di `. Tuttavia, l’Eq. (10.12) differisce da un’equazione di Schr¨odinger unidimensionale standard perch´e la coordinata radiale ´e r ≥ 0, ed inoltre perch´e la soluzione deve soddisfare le condizioni che corrispondono alla sua interpretazione come funzione d’onda radiale, e che ora discutiamo.
10.1 L’equazione di Schr¨ odinger radiale
10.1.2
167
Condizioni al contorno ed andamenti asintotici
In primo luogo, ci chiediamo quali debbano essere i comportamenti asintotici u(r) per r → 0 e r → ∞. La funzione d’onda deve poter essere normalizzabile, ossia l’integrale Z ∞ Z ∞ 2 2 dr |u(r)|2 = K (10.13) dr r |φ(r)| = 0
0
deve essere convergente: la |u(r)|2 deve avere nell’origine al pi` u una singolarit`a integrabile. La condizione affinch´e questo accada `e 1 r→∞ 1 u(r) ∼ β ; β < . (10.14) r 2 Tuttavia, per potenziali non eccessivamente singolari nell’origine la u(r) soddisfa una condizione pi` u restrittiva. Infatti, si dimostra che ∆ 1r ∝ δ (3) (~x). Ne segue che, se φ(r) nell’origine diverge almeno come 1 e possibile soddisfare l’equazione di Schr¨odinger solo se il potenziale diverge almeno come una delta di r ` Dirac. Per potenziali che si comportano come una funzione anzich´e come una distribuzione quindi φ(r) deve divergere meno di 1r e quindi la u soddisfa la condizione al contorno u(r) = 0.
(10.15)
Andamento nell’origine Per r → 0 domina il termine centrifugo, a meno che il potenziale non cresca pi` u rapidamente che r12 . 1 Un potenziale attrattivo che cresca come r2 o pi` u `e patologico: si dimostra infatti che esso d`a luogo ad uno spettro di energia che non `e limitato inferiormente. Un potenziale repulsivo che cresca come r12 non ha nulla di intrinsecamente patologico e pu`o semplicemente essere visto come una correzione al termine centrifugo, che ha lo stesso andamento. Un potenziale repulsivo che cresca pi` u che r12 d`a luogo a funzioni d’onda che quando r → 0 decrescono in modo molto rapido, dipendente dalla forma del potenziale. odinger Consideriamo quindi il caso in cui domina il termine centrifugo `(`+1) r 2 . L’equazione di Schr¨ diventa in tal caso ~2 00 ~2 `(` + 1) − u (r) = − u(r) (10.16) 2m 2mr2 la cui soluzione generale `e u(r) = Ar`+1 + Br−` .
(10.17)
La richiesta che u(r) si annulli nell’origine, ma anche la pi` u debole richiesta di integrabilit`a Eq. (10.14), implicano quindi che le uniche soluzioni accettabili siano della forma u(r) = Ar`+1 .
(10.18)
Troviamo quindi che per qualunque valore di ` vale la Eq. (10.15). Andamento all’infinito L’andamento all’infinito `e sempre del tipo di quello di particella libera purch´e il potenziale all’infinito si annulli. Se limr→∞ V (r) = 0 allora l’equazione di Schr¨odinger al limite diventa ~2 00 u (r) = Eu(r). (10.19) 2m Questo implica che qualunque stato legato (cio`e avente autovalore di energia negativo) ha un andamento −
u(r) = Ce−βr
(10.20)
con r
2m|E| . (10.21) ~ Se il potenziale all’infinito non si annulla l’andamento all’infinito `e determinato da quello del potenziale e va studiato caso per caso. β=
168
Problemi tridimensionali
Stati legati Ci si pu` o infine chiedere quando siano da aspettarsi stati legati per un potenziale tridimensionale che si annulli all’infinito. Si `e visto che nel caso unidimensionale esiste sempre almeno uno stato legato. Lo stato fondamentale `e pari e gli stati eccitati erano una successione di stati a parit`a alternata. Il problema radiale associato ad un problema tridimensionale pu`o essere interpretato come un problema unidimensionale con r ≥ 0. Tuttavia abbiamo visto che si deve avere u(r) → 0. Quindi solo le soluzioni dispari del problema unidimensionale associato (che si annullano nell’origine) sono accettabili, e quindi in generale non `e detto che lo stato fondamentale esista. Osserviamo infine che, visto che il potenziale centrifuo `e repulsivo, in generale il numero di stati legati decresce al crescere di `.
10.1.3
La particella libera
L’equazione agli autovalori per l’Hamiltoniana per la particella libera assume la forma −~2
∆ ψ( #» x ) = Eψ( #» x ). 2m
(10.22)
Le soluzioni si determinano facilmente in coordinate cartesiane, dove hanno la forma di onde piane tridimensionali #» ψ #» k (x) =
#» #»
1 (2π)
3 2
ei k · x ,
(10.23)
normalizzabili in senso improprio Z
(3) #» #» ( x − #» x 0 ), d3 k ψ ∗#» ( #» x 0 )ψ #» k (x) = δ k
(10.24)
con autovalori E=
#» ~2 k 2 . 2m
(10.25)
Il problema tuttavia, oltre ad un’invarianza per traslazioni, presenta una invarianza per rotazioni; `e possibile quindi ridurre il problema a un problema radiale ed a un problema angolare, esprimendo le autofunzioni nella forma uE` (r) ψE`m ( #» x ) = Y`m (ϑ, ϕ) , r
(10.26)
dove uE` (r) soddisfa l’equazione −
~2 ∂ 2 uE` (r) ~2 `(` + 1) + uE` (r) = EuE` (r), 2m ∂r2 2mr2
(10.27)
ossia ~2 `(` + 1) −u00E` (r) + u (r) − uE` (r) = 0. E` 2mE r2 q ~2 1 1 Ponendo ora r0 = kr, con k = 2mE ~2 , in modo che 2mE r 2 = r 0 2 , l’equazione diventa d2 uE` (r0 ) `(` + 1) − uE` (r0 ) + uE` (r0 ) = 0. dr0 2 r0 2
(10.28)
(10.29)
Questa `e la cosiddetta equazione di Bessel. Date le condizioni al contorno, `e possibile scrivere le soluzioni di tale equazione come φE` (r) =
uE` (r0 ) = j` (rk), r
(10.30)
10.2 L’oscillatore armonico isotropo
169
dove nell’ultimo passaggio si `e introdotta la funzione di Bessel j` , e la dipendenza dall’energia `e contenuta del fattore k nell’argomento di quest’ultima. Le autofunzioni di particella libera possono pertanto essere scritte come ψE`m ( #» x ) = Y`m (ϑ, ϕ)j` (kr).
(10.31)
` noto che l’andamento asintotico della funzione di Bessel `e proprio E r→0
j` (r) ∼ r` .
10.2
(10.32)
L’oscillatore armonico isotropo
Il potenziale armonico isotropo V (r) =
1 1 mω 2 (x2 + y 2 + x2 ) = mω 2 r2 . 2 2
(10.33)
`e fattorizzabile in coordinate cartesiane, come abbiamo visto nella sezione 8.2.3. Tuttavia, esso pu` o essere anche pensato come un potenziale centrale, e quindi l’equazione agli autovalori `e anche trattabile separando il moto angolare e risolvendo l’equazione agli autovalori per l’hamiltoniana radiale. Cerchiamo quindi autofunzioni di energia |E ` mi fattorizzate, della forma Eq. (10.3). Per queste autofunzioni, il problema agli autovalori prende la forma H|n ` mi = H` |n ` mi = En` |n ` mi,
(10.34)
dove n numera le autofunzioni e gli autovalori per fisso `, e l’hamiltoniana H` `e data da H` =
10.2.1
p2r ~2 `(` + 1) 1 + + mω 2 r2 . 2m 2mr2 2
(10.35)
Stati con ` = 0
Notiamo che nel caso ` = 0 l’hamiltoniana Eq. (10.35) diventa H0 =
p2r 1 + mω 2 r2 . 2m 2
(10.36)
ed `e quindi identica a quella di un oscillatore armonico unidimensionale, anche se le funzioni d’onda soddisfano diverse condizioni al contorno. Basandoci su questa osservazione, esploriamo la possibilit`a di determinare lo spettro con metodi algebrici come nel caso unidimensionale. Osserviamo innanzitutto che impulso e coordinata radiali soddisfano la relazione di commutazione canonica [pr , r] = −i~.
(10.37)
Definiamo perci` o: r
mω 2~ r mω d†0 = 2~
d0 =
pr mω pr r−i . mω
r+i
(10.38)
dimodoch´e possiamo scrivere H0 = ~ω
d†0 d0
1 + 2
,
(10.39)
170
Problemi tridimensionali
Visto che [d0 , d†0 ] = 1
(10.40)
lo stesso argomento del caso unidimensionale porta a concludere che d0 e d†0 agiscono come operatori di abbassamento ed innalzamento, ed a riprodurre lo spettro trovato nel caso unidimensionale. Ricordiamo per` o che la funzione d’onda radiale deve soddisfare la condizione al contorno Eq. (10.15), ed inoltre che l’equazione agli autovalori soddisfatta dalla u(r), Eq. (10.12) coincide con quella del corrispondente problema unidimensionale. Ma le autofunzioni di energia per l’oscillatore armonico unidimensionale sono 2
ψk (x) = N e−cx Hk (x);
ψk (x) = (−1)k ψk (−x).
(10.41)
Pertanto, solo se k `e dispari, k = 2n + 1, si ha ψ2n+1 (0) = 0. Dobbiamo perci`o scartare tutti gli autostati di energia con k pari del problema unidimensionale, e troviamo che lo spettro di autovalori En` con ` = 0 `e dato da 1 . (10.42) En0 = ~ω 2n + 1 + 2 Osserviamo che il caso ` = 0 `e il caso maggiormente attrattivo, a causa dell’annullarsi del potenziale centrifugo. Lo stato E00 `e pertanto lo stato fondamentale, con energia 3 E00 = ~ω . 2
(10.43)
Il fatto che le condizioni al contorno selezionino un sottoinsieme degli autostati algebricamente permessi non ci sorprende. Si tratta di una situazione analoga a quella che abbiamo incontrato nel caso di del momento angolare, dove l’analisi delle relazioni di commutazione ci ha portato a concludere che sia i valori interi che quelli semi-interi del momento angolare sono permessi. Tuttavia, imponendo la condizione al contorno Eq. (9.85) i valori interi del momento angolare semi-interi vengono esclusi.
10.2.2
Costruzione degli stati con ` generico
Quando ` 6= 0 nell’hamiltoniana compare anche un termine proporzionale a 1r , quindi ci serve anche il commutatore di tale operatore con pr . Questo pu`o essere determinato facilmente ricordando che per una funzione generica f (r) si ha [pr , f (r)] = −i~ ∂f ∂r , da cui i~ 1 = 2. pr , r r
(10.44)
Vogliamo costruire degli operatori di creazione e distruzione che generalizzino gli operatori d0 e d†0 al caso di ` generico, e ci permettano di scrivere una relazione analoga alla (10.39). A questo scopo, definiamo gli operatori r ~` pr mω d` = r+ +i 2~ mωr mω r mω ~` pr † d` = r+ −i , (10.45) 2~ mωr mω che per ` = 0 si riducono agli operatori Eq. (10.38) definiti in precedenza. Definiamo quindi una generalizzazione dell’operatore numero del caso unidimensionale, ossia D` ≡ d†` d` .
(10.46)
10.2 L’oscillatore armonico isotropo
171
La sua espressione esplicita `e d†` d`
) p2r i ~` + 2 2− pr , r + m ω mω mωr 2 2 2 mω 2 pr 2~` ~ ` i ~` i~ = r + 2 2 2+ 2 2+ − −i~ + 2~ m ω r m ω mω mω mω r2 2 2 1 1 pr 1 ~ `(` + 1) = +`− , + mω 2 r2 + 2 ~ω 2m 2 2mr 2
(10.47)
1 1 H` + ` − . ~ω 2
(10.48)
mω = 2~
(
~` r+ mωr
2
che implica D` =
Pertanto, gli operatori D` ed H` hanno i medesimi autostati, e, detti En` gli autovalori di D` D` |n `i = En` |n `i
(10.49)
la Eq. (10.48) implica 1 1 En` + ` − . (10.50) ~ω 2 Naturalmente, nel caso ` = 0, B` `e il consueto operatore numero, ed il suo spettro si ottiene combinando la Eq. (10.42) con la Eq. (10.50): En` =
En0 = 2n + 1,
(10.51)
che, come si `e detto, contiene met` a degli stati del problema unidimensionale associato in conseguenza della condizione al contorno. Per determinare lo spettro per ` generico introduciamo ora anche l’operatore D` ≡ d` d†` . Un calcolo analogo al precedente ci porta a concludere che ( 2 ) ~` p2r i ~` mω r+ + 2 2+ pr , r + D` = 2~ mωr m ω mω mωr 2 1 pr 1 ~2 `(` − 1) 1 = + mω 2 r2 + +`+ , ~ω 2m 2 2mr2 2
(10.52)
(10.53)
che implica ora D` =
1 1 H`−1 + ` + . ~ω 2
(10.54)
Usando questi risultati, possiamo mostrare che operatori d†` e d` agiscono come operatori di creazione e distruzione. Osserviamo innanzitutto che D` e D` sono collegati, in quanto 1 3 H` + ` + ~ω 2 1 1 D` = H` + ` − ~ω 2 D`+1 =
(10.55)
da cui D`+1 = D` + 2,
(10.56)
172
Problemi tridimensionali
o, equivalentemente D` = D`−1 + 2.
(10.57)
Notiamo poi che d` d†` d` = d` D` = D` d` = (D`−1 + 2) d` d†` d` d†` = D` d†` = d†` D` = d†` (D`−1 + 2) ,
(10.58)
dove nell’ultimo passaggio abbiamo usato le Eq. (10.56-10.57). Le Eq. (10.58) sono sufficienti a mostrare che d†` e d` agiscono come operatori di creazione e distruzione. Infatti, supponiamo di conoscere un autostato |n `i di D` . Si vede immediatamente che d†`+1 |n `i `e anch’esso un autostato, ma di D`+1 . Infatti D`+1 d†`+1 |n `i = d†`+1 (D` + 2) |n `i = (En` + 2)d†`+1 |n `i, quindi
d†`+1 |n
(10.59)
`i `e autostato di D`+1 con autovalore E = En` + 2. Analogamente D`−1 d` |n `i = d` (D` − 2) |n `i = (En` − 2)d` |n `i,
(10.60)
quindi lo stato d` |n `i `e autostato di D`−1 con autovalore En` − 2. Gli operatori che abbiamo costruito quindi collegano tra loro spettri di operatori diversi. Cominciamo dal caso ` = 0, per il quale gi` a sappiamo che l’autovalore di energia associato allo stato |n 0i `e dato dalla Eq. (10.51). La Eq. (10.59) implica che D1 d†1 |n 0i = (En0 + 2) d†1 |n 0i = (2n + 3)d†1 |n 0i D2 d†2 d†1 |n 0i = (En0 + 4) d†2 d†1 |n 0i = (2n + 5)d†2 d†1 |n 0i ... Dk+1 d†k+1 . . . d†1 |n 0i = (2n + 2k + 1)d†k+1 . . . d†1 |n 0i
(10.61)
e cos`ı via. Quindi per ogni autostato di energia con ` = 0 ed En0 = 2n + 1, ossia En0 = ~ω(2n + 3/2), possiamo costruire una sequenza di autostati |n `i della sequenza di operatori D` aventi autovalori En1 = 2n + 3 En2 = 2n + 5 .. .. . . En` = 2n + 2` + 1.
(10.62)
Dato lo spettro degli autovalori E, possiamo determinare lo spettro degli autovalori di energia, ricordando la Eq. (10.50), che implica 1 En` = ~ω En` − ` + , (10.63) 2 dimodoch`e gli stati che abbiamo costruito sono anche autostati dell’`-esima hamiltoniana H` Eq. (10.35), associati ad autovalori (di energia) 3 3 En` = ~ω 2n + ` + = ~ω N + , (10.64) 2 2 avendo posto N = 2n + `.
(10.65)
Possiamo infine chiederci se gli stati costruiti siano tutti e soli i possibili autostati dell’`-esima hamiltoniana H` . Supponiamo per assurdo che vi sia un altro autostato, associato ad un autovalore diverso da quelli della sequenza sopra determinata Eq. (10.62). Agendo su questo stato ripetutamente con gli operatori di distruzione d` `e sempre possibile ottenere da esso uno stato con ` = 0. Ma se questo stato non fosse contenuto nella sequenza originaria, allora avremmo costruito un nuovo autovalore dell’hamiltoniana H0 : ci` o `e assurdo perch`e lo spettro di autovalore En0 Eq. (10.42) contiene tutti gli autovalori di H0 . Ne concludiamo che lo spettro dell’`-esima H` `e proprio dato dalla Eq. (10.64).
10.2 L’oscillatore armonico isotropo
10.2.3
173
Spettro e degenerazione
Abbiamo concluso che l’insieme di autovalori di energia Eq. (10.64) contiene tutti e soli gli autovalori dell’insieme di hamiltoniane Eq. (10.35) per ` ≥ 0 intero, e quindi fornisce lo spettro dell’oscillatore armonico isotropo. Possiamo rappresentare graficamente la struttura dello spettro nel modo seguente: En`
`=0
11 2 ~ω
|2 0i
`=1
|1 1i
d .. .
|0 3i
|1 0i
|0 2i
5 2 ~ω 3 2 ~ω
`=3
|1 2i
9 2 ~ω 7 2 ~ω
`=2
10 6
|0 1i
3
|0 0i
1
Nell’ultima colonna abbiamo indicato la degenerazione di ogni livello, ottenuta ricordando che per ogni valore fissato di n, ` vi sono 2` + 1 valori possibili di m. Confrontiamo ora la degenerazione totale trovata con il valore ottenuto nel caso delle coordinate cartesiane, Eq. (8.57), e cio`e d = 12 (N + 1)(N + 2). Possiamo verificare come questo valore possa essere riottenuto in coordinate sferiche. Distinguiamo il caso di N pari o dispari: ( 2M ` = 0, 2 . . . 2M N= (10.66) 2M + 1 ` = 1, 3 . . . 2M + 1 Nel primo caso possiamo porre ` = 2`0 con 0 ≤ `0 ≤ M . La degenerazione totale `e pari al numero di valori possibili che assume `, facendo attenzione che per ` fissato esiste per`o anche una ulteriore degenerazione dovuta ad m, che pu` o assumere 2` + 1 valori. Si ha quindi: d=
2M X
(2` + 1) =
M X
(4`0 + 1).
(10.67)
`0 =0
`=0
Nel caso di N dispari in modo del tutto analogo si ha, ponendo ` = 2`0 + 1 con 0 ≤ `0 ≤ M : d=
2M +1 X
M X
`=0
`0 =0
(2` + 1) =
(4`0 + 3).
(10.68)
In generale M X
(4`0 + k) = 4
`0 =0
M X `0 =0
`0 + k
M X
1 = (M + 1)(2M + k).
(10.69)
`0 =0
Se specializziamo il calcolo per i casi in cui N `e pari o dispari si ottiene: N 1 pari (M + 1)(2M + k) = + 1 (N + 1) = (N + 1)(N + 2) 2 2 N −1 1 dispari (M + 1)(2M + k) = + 1 (N − 1 + 3) = (N + 1)(N + 2). 2 2
(10.70) (10.71)
Vediamo quindi come il numero di stati associati ad un medesimo valore di energia sia sempre lo stesso, ma come essi possano essere realizzati o come autostati cartesiani, o come autostati sferici. Naturalmente, `e sempre possibile passare da una base di autostati all’altra attraverso una trasformazione unitaria, in ciascun sottospazio di energia fissata.
174
10.2.4
Problemi tridimensionali
Il teorema di degenerazione
Il risultato che abbiamo trovato fornisce un esempio del teorema di degenerazione, che afferma che, data una Hamiltoniana H e due operatori A, B, tali che [H, A] = [H, B] = 0
(10.72)
[A, B] 6= 0
(10.73)
ma
allora lo spettro dell’hamiltoniana `e necessariamente degenere. La dimostrazione `e immediata. Supponiamo per assurdo che lo spettro di H non sia degenere. In tal caso, per ogni autovalore di energia En vi `e un solo autostato |ni tale che H|ni = En |ni. Ma poich`e A e H commutano, sono diagonalizzabili simultaneamente, e quindi necessariamente A|ni = an |ni.
(10.74)
B|ni = bn |ni.
(10.75)
D’altra parte, lo stesso vale per B, quindi
Ne segue che gli autostati di A sono anche autostati di B: ma due operatori aventi una base comune di autostati sono simultaneamente diagonalizzabili, e quindi commutano, [A, B] = 0, contro l’ipotesi. Vediamo cos`ı che `e solo grazie all’esistenza di pi` u autostati diversi associati ad uno stesso autovalore di energia che `e possibile costruire degli stati che siano autostati sia dell’hamiltoniana che dell’uno o dell’altro degli operatori con cui questa commuta, ma non di entrambi: in ogni sottospazio degenere di autostati dell’hamiltoniana diverse combinazioni lineari degli stati associati ad un medesimo autovalore diagonalizzano l’uno o l’altro degli operatori. Ad esempio, qualunque hamiltoniana invariante per rotazioni commuta con ciascuno dei generatori del momento angolare, i quali per`o non commutano fra loro. Quindi l’hamiltoniana pu` o contenere un termine proporzionale ad L2 (che commuta con tutti gli Li ) ma non un termine proporzionale ad uno degli Li , ad esempio Lz . Ne segue che se scegliamo di diagonalizzare l’hamiltoniana simultaneamente ad L2 ed Lz , tutti gli stati associati allo stesso valore di `, ma a diversi valori di m, sono degeneri. Questo suggerisce inoltre un modo di legare il grado di degenerazione alla simmetria complessiva dell’hamiltoniana. Nell’esempio del momento angolare, se l’hamiltoniana non ha nessun’altra simmetria, ossia se non ci sono altri operatori oltre ai tre generatori del momento angolare che commutano con l’hamiltoniana, la degenerazione complessiva `e data dal numero di stati corrispondenti a diversi valori di m, ma associati allo stesso valore di `; infatti una rotazione cambia il valore di m, ma lascia ` invariato. Nel caso pi` u generale, determiniamo tutti gli operatori diagonalizzabili simultaneamente all’hamiltoniana. Poi determiniamo tutti gli insiemi di stati che si possono ottenere l’uno dall’altro attraverso trasformazioni ottenute esponenziando questi operatori. La degenerazione `e il numero di stati contenuti in ciascun insieme di stati di questo tipo: tecnicamente, questa `e la dimensione della rappresentazione irriducibile del gruppo di trasformazioni ottenuto esponenziando i generatori. Nell’esempio del momento angolare, il gruppo `e il gruppo delle rotazioni SO(3) (se si ammettono solo momenti angolari interi) o SU(2) (se si ammettono valori sia interi che semi-interi), le cui rappresentazioni irriducibili sono classificate dal valore di `: ci`o significa che per ogni ` fissato gli stati con diversi m si ottengono l’uno dall’altro per azione delle trasformazioni del gruppo, ma non c’`e nessuna trasformazione che pu` o cambiare il valore di `. Il numero di stati per fisso ` fornisce la degenerazione.
10.2.5
Simmetria dell’oscillatore tridimensionale isotropo
Nel caso dell’oscillatore armonico tridimensionale isotropo, abbiamo visto che il grado di degenerazione `e maggiore di quello dovuto all’invarianza per rotazioni: infatti, per ogni valore di N vi sono in generale pi` u
10.2 L’oscillatore armonico isotropo
175
valori di ` che corrispondono allo stesso valore di energia, si ricordino le Eq. (10.67-10.68). Quindi devono esistere altri operatori, oltre agli operatori di momento angolare, che commutano con l’hamiltoniana, ma non fra loro. Per capire quali sono, torniamo alle coordinate cartesiane, e scriviamo 1 1 1 H = Hx + Hy + Hz = ~ω a†x ax + + ~ω a†y ay + + ~ω a†z az + 2 2 2 3 X † 1 = ~ω ai ai + 2 i=1
(10.76)
con r ai =
mω 2~
xi + i
pi mω
.
(10.77)
` facile vedere che tutti i nove operatori E Oij ≡ a†i aj
(10.78)
commutano con H. Infatti, ricordando che [a†i , aj ] = −δij , si ha ! [Oij , H] =
~ω[a†i aj ,
X
a†k ak ]
= ~ω
k
[a†i ,
X
a†k ak ]aj
+
a†i [aj ,
X
k
a†k ak ]
= ~ω(−a†i aj − a†i aj ) = 0.
k
(10.79) D’altra parte, gli Oij in generale non commutano tra di loro: [Oij , Oab ] = [a†i aj , a†a ab ] = a†i [aj , a†a ab ] + [a†i , a†a ab ]aj = −δib Oaj + δja Oib .
(10.80)
L’hamiltoniana `e una combinazione lineare di tre di questi operatori 3 X
1 H= ~ω Oii + 2 i=1
,
(10.81)
e quindi abbiamo otto operatori che commutano con l’hamiltoniana ma non tra di loro. Le relazione di commutazione soddisfatte dagli operatori dati sono quelle dei generatori del gruppo SU (3). ` facile vedere che il momento angolare `e un sottogruppo del gruppo appena trovato. I momenti E angolari sono infatti proporzionali a differenze tra gli operatori Oij : ad esempio mω h px py py px i x−i y+i − y−i x+i 2~ mω mω mω mω i i = (xpy − ypx ) = Lz , (10.82) ~ ~
O12 − O21 = (a†1 a2 − a†2 a1 ) =
ed in generale Li = −i~εijk Ojk .
(10.83)
Questi operatori generano il gruppo SU(2); si pu`o verificare esplicitamente che la degenerazione che abbiamo trovato `e la dimensione delle rappresentazioni irriducibili del gruppo SU(3). Essa `e pi` u grande di quella del gruppo delle rotazioni, che ne `e un sottogruppo.
176
10.3
Problemi tridimensionali
Il potenziale coulombiano
La trattazione del potenziale coulombiano (o newtoniano) ha un ruolo molto importante sia in meccanica classica che in meccanica quantistica. Nel caso classico, porta alla discussione delle orbite dei pianeti: il problema di Keplero. Nel caso quantistico porta alla determinazione dello spettro di energia degli atomi idrogenoidi, ed `e quindi alla base della struttura della materia. L’equazione di Scr¨ odinger radiale (10.12) in presenza di potenziale coulombiano `e ~2 `(` + 1) Ze2 ~2 ∂ 2 + − u(r) = Eu(r), (10.84) − 2m ∂r2 2mr2 r dove e `e la carica dell’elettrone, e Z la carica del nucleo in unit`a di carica dell’elettrone, o pi` u generalmente −e e +Ze sono le due cariche che si attraggono attraverso un potenziale coulombiano.
10.3.1
Analisi dimensionale
La dipendenza dagli autovalori di energia E dai parametri del problema nella Eq. (10.84) `e interamente fissata da considerazioni di natura dimensionale. Per vederlo, riscriviamo il termine cinetico ed il termine di potenziale sostituendo la variabile radiale r con una sua controparte adimensionale. A questo fine, definiamo il parametro a≡
~2 mZe2
(10.85)
` facile vedere dall’equazione di Schr¨odinger che detto raggio di Bohr (se e `e la carica dell’elettrone). E il raggio di Bohr ha le dimensioni di una lunghezza: infatti dimensionalmente il termine cinetico ed il 2 termine di potenziale ci dicono rispettivamente che [ ~m ] = [E][L2 ], e [e2 ] = [E][L]. Definiamo quindi la variabile adimensionale r0 = r/a, in termini della quale l’equazione agli autovalori (10.84) prende la forma E 1 ∂2 `(` + 1) 1 − − + u(r0 ) = 0 − 2 ∂r0 2 r0 W0 2r0 2
(10.86)
(10.87)
dove
m(Ze2 )2 (10.88) ~2 ha manifestamente le dimensioni di energia, visto che ogni termine nella Eq. (10.87) `e adimensionale. Questo `e sufficiente a concludere che gli autovalori di energia hanno la forma W0 ≡
En = W0 cn
(10.89)
dove cn `e un numero puro, e quindi la dipendenza dai parametri del problema `e interamente specificata dalla costante W0 Eq. (10.88). La determinazione esplicita dei valori di cn si pu`o ottenere mediante la risoluzione dell’equazione differenziale, ma anche attraverso uno studio delle simmetrie del problema. Quest’ultima `e la strada che seguiremo noi. Diamo tuttavia un breve cenno alla soluzione dell’equazione. A tal fine conviene porre E 1 = k2 W0 2
(10.90)
∂2 `(` + 1) 2 2 − + − k u(r) = 0. ∂r2 r2 r
(10.91)
− riscrivendo cos`ı la (10.87) come
10.3 Il potenziale coulombiano
177
Tale scrittura risulta essere particolarmente conveniente ricordando la discussione dei comportamenti asintotici. Quando r → ∞ l’equazione si riduce infatti a u00 (r) = k 2 u(r).
(10.92)
r→∞
Di conseguenza u(r) ∼ e−kr , mentre per r → 0 il comportamento della autofunzione deve essere del tipo r`+1 , ricordando la Eq. (10.18). Si scrive quindi la soluzione nella forma u(r) = e−kr r`+1 f (r)
(10.93)
con f (r) =
∞ X
an rn
(10.94)
n=0
e si determinano i coefficienti an per ricorrenza, sostituendo l’Ansatz Eq. (10.93-10.94) nell’equazione differenziale (10.91). Si trova che affinch´e la soluzione sia normalizzabile `e necessario che la serie di potenze ad un certo punto si arresti (cio`e che tutti i coefficienti an con n > n0 si annullino), e che questo a sua volta avviene solo se k=
1 , n ¯+`
(10.95)
dove n ¯ > 0 `e intero. Ne segue che E=−
1 (Ze2 )2 m 1 , 2 ~2 n2
(10.96)
dove si `e posto n=n ¯ + `.
(10.97)
Questo spettro `e rappresentato graficamente nella Fig. 10.1.
10.3.2
Il modello di Bohr
Prima di affrontare la determinazione dello spettro di energia nel caso quantistico sfruttando le simmetrie del problema, ricordiamo brevemente come Niels Bohr spieg`o i dati sperimentali sullo spettro dell’atomo di idrogeno attraverso una trattazione intuitiva basata su un’ipotesi di quantizzazione ad hoc. Specificamente, Bohr suppose che l’elettrone dell’atomo di idrogeno, la cui Lagrangiana dipende da un potenziale coulombiano, potesse compiere delle orbite semiclassiche circolari e che inoltre il momento angolare fosse quantizzato in multipli interi di ~. Dal punto di vista della meccanica quantistica non ha significato parlare di orbite, cos`ı come non `e esatto affermare che il momento angolare sia cos`ı quantizzato, poich´e sappiamo che la dipendenza del modulo quadro del momento angolare non dipende dal quadrato di un numero intero, bens`ı da `(` + 1). Tuttavia, questo semplice modello riproduce esattamente lo spettro di energia per questo problema. Seguiamo il ragionamento fatto da Bohr facendo l’ipotesi che la dinamica sia descritta dalla Lagrangiana L=
2 1 ˙ 2 ) + Ze . m(r˙ 2 + (rϑ) 2 r
(10.98)
Le equazioni di Lagrange sono quindi d ∂L ∂L = dt ∂ r˙ ∂r d ∂L ∂L = . dt ∂ ϑ˙ ∂ϑ
(10.99) (10.100)
178
Problemi tridimensionali
Figura 10.1: Livelli energetici per l’atomo di idrogeno Il nostro obuettivo `e di esprimere l’energia in termini del momento angolare, eliminando la dipendenza esplicita dal raggio. Questo pu` o essere fatto in due passi. In primo luogo, osserviamo che se l’orbita `e circolare, r˙ = 0, e quindi la prima equazione del moto si riduce a ∂L = 0. ∂r
(10.101)
Dalla Eq. (10.101) possiamo immediatamente dedurre che E = −T . Essa infatti implica che mrϑ˙ 2 =
Ze2 , r2
(10.102)
ma se r˙ = 0 l’energia cinetica si riduce al puro termine radiale T = 21 mr2 θ˙2 e quindi 2T = −V , da cui E = T + V = −T.
(10.103)
Avendo espresso l’energia totale in termini di energia cinetica, `e facile esprimere quest’ultima in termini del momento angolare sfruttando la seconda equazione del moto, che implica che il momento angolare l=
∂L = mr2 θ˙ ˙ ∂ϑ
(10.104)
`e costante. Sostituendo questo risultato nella prima equazione del moto Eq. (10.102) l2 Ze2 = 2 , 3 mr r
(10.105)
esprimiamo il raggio in termini di momento angolare r=
l2 , mZe2
(10.106)
10.3 Il potenziale coulombiano
179
da cui troviamo l’espressione per l’energia cinetica indipendente dal raggio 1 1 m(Ze2 )2 1 l2 E = −T = − mr2 ϑ˙ 2 = − =− . 2 2 2 mr 2 l2
(10.107)
Imponendo la condizione di quantizzazione l = n~
(10.108)
1 m(Ze2 )2 1 , 2 ~2 n2
(10.109)
si ottiene cos`ı E=− che coincide con lo spettro Eq. (10.96).
10.3.3
Il problema di Keplero e le sue simmetrie
Prima di affrontare il problema quantistico, studiamo le simmetrie del problema classico, usando il formalismo hamiltoniano, che useremo poi anche nel caso quantistico. L’Hamiltoniana `e H=
#» p2 Ze2 − . 2m r
(10.110)
Abbiamo tuttavia visto che tutta la dipendenza dalle costanti del problema pu`o essere predetta usando l’analisi dimensionale. Studiamo quindi l’hamiltoniana H=
#» p2 1 − , 2 r
(10.111)
da cui si ricavano le equazioni del moto #» x˙ = #» p
#» x #» p˙ = − 3 . r
(10.112) (10.113)
Studiamo ora le simmetrie del problema, attraverso le leggi di conservazione ad esse associate. Sappiamo gi` a che, poich´e il potenziale `e invariante per rotazioni, il momento angolare si conserva. Si ha infatti d #» d L = ( #» x × #» p ) = 0, dt dt
(10.114)
d #» #» x × #» p˙ + #» x˙ × #» p = 0, ( x × p ) = #» dt
(10.115)
in quanto
per le Eq. (10.113-10.112). Inoltre, `e possibile esibire un altro vettore le cui componenti si conservano: si tratta del vettore di Laplace-Runge-Lenz. Per determinarne l’espressione, osserviamo che #» d #» #» x 1 1 #» #» #» ˙ ( p × L) = ( p × L)i = − 3 × L = − 3 εijk xj Lk = − 3 εijk xj εkab xa pb dt r r r i i 1 ia jb 1 = − 3 (δ δ − δ ib δ ja )xj xa x˙ b = − 3 (xi #» x · #» x˙ − x˙ i r2 ) (10.116) r r x˙ i xi #» x · #» x˙ d xi = − = . 3 r r dt r
180
Problemi tridimensionali
Ne segue che il vettore di Laplace-Runge-Lenz #» x #» #» M = ( #» p × L) − , r
(10.117)
#» dM = 0. dt
(10.118)
`e una costante del moto
Vi sono di conseguenza sette quantit` a conservate: il momento angolare, il vettore di Lenz, e l’energia. Tuttavia, un’orbita classica `e completamente determinata da sei quantit`a, e quindi vi possono essere al massimo sei costanti del moto indipendenti. Infatti, l’orbita pu`o essere interamente ricostruita note tre velocit` a e tre posizioni al tempo iniziale. Inoltre, se il sistema `e invariante per traslazioni temporali la scelta del tempo iniziale `e irrilevante, e quindi ci si riduce a cinque quantit`a conservate. Ne segue che delle sette quantit` a elencate (le tre componenti del vettore di Lenz, le tre componenti del momento angolare, e l’energia) solo cinque sono indipendenti. In effetti, osserviamo che il vettore di Lenz per costruzione giace nel piano dell’orbita, il quale a sua volta `e ortogonale al momento angolare: infatti, # » #» M · L = 0, (10.119) e pertanto una delle sue componenti non `e indipendente. Inoltre, il modulo del vettore di Lenz `e #» #» L2 x #» #» #» #» p × L) = #» p 2 L2 + 1 − 2 (10.120) ||M ||2 = || #» p × L||2 + 1 − 2 · ( #» r r in quanto #» #» #» #» x · ( #» p × L) = εijk xi pj Lk = ( #» x × #» p ) · L = L 2. (10.121) Si ha quindi #» #» ||M ||2 = 1 + 2 L 2 H,
(10.122)
e quindi anche il modulo del vettore di Lenz non `e indipendente. Si dimostra che per un’orbita ellittica il vettore di Lenz `e diretto lungo l’asse maggiore dell’ellisse. #» Si dimostra inoltre che ||M ||2 = 2 , dove `e l’eccentricit`a dell’orbita, che `e < 1 per orbite chiuse. Si vede perci` o dalla Eq. (10.122) che l’orbita `e chiusa quando l’energia (cio´e l’hamitoniana valutata sulla traiettoria) `e H < 0.
10.3.4
Leggi di conservazione nel caso quantistico
Anche in meccanica quantistica, ovviamente, per una hamiltoniana idrogenoide Eq. (10.111) si conservano il momento angolare e l’energia. Mostriamo ora che anche in questo caso si conserva pure il vettore di Lenz. Notiamo innanzitutto che poich´e pi e Lj non commutano, εijk Lk pj 6= εijk pj Lk . Dati due operatori che non commutano, il loro anticommutatore `e hermitiano. Definiamo quindi l’operatore vettore di Lenz come 1 xi pj Lk + Lk pj xi pj Lk − Lj pk xi = εijk − = εijk − , (10.123) Mi = εijk {pj , Lk } − 2 rˆ 2 rˆ 2 rˆ ovvero, in notazione vettoriale #» #» #» p × L) − ( L × #» p) x # » ( #» M= − . 2 r
(10.124)
Vogliamo ora dimostrare che il vettore di operatori Eq. (10.124) commuta con l’hamiltoniana. Ricordiamo innanzitutto che [Li , pj ] = [εiab xa pb , pj ] = εiab [xa , pj ]pb = i~εijb pb i
j
[L , x ] = i~ε
ijb
xb .
(10.125) (10.126)
10.3 Il potenziale coulombiano
181
I moduli dei vettori commutano con L e con le sue componenti: [Li , r] = [Li , || #» p ||] = 0.
(10.127)
Possiamo ora calcolare il commutatore di ciascuno dei termini che compongono il vettore di Lenz con l’hamiltoniana. Calcoliamo per primo il commutatore 1 1 ijk 1 ε {pj , Lk }, H = εijk [pj , H]Lk + Lk [pj , H] = εijk [pj , H], Lk . (10.128) 2 2 2 Abbiamo
j εijk 1 εijk x εijk , L {pj , Lk }, H = pj , − , Lk = (−i~) k 2 2 r 2 || #» x ||3 j i~ x xj xa p b + p b xa 3 = − εijk εkab #» 3 2 || x || r j j i~ x a b b ax = − (δ ia δ jb − δ ib δ ja ) x x + p x 2 r3 r3 i i~ x #» #» 1 i #» #» xi i1 =− x · p − p + p · x 3 −p . 2 r3 r r r
(10.129)
Calcoliamo quindi il commutatore con l’hamiltoniana del secondo termine che compone il vettore di Lenz: i i i x j j x j j 1 j x j ,p p = p ,p + ,p p r 2 r r 1 xi xj j j = p i~∂j + i~∂j p 2 r r ij ij i j i~ δ x x δ xi xj j = p − 3 − 3 + pj 2 r r r r i x 1 xi i~ 1 − 3 #» x · #» p + pi − #» p · #» x 3 + pi . (10.130) = 2 r r r r Confrontando le Eq. (10.129) e (10.130) con la definizione del vettore di Lenz Eq. (10.124) concludiamo che il vettore di Lenz commuta con l’hamiltoniana: [M, H] = 0.
(10.131)
Vi sono quindi sei operatori che commutano con l’hamiltoniana: le tre componenti del momento angolare e le tre componenti del vettore di Lenz. Anche nel caso quantistico abbiamo quindi sei costanti del modo, in aggiunta alla hamiltoniana. Si pu`o inoltre verificare che anche nel caso quantistico vi sono due relazioni che legano all’hamiltoniana ed al momento angolare le sei componenti del vettore di Lenz. In primo luogo, si era osservato che classicamente # » #» #» # » M · L = L · M = 0.
(10.132)
Mostriamo che anche quantisticamente vale lo stesso risultato. A questo fine, conviene riscrivere il vettore di Lenz sfruttando l’identit` a Lk pj = pj Lk + [Lk , pj ] = pj Lk + εkja i~pa : M i = εijk pj Lk +
xi εijk εkja i~pa − , 2 r
(10.133)
e poich´e εijk εkja = −εijk εajk = −2δ ia
(10.134)
182
Problemi tridimensionali
si ha M i = εijk pj Lk − i~pi −
xi . r
(10.135)
Ne segue quindi che #» # » #» #» 1 x·L M · L =M i Li = εijk pj Lk Li − i~ #» p · L − #» r =i~εijk εkia pj La = 0,
(10.136)
#» dove abbiamo sfruttato il fatto che L `e ortogonale come operatore sia a #» x che a #» p , e abbiamo espresso il primo termine a membro destro come commutatore di due momenti angolari e nel secondo passaggio #» # » abbiamo usato di nuovo l’identit` a Eq. (10.134) . Le stesse considerazioni valgono per L · M . Classicamente il modulo del vettore di Lenz `e esprimibile in termini di hamiltoniana e momento angolare. Quantisticamente si ha xi o 1 εijk n 1 {pj , Lk }, . M i M i = εijk {pj , Lk }εiab {pa , Lb } + 1 − 2 2 2 r
(10.137)
Un calcolo tedioso che omettiamo porta al risultato M 2 = 2H(L2 + ~2 ) + I.
(10.138)
Possiamo quindi determinare le relazioni di commutazione tra tutti gli operatori che commutano con l’hamiltoniana, e chiederci quali di essi possno essere diagonalizzati simultaneamente. Le relazioni di commutazione degli operatori di momento angolare sono note. Il commutatore tra componenti del momento angolare e del vettore di Lenz segue dal fatto che il vettore di Lenz si trasforma come un vettore sotto rotazioni, essendo la somma di un vettore, e di un prodotto esterno fra vettori (che `e anch’esso un vettore): [Li , M j ] = i~εijk M k .
(10.139)
Resta infine da calcolare il commutatore tra le diverse componenti di M . Anche in questo caso, ci limitiamo a dare il risultato del calcolo: [M i , M j ] = −2Hi~εijk Lk .
(10.140)
Le equazioni Eq. (10.139-10.140), assieme alle consuete relazioni di commutazione Eq. (9.30) tra componenti del momento angolare ci danno l’insieme completo di relazioni di commutazione tra i sei operatori che commutano con l’hamiltoniana (di cui cinque sono indipendenti fra loro). Queste relazioni ci permettono di determinare lo spettro nonch´e un insieme di costanti del moto.
10.3.5
Costruzione dello spettro
Possiamo ora determinare lo spettro utilizzando i risultati ottenuti. Il punto di partenza `e l’osservazione che la Eq. (10.138) lega lo spettro dell’hamiltoniana a quelli degli operatori M 2 e L2 . Pertanto, il problema della determinazione dello spettro dell’hamiltoniana si riduce al problema della determinazione dello spettro di L2 ed M 2 . Notiamo che la relazione di commutazione Eq. (10.140) mescola gli operatori momento angolare e vettore di Lenz, e quindi non `e a priori ovvio che sia possibile diagonalizzare simultaneamente H, L2 ed M 2 . Per ottenere questo risultato, innanzitutto semplifichiamo queste relazioni di commutazione studiandone gli elementi di matrice in un autostato di energia H|Ei = E|Ei,
(10.141)
che non abbiamo ancora determinato ma di cui supponiamo l’esistenza. Agendo su questo stato [M i , M j ] = −2Ei~εijk Lk .
(10.142)
10.3 Il potenziale coulombiano
183
Ricordando che E < 0 per stati legati, ci` o suggerisce di introdurre dei nuovi operatori definiti come Mi Ni = √ . −2E
(10.143)
Le relazioni di commutazione di questi operatori ridefiniti con gli operatori di momento angolare hanno la semplice forma [Li , N j ] = i~εijk Nk i
j
ijk
[N , N ] = i~ε
Lk ,
(10.144) (10.145)
che, assieme alle relazioni di commutazione fra generatori del momento angolare tra loro, ricordano quelle dei generatori del gruppo di Lorentz, con gli operatori Ni identificati con i generatori dei boost. In termini #» del vettore N la relazione Eq. (10.138) che lega l’energia a momento angolare totale e quadrato del vettore di Lenz diventa −2EN 2 = 2E(L2 + ~2 ) + 1,
(10.146)
−1 = 2E(N 2 + L2 + ~2 ).
(10.147)
ossia
Ma ora notiamo che le relazioni di commutazione Eq. (10.144-10.145), insieme a quelle degli operatori di momento angolare, possono essere poste in una forma ben nota definendo gli operatori F±i =
1 i (L ± N i ). 2
(10.148)
Ovviamente, possiamo considerare come costanti del moto equivalentemente i sei operatori Li ed N i , oppure i sei operatori F±i . Ma gli operatori F±i soddisfano le stesse relazioni di commutazione di due operatori di momento angolare indipendenti! Si ha infatti 1 i εijk k [L ± N i , Lj ± N j ] = i~ (L + Lk ± N k ± N k ) = i~εijk F±k 4 4 1 εijk k [F±i , F∓j ] = [Li ± N i , Lj ∓ N j ] = i~ (L − Lk ± N k ∓ N k ) = 0. 4 4 [F±i , F±j ] =
(10.149) (10.150)
Capiamo quindi in definitiva che l’insieme di leggi di conservazione corrisponde ad avere due insiemi di operatori, le cui regole di commutazione sono come quelle di momenti angolari che commutano con l’hamiltoniana: gli operatori F±i . Un insieme completo di operatori diagonalizzabili simultaneamente all’hamiltoniana `e quindi dato dai quattro operatori F+2 , F−2 , F+z , F−z . Nel linguaggio della Sezione 10.2.4, diciamo che la simmetria dell’hamiltoniana `e data dal gruppo O(3)×O(3). Si dimostra che questo gruppo coincide con il gruppo O(4) - questa `e la ragione dell’analogia delle relazioni di commutazione Eq. (10.144) con quelle del gruppo di Lorentz. Il gruppo O(4) `e infatti il gruppo di trasformazioni che conservano la norma di un vettore in uno spazio quadridimensionale, ossia r2 = x21 + x22 + x23 + x24 ; il gruppo di Lorentz `e il gruppo di trasformazioni che conservano la norma di un vettore quadridimensionale, ma con un segno cambiato, ossia d2 = x21 + x22 + x23 − x20 . Ricordiamo ora che solo cinque delle sei costanti del moto sono indipendenti dalla hamiltoniana, per via della relazione sulle componenti del vettore di Lenz Eq. (10.136). Questa implica che gli autovalori di F+ e F− non sono indipendenti. Infatti 1 2 (L + N 2 ) = F−2 (10.151) 4 #» #» #» #» #» # » # » #» dato che L · N = N · L = 0, essendo L · M = M · L = 0. Pertanto gli autostati di F+2 sono anche autostati di F−2 con lo stesso autovalore. F+2 =
184
Problemi tridimensionali
Possiamo ora riscrivere in termini degli operatori F±2 l’espressione Eq. (10.147) per l’autovalore di energia: −1 = 2E(N 2 + L2 + ~2 ) = 2E(4F+2 + ~2 ).
(10.152)
Il problema della determinazione dello spettro di energia `e cos`ı ridotto al problema della determinazione dello spettro di due operatori di momento angolare, con il vincolo che il loro autovalore sia il medesimo. z z Gli autostati ed autovalori sono quindi gli stati |f f+ f− i tali che z z z z z z F+2 |f f+ f− i = F−2 |f f+ f− i = ~2 f (f + 1)|f f+ f− i z z F±z |f f+ f− i
=
z ~f± |f fz+ fz− i,
(10.153) (10.154)
con z −f ≤ f± ≤ f.
(10.155)
Le Eq. (10.137-10.146) implicano che gli stati |f fz+ fz− i sono anche autostati dell’hamiltoniana, con autovalore dato da Ef = −
1 1 1 =− 2 . 2(~2 + 4~2 f (f + 1)) 2~ (1 + 2f )2
(10.156)
Quindi lo spettro dell’hamiltoniana `e En = −
1 1 2~2 n2
(10.157)
con n = 2f + 1,
(10.158)
intero ≥ 1; n `e detto numero quantico principale. Gli autostati sono completamente determinati dagli z z autovalori di H, F+z e F−z e possono quindi essere scritti equivalentemente come |nf+ f− i, tali che z z z z H|nf+ f− i = En |nf+ f− i,
(10.159)
con En dato dalla Eq. (10.157). Possiamo infine ripristinare i fattori finora eliminati per comodit`a, sfruttando le Eq. (10.88,10.96): troviamo cos`ı En = −
10.3.6
m(Ze2 )2 1 . 2~2 n2
(10.160)
Degenerazione e base fisica
z z Avendo stabilito che gli autostati di energia del sistema sono gli stati |nf+ f− i, possiamo facilmente z determinarne la degenerazione, osservando che tutti gli stati aventi diversi valori di f± sono associati allo stesso autovalore di energia; ma fisso n corrisponde a fisso f secondo la Eq. (10.158), e per dato f i valori z ammessi di f± sono dati dalla Eq. (10.155) e sono quindi pari a
d = (2f + 1)(2f + 1) = (2f + 1)2 = n2 ,
(10.161)
` naturalmente preferibile esprimere gli autostati di energia in una base in cui sono diagonali degli E operatori aventi un’interpretazione fisica immediata. Ora, osserviamo che F+ + F− = L.
(10.162)
Quindi, gli autostati di F+2 = F−2 , F+z , F−z possono essere scritti come autostati di F+2 = F−2 , L2 , Lz mediante l’uso di coefficienti di Clebsch-Gordan: X z z z z |n f+ f− i = |n`mihn`m|n f+ f− i, (10.163) `m
10.3 Il potenziale coulombiano
185
dove F+2 |n`mi = F−2 |n`mi = ~2 f (f + 1)|n`mi L2 |n`mi = ~2 `(` + 1)|n`mi
(10.164)
Lz |n`mi = ~m|n`mi. I valori possibili di ` si ricavano dalle regole di composizioni dei momenti angolari: ricordando la Eq. (9.152) sono 0 ≤ ` ≤ 2f = n − 1.
(10.165)
Ne segue che per fisso n, tutti e soli i valori del momento angolare 0 ≤ ` ≤ n − 1 sono permessi. Naturalente, questo vuol dire che per fisso ` tutti e soli i valori del numero quantico principale n ≥ ` + 1 sono permessi, come si era affermato nella Eq. (10.97). La degenerazione totale del livello n-esimo `e ovviamente sempre la stessa, come possiamo verificare esplicitamente. Fissato f , abbiamo 2f + 1 = n possibili valori per `, e, fissato quest’ultimo, 2` + 1 possibili valori per m. Si ha quindi d=
n−1 X `=0
10.3.7
1 (2` + 1) = 2 (n − 1)n + n = n2 . 2
(10.166)
Autofunzioni nella base delle coordinate
Il metodo algebrico ci ha permesso di determinare completamente lo spettro senza risolvere l’equazione differenziale Eq. (10.84), tuttavia non ci ha dato nessuna informazione sulla forma delle autofunzioni hr ϑ ϕ|n ` mi = Y`m (ϑ, ϕ)φn` (r).
(10.167)
Queste possono per` o essere costruite come autofunzioni degli operatori F + e F − , che a loro volta hanno la forma di operatori di momento angolare. Le loro autofunzioni possono quindi essere determinate con una procedura analoga a quella che ha portato alla costruzione delle armoniche sferiche, utilizzando la forma esplicita degli operatori F + e F − nella base delle coordinate. La costruzione dello stato fondamentale |1 0 0i `e particolarmente semplice: infatti esso ha f = 0, e corrisponde quindi ad un autofunzione di autovalore nullo di (F + )2 = (F − )2 . Ha quindi autovalore nullo della componente di F + e F − lungo qualunque asse: N |1 0 0i = (F + − F − )|1 0 0i = 0.
(10.168)
L|1 0 0i = (F + + F − )|1 0 0i = 0.
(10.169)
Inoltre, esso ha ` = 0 e quindi
Le Eq. (10.168,10.169) determinano completamente la forma dell’autofunzione Eq. (10.167). Ricordando (Eq. (10.143)) che N `e proporzionale al vettore di Lenz, e la definizione di quest’ultimo in termini di operatori canonici Eq. (10.124), ed in particolare la sua forma Eq. (10.135), si ha xi |1 0 0i = 0, (10.170) εijk pj Lk − i~pi − r ossia, usando la Eq. (10.169), xi i i~p + |1 0 0i = 0, r
(10.171)
#» x #» i~ · p + 1 |1 0 0i = 0, r
(10.172)
da cui
186
Problemi tridimensionali
#» ∂ cio`e, ricordando che nella base delle coordinate, Eq. (8.108), xr · #» p = −i~ ∂r , si riduce a ∂ ~2 + 1 φ10 (r) = 0. ∂r
(10.173)
La soluzione `e immediata: φ10 (r) = N exp −
r . ~2
La costante di normalizzazione si determina dalla condizione Z ∞ Z ∞ 2r 2 2 2 dr r2 exp − 2 = 1, dr r |φ10 (r)| = |N1 | ~ 0 0
(10.174)
(10.175)
da cui, ricordando che ∞
Z
dx xn e−σx =
0
n! , σ n+1
(10.176)
si ha φ10 (r) =
2 r exp − 2 . ~3 ~
(10.177)
L’autofunzione completa Eq. (10.167) si trova immediatamente osservando che l’armonica sferica Y00 (ϑ, ϕ) `e costante, ed `e quindi completamente determinata dalla normalizzazione 1 Y00 (ϑ, ϕ) = √ , 4π
(10.178)
1 1 r hr ϑ ϕ|100i = ψ100 (ϑ, ϕ, r) = Y00 (ϑ, ϕ)φ10 (r) = √ 3 exp − 2 . ~ π~
(10.179)
da cui infine
Possiamo infine ripristinare le costanti dimensionali: ricordando le Eq. (10.85,10.86), ma notando che la dipendenza da ~ `e stata mantenuta nei calcoli precedenti, abbiamo che la dipendenza da esse si ripristina sostituendo nella Eq. (10.179) il raggio adimensionale con la sua espressione in termini di raggio di Bohr, ossia r → r/a0 = r(Ze2 m). Troviamo cos`ı 3
1 (Ze2 m) 2 Ze2 mr ψ100 (ϑ, ϕ, r) = √ exp − . 3 ~ ~2 π
(10.180)
Per costruire gli stati eccitati si pu` o procedere in vari modi equivalenti. Una possibilit`a `e di costruirli come autostati di (F ± )2 e fz± , e poi determinare da essi gli autostati di L2 e Lz utilizzando i coefficienti di Clebsch-Gordan. Una possibilit` a alternativa `e di usare un metodo analogo a quello seguito nel caso dell’oscillatore armonico isotropo tridimensionale, ossia di definire opportuni operatori di creazione e distruzione generalizzati d` = ipr +
`~ 1 − . r ~`
(10.181)
Con argomenti analoghi a quelli usati per l’oscillatore armonico, si dimostra che essi hanno la propriet` a che d†`+1 |n ` mi = K+ |n ` + 1 mi,
(10.182)
dl |n ` mi = K+ |n ` − 1 mi.
(10.183)
Per ogni n, lo stato con il massimo valore di ` = n − 1 `e annichilato dall’operatore di innalzamento d†n |n n − 1 mi = 0,
(10.184)
10.3 Il potenziale coulombiano
187
da cui, nella base delle coordinate, ∂ 1 ~n 1 −~ + + − φn,n−1 (r) = 0, ∂r r r ~n
(10.185)
ossia dφn,n−1 dr dr = (n − 1) − 2 , φ r n~
(10.186)
la cui soluzione `e φn,n−1 (r) = N rn−1 exp −
r r = Ln,n−1 (r) exp − 2 n~2 n~
(10.187)
dove N `e una costante di normalizzazione e nell’ultimo passaggio abbiamo estratto il fattore polinomiale in un’opportuna funzione Ln,n−1 (r).
Figura 10.2: Andamento qualitativo delle autofunzioni radiali dell’atomo di idrogeno Gli stati successivi si costruiscono agendo con d` sullo stato con ` = `max : |n n − 2i = dn1 |n n − 1i.
(10.188)
Manifestamente, l’azione dell’operatore dn−1 sull’autofunzione (10.187) produce termini proporzionali a rn−1 e rn−2 volte l’esponenziale, quindi non cambia il grado del polinomio, che resta determinato dal valore di n. L’autofunzione generica per l’n-esimo livello `e quindi un polinomio Ln,` (r) di grado n − 1 volte un esponenziale della forma Eq. (10.187). L’ortonormalit`a degli stati Z 2r hn0|n0 0i = dr r2 exp − 2 Ln,0 (r)Ln0 ,0 (r) = δnn0 (10.189) ~ n implica che i polinomi Ln,0 (r) associati a ` = 0 formano una base ortonormale completa sotto integrazione nell’intervallo [0, ∞] con un peso esponenziale. Essi sono legati ad una nota famiglia di polinomi ortogonali, i polinomi di Laguerre. L’andamento qualitativo delle autofunzioni radiali dell’atomo di idrogeno `e mostrato in Fig. 10.2, mentre in Fig. 10.3 sono mostrate le autofunzioni corrispondenti allo stato fondamentale e ad alcuni dei primi livelli eccitati.
188
Problemi tridimensionali
Figura 10.3: Alcune autofunzioni radiali dell’atomo di idrogeno
Parte V
Metodi di approssimazione
Capitolo 11
Il limite classico della meccanica quantistica L’approssimazione semiclassica della meccanica quantistica, al di l`a del suo interesse per talune applicazioni, `e di grande rilevanza concettuale in quanto permette di capire il legame tra la formulazione classica e quella quantistica della meccanica.
11.1
L’azione in meccanica classica
Finora, la meccanica quantistica `e stata formulata da un punto di vista hamiltoniano. Nel caso classico, un sistema hamiltoniano `e descritto da un punto nello spazio delle fasi (p, q) per una singola particella unidimensionale, con ovvia generalizzazione al caso di molte particelle in molte dimensioni. I suoi moti sono traiettorie nello spazio delle fasi, ottenute risolvendo le equazioni di Hamilton, del primo ordine nelle derivate temporali di p e q. Nel caso quantistico p e q sono operatori non commutanti, quindi il vettore di stato del sistema pu` o essere espresso in termini di una base di autofunzioni dell’uno o dell’altro operatore, e fornisce la probabilit` a di risultati delle misure dell’una o dell’altra osservabile. Da un punto di vista classico `e molto naturale la formulazione lagrangiana, in cui le leggi del moto vengono date specificando una traiettoria q(t), e scrivendo una equazione differenziale del secondo ordine che determina tale traiettoria, date condizioni iniziali per le posizioni e le velocit`a: questo punto di vista differisce da quello hamiltoniano perch´e si determina una traiettoria q(t) risolvendo un’equazione differenziale del secondo ordine, mentre nel caso hamiltoniano di risolvono due equazioni differenziali del primo ordine accoppiate che determinano le traiettorie p(t) e q(t). Il punto di vista hamiltoniano sembra prestarsi male ad una estensione al caso quantistico, in quanto il principio di indeterminazione ci impedisce di dare quantisticamente un senso al concetto di traiettoria, e quindi condizioni iniziali per la posizione e la velocit`a non possono simultaneamente essere assegnate. Questa difficolt` a pu` o essere superata utilizzando un approccio in cui le traiettorie classiche sono determinate assegnando il punto iniziale ed il punto finale di una traiettoria.
11.1.1
Azione e traiettoria classica
Un moto classico che congiunge due punti nello spazio delle configurazioni a tempi dati, q0 (t0 ) e q1 (t1 ), `e completamente determinato dal principio di minima azione. Come `e noto, l’azione classica `e una funzione del punto iniziale, del punto finale, del tempo iniziale e del tempo finale, ed `e pari all’integrale in dt della Lagrangiana del sistema: Z
t1
S(q1 , t1 , q0 , t0 ) =
dt L(q, q, ˙ t) t0
(11.1)
192
Il limite classico della meccanica quantistica
con le condizioni al contorno q(t0 ) = q0 e q(t1 ) = q1 . L’azione cos`ı definita `e un funzionale, ossia una quantit` a che associa ad una funzione, la traiettoria classica nello spazio delle configurazioni, un numero, il valore dell’azione stessa. Possiamo calcolare la variazione della azione sotto una variazione della traiettoria, variando cio`e la posizione q(t) e la velocit` a q(t) ˙ ad ogni tempo t: t1
Z
dt
δS =
∂L ∂q
t0
Poich´e δ q˙ =
d dt δq,
∂L δ q˙ . ∂ q˙
(11.2)
∂L d δq ∂ q˙ dt
(11.3)
δq +
si ha t1
Z
dt
δS =
∂L
t0
∂q
δq +
ed integrando per parti Z t1 Z t1 h d ∂L i ∂L t1 d ∂L ∂L d ∂L ∂L δq + δq + − δq = dt − δq . δS = dt ∂q dt ∂ q˙ dt ∂ q˙ ∂q dt ∂ q˙ ∂ q˙ t0 t0 t0
(11.4)
Se imponiamo che il punto iniziale e finale della traiettoria siano fissi, δq(t0 ) = δq(t1 ) = 0, la variazione `e Z
t1
δS =
dt
∂L
t0
∂q
−
d ∂L δq. dt ∂ q˙
(11.5)
Si vede cos`ı che le traiettorie classiche corrispondono alle curve lungo le quali l’azione `e stazionaria, ossia δS = 0: infatti la Eq. (11.5) mostra che tale condizione `e soddisfatta se la traiettoria classica soddisfa le equazioni del moto di Lagrange d ∂L ∂L − = 0. ∂q dt ∂ q˙
(11.6)
L’azione classica fornisce quindi uno strumento per calcolare la traiettoria classica per date posizioni inziali e finali: essa corrisponde al cammino che congiunge fisse e date posizioni iniziali e finali minimizzando l’azione stessa. Inoltre, l’azione se valutata lungo la traiettoria classica stessa ha un’interpretazione suggestiva, che ci fonisce una formulazione “ondulatoria” della meccanica classica. Per capirlo, osserviamo che l’Eq. (11.5) determina anche la variazione dell’azione lungo una traiettoria classica al variare del tempo t1 . Infatti lungo una traiettoria classica il termine in parentesi nell’ultimo passaggio della Eq. (11.4) si annulla e, se q(t0 ) `e fisso ma q(t1 ) varia, si ha δS(t1 ) =
∂L δq(t1 ). ∂ q˙
(11.7)
Stiamo quindi vedendo l’azione da un punto di vista differente. Quando abbiamo ricavato le equazioni del moto, abbiamo considerato l’azione come un funzionale sullo spazio di tutte le possibili traiettorie classiche, con fissate condizioni al contorno: le traiettorie classiche sono quelle che minimizzano l’azione. Invece nella Eq. (11.7) vediamo l’azione come funzione della traiettoria classica, S = S(q(t), t) avente una certa condizione iniziale fissata e valutata non pi` u sullo spazio di tutte le traiettorie, ma solo sulla traiettoria che minimizza l’azione stessa. Allo scorrere del tempo, la traiettoria viene percorsa, e l’azione assume valori numerici differenti (si veda la Fig. 11.1), dipendendo dal tempo sia direttamente, sia attraverso q(t). Essa `e una funzione della posizione q e del tempo t, perch´e essa `e l’integrale definito della lagrangiana rispetto al tempo fino a t (da cui quindi l’azione dipende perch´e `e il limite superiore d’integrazione), eseguito lungo la traiettoria classica, e soggetto alla condizione al contorno che al tempo t la particella si trovi in q, da cui quindi l’azione dipende perch´e questa condizione al contorno individua la particolare traiettora classica lungo la quale si integra. Naturalmente, l’azione dipende anche dal tempo
11.1 L’azione in meccanica classica
193
Figura 11.1: Variazione dell’azione lungo la traiettoria classica: q0 `e fissato, mentre q(t1 ) varia lungo la traiettoria classica. inziale t0 e dalla posizione q0 , infatti la traiettoria classica `e determinata noti la posizione iniziale e quella finale ai tempi iniziale e finale, ma noi ne consideriamo la variazione per fissi t0 e q0 . Avendo capito il significato della variazione dell’azione lungo la traiettoria osserviamo ora che ∂L ∂ q˙ = p, e quindi la Eq. (11.7) dice che p(t1 ) =
∂S (q1 , t1 ), ∂q1
(11.8)
in altri termini, l’impulso pu` o essere visto come la derivata parziale dell’azione, vista come funzione del tempo e della coordinata lungo una traiettoria classica, per fissa condizione iniziale. Tutto l’argomento si generalizza in modo immediato al caso in cui le coordinate lagrangiane siano pi` u d’una, e quindi in particolare al caso multidimensionale, per cui troviamo che pi (t1 ) =
∂S (q1 , t1 ), ∂q1i
(11.9)
vale a dire che l’impulso `e il gradiente dell’azione classica lungo la traiettoria. La Equazione (11.9) esprime l’impulso classico come gradiente dell’azione e ricordare quindi l’azione dell’operatore impulso quantistico sulle funzioni d’onda nella base delle coordinate. Fa quindi pensare all’azione come una sorta di “onda” che determina la traiettoria classica. L’analogia pu`o resa ancora pi` u precisa riformulando la meccanica classica in modo opportuno.
11.1.2
La teoria di Hamilton-Jacobi
La formulazione di Hamilton-Jacobi della meccanica classica permette di spingere un po’ oltre l’interpretazione che abbiamo appena suggerito, dell’azione come una sorta di onda che determina i moti classici. In questa formulazione, si sfrutta la Eq. (11.8) per ricavare una equazione alle derivate parziali che determina completamente l’azione lungo le traiettorie classiche come funzione di q e del tempo t. Nota l’azione gli impulsi e quindi le traiettorie classiche possono essere derivati da essa per differenziazione usando la Eq. (11.8) stessa. Considerando dapprima per semplicit` a un caso unidimensionale, la variazione dell’azione nel tempo lungo una traiettoria classica `e dS ∂S ∂S ∂S = + q˙ = + pq. ˙ dt ∂t ∂q ∂t
(11.10)
dS = L(q, q, ˙ t) dt
(11.11)
Ma
e poich´e L = pq˙ − H ∂S + pq, ˙ ∂t
(11.12)
∂S + H(q, p, t) = 0. ∂t
(11.13)
pq˙ − H = vale a dire
194
Il limite classico della meccanica quantistica
Data la relazione Eq. (11.8) tra l’Hamiltoniana e gli impulsi possiamo scrivere l’equazione (11.13) come ∂S ∂S + H q, , t = 0, (11.14) ∂t ∂q nota come equazione di Hamilton-Jacobi). La funzione S(q, t) determinata risolvendo tale equazione, ovvero l’azione classica valutata in funzione del tempo lungo una traiettoria classica, `e nota come funzione principale di Hamilton. Facciamo un esempio esplicito per capire il senso di queste manipolazioni. Consideriamo l’Hamiltoniana dell’oscillatore armonico H=
1 p2 + mω 2 q 2 . 2m 2
In tal caso, l’equazione di Hamilton-Jacobi (11.14) diventa 2 ∂S 1 1 ∂S + mω 2 q 2 = 0. + ∂t 2m ∂q 2
(11.15)
(11.16)
Poich´e l’hamiltoniana non dipende dal tempo, l’energia (che coincide con la hamiltoniana valutata su una traiettoria classica) `e conservata, e quindi la Eq. (11.14) immediatamente implica che anche ∂S ∂t non dipende dal tempo: ∂S = −E. ∂t
(11.17)
` quindi possibile risolvere l’equazione differenziale per separazione di variabili: la soluzione generale E della Eq. (11.17) `e manifestamente S(q(t), t) = −Et + W (q(t)) dove W `e detta funzione caratteristica di Hamilton. Sostituendo nella Eq. (11.14) si ha perci`o 2 1 dW 1 + mω 2 q 2 = E, 2m dq 2
(11.18)
(11.19)
da cui otteniamo √
Z
r
q
W (q) = ± 2mE
dq
0
1−
q0
1 mω 2 q 0 2 . 2E
(11.20)
Possiamo quindi determinare la funzione caratteristica di Hamilton calcolando l’integrale Eq. (11.20). Nota quest’ultima come funzione di q ne ricaviamo immediatamente l’impulso al tempo t mediante la Eq. (11.8), e da questo risaliamo immediatamente alla traiettoria classica ponendo p = mq˙ ed integrando l’equazione del primo ordine. Le Eq. (11.16,11.20) si generalizzano facilmente al caso di un generico potenziale indipendente dal tempo: ponendo H=
p2 + V (q) 2m
(11.21)
otteniamo p=
dW dq
=±
p
2m[E − V (q)].
(11.22)
Infine, possiamo generalizzare al caso tridimensionale, dove H=
#» p2 + V ( #» q ). 2m
(11.23)
11.2 L’azione in meccanica quantistica
195
In tal caso si ha #» (∇W )2 = 2m(E − V ( #» q ))
(11.24)
#» #» p = ∇W ( #» q ).
(11.25)
e
Quindi `e possibile determinare il gradiente di W prendendo la radice quadrata di tale espressione e integrando l’espressione ottenuta lungo un arco. Vi sono tecniche pi` u efficienti per risolvere le equazioni del moto usando il metodo di Hamilton-Jacobi, ma quello che preme osservare qui `e che il metodo consiste nel determinare una funzione, la funzione principale di Hamilton, ossia la azione valutata lungo le traiettorie classiche, a partire dalla quale gli impulsi si possono ottenere per differenziazione. In questo senso la funzione principale di Hamilton S(q; t), e, nel caso di sistemi invarianti per traslazioni temporali, la funzione caratteristica W (q) che la determina completamente, possono essere viste come “funzioni d’onda” classiche. Notiamo infatti che le Eq. (11.25-11.24) ci dicono rispettivamente che il vettore tangente alla traiettoria classica `e diretto lungo il gradiente di W ( #» q ), e che la sua lunghezza (cio`e il modulo della velocit`a classica) `e pari alla lunghezza del gradiente, cio`e sostanzialmente alla pendenza. La situazione `e quindi analoga a quella di un oggetto sospinto da un onda. La velocit` a dell’oggetto sospinto dall’onda pu`o essere quindi interpretata come una “velocit`a di gruppo”, distinta dalla velocit` a di fase con cui si muovono i fronti d’onda. Quest’ultima si trova notando facilmente per un sistema invariante per traslazioni temporali, per il quale vale la Eq. (11.18). Infatti, una superficie q0 (t) su cui S costante si muove a velocit`a fissata dalla condizione dS dt |q0 (t) = 0 da cui dW q˙0 − E = 0, dq
(11.26)
e quindi usando la Eq. (11.19) q˙0 =
E p = vf , ± 2m[E − V (q0 (t))]
(11.27)
che `e quindi la velocit` a di fase. La velocit` a della singola traiettoria si trova invece usando la Eq. (11.22), ed `e data da r 2[E − V (q)] q˙ = ± . (11.28) m
11.2
L’azione in meccanica quantistica
Passiamo al caso quantistico studiando i “moti” in meccanica quantistica. Nel caso quantistico, non `e possibile definire una traiettoria, per` o `e possibile calcolare la probabilit`a che un sistema che al tempo t0 si trova in q0 al tempo t venga rivelato in q. L’insieme di tali probabilit`a al variare del tempo t fornisce l’analogo quantistico della traiettoria classica. Vedremo che anche queste probabilit`a, e le ampiezze che le determinano, possono essere calcolate in termini della azione del sistema.
11.2.1
Il propagatore
Sappiamo gi` a che l’evoluzione temporale di uno stato quantistico `e deterministica, ed `e data dall’azione di un operatore di evoluzione temporale S(t, t0 ) che, agendo sullo stato al tempo t0 , |ψ(t0 )i, fornisce lo stato al tempo t: |ψ(t)i = S(t, t0 )|ψ(t0 )i.
(11.29)
La funzione d’onda al tempo finale si ottiene proiettando |ψ(t)i sugli autostati della posizione: ψ(q; t) = hq|ψ(t)i = hq|S(t, t0 )|ψ(t0 )i,
(11.30)
196
Il limite classico della meccanica quantistica
che possiamo riscrivere come Z Z 0 0 0 ψ(q; t) = dq hq|S(t, t0 )|q ihq |ψ(t0 )i = dq 0 hq|S(t, t0 )|q 0 iψ(q 0 ; t0 ).
(11.31)
Vediamo cos`ı che la funzione d’onda al tempo t si pu`o ottenere facendo agire per convoluzione sulla funzione d’onda iniziale l’elemento di matrice dell’operatore di evoluzione temporale tra autostati della posizione: K(qf , tf ; qi , ti ) ≡ hqf |S(tf , ti )|qi i.
(11.32)
La K(qf , tf ; qi , ti ) `e detta propagatore, ed ha un ruolo analogo alla funzione di Green dell’elettrodinamica classica, che permette di determinare il campo (elettrico o magnetico) generato da una distribuzione di carica o corrente: il propagatore permette di determinare la funzione d’onda “finale” determinata da una funzione d’onda “iniziale”. Notare che non necessariamente tf > ti , cio´e il tempo finale pu`o anche essere antecedente a quello iniziale, perch´e l’evoluzione temporale quantistica `e deterministica, unitaria e quindi reversibile. Possiamo interpretare fisicamente il propagatore calcolando la Eq. (11.30) nel caso in cui al tempo t0 il sistema si trova in un autostato della posizione, ossia hq 0 |ψ(t0 )i = δ(q0 − q 0 ).
(11.33)
In tal caso si ha Z ψ(q; t) =
dq 0 K(q, t; q 0 , t0 )δ(q0 − q 0 ) = K(q, t; q0 , t0 ).
(11.34)
Il propagatore `e quindi la funzione d’onda nello spazio delle posizioni q al tempo t, per un sistema che al tempo iniziale t0 si trova in un autostato della posizione q0 . Da questo punto di vista `e definito analogamente alla funzione principale di Hamilton, che `e stata anch’essa costruita come una quantit`a (la azione) definita per un sistema (classico) che al tempo t si trova in q, mentre al tempo iniziale t0 si trova in q0 . Una importante propriet` a del propagatore, che esprime la causalit`a dell’evoluzione temporale, `e la sua associativit` a. Si ha infatti che, applicando ripetutamente l’operatore di evoluzione temporale, |ψ(t)i = S(t, t1 )|ψ(t1 )i = S(t, t1 )S(t1 , t0 )|ψ(t0 )i = S(t, t0 ))|ψ(t0 )i,
(11.35)
S(t, t0 ) = S(t, t1 )S(t1 , t0 )
(11.36)
da cui
e quindi, introducendo una risoluzione dell’identit`a, Z K(q, t; q0 , t0 ) = hq|S(t, t0 )|q0 i = dq1 hq|S(t, t1 )|q1 ihq1 |S(t1 , t0 )|q0 i Z = dq1 K(q, t; q1 , t1 )K(q1 , t1 ; q0 , t0 ),
(11.37)
che mostra come il propagatore sia associativo sotto convoluzione.
11.2.2
Propagatore ed azione
Vogliamo ora calcolare il propagatore esplicitamente. Ovviamente, ne conosciamo gi`a l’espressione in forma hamiltoniana: per hamiltoniane indipendenti dal tempo, 1
S(t, t0 ) = e i~ H(t−t0 ) .
(11.38)
Ora ne vogliamo determinare un’espressione in forma lagrangiana. Affrontiamo il problema dapprima per un’evoluzione temporale infinitesima, da t0 a t = t0 +ε. Consideriamo per semplicit`a un’hamiltoniana della
11.2 L’azione in meccanica quantistica
197
ˆ = pˆ2 + Vˆ (ˆ forma H q ) (la generalizzazione ad hamiltoniane dipendenti dal tempo e potenziali dipendenti 2m dalle velocit` a `e possibile, ma richiede un po’ di lavoro in pi` u). Utilizzando la definizione Eq. (11.32) del propagatore, con la forma Eq. (11.38) dell’operatore di evoluzione temporale, e sviluppando al primo ordine in ε, si ha 2 pˆ ε + V (ˆ q ) |qi K(q , t + ε; q, t) = hq | exp i~ 2m 2 Z pˆ ε 0 0 0 0 = dpdp hq |p ihp | 1 + + V (ˆ q ) |pihp|qi i~ 2m Z i ε d dp0 dp i q0 p0 ε p2 e~ δ(p − p0 ) + V i~ 0 δ(p0 − p) e− ~ qp , (11.39) = δ(p0 − p) + 2π~ i~ 2m i~ dp 0
0
dove abbiamo sfruttato il fatto che le autofunzioni dell’impulso, correttamente normalizzate come hp|p0 i = 1 exp( ~i pq), e, nell’ultimo passaggio, del fatto che nella base degli impulsi δ(p − p0 ), sono hq|pi = √2π~ ∂ δ(p − p0 ), ∂p0 ∂ 0 ˆ hp |V (ˆ q )|pi = V i~ 0 δ(p − p0 ). ∂p hp0 |ˆ q |pi = i~
(11.40) (11.41)
Ma ora, osservando che i 0 ∂ − i p0 q e ~ = qe− ~ p q , ∂p0 n i 0 i 0 ∂ i~ 0 e− ~ p q = q n e− ~ p q , ∂p i 0 i 0 ∂ V i~ 0 e− ~ p q = V (q)e− ~ p q , ∂p
i~
(11.42) (11.43) (11.44)
troviamo immediatamente 2 i ε dp0 dp i q0 p0 p ∂ e~ 1+ + V i~ 0 δ(p0 − p)e− ~ qp 2π~ i~ 2m ∂p 2 Z dp i (q0 −q)p p ε = e~ 1+ + V (q) . 2π~ i~ 2m
K(q 0 , t + ε; q, t) =
Z
(11.45)
Notiamo ora che, per una evoluzione temporale infinitesima, possiamo porre q 0 = εq˙ + q :
(11.46)
infatti, la velocit` a `e per definizione q˙ = lim
∆t→0
∆q . ∆t
(11.47)
Si ha perci` o 2 dp i pqε p ε e~ ˙ 1 + + V (q) 2π~ i~ 2m Z p2 dp iε pq− ˙ 2m −V (q) = e~ , 2π~
K(q 0 , t + ε; q, t) =
Z
(11.48)
dove nel secondo passaggio abbiamo esponenziato il termine in ε, a meno di infinitesimi di ordine superiore.
198
Il limite classico della meccanica quantistica
Ma l’integrale in p pu` o ora essere eseguito come integrale gaussiano: r Z Z √ 2 p 2 1 iε 2 m 1 − i εV (q) 1 iε 2~m √ − iε −q˙ m mq˙2 −V (q)) q˙ 2 ( ~ 2 2m ~ 2 ~ ~ K(q , ε, q) = = e dp e e e dλ e−λ 2π~ 2π~ iε r 2 1 m iε (11.49) e ~ ( 2 mq˙ −V (q)) . = 2πiε~ 0
Ricordando che dt = t − t0 = ε, riconosciamo il fattore di fase ad esponente come l’elemento di azione infinitesima lungo l’evoluzione temporale data, infatti 1 2 ε mq˙ − V (q) = dtL(q, q) ˙ = idS, (11.50) 2 da cui troviamo immediatamente che per un’evoluzione temporale infinitesima r m idS(t) e ~ . K(q 0 , ε, q) = 2πiε~
(11.51)
L’elemento di matrice del propagatore tra due autostati della posizione `e quindi dato da una fase, pari alla azione misurata in unit` a di ~. Notiamo che il fattore di normalizzazione `e fissato dalla richiesta che lim K(q 0 , ε, q) = hq 0 , t|q, ti = δ(q 0 − q) :
ε→0
(11.52)
infatti il membro destro della Eq. (11.51) fornisce una rappresentazione della delta di Dirac nel limite ε → 0 in quanto r (∆q)2 2 i m 0 lim K(q , ε, q) = lim e 2m~ ε q˙ , (11.53) ε→0 ε→0 2πiε~ che nel limite `e una gaussiana di larghezza decrescente, ma con fissa normalizzazione Z r (∆q)2 2 i m e 2m~ ε q˙ = 1. 2πiε~
11.2.3
(11.54)
L’integrale di cammino
Possiamo ora determinare il propagatore per un’evoluzione temporale finita combinando una sequenza di 0 evoluzioni temporali infinitesime mediante la propriet`a associativa Eq. (11.37). Poniamo ora ∆t = t n−t con limn→∞ ∆t = ε. L’associativit` a implica che n termini
}| { z hqf |S(t0 , t)|qi i = hqf | S(tf , tn−1 )S(tn−1 , tn−2 ) · · · S(t1 , t) |qi i,
(11.55)
Z K(qf , tf ; qi , ti ) = Z =
dq1 dq2 · · · dqn−1 hqf |S(tf , tn−1 )|qn−1 i . . . hq2 |S(tn2 , t1 )|q1 ihq1 |S(t1 , t)|qi i r r r m idS(tn−1 ) m idS(t1 ) m idS(t) ~ ~ dq1 dq2 · · · dqn−1 e ... e ... e ~ 2πiε~ 2πiε~ 2πiε~
(11.56)
Questa equazione esprime in modo compatto il principio fondamentale della meccanica quantistica secondo cui le ampiezze di transizione (il cui modulo quadro d`a la probabilit`a) si compongono secondo il principio di sovrapposizione. L’ampiezza di probabilit`a che un certo stato iniziale termini in un certo stato finale si calcola considerando tutti i possibili stati intermedi a tutti gli istanti intermedi e sommando su tutte le traiettorie. Possiamo capire il significato di questo risultato ricordando l’esperimento di Zeilinger, cio`e considerando una particella che al tempo t1 passa attraverso uno schermo S1 attraverso il quale sono praticate k fenditure, al tempo t2 attraverso uno schermo S2 , e cos`ı via (si veda la Figura 11.2). In questo caso, a
11.2 L’azione in meccanica quantistica
199
ciascun tempo ti il sistema pu` o trovarsi in un numero finito k di posizioni, che corrispondono a ciascuna delle fenditure. In tal caso, gli n integrali dqi sono sostituiti da n sommatorie sui k diversi stati. Tutte le possibili storie del sistema corrispondono quindi a tutte le possibili k n diverse traiettorie che passano attraverso una qualunque delle fenditure: la Eq. (11.56) ci dice che l’ampiezza di trovare un sistema in un qualunque punto a valle delle fenditure si trova sommando su tutte le traiettorie possibili, ciascuna pesata dall’esponenziale immaginario dell’azione valutata per quel cammino, espressa in unit`a di ~. L’espressione Eq. (11.56) corrisponde al limite in cui le k fenditure diventano una variabile continua di posizione, e la sommatoria diventa quindi un integrale.
Figura 11.2: Traiettorie seguite da un sistema quantistico con due schermi ciascuno con quattro fenditure. Il propagatore `e ulteriormente definito come il limite in cui n tende a infinito dell’espressione Eq. (11.56), cio`e anche il tempo diventa una variabile continua. In questo caso l’integrale multiplo dell’Eq. (11.56) diventa un nuovo oggetto, chiamato integrale di cammino (path integral) o anche integrale di Feynman. Dal punto di vista matematico, esso `e un integrale funzionale, o integrale di Kac. Si tratta di un integrale in cui la funzione integranda `e un funzionale ossia una funzione che associa un numero ad una funzione: nel nostro caso, essa associa ad una traiettoria l’esponenziale di i volte l’azione valutata su tale traiettoria, in unit` a di ~. L’integrale viene fatto su uno spazio di funzioni, nel nostro caso tutte le traiettorie che uniscono il punto iniziale a quello finale, tenuti fissati. La misura di integrazione `e pertanto il differenziale di una funzione, indicato con Dq(t), e l’integrale funzionale viene scritto come Z K(qf , tf ; qi , ti ) =
q(ti ) = qi Dq(t)e q(tf ) = qf
i ~ S[q(t)]
,
(11.57)
p m dove la misura di integrazione va definita prendendo il limite ε → 0, ed include perci`o i i fattori 2πiε~ in modo che resti vera la condizione di normalizzazione Eq. (11.54). Possiamo ora porci nuovamente il problema del limite semiclassico. In meccanica quantistica, l’ampiezza di transizione si trova integrando su tutte le traiettorie secondo l’integrale di Feynman: tutti i cammini che portano dal punto iniziale a quello finale contribuiscono. Notare che vengono quindi inclusi cammini discontinui, non differenziabili, e cos`ı via: infatti nella Eq. (11.56) le risoluzioni dell’identit`a ai tempi intermedi prevedono che si integri in ogni caso su tutte le possibili posizioni. L’ampiezza `e quindi una media pesata su tutti i cammini, con un peso che `e dato dall’esponenziale dell’azione espressa in unit` a di ~. Notare che l’azione `e qui vista proprio nel senso della funzione principale di Hamilton, cio`e come un’integrale della lagrangiana per fissi tempo e posizione iniziali, valutata in funzione ti tempo e posizione finali. In meccanica classica, invece, contribuisce solo la traiettoria di minima azione. Possiamo capirne il senso supponendo di definire l’integrale di cammino Eq. (11.57) per continuazione analitica a partire da
200
Il limite classico della meccanica quantistica
quello calcolato per tempo immaginario, cio`e ponendo t → it nella Eq. (11.57) dimodoch´e Z 1 K(qf , itf ; qi , iti ) = Dq(t) N (q(t))e− ~ S[q(t)] .
(11.58)
L’integrale di cammino pesa quindi ciascun cammino con l’esponenziale di −S in unit`a di ~. Nel limite classico il cammino che d` a maggior contributo `e proprio il cammino classico, che ha il peso statistico maggiore. Tutti i cammini in cui l’azione `e maggiore (ad esempio, i cammini discontinui) sono esponenzialmente soppressi. Nel limite in cui ~ → 0 l’unico cammino a sopravvivere `e quello classico. Definendo il path integral per continuazione analitica, ci`o resta vero anche per tempi reali.
Figura 11.3: Cammini che congiungono due punti: la traiettoria di minima azione `e indicata in neretto, mentre le frecce indicano direzioni in cui l’azione `e crescente. Che il cammino di minima azione dia il contributo dominante pu`o essere anche capito direttamente, senza ricorrere alla continuazione analitica. L’integrale funzionale viene eseguito sui cammini: possiamo pensare di integrare in un intorno del cammino di minima azione, includendo via via il contributo di cammini di azione sempre pi` u grande (si veda la Figura 11.3). Ma l’integranda, ossia il contributo di ogni cammino, `e dato da una fase, che diventa sempre pi` u grande man mano che ci allontaniamo dal cammino di minima azione. Stiamo quindi integrando una funzione che oscilla sempre pi` u rapidamente. Ma l’integrale di un seno o un coseno su un periodo `e nullo. Quindi, se l’azione `e grande in unit`a di ~, anche piccole deformazioni del cammino intorno a quello classico fornisco contributi all’integrale di cammino che si cancellano, e solo il cammino classico e quelli vicinissimi ad esso contribuiscono. Se invece il valore dell’azione classica `e paragonabile ad ~, molti cammini contrbuiscono dando cos`ı luogo agli effetti di interferenza quantistica. Siamo cos`ı infine in grado di dare un preciso significato quantitativo all’affermazione che abbiamo pi` u volte fatto, per cui la fisica quantistica descrive sistemi con un numero sufficientemente piccolo di gradi di libert` a: gli effetti quantistici si manifestano quando il valore numerico dell’azione, che possiamo pensare come il volume di spazio delle fasi occupato dal sistema, e quindi come un conteggio di gradi di libert` a, `e piccolo in unit` a di ~.
11.2.4
L’equazione di Schr¨ odinger dal path integral
Combinando la relazione Eq. (11.34) tra propagatore e funzione d’onda per un autostato della posizione evoluto nel tempo, e l’espressione Eq. (11.57) del propagatore in termini di integrale di cammino, vediamo che la funzione d’onda pu` o essere espressa come Z i ~ S[q(t)] . ψ(q; t) = K(qf , tf ; qi , ti ) = (11.59) q(t ) = q Dq(t)e i
i
q(tf ) = qf
11.2 L’azione in meccanica quantistica
201
Naturalmente, se lo stato iniziale non `e un autostato della posizione, la funzione d’onda al tempo t `e data da un path integral in cui si sovrappongono tutte le condizioni iniziali corrispondenti a diverse posizioni q al tempo iniziale, ciascuna pesata con la funzione d’onda iniziale: Z Z i ~ S[q(t)] ψ(q ). (11.60) ψ(q; t) = K(qf , tf ; qi , ti ) = dqi i q(t ) = q Dq(t)e i
i
q(tf ) = qf L’espressione Eq. (11.60 della funzione d’onda in termini di path integral `e, nella formulazione di Feynman, l’ipotesi fondamentale da cui tutta la meccanica quantistica viene ricavata, semplicemente postulando che la funzione d’onda fornisca l’ampiezza di probabilit`a degli eventi. Questa ipotesi equivale all’insieme dei principi enunciati nella Sezione 1.4, poich`’ avendo espresso in termini di path integral la “regola di Born” per il calcolo delle probabilit`a, gli altri postulati esprimono delle propriet`a della funzione d’onda che sono automaticamente soddisfatte dal path integral: in particolare, il principio di sovrapposizione, e l’ortonormalit` a degli stati fisici. Anche l’ultimo postulato della meccanica quantistica, formulato nella Sezione 4.1.3, e cio´e la legge di evoluzione temporale, pu` o essere ricavato dal path integral. Possiamo cio`e dimostrare direttamente che la funzione d’onda la funzione d’onda Eq. (11.60) soddisfa l’equazione di Schr¨odinger. A tal fine, osserviamo che possiamo vedere la funzione d’onda come il risultato di una evoluzione temporale infinitesima della funzione d’onda ad un tempo immediatamente precedente: Z ψ(q, ; t) = dq 0 hq t|q 0 t0 ihq 0 t0 |ψi " # 2 Z r ∆q m i 1 0 0 exp (t − t ) m − V (qf ) ψ(q 0 ; t0 ), (11.61) = dq 2πi(t − t0 )~ ~ 2 t − t0 dove abbiamo posto ∆q = q − q 0 . Consideriamo il limite in cui ∆t = t − t0 = ε → 0. In questo limite anche ∆q → 0, perch`e lim hq t|q 0 t0 i = hq|q 0 i = δ(q − q 0 ).
∆t→0
(11.62)
Al tendere a zero di ε, possiamo quindi sviluppare il risultato simultaneamente in potenze di ∆t e in potenze di ∆q, considerando entrambe come quantit`a di ordine ε. Sviluppiamo quindi la funzione d’onda ψ(q 0 , t0 ) in serie di Taylor attorno a q: ψ(q 0 ; t0 ) = ψ(q; t0 ) − ∆q
∂ 1 ∂2 ψ(q; t0 ) + (∆q)2 2 ψ(q; t0 ) + O((∆q 3 )). ∂q 2 ∂q
(11.63)
A meno di termini di ordine superiore, cambiando la variabile di integrazione da q 0 a ∆q, si ha r Z 2 (∆q)2 i 1 m ∂ 1 0 − ~i ∆tV (qf ) m ∆t 0 0 2 ∂ ~ 2 ψ(q; t ) . ψ(q; t) = e d∆q e ψ(q; t ) − ∆q ψ(q; t ) + (∆q) 2πi∆t~ ∂q 2 ∂q 2 (11.64) Restano quindi da calcolare tre integrali: r Z d∆q
(∆q)2 i 1 m e ~ 2 m ∆t = 1 2πi∆t~
che `e la condizione di normalizzazione Eq. (11.54); r Z (∆q)2 i 1 m d∆q e ~ 2 m ∆t ∆q = 0 2πi∆t~ poich´e `e l’integrale di una funzione dispari su un dominio pari; ed infine r r Z Z (∆q)2 2 i 1 1 m 1 ∂ m i ~∆t m ∆t 2 ~ 2 d∆q e (∆q) = d∆q eα(∆q) = , 2 2πi∆t~ 2 ∂α 2πi∆t~ 2 m
(11.65)
(11.66)
(11.67)
202
Il limite classico della meccanica quantistica
im dove nel secondo passaggio abbiamo posto α = 2~∆t . La Eq. (11.64) diventa cos`ı i i ~∆t ∂ 2 0 ψ(q; t) = ψ(q, t0 ) + ψ(q, t ) e− ~ ∆tV (q) . 2 m ∂q 2
(11.68)
Ma ψ(q; t0 ) = ψ(q; t) − ∆t
∂ ψ(q; t) + O((∆t)2 ) ∂t
(11.69)
e i
e− ~ ∆tV (q) = 1 −
i ∆tV (q) + O((∆t)2 ), ~
(11.70)
quindi tenendo solo termini al primo ordine la (11.68) diventa ψ(q; t) = ψ(q; t) − ∆t
i i ~∆t ∂ 2 ∂ ψ(q, t) − ∆tV (q)ψ(q; t), ψ(q; t) + ∂t 2 m ∂q 2 ~
(11.71)
e cio´e i~
∂ψ(q; t) ~2 ∂ 2 ψ(q; t) =− + V (q)ψ(q; t), ∂t 2m ∂q 2
(11.72)
che `e proprio l’equazione di Schr¨ odinger per la funzione d’onda ψ(q; t). Ne segue che la formulazione alla Schr¨ odinger dell’evoluzione temporale nella base delle coordinate `e segue dall’espressione dell’azione dell’operatore di evoluzione temporale per un tempo infinitesimo.
11.3
L’approssimazione WKB
L’espressione Eq. (11.59) della funzione d’onda in termini di path integral suggerisce come si possa costruire il limite semiclassico dell’equazione di Schr¨odinger: in tale limite, solo un cammino contribuisce, e la funzione d’onda `e una pura fase, eguale all’azione valutata lungo tale camino: ψ ∼ exp ~i S. Questo suggerisce che il limite classico dell’equazione di Schr¨odinger si pu`o ottenere scrivendo la funzione d’onda in forma esponenziale come i ψ( #» x ; t) = exp Θ( #» x , t), (11.73) ~ studiando l’equazione soddisfatta dalla funzione Θ( #» x , t), e trattando ~ come parametro di uno sviluppo perturbativo. Questo porta alla cosiddetta approssimazione WKB (Wentzel, Kramers, Brillouin), che fu in effetti sviluppata negli anni ’20 del novecento, ben prima della formulazione di Feynman, a partire da manipolazioni formali dell’equazione di Schr¨odinger.
11.3.1
Limite semiclassico dell’equazione di Schr¨ odinger
Sostituendo la funzione d’onda scritta nella forma Eq. (11.73) nell’equazione di Schr¨odinger (supponendo 2 ˆ», t)) si trova immediatamente che la funzione Θ( #» ˆ = #pˆ» + Vˆ ( #x al solito una hamiltoniana della forma H x , t) 2m
deve soddisfare l’equazione ∂Θ( #» x , t) 1 #» #» i~ #» = ∇Θ( x , t) · ∇Θ( #» x , t) + V ( #» 4Θ( #» x , t). x , t) − ∂t 2m 2m Possiamo ora costruire l’approssimazione semiclassica sviluppando Θ( #» x , t) in serie di ~ 2 ~ ~ #» #» #» Θ( x , t) = S( x , t) + S1 ( x , t) + S2 ( #» x , t) + . . . , i i −
(11.74)
(11.75)
11.3 L’approssimazione WKB
203
dove i fattori di i sono stati introdotti per convenienza dei successivi calcoli, ed abbiamo chiamato S il termine di ordine zero dello sviluppo ricordando il limite classico del path integral. Sostituendo questo sviluppo nell’equazione di Schr¨ odinger Eq. (11.74) soddisfatta dalla Θ( #» x , t), e identificando i coefficienti delle successive potenze di ~ troviamo cos`ı una sequenza di equazioni che determinano i termini successivi dello sviluppo Eq. (11.75). All’ordine zero in ~ troviamo −
∂S 1 #» 2 = (∇S) + V ( #» x) ∂t 2m
(11.76)
che `e l’equazione di Hamilton-Jacobi per la funzione S. Si vede cos`ı che nel limite ~ → 0 la funzione d’onda quantistica `e l’esponenziale della funzione principale di Hamilton. In questo limite la funzione d’onda `e una pura fase perch`e S `e reale. Risolvendo la Eq. (11.76) ritroviamo la funzione di Hamilton della meccanica classica: se il potenziale non dipende dal tempo, come abbiamo visto nella sezione 11.1.2 (si ricordi la Eq. (11.18), possiamo porre Θ( #» x , t) = −Et + σ0 ( #» x ),
(11.77)
dove σ0 ( #» x ), indipendente dal tempo, `e la funzione caratteristica di Hamilton, che soddisfa l’equazione E=
1 #» 2 (∇σ0 ) + V 2m
(11.78)
da cui p #» ∇σ0 ( #» x ) = ± 2m(E − V ( #» x )),
(11.79)
che nel caso unidimensionale si riduce ulteriormente a p dσ0 = ± 2m(E − V ( #» x )), dx
(11.80)
e quindi Z
x
σ0 (x) = ±
dx0
p 2m(E − V ( #» x )).
(11.81)
x0
Vediamo cos`ı come la traiettoria classica emerga nel limite in cui ~ → 0.
11.3.2
Correzioni al primo ordine ed approssimazione semiclassica
Per capire la relazione tra traiettoria classica e funzione d’onda quantistica consideriamo ora la correzione del primo ordine in ~. Osserviamo innanzitutto che per una hamiltoniana indipendente dal tempo possiamo scrivere le soluzioni dell’equazione di Schr¨odinger nella forma di stati stazionari, ossia i x ), ψ( #» x ; t) = e− ~ Et ψ( #»
(11.82)
dove ψ( #» x ) `e un autostato della hamiltoniana. Ne segue immediatamente che, per uno stato stazionario, a tutti gli ordini in ~ possiamo porre ~ Θ( #» x , t) = −Et + σ0 ( #» x ) + σ1 ( #» x) + i
2 ~ σ2 ( #» x) + ..., i
(11.83)
ossia tutti i contributi ad S Eq. (11.75) al di l`a del primo ordine sono indipendenti dal tempo. Al primo ordine in ~ troviamo cos`ı #» #» 0 = 2∇σ0 ∇σ1 + 4σ0 ,
(11.84)
204
Il limite classico della meccanica quantistica
al secondo ordine #» #» #» 0 = 2∇σ0 · ∇σ2 + (∇σ1 )2 + 4σ1 ,
(11.85)
e cos`ı via. Queste equazioni ci permettono di determinare ordine per ordine la σi in termine delle σj calcolate agli ordini precedent: nota la σ0 , la Eq. (11.84) `e un’equazione differenziale del primo ordine che determina la σ1 , e cosi`ı cia. Vediamo ora esplicitamente la correzione al primo ordine nel caso unidimensionale. Ponendo d σ0 (x) dx
(11.86)
dσ1 1 dp/dx =− dx 2 p
(11.87)
1 σ1 (x) = − ln |p(x)| + K. 2
(11.88)
p(x) ≡ l’equazione (11.84) diventa
che ha per soluzione
La soluzione semiclassica al primo ordine in ~ `e quindi Z x i ~ 1 0 0 ψ± (x; t) = exp −Et ± dx p(x ) + − ln |p(x)| + K ~ i 2 x0 Z x N 1 i =p exp Et exp ± dx0 p(x0 ), i~ ~ |p(x)| x0
(11.89)
dove N `e una costante di normalizzazione. Vi sono quindi due soluzioni linearmente indipendenti, corrispondenti a due stati di definito impulso semiclassico ±p(x) Eq. (11.86): infatti l’azione dell’operatore impulso su di esse `e −i~
d ψ± (x, t) = ±p(x)ψ± (x, t) + O(~), dx
(11.90)
che, come abbiamo visto nella sezione 11.1.2, Eq. (11.22), `e proprio l’impulso della traiettoria classica. La soluzione generale `e la sovrapposizione Z Z 1 1 i x 0 i x 0 ψ(x; t) = p exp Et A exp dx p(x0 ) + B exp − dx p(x0 ) , (11.91) i~ ~ x0 ~ x0 |p(x)| La soluzione Eq. (11.91) dell’equazione di Schr¨odinger al primo ordine non-banale dell’approssimazione semiclassica `e di solito chiamata approssimazione WKB tout court. Nel caso E > V , p `e reale; se consideriamo una soluzione di definito impulso (tale cio`e che A = 0 dx oppure B = 0) la probabilit` a di trovare la particella tra x e x + dx `e proporzionale a p(x) , ossia, ponendo dx p = mv, a v(x) = dt. Questo significa che la probabilit`a di trovarsi in un intervallo dx `e proporzionale al tempo impiegato a percorrerlo, proprio come nel caso classico. La soluzione generale, quando A = 0 e B = 0, pu` o anche essere scritta come Z x 1 1 1 ψ(x; t) = p exp Et C sin dx0 p(x0 ) + δ . (11.92) i~ ~ x0 p(x) Se invece E < V p = iβ con β = ±
p
2m(V − E) e la soluzione generale `e Z Z 1 1 1 x 0 1 x 0 ψ(x; t) = p exp Et A exp dx β(x0 ) + B exp − dx β(x0 ) . i~ ~ x0 ~ x0 β(x)
(11.93)
11.3 L’approssimazione WKB
11.3.3
205
Validit` a dell’approssimazione semiclassica
` chiaro dall’Eq. (11.74) che Discutiamo ora le condizioni di validit` a dell’approssimazione semiclassica. E le correzioni quantistiche all’equazione del moto classica sono dovute al fatto che il termine cinetico nell’equazione di Schr¨ odinger oltre al primo termine a membro destro della Eq. (11.74), contiene l’ultimo termine, propozionale a ~. L’approssimazione semiclassica richiede quindi che il secondo termine sia piccolo rispetto al primo, ossia che #» |~4Θ| |∇Θ2 |. (11.94) Considerando per sempicit` a il caso unidimensionale la condizione diventa dp ~ |p2 |. dx
(11.95)
In termini della lunghezza d’onda (di de Broglie), definita come λ≡
2π~ . p
la condizione Eq. (11.95) ha la forma particolarmente semplice d(λ/2π) dx 1.
(11.96)
(11.97)
Quindi l’approssimazione vale quando la scala di variazione della lunghezza d’onda delle oscillazioni della funzioni d’onda `e piccola rispetto alla lunghezza d’onda stessa espressa in unit`a di 2π, in altri termini quando la lunghezza d’onda varia poco nel corso di un periodo di oscillazione. Possiamo riscrivere p la condizione Eq. (11.95) in termini di energia cinetica e potenziale ricordando la forma esplicita p = 2m(E − V ) come ~ p
2m[E − V (x)]
2|E − V (x)| . dV /dx
(11.98)
L’approssimazione `e buona quando l’energia `e molto maggiore o molto minore del valore del potenziale nel punto: pu` o quindi essere usata per descrivere gli stati legati di minore energia in un potenziale molto profondo, oppure l’effetto tunnel sotto una barriera molto alta. Fallisce invece quando E ∼ V (x), cio`e in prossimit` a dei punti di inversione (si ricordi la Fig. 6.11 nel Capitolo 6.4).
11.3.4
Trattazione semiclassica della buca di potenziale
Una classica applicazione dell’approssimazione semiclassica `e la determinazione dello spettro di una buca di potenziale di forma generica (si veda la Fig. 11.4). Come si `e visto, il metodo WKB `e accurato se |E − V (x)| 0, ossia lontano dai punti di inversione E = V (x). Possiamo pertanto risolvere il problema in approssimazione semiclassica in queste regioni (indicate come regioni I, II e III in figura). Per raccordare queste soluzioni occorre per`o procedere in un altro modo: occorre determinare una soluzione nell’intorno dei punti di inversione (si veda la Fig. 11.5), e quindi raccordare l’andamento di questa soluzione nella regione I di Fig. 11.5 con l’andamento della soluzione semiclassica nella regione II di Fig. 11.4, ed il suo andamento nella regione II di Fig. 11.5 con l’andamento della soluzione semiclassica nella regione III di Fig. 11.4. Al termine di questa doppia operazione di raccordo, si ottengono delle condizioni che legano la soluzione semiclassica nella regione II a quella della regione III di Fig. 11.4. Un’analoga operazione permette di raccordare le soluzioni semiclassiche nelle regioni I e II della medesima figura. La soluzione nell’intorno del punto di inversione pu`o essere determinata sviluppando il potenziale in serie di Taylor: V (x) = V (a) + V 0 (a)(x − a) + O((x − a)2 ),
(11.99)
206
Il limite classico della meccanica quantistica
Figura 11.4: Buca di potenziale generica. Sono indicate le regioni in cui vale l’approssimazione semiclassica per data energia E. e quindi risolvendo esattamente l’equazione di Schr¨odinger con il potenziale lineare che se ne ottiene. Non entriamo nei dettagli di questa trattazione, ci limitiamo a ricordare che la soluzione dell’equazione di Schr¨ odinger con potenziale lineare pu` o essere determinata esattamente in termini di funzioni note come funzioni di Airy. Diamo quindi direttamente le condizioni di raccordo tra soluzioni semiclassiche che se ne ottengono. La soluzione nella regione II di Fig. 11.5 `e della forma tipo oscillante Eq. (11.92), ed `e parametrizzata dalla normalizzazione C e dalla fase δ, mentre la soluzione nella regione I `e della forma esponenziale Eq. (11.93) ed `e parametrizzata dalla normalizzazione A. Le condizioni di raccordo sono al solito due (continuit` a della funzione e della derivata) e fissano quindi C in termini di A e la fase δ. Nel caso di un potenziale che cresce da sinistra a destra con un punto di inversione in a (Figura 11.5), si ha R 0 ) π √2N sin xa dx0 p(x + xa ~ 4 p(x) ψ(x) = (11.100) R x β(x) √N exp − xa dx0 ~ a β(x)
La condizione per un potenziale decrescente da sinistra a destra si ottiene da questa con ovvi cambiamenti di segno. La coppia di condizioni che legano la soluzione nella regione II a quella delle regioni I e III determinano completamente lo spettro di una buca di potenziale (Figura 11.4) in approssimazione WKB. Notiamo infatti che nella regione II la soluzione pu` o essere scritta in due modi diversi, o raccordandola alla I Z a N 0 β(x) exp − ψI (x) = p dx (11.101) ~ β(x) x Z x 2N p(x0 ) π ψII (x) = p sin dx0 + , (11.102) ~ 4 p(x) a o raccordandola alla III ! p(x0 ) π dx + ~ 4 x Z x 0 N β(x) ψIII (x) = p exp − dx0 . ~ β(x) b 0 ψII (x)
2N 0 =p sin p(x)
Z
b
0
(11.103) (11.104)
0 Ma ψII (x) e ψII (x) devono essere uguali. L’equazione sin α = sin β ammette le due soluzioni α = β ed α = π − β: `e facile vedere che non `e possibile soddisfare la condizione che gli argomenti del seno 0 nella ψII (x) e ψII (x) siano uguali per ogni x, mentre possiamo imporre che la loro somma valga π.
11.3 L’approssimazione WKB
207
Figura 11.5: Potenziale nell’intorno del punto di inversione. Troviamo inoltre un’altra soluzione quando la somma dei due argomenti vale 2π: in tal caso c’`e un segno di differenza che possiamo riassorbire nella normalizzazione. Ovviamente entrambe le condisioni possono 0 essere soddisfatte a meno di 2π, e troviamo cos`ı che, nel caso pi` u generale, le soluzioni ψII (x) e ψII (x) coincidono imponendo N 0 = (−1)n+1 N ; Z x p(x0 ) π + + dx0 ~ 4 a
(11.105) Z
b
x
dx0
p(x0 ) π + ~ 4
! = nπ.
(11.106)
La Eq. (11.106) pu` o essere viosta come una condizione di quantizzazione sull’integrale Z a
b
dx0
π p(x0 ) = nπ − ~ 2
dove a, b sono i punti di inversione classici. Poich´e p p(x) = 2m(E − V (x)),
(11.107)
(11.108)
l’integrale `e determinato dalla forma del potenziale, e si ottiene la condizione di quantizzazione Z b p 1 dx 2m(E − V (x)) = ~ n + π, (11.109) 2 a con n intero. Questa condizione era stata gi` a postulata da Bohr e Sommerfeld sulla base di considerazioni analoghe a quelle viste nella sezione 10.3.2 nella discussione del modello di Bohr dell’atomo di idrogeno, ed in particolare facendo l’ipotesi che che ogni sistema hamiltoniano dovesse soddisfare la condizione di quantizzazione (nota appunto come condizione di Bohr-Sommerfeld): I pdq = 2~πn (11.110) che per n sufficientemente grande coincide la condizione da noi trovata applicando il metodo WKB. In questo caso l’integrale `e valutato su un intero periodo del moto classico, da a a b e ritorno (questo spiega il fattore 2 aggiuntivo).
208
Il limite classico della meccanica quantistica
Osserviamo infine che l’andamento delle soluzioni semiclassiche trovate `e in accordo con le conclusioni della discussione qualitativa dello spettro di una buca di potenziale generica che abbiamo gi`a visto. Infatti, nella regione II ha un andamento sinusoidale ψ(x) ∼ sin(f (x) + δ), con le condizioni f (a) + δ = π4 e f (b) + δ = π4 + nπ. Ne segue che nell’intervallo tra i punti di inversione l’argomento del seno compie un semiperiodo di oscillazione quando il sistema `e nello stato fondamentale, un periodo nel primo stato eccitato, un periodo e mezzo nel secondo e cos`ı via: il numero di nodi della funzione d’onda cresce al crescere dell’energia, come si era trovato nella discussione qualitativa.
Capitolo 12
La teoria delle perturbazioni I metodi perturbativi sono usati in pratica per risolvere la maggior parte dei problemi di fisica quantistica, ma anche classica, visto che i problemi risolubili esattamente sono molto pochi. La meccanica quantistica fornisce un contesto particolarmente semplice per introdurre e discutere questi metodi. Discuteremo in particolare la teoria delle perturbazioni indipendenti dal tempo, particolarmente utili nel risolvere problemi di stato legato, e la teoria delle perturbazioni dipendenti dal tempo, che trova la sua applicazione principale nella descrizione dei fenomeni d’urto.
12.1
Perturbazioni indipendenti dal tempo
I metodi perturbativi indipendenti dal tempo vengono usati in tutti i casi in cui si cerca di determinare lo spettro di un operatore (e specificamente una hailtoninana) che si pu`o scrivere come la somma di un operatore il cui spettro `e esattamente noto, pi` u una correzione. Consideriamo quindi un sistema la cui hamiltoniana H pu`o essere scritta come la somma di una ˆ 0 di spettro noto hamiltoniana H ˆ 0 |n0 i = En(0) |n0 i, H
(12.1)
hm0 |n0 i = δnm ,
(12.2)
ˆ =H ˆ 0 + εH ˆ 0. H
(12.3)
e ortonormale
ˆ 0: ed una hamiltoniana H
Il parametro ε non `e necessariamente piccolo, ma serve per organizzare lo sviluppo perturbativo: l’idea del metodo perturbativo `e infatti di determinare autofunzioni ed autovalori dell’hamiltoniana completa ˆ H|ni = En |ni
(12.4)
come uno sviluppo in serie di ε, sviluppando in serie autostati ed autovalori Eq. (12.4) dell’hamiltoniana completa Eq. (12.3): En = En(0) + εEn(1) + ε2 En(2) + . . . 2
|ni = |n0 i + ε|n1 i + ε |n2 i + . . . .
(12.5) (12.6)
` importante osservare che, in generale, nulla garantisce che la serie perturbativa per l’autovalore o E l’autostato converga.
210
12.1.1
La teoria delle perturbazioni
Spettro non degenere
Consideriamo innanzitutto il caso in cui lo spettro dell’hamiltoniana imperturbata Eq. (12.1) sia non(0) (0) degenere, ovvero En 6= Ek quando n 6= k. Sostituendo gli sviluppi Eq. (12.5-12.6) nell’equazione agli autovalori (12.4) si ottiene ˆ 0 + εH ˆ 0 ) |n0 i + ε|n1 i + ε2 |n2 i + . . . = E (0) + εE (1) + ε2 E (2) + . . . |n0 i + ε|n1 i + ε2 |n2 i + . . . . (H n n n (12.7) Identificando termini dello stesso ordine in ε si ottiene una sequenza di equazioni ˆ 0 − En(0) )|n0 i = 0 ε0 (H ˆ 0 − En(0) )|n1 i = (En(1) − H ˆ 0 )|n0 i ε1 (H ˆ 0 − E (0) )|n2 i = (E (1) − H ˆ 0 )|n1 i + En(2) |n0 i ε (H n n .. .. . . k ˆ (0) (1) ˆ 0 )|nk−1 i + En(2) |nk−2 i + . . . En(k) |n0 i. ε (H0 − En )|nk i = (En − H 2
(12.8) (12.9) (12.10)
(12.11)
La correzione al k-esimo ordine all’autovalore pu`o essere estratta dalle Eq. (12.8-12.11) proiettando ciascuna equazione sugli autostati |n0 i dell’hamiltoniana imperturbata. A questo fine, osserviamo che tutti i termini successivi al primo nello sviluppo perturbativo dello stato Eq. (12.6) possono essere scelti ortogonali al primo, ovvero tali che hn0 |ni i = 0.
(12.12)
Questo segue dall’osservazione che se |ni i `e soluzione della i-esima equazione (12.8-12.11) allora lo `e anche |˜ ni i = |ni i + λ|n0 i. Infatti ˆ 0 − E (0) )|˜ ˆ 0 − E (0) )|n0 i + (H ˆ 0 − E (0) )|n1 i = (H ˆ 0 − E (0) )|n1 i, (H n1 i = λ(H n n n
(12.13)
e quindi il membro sinistro dell’i-esima equazione valutato per la |ni i e la |˜ ni i coincidono. Pertanto, data una soluzione |˜ ni i dell’i-esima equazione tale che h˜ ni |n0 i = 6 0
(12.14)
ne possiamo costruire una nuova, |ni i, pure soluzione dell’i-esima equazione, tale che sia soddisfatta la condizione (12.12), ponendo |ni i = |˜ ni i + λi |n0 i e scegliendo λi = −hn0 |˜ ni i.
(12.15)
Proiettando come si `e detto su |n0 i le equazioni (12.8-12.11), tutti i membri di sinistra si annullano, (k) cos`ı come tutti i contributi a membro destro proporzionali a En . Supponendo gli stati |n0 i normalizzati, Eq. (12.2), troviamo immediatamente che ˆ 0 |n0 i En(1) = hn0 |H ˆ 0 |n1 i En(2) = hn0 |H
(12.16) (12.17)
.. . ˆ 0 |nk−1 i. En(k) = hn0 |H
(12.18)
Quindi, la correzione all’ordine k − 1 dello stato determina immediatamente la correzione all’ordine k (1) per l’autovalore. In particolare, la correzione al primo ordine all’autovalore En `e immediatamente data dalla Eq. (12.16). La correzione al k-esimo ordine all’autostato si trova invece moltiplicando entrambi i membri di ˆ 0 − En(0) . Notiamo tuttavia che nello spazio ciascuna delle Eq. (12.8-12.11) per l’inverso dell’operatore H
12.1 Perturbazioni indipendenti dal tempo
211
ˆ 0 − En(0) |n0 i = 0, e quindi degli stati fisici questo operatore non `e invertibile, in quanto manifestamente H tale operatore ha un autovalore nullo. Tuttavia, la Eq. (12.12) implica che tutte le |nk i appartengono al sottospazio ortogonale ad |n0 i, e quindi possiamo invertire l’equazione nel sottospazio come ora vederemo esplicitamente. In sostanza dunque possiamo vedere ciascuna delle Eq. (12.8-12.11), che sono equazioni tra vettori, e quindi ne legano tutte le componenti, come due equazioni indipendenti. Una lungo la direzione del (k) vettore |n0 i, che determina la correzione di ordine k, En , all’autovalore: la Eq. (12.18). Ed una nel sottospazio ortogonale al vettore |n0 i, che determina la correzione di ordine k all autovettore, |nk i, e che ora studiamo. Iniziando da primo ordine, sfruttiamo il fatto che |n1 i appartiene al sottospazio ortogonale a |n0 i per scriverlo come X X |n1 i = |k0 ihk0 |n1 i = |k0 ihk0 |n1 i : (12.19) k
k6=n
alla risoluzione dell’identit` a contribuiscono tutti gli stati tranne |n0 i. Vediamo quindi che anche se 1 ˆ 0 , ma esiste nello spazio ortogonale a |n0 i. Infatti, in non esiste nello spazio degli autostati di H (0) ˆ 0 −En H questo sottospazio 1
=
ˆ 0 − En(0) H
1 |k ihk0 |. (0) 0 ˆ k6=n H0 − En X
(12.20)
Poich´e in generale ˆ 0 )|k0 i = f E (0) |k0 i f (H k
(12.21)
si ha 1 ˆ0 − H
(0) En
|k0 i =
1 (0) Ek
|k0 i
(12.22)
|k0 ihk0 |.
(12.23)
(0)
− En
e quindi 1 ˆ0 − H
(0) En
=
X
1
(0) k6=n Ek
− En
(0)
Possiamo cos`ı determinare la prima correzione all’autostato: |n1 i =
1
X (0) k6=n Ek
(0) En
− ˆ0
=
X hk0 |H |n0 i (0)
k6=n
(0)
En − Ek
X ˆ 0 |n0 i = |k0 ihk0 | En(1) − H
(0) k6=n Ek
1 −
(0) En
h i ˆ 0 |n0 i |k0 i δkn En(1) − hk0 |H
|k0 i.
(12.24)
Notiamo che la perturbazione modifica lo stato di partenza, aggiungendo ad esso componenti lungo tutte le altre direzioni (tutti gli altri autostati imperturbati) nello spazio di Hilbert. La componente lungo una direzione `e tanto pi` u piccola quanto l’autovalore di energia `e diverso. La correzione a qualunque ordine perturbativo pu`o essere determinata iterando questa procedura. Per completezza, determiniamo le correzioni ad autovalore ed autostato fino al secondo ordine. Sostituendo l’espressione esplicita Eq. (12.24) nella Eq. (12.17) troviamo ˆ0 En(2) = hn0 |H
X hm0 |H ˆ 0 |n0 i (0)
m6=n
=
En − Em
X |hm0 |H ˆ 0 |n0 i|2 (0)
m6=n
|m0 i = (0)
(0)
En − Em
.
X hn0 |H ˆ 0 |m0 ihm0 |H ˆ 0 |n0 i (0)
m6=n
(0)
En − Em
(12.25)
212
La teoria delle perturbazioni
Notiamo che la correzione al secondo ordine all’energia dello stato fondamentale (ossia di minima energia) `e sempre negativa, poich´e in tale caso il denominatore `e sempre negativo. La correzione al secondo ordine all’autostato `e |n2 i =
1
X k6=n
ˆ0 − H
(0) En
ˆ 0 )|n1 i + En(2) |n0 i |k0 ihk0 | (En(1) − H
X hm0 |H ˆ 0 |n0 i ˆ 0 |n0 i − H ˆ0 = |k ihk0 | hn0 |H |m0 i . (0) (0) (0) 0 (0) E E − E − E n n m k6=n k m6=n X
12.1.2
1
(12.26)
Caso degenere
Il caso di spettro degenere `e pi` u complesso in seguito al fatto che la base di autostati di partenza e quella dopo aver applicato la perturbazione in generale non coincidono. Ricordiamo ad esempio il caso dell’oscillatore armonico isotropo. Abbiamo visto che gli autostati di energia possono essere scritti in due basi differenti: 3 N = n1 + n2 + n3 (12.27) |n1 n2 n3 i En = ~ω N + 2 3 N = 2n + `. (12.28) |n ` mi En = ~ω N + 2 Queste sono solo due dell’infinit` a di basi possibili per il sistema. La perturbazione tuttavia potrebbe selezionare una di queste due basi: per esempio, una perturbazione lungo l’asse x seleziona la prima base come privilegiata, mentre una perturbazione che dipende dal momento angolare seleziona la seconda base, o magari la perturbazione potrebbe selezionare una terza base. Possiamo formalizzare la situazione come segue. Supponiamo che allo stesso autovalore di energia (0) (0) En dell’hamiltoniana imperturbata H0 corrispondano d autostati |nk i, k = 1, 2, . . . , d. Per effetto della perturbazione, le energie di questi stati in generale possono diventare diverse fra di loro riducendo od eliminando la degenerazione (od anche, eventualmente, lasciandola invariata). Pertanto, gli stati perturbati (0)
(1)
|nk i = |nk i + ε|nk i + . . .
(12.29)
avranno in generale energia diversa fra loro. Ne segue quindi che, mentre qualunque combinazione lineare (0) (0) degli stati |nk i `e ancora autostato di H0 , solo certe particolari scelte di stati |nk i corrisponderanno al primo ordine del risultato perturbato Eq. (12.29). (0) Per capire quali, osserviamo che la Eq. (12.9), moltiplicando a sinistra per il bra hnj | si riduce a (0)
(0)
(1)
ˆ 0 |n i = E δjk . hnj |H k n,k (0)
(12.30)
Questo vuol dire che gli stati |nk i devono essere autostati dell’hamiltoniana perturbante; le correzioni al primo ordine all’energia forniscono i rispettivi autovalori. Per determinare la perturbazione al primo ordine all’energia dell’n-esimo autostato k volte degenere bisogna quindi diagonalizzare la matrice k × k della perturbazione nel sottospazio degenere. In seguito alla presenza della perturbazione, la degenerazione pu`o essere rimossa del tutto od in parte, (1) a seconda che gli autovalori En,k nella Eq. (12.30) siano tutti diversi fra si loro (degenerazione rimossa completamente) o alcuni siano uguali fra loro. Se `e rimossa del tutto, ci riduce al calcolo delle correzioni successive del caso non degenere. Pu` o accadere invece che la degenerazione non sia rimossa o sia rimossa solo parzialmente. In tal caso, ad ogni nuovo ordine dello sviluppo `e quindi necessario ridiagonalizzare l’Hamiltoniana nel sottospazio che `e rimasto degenere dopo aver introdotto la perturbazione all’ordine precedente.
12.2 Perturbazioni dipendenti dal tempo
12.2
213
Perturbazioni dipendenti dal tempo
La teoria delle perturbazioni dipendenti dal tempo permette di affrontare in particolare i fenomeni d’urto (o diffusione), in cui il problema consiste nel valutare la probabilit`a che un sistema subisca una transizione tra un certo stato iniziale ed un certo stato finale per effetto di un potenziale, come quando una particella incide sul potenziale stesso, e ne viene deflessa. In questa situazione si usa la teoria perturbativa dipendente dal tempo anche quando il potenziale `e indipendente dal tempo stesso. Si suppone infatti che lo stato iniziale sia preparato, e lo stato finale sia rivelato, in regioni lontane dal potenziale, in cui l’effetto del potenziale stesso `e trascurabile. Si pu` o quindi supporre, con buona approssimazione, che il potenziale sia attivo per un tempo intermedio, e solo alla fine, come vedremo, prendere il limite in cui questo tempo diventa infinito. Di conseguenza, la teoria delle perturbazioni dipendenti dal tempo `e di fatto il metodo usato per trattare problemi d’urto.
12.2.1
La rappresentazione di interazione
Per descrivere le perturbazioni dipendenti dal tempo conviene introdurre una nuova rappresentazione dell’evoluzione temporale, per cos`ı dire intermedia tra la rappresentazione di Heisenberg e quella di Schr¨ odinger. Scriviamo l’Hamiltoniana del sistema come la somma di un termine imperturbato non dipendente dal tempo H0 e di un termine di perturbazione, in generale dipendente dal tempo, V (t): H = H0 + V (t).
(12.31)
In rappresentazione di interazione, il contributo dei due termini all’evoluzione temporale viene trattato in modo diverso: in sostanza, H0 viene trattato in rappresentazione di Heisenberg, e V (t) in rappresentazione di Schr¨ odinger. Esplicitamente, definiamo la rappresentazione di interazione nel modo seguente. Supponiamo che |ψ; tiS siano gli stati in rappresentazione di Schr¨odinger la cui evoluzione temporale `e data dall’hamiltoniana Eq. (12.31). Gli stati in rappresentazione di interazione sono definiti come |ψ; tiI ≡ exp −
1 H0 t|ψ; tiS = S0−1 (t, 0)|ψ; tiS , i~
(12.32)
(avendo scelto per semplicit` a t0 = 0 come tempo iniziale) mentre gli operatori in rappresentazione di interazione sono collegati a quelli in in rappresentazione di Schr¨odinger da AI = S0−1 (t, 0)AS S0 (t, 0).
(12.33)
Segue immediatamente dalla definizione che la dipendenza dal tempo degli stati in rappresentazione di interazione `e data solo da V (t). Infatti si ha: 1 1 ∂ i~ |ψ; tiI = − exp − H0 t H0 |ψ; tiS + exp − H0 t (H0 + V (t))|ψ; tiS ∂t i~ i~ 1 = exp − H0 t V (t)|ψ; tiS = S0−1 (t, 0)V (t)S0 (t, 0)|ψ; tiI i~ = VI (t)|ψ; tiI ,
(12.34)
dove VI (t) `e il potenziale in rappresentazione di interazione, ottenuto da quello in rappresentazione di Schr¨ odinger mediante la Eq. (12.33) La soluzione dell’equazione di evoluzione temporale per gli stati in rappresentazione di interazione Eq. (12.34) `e cos`ı Z 1 t 0 |ψ; tiI = SI (t, t0 )|ψ; 0i = T exp dt VI (t0 ) |ψ; 0i, (12.35) i~ t0 dove T `e il prodotto cronologico, introdotto studiando l’evoluzione temporale per hamiltoniane dipendenti dal tempo. Notare che il tempo t0 al quale si prende lo stato iniziale `e generalmente diverso dal tempo t = 0 al quale abbiamo definito la rappresentazione di interazione secondo la Eq. (12.32).
214
La teoria delle perturbazioni
Possiamo verificare esplicitamente che la dipendenza temporale determinata usando la rappresentazione di Schr¨ odinger coincida con quella che si trova in rappresentazione di interazione: in particolare che sia la stessa la probabilit` a dei risultati di misure, che fornisce il contenuto predittivo della meccanica quantistica. Ricordiamo che nella sezione 4.3 abbiamo gi`a visto come questo sia vero nel caso delle reppresentazioni di Schr¨ odinger e di Heisenberg: se al tempo iniziale il sistema si trova in uno stato |ψ; 0i, l’ampiezza di probabilit` a che al tempo t una misura dell’operatore hermitiano A riveli il sistema nell’autostato |ni di A `e pari a hn|ψ; ti = hn|S(t, 0)|ψ; 0i.
(12.36)
In rappresentazione di Schr¨ odinger questo si ottiene notando che |ψ; ti = S(t, 0)|ψ; ti,
(12.37)
mentre in rappresentazione di Heisenberg lo stato |ψi non dipende dal tempo, mentre `e l’operatore A a dipendere dal tempo, sicch´e i suoi autostati soddisfano l’equazione |n(t)i = S −1 (t, 0)|ni,
(12.38)
che porta nuovamente all’eq. Eq. (12.36). In rappresentazione di interazione gli autostati di AI (t) soddisfano AI (t)|n(t)iI = λn |n(t)iI
(12.39)
con AI (t) dato dalla Eq. (12.33). Un procedimento identico a quello che porta alla Eq. (12.38) troviamo che |n(t)iI = S0−1 (t, 0)|ni.
(12.40)
D’altra parte, lo stato in rappresentazione di interazione soddisfa la Eq. (12.32), e quindi l’ampiezza di probabilit` a che la misura dia come risultato λn `e I hn(t)|ψiI
= hn|S0 (t, 0)|ψ; tiI = hn|S0 (t, 0)S0−1 (t, 0)|ψ; tiS = hn|S(t, 0)|ψ; 0i,
(12.41)
che ancora una volta coincide con quella calcolata alla Schr¨odinger, Eq. (12.36).
12.2.2
Sviluppo perturbativo dipendente dal tempo
Discutiamo ora il prototipo di problema che si tratta usando la teoria delle perturbazioni dal tempo: quello di un sistema che al tempo iniziale si trova in un autostato |ni dell’Hamiltoniana H0 H0 |ni = E|ni
(12.42)
(in generale degenere) e, interagendo con un potenziale V (t), compie una transizione ad un altro autostato |mi dell’hamiltoniana, che potrebbe essere associato ad una diversa energia, od anche, se l’hamiltoniana `e degenere, essere un altro stato associato alla stessa energia. Questa `e la situazione tipica di un problema di urto. L’ampiezza di probabilit` a per la transizione `e A¯nm (t) = hm|S(t, t0 )|ni,
(12.43)
dove supponiamo per semplicit` a t0 fisso e quindi vediamo l’ampiezza come funzione del tempo t al quale si esegue la misura finale. In rappresentazione di interazione, possiamo riscrivere l’ampiezza come A¯nm (t) = I hm|SI (t, t0 )|niI = hm|S0 (t, 0)SI (t, t0 )S0−1 (t0 , 0)|ni 1
1
= e− i~ (En t0 −Em t) hm|SI (t, t0 )|ni = e− i~ (En t0 −Em t) Amn ,
(12.44)
12.2 Perturbazioni dipendenti dal tempo
215
dove abbiamo indicato con |niI e |ni gli autostati di energia rispettivamente in rappresentazione di interazione e in rappresentazione di Schr¨ odinger, nel secondo passaggio abbiamo usato la relazione Eq. (12.40) tra gli autostati nelle due rappresentazioni, abbiamo quindi sfruttato il fatto che gli stati |mi, |ni sono autostati di H0 , ed infine abbiamo posto Amn (t) = hm|SI (t, t0 )|ni.
(12.45)
Notare, di nuovo, che il tempo t0 al quale si prepara lo stato iniziale `e diverso dal tempo t = 0 al quale abbiamo scelto di definire la rappresentazione di interazione, e questo spiega i diversi argomenti degli operatori di evoluzione temporale. Ai fini della determinazione della probabilit`a di transizione il fattore di fase nella Eq. (12.44) `e irrilevante: infatti Pnm = |A¯mn |2 = |Amn |2 , Calcoliamo quindi Amn (t). Si ha Z Z t 1 1 t 0 dt VI (t0 ) + T dt0 dt00 VI (t0 )VI (t00 ) + . . . |ni Amn (t) = hm|I + i~ t0 2(i~)2 t0 Z 1 t 0 = δnm + dt hm|S0−1 (t0 , 0)VS (t0 )S0 (t0 , 0)|ni+ i~ t0 Z t Z t0 1 0 hm| dt dt00 S0−1 (t0 , 0)VS (t0 )S0 (t0 , 0)S0−1 (t00 , 0)VS (t00 )S0 (t00 , 0)|ni + . . . (i~)2 t0 t0
(12.46)
(12.47) (12.48)
Possiamo interpretare la Eq. (12.47) come uno sviluppo perturbativo per l’ampiezza Amn (t): Amn (t) =
∞ X
A(i) mn (t),
(12.49)
i=0
con A(0) mn (t) = δmn Z 0 1 1 t 0 (1) Amn (t) = dt hm|VS (t0 )|nie ih (En −Em )t i~ t0 Z t Z t0 X 0 00 1 1 1 0 A(2) (t) = dt dt00 hm|VS (t0 )|kie ih (Ek −Em )t hk|VS (t00 )|nie ih (En −Ek )t , mn 2 (i~) t0 t0
(12.50)
k
.. .
(12.51)
avendo introdotto una risoluzione dell’indentit`a rispetto agli autostati dell’hamiltoniana imperturbata. La serie di contributi Eq. (12.50) `e nota come serie di Dyson per l’ampiezza di transizione, ed `e il risultato della teoria perturbativa dipendente dal tempo nella sua forma pi` u generale.
12.2.3
La regola aurea di Fermi
Consideriamo ora il caso particolare in cui la perturbazione `e attiva solo a partire dal tempo t = 0, ma `e per il resto indipendente dal tempo: V (t) = V Θ(t),
(12.52)
dove abbiamo scelto t = 0 come tempo cui accendere la perturbazione per semplicit`a. Come gi`a discusso, questo ci permette di trattare la situazione generica in cui il sistema viene preparato in uno stato iniziale in una regione in cui il potenziale `e trascurabile, lasciato interagire con quest’ultimo, ed infine di nuovo rivelato in una regione in cui il potenziale `e trascurabile. Si tratta della situazione tipica degli esperimenti
216
La teoria delle perturbazioni
in cui si usa un fascio di particelle per studiare la struttura della materia, oppure la struttura delle interazioni fondamentali. In questo caso, determiniamo l’ampiezza di transizione tra due stati diversi al primo ordine: se m 6= n, (0) (1) Amn (t) = 0, per cui il primo ordine nonnullo `e Amn (t). Abbiamo cos`ı Z 1 t 0 1 (En −Em )t0 (1) dt e i~ hm|V |ni (12.53) Amn = i~ 0 dove abbiamo definito l’elemento di matrice Vmn = hm|V |ni
(12.54)
indipendente dal tempo, in quanto tutta la dipendenza temporale `e nella funzione Θ(t). Riscriviamo la Eq. (12.53) come Z t 1 1 0 it0 (ωm −ωn ) (1) dt e Vmn = − eit(ωm −ωn ) − 1 Vmn , (12.55) Amn = i~ (ωm − ωn )~ 0 dove abbiamo posto En = ~ωn . La probabilit` a di transizione per unit` a di tempo, calcolata al primo ordine, `e quindi data da it(ω −ω ) 1 1 |Vmn |2 e m n − 1 2 . Pnm = 2 t t [(ωn − ωm )~]
(12.56)
Ma notiamo che (ωm −ωn ) it (ωm −ωn ) (ωm −ωn ) 2 = 4 sin2 (ωm − ωn )t , 2 2 2 |eit(ωm −ωn ) − 1|2 = eit e − e−it 2
(12.57)
quindi 1 |Vmn |2 4 2 (ωm − ωn )t Pnm = sin . t [(ωm − ωn )~]2 t 2
(12.58)
Consideriamo ora il limite di grande t: il caso cio`e in cui, appunto, la particella incidente arriva da una regione lontana, e quindi la perturbazione agisce per un tempo molto lungo rispetto alla scala di 2 tempi tipici del potenziale stesso. Osserviamo che la funzione sinx(xt) `e una funzione che nel limite di 2 grande t diventa sempre pi` u piccata nell’origine, mantenendo costante il suo integrale Z ∞ sin2 (xt) dx = tπ (12.59) x2 −∞ (si veda la Fig. 12.1). Ne segue che 1 sin2 xt = δ(x), t→∞ πt x2
(12.60)
n sin2 ωm −ω 4 ωm − ωn 2 lim = δ . t→∞ [(ωn − ωm )]2 πt 2
(12.61)
lim
e quindi
Possiamo quindi riscrivere l’equazione (12.58) come: 1 ωm − ωn π δ(ωm − ωn ) 2π Pnm = |Vmn |2 δ = |Vmn |2 2π = |Vmn |2 δ(Em − En ). t 2 ~2 ~2 ~
(12.62)
L’equazione (12.62) `e nota come regola aurea di Fermi: essa fornisce la la probabilit`a di transizione per ` particolarmente utile nel unit` a di tempo, ed esprime la conservazione dell’energia nei fenomeni d’urto. E caso di spettro continuo di energia, come vediamo immediatamente.
12.2 Perturbazioni dipendenti dal tempo
217
y
5
4
3
2
1
x -3
-2
-1
Figura 12.1: La funzione
12.2.4
1
1 sin2 xt πt x2
2
3
per t pari a 3, 5, 10, 15.
Concetti base della teoria dell’urto
La teoria dell’urto (o della diffusione) `e un capitolo molto ampio della meccanica quantistica, ricco di applicazioni che vanno dalla fisica atomica alla fisica nucleare ed alla fisica delle particelle. Ci limitiamo qui ad introdurre alcuni concetti fondamentali. Sezione d’urto ` definita, per problemi in cui vi `e L’osservabile fondamentale in teoria dell’urto `e la sezione d’urto σ. E un flusso costante di particelle che incidono su un bersaglio, come il numero di particelle diffuse (vale a dire il numero di particelle che hanno interagito con il bersaglio) per unit`a di flusso entrante e per unit` a di tempo. Il numero di particelle diffuse dipende da tre fattori: il numero di particelle proiettile per unit`a di superficie, la velocit` a delle particelle e la forma del bersaglio. I primi due fattori determinano il flusso di particelle. La sezione d’urto contiene l’informazione relativa al terzo fattore, e quindi descrive le propriet` a del bersaglio. Essa generalizza la sezione geometrica di un bersaglio. Infatti, se un flusso dn costante di particelle j = dtds incide su un bersaglio, il numero totale di particelle che incide sul bersaglio N avente area S in un certo intervallo di tempo ∆T `e N = j∆T S. Quindi S = j∆T : il numero di particelle che interagiscono per unit` a di flusso per unit`a di tempo `e l’area S del bersaglio. Questo vuol dire che la probabilit` a che una particella interagisca `e pari alla superficie intercettata dalla particella stessa. La sezione d’urto generalizza questa definizione: per esempio, al caso di un bersaglio “parzialmente trasparente”, cio´e tale che una particella abbia solo una probabilit`a finita di interagire con il bersaglio. ` utile definire una sezione d’urto differenziale per unit`a di spazio delle fasi dello stato finale, dσ#» E dk #» e un vettore di osservabili che caratterizza la cinematica dello stato dσ o dΩ o in generale ddσ#» a , dove a ` finale: questo vuol dire che anzich´e contare il numero totale di particelle diffuse (sezione d’urto totale) si conta il numero di particelle diffuse aventi un certo valore di un’osservabile, per esempio un certo valore dell’impulso ~k (sezione d’urto differenziale). In meccanica quantistica, naturalmente, questo vuol dire che si suppone che vi siano molte copie di un sistema quantistico, tutte descritte dalla stessa hamiltoniana, e
218
La teoria delle perturbazioni
tutte nello stesso vettore di stato, su cui vengono effettuate misure ripetute: la sezione d’urto ci permette di calcolare la probabilit` a del risultato di queste misure, per esempio di trovare una particella uscente in una certa direzione diversa da quella del flusso di particelle entranti. La sezione d’urto `e quindi definita come dσ = lim
1
t→∞ ja ∆t
|hb|S(t, −t)|ai|2 db
(12.63)
dove j `e il flusso di particelle incidenti, aventi tutte vettore di stato |ai, |bi `e lo stato finale (il risultato della misura) e S(t, −t) `e l’operatore di evoluzione temporale dal tempo −t in cui il sistema `e preparato nello stato |ai al tempo t in cui esso viene rivelato nello stato |bi — dove “rivelare nello stato” significa “eseguire una misura il cui risultato rivela il sistema in questo stato”, e ∆t = 2t `e la lunghezza dell’intervallo di tempo tra la preparazione iniziale e la misura finale. L’elemento di matrice dell’evoluzione temporale nel limite di grandi tempi Sab ≡ lim hb|S(t, −t)|ai t→∞
(12.64)
`e detto elemento di matrice S (da “scattering”, una terminologia dovuta a Heisenberg.). Spazio delle fasi e fattore di flusso Vogliamo ora ottenere un’espressione esplicita per la sezione d’urto differenziale, nella situazione tipica in cui sia lo stato iniziale che lo stato finale sono stati di definito impulso #» #» h #» x | k i = ψ #» k (x) =
#» #»
1 (2π)
3 2
ei k · x .
(12.65)
Essi soddisfano la condizione di normalizzazione #» #» #» #» h k | k 0 i = δ (3) ( k − k 0 ).
(12.66)
Per le applicazioni risulta di norma pi` u conveniente parametrizzare l’impulso in coordinate sferiche, cio´e in termini del suo modulo k e di un elemento angolare dΩk = d cos θk dφk ), dove θk e φk sono gli angoli #» che parametrizzano la direzione di k in coordinate sferiche. Inoltre, visto che la regola aurea di Fermi d` a la probabilit` a di transizione tra autostati dell’energia, conviene ulteriormente esprimere il modulo di impulso in termini dell’energia, che per una particella libera `e E=
#» ~2 k 2 . 2m
(12.67)
che determina il suo modulo. Vogliamo quindi scrivere la sezione d’urto in termini di stati |EΩk i, che differiscono dagli stati |~ki esclusivamente per una costante di normalizzazione. Per determinarla, osserviamo che 2 m ~ 0 2 02 (k − k ) = 2 δ(k − k 0 ). (12.68) δ(E − E ) = δ 2m ~ k Abbiamo quindi che hEΩk |E 0 Ωk0 i = δ(E − E 0 )δ (2) (Ωk − Ωk0 ) =
m δ(k − k 0 )δ (2) (Ωk − Ωk0 ). ~2 k
(12.69)
D’altra parte la delta di Dirac in cordinate sferiche soddisfa 1 #» #» δ (3) ( k − k 0 ) = 2 δ(k − k 0 )δ (2) (Ωk − Ωk0 ). k
(12.70)
12.2 Perturbazioni dipendenti dal tempo
219
Quindi, usando questa relazione per confrontare le due diverse condizioni di normalizzazione Eq. (12.66) e Eq. (12.69) troviamo che hEΩk |E 0 Ωk0 i =
mk #» #»0 h k | k i. ~2
(12.71)
Ne segue che gli stati |EΩk i, che soddisfano la condizione di normalizzazione Eq. (12.69), sono legati #» agli autostati dell’impulso | k i Eq. (12.65) che soddisfano la condizione di normalizzazione Eq. (12.66), da r mk #» |EΩk i = | k i, (12.72) ~2 e quindi nella rappresentazione delle posizioni si ha r r #» mk #» #» mk 1 i k · #» x #» h x |EΩk i = hx|k i = . 3 e 2 2 ~ ~ (2π) 2
(12.73)
#» Possiamo ora calcolare esplicitamente il flusso j = | j |, pari al modulo del vettore flusso delle particelle entranti, nell’ipotesi che le particelle entranti siano tutte particelle libere nello stesso autostato dell’impulso. Ricordiamo che il vettore flusso `e definito come i~ ∗ #» #» #» [ψ ∇ψ − ∇ψ ∗ ψ]. j =− 2m
(12.74)
Sostituendo la funzione d’onda Eq. (12.73) in questa espressione troviamo immediatamente che #» #» ~ k mk 1 j = m ~2 (2π)3
(12.75)
e quindi #» |j | =
k2 . ~(2π)3
(12.76)
Utilizzando questa espressione per il flusso, e supponendo che gli stati |ai e |bi siano stati di particella libera di definito impulso scritti nella forma della Eq. (12.72), la sezione d’urto Eq. (12.63) diventa cos`ı 2 (2π)3 ~ 1 0 hE Ωk0 |S(t, −t)|EΩk i dE 0 dΩk0 . 2 t→∞ k ∆t
dσ = lim
(12.77)
L’approssimazione di Born Possiamo ora calcolare la sezione d’urto al primo ordine in teoria delle perturbazioni utilizzando la regola aurea di Fermi. Infatti, il limite per grande ∆t del modulo quadro dell’elemento di matrice S diviso per ∆t che compare nell’espressione Eq. (12.77) per la sezione d’urto `e proprio la probabilit`a di transizione per unit` a di tempo Eq. (12.62). Sostituendo l’espressione di quest’ultima troviamo cos`ı dσ =
2 (2π)4 0 hE Ωk0 |V |EΩk i δ(E 0 − E)dE 0 dΩk0 . 2 k
(12.78)
Capiamo ora l’utilit` a della regola aurea di Fermi: nell’Eq. (12.77) compare il modulo quadro dell’ampiezza di transizione. Quest’ultima, per interazioni invarianti per traslazioni temporali, conserva necessariamente l’energia, e quindi si potrebbe pensare che l’ampiezza fosse proporzionale ad una delta di Dirac che esprime la conservazione dell’energia. Ma se cos`ı fosse, la probabilit`a di transizione risulterebbe proporzionale al quadrato di una delta, che non ha senso. La soluzione del problema consiste nell’osservare che gli stati sono preparati e quindi rivelati come autostati dell’hamiltoniana libera; essi non sono quindi autostati dell’hamiltoniana totale, ed il potenziale pu`o indurre transizioni tra di essi. Il calcolo eseguito nella
220
La teoria delle perturbazioni
Sez. 12.2.3 mostra che ciononostante, se il tempo durante il quale il potenziale agisce `e molto lungo (dimodoch´e la dipendenza temporale dovuta al fatto che il potenziale viene “acceso” e poi “spento” diventa trascurabile), allora l’energia, ma la delta compare a livello di probabilit`a, non di ampiezze. Possiamo quindi integrare la sezione d’urto su tutte le energie dello stato finale. La sezione d’urto differenziale per unit` a di angolo `e quindi 2 (2π)4 0 dσ = hE Ωk0 |V |EΩk i . 2 dΩk0 k
(12.79)
La Eq. (12.79), ossia l’espressione della sezione d’urto al primo ordine perturbativo, `e nota come approssimazione di Born per la sezione d’urto. Utilizzando l’espressione esplicita Eq. (12.72-12.73) degli stati |EΩk i, l’elemento di matrice che compare nella Eq. (12.79) diventa Z #» #» mk hEΩk0 |V |EΩk i = 2 d3 x ei q · x V ( #» x ), (12.80) ~ (2π)3 dove #» #» #» q = k − k0
(12.81)
#» #» `e l’impulso trasferito, e | k | = | k 0 | = k visto che E 0 = E. Si ha cos`ı dσ (2π)4 m2 = |f ( #» q )|2 , dΩ ~4
(12.82)
dove f ( #» q) ≡
1 (2π)3
Z
#» #» d3 #» x V ( #» x )ei q · x .
(12.83)
`e detto fattore di forma del bersaglio, ed abbiamo sottinteso che l’elemento angolare dΩ si riferisca #» all’impulso dello stato finale k 0 . Per potenziali centrali possiamo ulteriormente scrivere Z ∞ Z 1 Z ∞ 1 sin qr 1 2 iqr cos θ #» f( q ) = dr d cos θ r V (r)e = dr r V (r). (12.84) 2 4π 2 0 2π q −1 0 Sostituendo nella Eq. (12.82) troviamo infine Z 2 4m2 ∞ dσ = 2 4 dr r sin qrV (r) . dΩ q ~ 0
(12.85)
Parte VI
Sistemi di molti corpi
Capitolo 13
Particelle identiche Nella discussione dei sistemi quantistici il cui spazio degli stati si ottiene prendendo un prodotto diretto di spazi di stati di dimensione inferiore ci siamo finora concentrati su problemi separabili. Abbiamo cio´e sempre tentato di ridurre problemi multidimensionali a pi` u problemi unidimensionali, il problema dei due corpi a due problemi ad un corpo, e cos`ı via. In questi casi il vettore di stato si fattorizza completamente, anche se sappiamo che in generale non sempre questo `e possibile. Un caso particolarmente sorprendente in cui questo succede `e quello delle particelle identiche.
13.1
Indistinguibilit` a quantistica
La meccanica statistica, sia nel caso classico che nel caso quantistico, `e basata sul conteggio degli stati di un sistema meccanico. Anche quando non si pu`o completamente osservare lo stato di un sistema, se ne possono descrivere molte propriet` a in termini di medie, e per questo `e ovviamente necessario contare gli stati che hanno una certa propriet` a (per esempio, tutti gli stati che hanno energia in un certo intervallo). Il conteggio degli stati in meccanica quantistica differisce profondamente dalla sua controparte classica perch´e quantisticamente `e diverso il concetto di identit`a di stati fisici. In meccanica classica, infatti, due oggetti non sono mai completamente indistinguibili: classicamente, `e sempre possibile (in linea di principio, se non in pratica) eseguire qualche misura che permetta di distinguerli. Anche due palle da biliardo perfettamente identiche possono essere distinte semplicemente definendo come prima, o seconda, quella che ad un certo tempo occupa una certa posizione. Ma in meccanica quantistica il principio di indeterminazione fa s`ı che il concetto di traiettoria di un oggetto perda di significato: quindi, assegnarne la posizione non permette di identificarlo a tutti i tempi successivi senza ambiguit` a. ` quindi possibile che in meccanica quantistica esistano oggetti completamente indistinguibili, nel E senso che non esiste alcuna misura che permette di dire qual `e il primo e qual `e il secondo. Per definire p` u precisamente questa situazione, e capirne le implicazioni, consideriamo un sistema che vive in uno spazio prodotto diretto: ad esempio un sistema di due particelle. Il vettore di stato ha quindi la forma X |ψi = cnm |ni ⊗ |mi, (13.1) nm
dove |ni, |mi sono basi per gli spazi degli stati delle due particelle. Ad esempio, |ni, |mi potrebbero essere i valori della terza componente dello spin per due particelle, oppure valori dell’energia e del modulo dell’impulso per ciascuna particella. Quantisticamente, diciamo che due particelle sono identiche quando: 1. gli spazi degli stati |ni, |mi sono copie dello stesso spazio degli stati (ossi se i due spazi sono isomorfi): ad esempio, se si tratta di stati di terza componente dello spin, per particelle che hanno lo stesso spin; 2. lo scambio dei numeri quantici relativi alla prima ed alla seconda particella lascia invariati i risultati di qualunque misura che pu` o essere eseguita sul sistema.
224
13.1.1
Particelle identiche
L’operatore di scambio
Per studiare le propriet` a delle particelle identiche, introduciamo un operatore di scambio P12 , tale che P12 |mi ⊗ |ni = |ni ⊗ |mi. Agendo su uno stato della forma Eq. (13.1) l’operatore di scambio produce il nuovo stato X |ψ 0 i = P12 |ψi = cmn |ni ⊗ |mi.
(13.2)
(13.3)
nm
Ricordando che la fase di uno stato quantistico `e inosservabile, diciamo quindi che due particelle sono identiche se per ogni stato del sistema |ψ 0 i = P12 |ψi = eiα |ψi.
(13.4)
2 P12 =I
(13.5)
2 |ψi = P12 |ψi = (eiα )2 |ψi
(13.6)
eiα = ±1.
(13.7)
Poich´e, ovviamente
ne segue che
quindi
In altri termini, due particelle sono identiche se tutti i loro stati sono autostati dell’operatore di scambio, ed i possibili valori dell’autovalore sono ±1. ` facile dimostrare che l’operatore di scambio `e l’inverso di se stesso: E 2 I = P12 = P12 P12
(13.8)
−1 P12 = P12 .
(13.9)
e quindi
Inoltre l’operatore di scambio `e autoaggiunto: infatti usando la definizione Eq. (13.2) vediamo che i suoi elementi di matrice sono (usando la sonsueta notazione compatta in cui omettiamo il simbolo di prodotto diretto) hm0 , n0 |P12 |m, ni = δmn0 δmn0 ,
(13.10)
† hm0 , n0 |P12 |m, ni = hm, n|P12 |m0 , n0 i)∗ = δmn0 δmn0
(13.11)
e quindi manifestamente
† . Assieme alla Eq. (13.9), ci`o implica immediatamente che esso `e anche unitario. da cui segue P12 = P12 Poich´e dopo la misura di un’osservabile qualunque il sistema si trova in un autostato dell’osservabile, la Eq. (13.4) implica immediatamente che un sistema di particelle indentiche `e un sistema tale per cui ˆ associato ad un’osservabile soddisfa la condizione qualunque operatore O
ˆ 12 = O. ˆ P12 OP
(13.12)
ˆ possiamo porre il sistema in un qualunque autostato di |nO i di O, ˆ che soddisfa Infatti, misurando O ˆ O i = λO |nO i. O|n
(13.13)
13.1 Indistinguibilit` a quantistica
225
Pertanto lo stato |nO i deve soddisfare la Eq. (13.4) e quindi ˆ 12 |nO i = eiα P12 O|n ˆ O i = P12 eiα λO |nO i = λO |nO i = O|n ˆ O i. P12 OP
(13.14)
Ma questo deve essere vero per qualunque autostato, e quindi qualunque osservabile relativa al sistema deve essere invariante sotto lo scambio degli spazi su cui agiscono gli operatori relativi alle due particelle. Per esempio, per un sistema di due particelle meccaniche avente hamiltoniana #p #p ˆ»2 ˆ»2 1 ˆ»1 , #x ˆ»2 ) + W (1) ( #x ˆ»1 ) + W (2) ( #x ˆ»2 ) ˆ H= + 2 + Vˆ ( #x 2m1 2m2
(13.15)
si ha −1 P12 HP12 =
#p #p ˆ»2 ˆ»2 2 ˆ»2 , #x ˆ»1 ) + W (1) ( #x ˆ»2 ) + W (2) ( #x ˆ»1 ), + 1 + V ( #x 2m1 2m2
(13.16)
quindi la condizione Eq. (13.12) `e soddisfatta solo se m1 = m2 , W (1) (x) = W (2) (x) e V (x, y) = V (y, x). Naturalmente, se la Eq. (13.17) vale per qualunque operatore, tutti gli stati accessibili al sistema soddisfano la condizione di indistinguibilit` a Eq. (13.4), quindi possiamo equivalentemente dire che due particelle ˆ vale la Eq. (13.17). sono identiche se per qualunque osservabile O L’ Eq. (13.12) pu` o essere equivalentemente riscritta come ˆ = 0, [P12 , O]
(13.17)
pertanto l’operatore di scambio `e diagonalizzabile simultaneamente a qualunque osservabile del sistema, ed in particolare all’hamiltoniana. Un’osservazione importante `e che sullo spazio degli autostati dell’operatore di scambio, anche il risultato della misura di un’osservabile relativa ad una singola particella non permette di distiguere di che particella si tratti: infatti, la Eq. (13.4) implica che Cmn = eiα Cnm . Ma la probabilit` a che una misura riveli il sistema nell’i-esimo stato della prima particella `e X Pi = |Cin |2
(13.18)
(13.19)
n
che `e quindi uguale alla probabilit` a che una misura riveli il sistema nello stesso stato della seconda particella. Quindi, ad esempio, sullo spazio delle funzioni simmetriche o antisimmetriche se la misura di spin di una particella la rivela, poniamo, con spin su questo mi permette di dire che c’`e una particella con spin su, ma non quale particella abbia spin su. Quindi anche l’operatore di spin di una singola particella, se definito sullo spazio degli stati simmetrici o sullo spazio degli stati antisimmetrici soddisfa la Eq. (13.17): l’operatore non `e simmetrico sullo spazio di tutti gli stati prodotto diretto possibili, ma lo `e sul sottospazio degli stati simmetrici o antisimmetrici.
13.1.2
Sistemi di n particelle e degenerazione di scambio
Quando le particelle identiche diventano pi` u di due la situazione si complica in modo interessante. Per un sistema di k particelle, il vettore di stato ha la forma X |ψi = cn1 ...nk |n1 i ⊗ |n2 i · · · ⊗ |nk i. (13.20) n1 ...nk
Si possono quindi definire 21 k(k−1) operatori di scambio Pij che scambiano i numeri quantici della i-esima e della j-esima particella, X Pij |ψi = cn1 ...nj ...ni ...nk |n1 i ⊗ . . . |ni i · · · ⊗ |nj i . . . |nk i. (13.21) n1 ...nk
226
Particelle identiche
Saremmo quindi portati a dire che k particelle sono tutte identiche fra loro se gli stati fisici sono autostati di tutti gli operatori di scambio: Pij |ψi = eiαij |ψi.
(13.22)
Osserviamo tuttavia che gli operatori di scambio non commutano fra di loro. Possiamo capire questo con un semplice esempio. Consideriamo uno stato a tre particelle, completamente fattorizzato, della forma ` facile verificare che |k1 k2 k3 i. E P12 P13 |k1 k2 k3 i = P12 |k3 k2 k1 i = |k2 k3 k1 i,
(13.23)
P13 P12 |k1 k2 k3 i = P13 |k2 k1 k3 i = |k3 k1 k2 i = 6 P12 P13 |k1 k2 k3 i.
(13.24)
mentre
Quindi gli operatori di scambio non commutano nello spazio prodotto diretto. Ne segue che per pi` u di due particelle le due condizioni Eq. (13.17) ed Eq. (13.4) non sono in generale equivalenti: possiamo sempre soddisfare la prima, chiedendo che qualunque osservabile commuti con lo scambio di qualunque coppia di particelle, ma non possiamo in generale soddisfare la seconda, chiedendo che gli stati siano simultaneamente autostati di tutti i 1−2 k (k − 1) operatori di scambio, in quanto questi non commutano fra loro. Nello spazio prodotto diretto possiamo quindi solo chiedere che valga la Eq. (13.4): questo vorrebbe dire che vi sono 1−2 k (k − 1) operatori di scambio che non commutano fra di loro ma che commutano con l’hamiltoniana, e con qualunque altra osservabile. Poich´e vi sono sono k! permutazioni dello stato fattorizzato |k1 k2 k3 i questo vuol dire che nello spazio prodotto diretto vi sono k! autostati degeneri per qualunque osservabile fisica. Questa degenerazione `e detta degenerazione di scambio. Per esempio, se consideriamo una hamiltoniana per un sistema di tre particelle in una buca di potenziale unidimensionale, lo spettro di autovalori di energia `e lo stesso di quello della buca di potenziale cubica, dato dagli En1 n2 n3 , Eq. (8.47). Ma `e ovvio che tutti i sei (3!) stati |n1 n2 n3 i che differiscono per una permutazione dei tre indici sono associati allo stesso autovalore.
13.2
Statistiche quantistiche
Anche se gli operatori di scambio non commutano nello spazio di tutti gli stati fisici, esistono due sottospazi dello spazio prodotto diretto nei quali gli operatori di scambio commutano. Se facciamo quindi l’ipotesi che gli unici stati fisicamente realizzati appartengano a questi sottospazi, allora `e possibile diagonalizzare simultaneamente tutti gli operatori di scambio e tutte le osservabili fisiche, e la degenerazione di scambio sparisce
13.2.1
Stati simmetrici ed antisimmetrici
Il sue sottospazi per cui gli operatori di scambio sono quelli degli stati a definita simmetria, cio`e completamente simmetrici o completamente antisimmetrici, ovvero tali che per ogni i, j Pij |ψi = ±|ψi.
(13.25)
` ovvio che in questi sottospazi gli operatori di scambio commutano. Infatti, sia per stati simmetrici che E per stati simmetrici si ha, usando ripetutamente la Eq. (13.25), Pij Pi0 j 0 |ψi = Pi0 j 0 Pij |ψi = |ψi
(13.26)
per ogni scelta di i, j, i0 , j 0 . Ma anche per stati antisimmetrici Pij Pi0 j 0 |ψi = |ψi = Pi0 j 0 Pij |ψi.
(13.27)
Che sia possibile costruire stati completamente simmetrici o completamente antisimmetrici `e garantito dal fatto che essi sono un sottospazio dello spazio di tutti gli stati prodotto diretto. Che gli stati simmetrici
13.3 Spin e statistica
227
lo siano `e ovvio. Che lo siano anche gli stati antisimmetrici `e meno ovvio: infatti, una qualunque permutazione di n oggetti pu` o essere ottenuta attraverso un numero finito di scambi di due oggetti. In generale, vi sono pi` u sequenze di scambi che portano alla stessa permutazione, e quindi potrebbe sorgere il dubbio che l’antisimmetria non sia univocamente definita, visto che lo stesso scambio pu`o essere ottenuto con diverse sequenze di permutazioni. Tuttavia, di pu`o dimostrare che se una permutazione pu`o essere ottenuta attraverso una sequenza di un numero pari di scambi, qualunque altra sequenza che porti alla stessa permutazione deve contenere un numero pari di scambi, e analogamente se pu`o essere ottenuta attraverso un numero dispari di scambi qualunque altra sequenza che porta alla stessa permutazione `e fatta di un numero dispari di scambi. Quindi la parit`a (o segnatura) di una qualunque permutazione `e univocamente definita, o come pari, o come dispari. Quindi uno scambio `e una permutazione dispari, e qualunque altra seuqenza di scambi che porti al medesimo risultato deve contenere un numero disparti ` inoltre facile vedere che una combinazione lineare di stati simmetrici o antisimmetrici `e di scambi. E anch’essa rispettivamente simmetrica o antisimmetrica. Gli stati simmetrici e antisimmetrici sono quindi ` facile costruire questi spazi esplicitamente: nel caso simmetrico, un sottospazio dello spazio di partenza. E basta aggiungere ad ogni stato |n1 . . . nk i tutti gli stati che differiscono da esso per una permutazione, e nel caso antisimmetrico, basta aggiungere tutte le permutazioni pesate con un fattore (−1)s , dove s `e la segnatura della permutazione. ` facile verificare che questi sono gli unici due sottospazi per cui gli operatori di scambio commutano, E cio`e che in qualunque sottospazio a simmetria mista gli operatori di scambio non commutano: se vi sono almeno due autovalori diversi per due operatori di scambio diversi, allora si vede facilmente che l’ipotesi che gli stati siano autostati di entrambi porta ad una contraddizione. Possiamo dare il controesempio nel caso di tre particelle visto prima, Eq. (13.23-13.24). Supponiamo che l’autovalore di P12 sia +1 e l’autovalore di P13 sia −1, e consideriamo uno stato della forma |k1 k2 k3 i. Abbiamo che |k1 k2 k3 i = |k2 k1 k3 i = −|k3 k1 k2 i = −|k1 k3 k2 i = |k2 k3 k1 i = |k3 k2 k1 i = −|k1 k2 k3 i,
(13.28)
che `e una contraddizione. Concludiamo che gli spazi degli stati completamente simmetrici o completamente antisimmetrici sono tutti e soli gli spazi su cui gli operatoi di scambio commutano. Per un sistema di particelle identiche definito nell’uno o nell’altro di questi sottospazi non c’e’ degenerazione di scambio.
13.3
Spin e statistica
13.3.1
Bosoni e Fermioni
Per quanto ne sappiamo, la natura ha scelto di non far uso della degenerazione di scambio: i sistemi di particelle identiche realizzati in natura sono o completamente simmetrici, o completamente antisimmetrici. La propriet` a di trasformazione sotto scambio del vettore di stato per un sistema di n particelle identiche `e nota come statistica delle particelle. Le particelle simmetriche sotto scambio sono dette bosoni, o, equivalentemente si dice che esse soddisfano la statistica di Bose-Einstein. Le particelle antisimmetriche sotto scambio sono dette fermioni, o equivalentemente si dice che esse soddisfano la statistica di FermiDirac. In natura, tutte le particelle di spin intero sono bosoni e quelle di spin semi-intero sono fermioni. Ci` o va sotto il nome di relazione spin-statistica.
13.3.2
Il principio di esclusione
L’obbligo di simmetrizzare od antisimmetrizzare la funzione d’onda per un sistema di n particelle identiche ha immediate conseguenze sullo spettro di energia per un sistema di n particelle, e pu`o essere visto come un’interazione efficace non separabile tra le particelle anche in assenza di forze. Infatti, la funzione d’onda per un sistema di due particelle identiche soggette ad un medesimo potenziale V , cio`e descritte dall’hamiltoniana completamente separabile H = H1 + H2 ,
Hi =
p2i + V (xi ) 2m
(13.29)
228
Particelle identiche
(come, ad esempio, due particelle in una buca di potenziale) non `e mai fattorizzabile nel caso di fermioni, e non `e in generale fattorizzabile nel caso di bosoni. Supponiamo infatti noto lo spettro di Hi : Hi |ni = E|ni;
hxi |ni = ψn (xi ).
(13.30)
Supponiamo inoltre che n sia intero, con n = 0 stato fondamentale. Nel caso di bosoni, lo stato fondamentale per il sistema di due particelle `e quindi ψgB (x1 , x2 ) = ψ0 (x1 )ψ0 (x2 )
(13.31)
ma per un sistema di due fermioni esso `e 1 ψgF (x1 , x2 ) = √ (ψ0 (x1 )ψ1 (x2 ) − ψ0 (x2 )ψ1 (x1 )) . 2
(13.32)
Infatti, se si antisimmetrizza la funzione d’onda di stato fondamentale essa si annulla. Questo `e il principio di esclusione (di Pauli): per un sistema di n fermioni identici in un potenziale, non `e possibile avere due fermioni nello stesso stato. Inoltre, anche nel caso di bosoni, il primo stato eccitato `e dato da 1 ψ1B (x1 , x2 ) = √ (ψ0 (x1 )ψ1 (x2 ) + ψ0 (x2 )ψ1 (x1 )) , 2
(13.33)
che pure non `e fattorizzabile. Quindi anche in assenza di interazioni la funzione d’onda non `e fattorizzabile, come se vi fosse un potenziale non separabile.
13.3.3
Il teorema spin-statistica
La relazione spin-statistica `e un fatto sperimentale, cos`ı come il fatto che non esista degenerazione di scambio, cio`e che la simmetria mista in natura non sia realizzata. Tuttavia, ci si pu`o chiedere se vi siano motivazioni teoriche per la relazione spin-statistica, ossia se essa si possa dedurre da altri principi fisici. In effetti, un “teorema spin-statistica” fu dimostrato negli anni ’50 da Streater e Wightman, due fisici matematici interessati a dare una formulazione rigorosa alla teoria quantistica dei campi. Streater e Wightman dimostrarono che la relazione spin-statistica `e necessaria perch´e una teoria quantistica di campo abbia uno stato fondamentale stabile, e simultaneamente soddisfi una serie di assiomi ritenuti irrinunciabili, in particolare la causalit` a (unitariet`a) e la localit`a. Esistono tuttavia anche argomenti pi` u semplici che portano alla relazione spin-statistica, alcuni dei quali si possono riformulare nell’ambito della meccanica quantistica non relativistica. Esiste in particolare un’ampia letteratura sulla relazione spin-statistica in spazi bidimensionali. Il caso bidimensionale `e particolarmente interessante perch´e in due dimensioni sono possibili altre statistiche oltre a quelle di Bose e Fermi, che sono di interesse per fenomeni di fisica della materia condensata, come l’effetto Hall frazionario. Discutiamo quindi la relazione spin-statistica in due dimensioni. Ricordiamo innanzitutto che si `e costruito lo spin studiando le rappresentazioni delle rotazioni. In tre dimensioni ci sono tre generatori di rotazioni, le rotazioni attorno ai tre assi; in due dimensioni c’`e un solo generatore delle rotazioni, l’asse perpendicolare allo spazio bidimensionale. Il gruppo delle rotazioni `e pertanto il gruppo abeliano SO(2) delle rotazioni dei vettori bidimensionali. Esso `e isomorfo al gruppo delle trasformazioni di fase: possiamo sempre ad associare ad una rotazione di angolo θ la fase eiθ . Pertanto, la pi` u generale funzione d’onda bidimensionale `e h #» x |ψi = ψ(r, ϑ),
(13.34)
e una rotazione di angolo α di tale funzione d’onda `e h #» x |Rα |ψi = ψ(r, ϑ + α) = eα ∂ϑ ψ(r, ϑ) ∂
(13.35)
13.3 Spin e statistica
229
che possiamo anche esprimere in termini dell’operatore di momento angolare L i ˆ h #» x |Rα |ψi = h #» x |e ~ αL |ψi,
(13.36)
dato da ∂ ˆ #» h #» x |L| x 0 i = −i~ δ (2) ( #» x − #» x 0 ). ∂ϑ
(13.37)
Ovviamente, le autofunzioni di L sono le funzioni hθ|ni = einθ
(13.38)
L|ni = ~n|ni
(13.39)
tali che
e la richiesta che la funzione d’onda sia ad un valore implica che n `e intero. Cos`ı come nel caso tridimensionale si pu`o definire uno spin. Lo spin `e un momento angolare intrinseco che in questo caso `e generato dall’unico generatore s. Su una funzione d’onda |si, che vive in uno spazio i astratto, pu` o agire un operatore e− ~ αˆs tale che i
e− ~ αˆs |si = e−iαs |si,
(13.40)
sˆ|si = ~s|si.
(13.41)
dove |si sono autofunzioni
Notiamo che in questo caso s potrebbe prendere qualunque valore (non c’`e condizione di quantizzazione). Tuttavia, visto che desideriamo in seguito immergere il piano in uno spazio tridimensionale, concentriamoci sui casi di s intero e semi-intero che ammettono la generalizzazione a tre dimensioni. La funzione d’onda totale di un sistema avente sia momenti angolare orbitale che spin `e quindi |ψsi = |ψi ⊗ |si.
(13.42)
Sotto una rotazione di angolo θ essa si trasforma come eiθ(L+ˆs) |ψsi = eiθs eiθL |ψsi
(13.43)
h #» x |ψsi = ψs ( #» x ),
(13.44)
e quindi
dove la ψs differisce dalla funzione d’onda spaziale ψ( #» x ) per una pura fase. Consideriamo ora la funzione d’onda per un sistema di due particelle in due dimensioni, con spin. La funzione d’onda |ψsi `e data da h #» x 1 #» x 2 |ψsi = ψs ( #» x 1 , #» x 2 ),
(13.45)
dove ora sotto una rotazione di angolo α si ha h #» x 1 #» x 2 |Rα |ψsi = e2iαs Rα ψs ( #» x 1 , #» x 2 ),
(13.46)
dove Rα realizza la rotazione spaziale, ed abbiamo supposto che lo spin sia s per entrambe le particelle. Osserviamo ora che la funzione d’onda spaziale per un sistema di due particelle si pu`o scrivere in termini di coordinata del baricentro e coordinata relativa come #» x 1 + #» x2 #» #» #» #» #» #» #» h x 1 x 2 |ψi = ψ( x 1 , x 2 ) = ψ x 1 − x 2 , = ψ( #» r , R) = ψ(r, ϑ, ϕ) (13.47) 2
230
Particelle identiche
Figura 13.1: Scambio di due particelle identiche A e B in due dimensioni tramite una rotazione attorno al loro baricentro. dove nell’ultimo passaggio abbiamo ulteriormente parametrizzato coordinata del baricentro e coordinata relativa in coordinate polari: r cos ϑ #» r (ϑ) = (13.48) r sin ϑ #» R(ϕ) =
R cos ϕ R sin ϕ
.
(13.49)
Osserviamo ora che ne segue che l’operatore di scambio pu`o essere semplicemente realizzato da una rotazione intorno al baricentro del sistema, o pi` u in generale da una rotazione seguita da una traslazione (si veda la Fig. 13.1): infatti una rotazione di π manda la coordinata relativa #» r in − #» r , ma ovviamente #» ψ( #» x 2 , #» x 1 ) = ψ(− #» r , R) = ψ(r, ϑ + π, ϕ).
(13.50)
P12 |ψi = Rπ |ψi.
(13.51)
Pertanto
Ora calcoliamo l’azione di una rotazione di π su un sistema di particelle identiche, supponendo che siano in uno stato di momento angolare orbitale relativo nullo. Usando la Eq. (13.46) abbiamo che h #» x 1 #» x 2 |Rπ |ψsi = e2iπs Rα ψ( #» x 1 , #» x 2 ) = e2iπs ψ( #» x 1 , #» x 2 ),
(13.52)
dove l’ultimo passaggio segue dall’ipotesi di momento angolare orbitale relativo nullo. Ma se le particelle sono identiche abbiamo anche che h #» x 1 #» x 2 |Rπ |ψsi = h #» x 1 #» x 2 |P12 |ψsi = e2iπs h #» x 1 #» x 2 |ψsi,
(13.53)
dove nell’ultimo passaggio abbiamo usato la Eq. (13.52). Ma questo ci dice immediatamente che la ψs `e un autostato dell’operatore di scambio con autovalore ±1 a seconda che s sia intero o semi-intero. D’altra parte, abbiamo visto che la simmetria della funzione d’onda deve essere una propriet`a universale per un sistema di particelle identiche, e quindi essa non pu`o dipendere dal valore del momento angolare orbitale. Ne deduciamo che la funzione d’onda deve essere necessariamente simmetrica (antisimmetrica) se lo spin `e intero (semi-intero), cio`e il teorema spin-statistica. Questo stabilisce il teorema spin statistica in due dimensioni nel caso non relativistico. In pi` u dimensioni la dimostrazione comporta qualche complicazione tecnica, legata al fatto che in pi` u di due dimensioni
13.3 Spin e statistica
231
vi sono diversi modi di scambiare due particelle mediante una rotazione. Ma la motivazione profonda della relazione spin-statistica resta una conseguenza del fatto che scambiare tra loro due particelle `e simile ad effettuare una rotazione di π, e quindi per spin seminteri lo scambio di due particelle si porta dietro una fase di -1. Questo `e l’argomento che sta alla base del teorema anche in teoria quanto-relativistica dei campi, dove vengono introdotti operatori di creazione e distruzione che dipendono dalla coordinata (ce ne sono per ogni punto dello spazio). Tali operatori per i fermioni devono anticommutare, e si vede che ci` o d` a luogo appunto ad una fase di -1.
232
Particelle identiche
Capitolo 14
Entanglement Abbiamo visto come per sistemi di due o pi` u particelle identiche, anche in assenza di interazione, la necessit` a di simmetrizzare od antisimmetrizzare il vettore di stato impedisca di scriverlo come prodotto diretto: sempre, per i fermioni, e tutte le volte che almeno due delle particelle si trovano in stati diverse, per i bosoni. Gli stati che non si possono scrivere come prodotto diretto sono detti stati entangled, ovvero intrecciati: il termine originale, dovuto a Heisember, `e verschr¨ ankt, che significa conserto. Gli stati entangled rivelano la natura non-locale della funzione d’onda e sono quindi, come vedremo in questo capitolo, al cuore della meccanica quantistica. Da un lato, `e in presenza di entanglement che si manifesta la differenza tra descrizione classica e descrizione quantistica dei fenomeni fisici. D’altra parte, `e il comportamento dei sistemi entangled quando vengono eseguite delle misure che ci permette di capire la transizione tra la descrizione quantistica e quella classica dei fenomeni fisici, ed in particolare come la descrizione classica emerga quando la perdita di informazione sullo stato del sistema fa s`ı che l’interferenza quantistica non sia pi` u rilevabile. Come abbiamo visto nella Sezione 2.3.2, l’informazione contenuta in un sistema quantistico `e codificata nella sua matrice densit` a. La struttura della matrice densit`a permette cos`ı di caratterizzare l’entanglement, e di dedurne le conseguenze.
14.1
Matrice densit` a
Come abbiamo gi` a visto la matrice densit`a permette di caratterizzare in modo del tutto generale la situazione in cui vi `e informazione incompleta circa lo stato di un sistema. In fisica quantistica, a differenza che nel caso classico, `e possibile prevedere gli eventi solo in modo statistico (cio´e se ne pu`o solo calcolare la probabilit` a) anche quando si `e in possesso di informazione completa sullo stato del sistema. Il formalismo della matrice densit` a permette di distinguere tra informazione probabilistica classica e quantistica. Ricordiamo che per un sistema che si trova in uno stato quantistico |ψi ben definito, ossia in uno stato puro, la matrice densit` a `e definita come il proiettore su tale stato: ρ = |ψihψ|.
(14.1)
Se tuttavia si conosce solo l’insieme delle probabilit`a Pi che il sistema si trovi in uno degli stati |ψi i si dice che il sistema si trova in uno stato misto, anzich´e in uno stato puro, e la matrice densit`a `e X X ρ= Pi |ψi ihψi |; Pi = 1. (14.2) i
i
Notare che Pi sono probabilit` a, quindi numeri reali tali che 0 ≤ Pi ≤ 1. Il formalismo della matrice densit` a rende chiara la profonda differenza tra sovrapposizione quantistica e la sovrapposizione statistica. Nella sovrapposizione quantistica, lo stato puro |ψi `e generalmente scritto come sovrapposizione di altri stati. La matrice densit`a contiene quindi tutti i termini di interferenza tra gli stati: se |ψi = c1 |φ1 i + c2 |φ2 i chiaramente ρ Eq. (14.1) `e la somma di quattro termini, sia quelli
234
Entanglement
contenenti le combinazioni |φ1 ihφ1 | e |φ2 ihφ2 |, sia i termini di interferenza |φ1 ihφ2 | e |φ2 ihφ1 |. Invece la sovrapposizione statistica classica Eq. (14.2) contiene solo termini diagonali, senza interferenze. Questa `e la ragione per la quale la meccanica quantistica `e diversa dalla meccanica statistica classica: in entrambi i casi le le predizioni sono predizioni probabilistiche, per`o nel caso quantistico, a differenza che nel caso classico, ci` o che si sovrappone non sono probabilit`a, bens`ı ampiezze. Le probabilit`a sono il modulo quadro delle ampiezze e di conseguenza compaiono dei termini di interferenza. Ricordiamo che, sia che il sistema si trovi un uno stato puro, sia che si trovi in uno stato misto, cio`e una sovrapposizione statistica, la matrice densit`a `e un operatore autoaggiunto ρ† = ρ avente traccia Trρ = 1, e il valor medio di una qualunque osservabile associata ad un operatore Aˆ `e dato da ˆ = TrAρ. ˆ hAi
(14.3)
Ricordiamo inoltre (si confronti la Eq. 2.103) che la matrice densit`a descrive uno stato puro se e solo se ρ2 = ρ, ossia se e solo se Trρ2 = 1, mentre per uno stato misto si ha sempre Trρ2 < 1.
14.1.1
Meccanica statistica
La meccanica statistica quantistica pu` o essere formulata in termini delle propriet`a della matrice densit` a. In particolare, la matrice densit` a per l’ensemble canonico, ossia per una sovrapposizione termica di stati, `e data da P −βEk |kihk| ke , (14.4) ρ= P −βEk ke 1 in termini della temperatura T e della costante di Boltzmann k, e la somma corre su tutti gli dove β = kT autostati di energia del sistema. L’evoluzione temporale della matrice densit`a segue dalla sua definizione Eq. (14.2): utilizzando l’equazione di Schr¨ odinger si ha d d d ρ= |ψihψ| + ψi hψ| dt dt dt 1 = (H|ψi ihψi iψi | − |ψi ihψi iψi |H) (14.5) i~ 1 = [H, ρ], i~
che ricorda l’equazione del moto per gli operatori in rappresentazione di Heisenberg, ma col segno cambiato. L’Eq. (14.5) `e l’analogo quantistico dell’equazione di Liouville che fornisce la dipendenza temporale di una distribuzione di probabilit` a classica, dalla quale si ottiene sostituendo le parentesi di Poisson con commutatori divisi per i~, come gi` a si `e visto per le equazioni di Hamilton nella Sezione 4.3.5.
14.1.2
Matrice densit` a e misure parziali
` un principio fondamentale della meccanica quantistica che dopo la misura di un’osservabile un sistema E si trova in un autostato di quell’osservabile. Questo pero`o non necessariamente vuol dire che dopo una misura un sistema si trovi in uno stato puro: infatti, questo `e vero solo se il risultato della misura caratterizza completamente lo stato del sistema. Come `e noto (si ricordi la discussione nella Sezione 1.3.3) la misura proietta lo stato del sistema sul sottospazio (eventualmente degenere) di stati associati al valore dell’osservabile misurata. Una situazione particolarmente interessante si ha quando la misura determina solo le propriet`a di una parte del sistema complessivo. Per capirlo, consideriamo il caso di un sistema che vive in uno spazio di prodotto diretto, dove quindi si ha |ψi =
X mn
cmn |m1 i ⊗ |n2 i;
(14.6)
14.1 Matrice densit` a
235
|m1 i sono vettori di base del sistema 1, mentre |n2 i sono vettori di base del sistema 2. La matrice densit` a ha la forma: X (14.7) c∗m0 n0 cmn |m1 i|n2 ihm01 |hn02 |. ρ = |ψihψ| = mnm0 n0
Ci chiediamo ora cosa succede quando viene effettuata una misura in uno solo dei due sottospazi, ossia una misura di un’osservabile che dipende soltanto dai gradi di libert`a di uno dei due sottospazi. Questa `e naturalmente una situazione fisica tipica: in linea di principio, l’intero universo `e descritto da un’unica funzione d’onda, ma in pratica qualunque misura le propriet`a di un sotto-sistema pi` u o meno piccolo. Data una osservabile Aˆ2 che agisce solo nel secondo sottospazio, il suo valor medio `e dato da: X hAˆ2 i = c∗mn0 cmn hn02 |Aˆ2 |n2 i. (14.8) mnn0
Il risultato pu` o essere espresso come hAˆ2 iTrAˆ2 ρ2 ,
(14.9)
avendo definito una matrice densit` a ρ2 relativa al solo sottospazio ridotto, data da X X ρ2 = Tr1 ρ = c∗mn0 cmn |n2 ihn02 | = dnn0 |n2 ihn02 |
(14.10)
dove nel primo passaggio Tr1 indica la traccia eseguita solo nel primo sottospazio, e X dnn0 = cmn c∗mn0 .
(14.11)
2
mnn0
nn0
2
m
La matrice densit` a ρ2 `e dunque la matrice densit`a ottenuta prendendo la matrice di partenza e tracciando solo rispetto al sottospazio 1, dove non misuriamo. Consideriamo per esempio un sistema di due particelle di spin 21 , che si trova in uno stato di spin totale uguale ad 1, e terza componente uguale a 0: 1 |ψi = √ |+i|−i + |−i|+i . 2
(14.12)
Supponiamo che le due particelle non siano identiche (ad esempio, consideriamo un protone ed un elettrone) e supponiamo di misurare lo spin dell’elettrone. Vogliamo misurare, ad esempio, lo spin lungo l’asse #» n per l’elettrone. Consideriamo quindi l’operatore σn = #» n · #» σ (2)
(14.13)
dove #» σ (2) rappresenta il vettore delle matrici di Pauli che agiscono nel secondo sottospazio. L’operatore σn agisce solo nel secondo sottospazio. Si ha 1 h+1 |h−2 | + h−1 |h+2 | σn |+1 i|−2 i + |−1 i|+2 i 2 1 = h+1 |+1 ih−2 |σn |−2 i + h−1 |+1 ih+2 |σn |−2 i + h+1 |−1 ih−2 |σn |+2 i + h−1 |−1 ih+2 |σn |+2 i 2 1 = h−2 |σn |−2 i + h+2 |σn |+2 i . (14.14) 2 2
Tr σn ρ =
Abbiamo quindi ρ2 = Tr1 ρ = Tr1
1 (|+1 i|−2 i + |−1 i|+2 i) (h+1 |h−2 | + h−1 |h+2 |) . 2
(14.15)
Notiamo che ρ2 `e la matrice densit` a per uno stato misto completamente non polarizzato. Quindi, in questo caso, bench´e il sistema si trovi in uno stato puro, l’impossibilit´a di misurarne completamente le caratteristiche fa s`ı che esso appaia come uno stato misto. In altri termini, si pu`o passare da uno stato sovrapposizione quantistica ad uno stato sovrapposizione classica facendo delle medie dei gradi di libert` a che non si misurano.
236
14.1.3
Entanglement
Entanglement e media sui sottosistemi
Si dimostra che condizione necessaria e sufficiente affinch´e la matrice densit`a di uno stato puro resti puro quando si misura solo un sottosistema `e che lo stato si possa scrivere come prodotto diretto. Questo vuol dire che data ρ2 = Tr1 ρ, se e solo se |ψi = |ψ1 i|ψ2 i
(14.16)
ρ22 = ρ2
(14.17)
|ψi = 6 |ψ1 i|ψ2 i
(14.18)
ρ22 6= ρ2 .
(14.19)
allora
mentre se
allora
Verifichiamo esplicitamente che la condizione `e sufficiente, omettendo la dimostrazione della condizione necessaria. Il quadrato della matrice densit`a `e: X X X ρ22 = cmn c∗mn0 |nihn0 | cij c∗ij 0 |jihj 0 | = cmn c∗mn0 cij c∗ij 0 |nihn0 |jihj 0 | mnn0
ijj 0
mnn0 ijj 0
! =
X
cmn c∗mj cij c∗ij 0 |nihj 0 | =
mnijj 0
=
XX nj 0
XX X nj 0
cmn c∗mj
m
j
X
cij c∗ij 0
|nihj 0 |
i
0
(fnj fjj 0 ) |nihj |.
(14.20)
j
Ci chiediamo quando valga ρ22 =
X
fnj 0 |nihj 0 |.
(14.21)
nj 0
Ipotizziamo che lo stato di partenza sia fattorizzato: X |ψi = cmn |m1 i|n2 i.
(14.22)
mn
Esso `e non entangled se cmn = bm dn . In questo caso, infatti, X |ψi = bm |m1 i dn |n2 i = |ϕ1 i|ϕ2 i,
(14.23)
mn
avendo definito |ϕ1 i =
X
bm |m1 i;
(14.24)
dn |n2 i.
(14.25)
m
|ϕ2 i =
X n
Il fatto che hϕ1 |ϕ1 i = hϕ2 |ϕ2 i = 1
(14.26)
implica che X m
|bm |2 =
X n
|dn |2 = 1.
(14.27)
14.2 Meccanica quantistica e realismo locale
237
Mostriamo ora che queste ipotesi sono sufficienti a stabilire ρ2 descrive uno stato puro. Si ha infatti ! ! XX X X 2 ∗ ∗ ∗ ∗ ρ2 = bm d n bm d j bi dj bi dj 0 |nihj 0 | nj 0
m
j
=
XX
=
X
nj 0
i
dn d∗j dj d∗j 0 |nihj 0 |
j
dn d∗j 0 |nihj 0 |
(14.28)
nj 0
ma dn d∗j 0 `e proprio uguale a fnj 0 =
∗ m cmn cmj 0 ,
P
fnj 0 =
X
in quanto:
bm dn d∗j 0 b∗m = dn d∗j 0
(14.29)
m
e quindi effettivamente il quadrato della matrice densit`a `e uguale alla matrice densit`a dalla quale eravamo partiti. Questa propriet` a garantisce che sia frequentemente possibile descrivere un sistema quantistico in termini della dinamica, e quindi dell’hamiltoniana, del sottosistema su cui si eseguono le misure. Se anche in linea di principio l’intero universo `e descritto da un’unica funzione d’onda, in pratica, purch´e il vettore di stato di un certo sottosistema fattorizzi rispetto, `e possibile descrivere il sottosistema ignorando il resto dell’universo. Questo vuol dire che il sottosistema in esame `e disaccoppiato dall’ambiente. Ma, al contrario, per un sistema entangled se si prescinde dall’ambiente, la natura del sistema cambia: sotto misura, un sistema che si trovava in uno stato puro si trasforma in una sovrapposizione statistica.
14.2
Meccanica quantistica e realismo locale
La descrizione quantistica della realt` a per sistemi entangled porta a conclusioni che appaiono essere in conflitto con il principio del cosiddetto realismo locale. Questo conflitto `e stato espresso da Einstein attraverso la descrizione di un esperimento inizialmente ideale, e poi in seguito realizzato, seppure con qualche modifica.
14.2.1
Il paradosso Einstein-Podolsky-Rosen
Nel suo lavoro1 Einstein considera un caso particolare di un sistema entangled formato da due sottosistemi. Usando una formulazione pi` u moderna dovuta a Bell2 , l’esperimento si pu`o formulare nel modo seguente. Consideriamo due particelle di spin 12 che si trovano in uno stato di spin totale uguale a 0. La funzione d’onda del sistema `e quindi 1 |ψi = √ |+i|−i − |−i|+i . 2
(14.30)
Le due particelle vengono quindi allontanate senza che l’evoluzione temporale ne modifichi la funzione d’onda di spin, e, quando le due particelle sono sufficientemente lontane, su di esse vengono eseguite misure causalmente disconnesse, cio´e tali che nessun segnale che viaggia alla velocit`a della luce possa trasmettere l’informazione relativa alla misura di una particella quando viene eseguita la misura sull’altra particella. L’ipotesi di realismo locale `e che, essendo le particelle causalmente disconnesse, non c’`e nulla che pu` o succedere alla prima particella in conseguenza di quello che facciamo sulla seconda particella, e viceversa. Nelle parole di Einstein ...since at the time of measurement the two system no longer interact, no real change can take place in the second system in consequence of anything that may be done in the first system. 1 Einstein A., Podolsky B., Rosen N., “Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?”, Phys. Rev. 47, 777-780 (May 15, 1935). 2 Bell J. S. “On the Einstein-Podolsky-Rosen paradox”, Physics 1, 195-200 (1964).
238
Entanglement
Secondo la meccanica quantistica, se eseguiamo la misura di spin di una delle due particelle per un sistema che si trova nello stato Eq. (14.30), dopo la misura il sistema viene proiettato su un autostato che corrisponde al risultati della misura che abbiamo fatto. Se quindi la misura della prima particella la rivela in uno stato con spin su, dopo la misura la funzione d’onda del sistema totale `e proiettata sullo stato |ψ 0 i = |+i|−i
(14.31)
Lo spin della seconda particella `e quindi obbligatoriamente gi` u. Ci` o sembra paradossale in quanto sembra ci sia trasferimento di informazione ad una velocit`a maggiore di quella della luce. In realt` a sembrerebbe esserci una via d’uscita, come messo in luce da Bell attraverso il esempio delle “calze di Bertlsmann”3 . Questo corrisponde alla situazione di due gemelli con due paia di calze, l’una rossa e l’altra blu. Alla mattina non `e noto chi si metta le calze rosse e chi si metta quelle blu, ma c’`e il 50% di chance che siano dell’uno o dell’altro colore. Osservando il colore delle calze dell’uno, poniamo rosse, si deduce immediatamente che l’altro ha le calze blu. In ci`o non c’`e nulla di paradossale, in quanto la scoperta di ci` o che avviene al sistema avviene a posteriori della scelta operata dai gemelli. Il problema tuttavia nasce quando si osserva che il sistema in uno stato di spin totale uguale a 0 pu` o essere equivalentemente visto come sovrapposizione di spin opposti lungo un asse qualunque. In altri termini, lo stato pu` o anche essere scritto come 1 |ψi = √ |+ix |−ix − |−ix |+ix 2
(14.32)
1 |±ix = √ |+i ± |−i , 2
(14.33)
dove
e cos`ı via, usando autostati dello spin in una direzione qualunque. In effetti, ricordando che il proiettore su uno stato di spin ± 12 lungo l’asse #» n , | #» n | = 1 `e P± =
1 (I ± #» n · #» σ), 2
(14.34)
si dimostra facilmente che la matrice densit`a per questo sistema ha la forma ρ=
1 (I − #» σ 1 #» σ 2) 4
(14.35)
dove #» σ 1 #» σ 2 sono operatori di spin scritti sotto forma di matrici di Pauli che agiscono sullo spazio della particella 1 e sulla particella 2. La forma Eq. (14.35) della matrice densit`a mostra chiaramente che non vi `e alcuna direzione privilegiata. Quindi, se misuriamo lo spin della prima particella lungo l’asse z allora l’altra particella ha spin opposto lungo l’asse z. Ma se misuriamo lo spin lungo l’asse x allora la seconda particella ha spin opposto lungo l’asse x, e cos`ı via. Ma gli operatori di spin lungo diverse direzioni non commutano. Quindi la seconda non pu` o trovarsi, prima della misura, in uno stato ben determinato di spin sia rispetto all’asse x che rispetto all’asse z. Dobbiamo quindi concludere che `e solo dopo la misura dello spin della prima particella, ed in conseguenza di essa, che la seconda particella acquisisce un valore ben definito dello spin lungo un asse. Questo dunque contraddice l’ipotesi di realismo locale, ovvero che non possa esserci influenza della misura della prima particella sullo stato della seconda particella quando le due particelle sono causalmente disconnesse.
14.2.2
Variabili nascoste
Una possibile via d’uscita `e di supporre che la meccanica quantistica sia una teoria incompleta, e che il realismo locale sia una caratteristica di una teoria pi` u completa. L’apparente violazione del realismo locale 3 Bell
J. S., “Bertlmann’s socks and the nature of reality”, CERN-TH-2926 (1980).
14.2 Meccanica quantistica e realismo locale
239
in questa interpretazione `e dovuta all’ignoranza di alcuni dei gradi di libert`a della teoria soggiacente. Per capire come questo possa funzionare, consideriamo un sistema di spin 12 che si trova in uno stato puro |ψi. Sappiamo che la pi` u generale matrice densit`a per un sistema che su trovi in uno stato puro si pu` o scrivere come 1 ρ = |ψihψ| = (I + #» σ · #» n ); (14.36) 2 dove | #» n | = 1. Quindi tutta l’informazione sullo stato del sistema `e determinata dalla conoscenza del vettore #» n. Consideriamo ora una generica osservabile Aˆ per questo sistema. Essa si pu`o generalmente scrivere come Aˆ = a I + #» a · #» σ. (14.37) 0
La meccanica quantistica ci dice che una misura dell’osservabile Aˆ produce come risultati gli autovalori λ± di Aˆ e che dopo la misura il sistema si trova nell’autostato associato. Gli autovalori sono λ± = a0 ± | #» a |, (14.38) e gli autostati soddisfano #» a · #» σ |ψ± i = ±| #» a ||ψ± i.
(14.39)
La probabilit` a P± che la misura dia come risultato λ± `e data dalla traccia della matrice densit`a per il #» #» a 1 sul corrispondende autostato: proiettore Pˆ± = 2 I ± σ · | #» a| #» 1 1 a #» #» #» ˆ P± = TrρP± = Tr (I + σ · n ) I ± σ · #» 2 2 |a| #» 1 a · #» n 1 = 1 ± #» = (1 ± cos ϑna ), (14.40) 2 |a| 2 dove nel penultimo passaggio abbiamo sfruttato il fatto che TrI = 2, Trσi = 0, Trσi σj = 2δij . Possiamo dare una descrizione di questa operazione di misura compatibile con il realismo locale supponendo che lo stato completo del sistema sia descritto non solo dal vettore #» n , ma anche da un ulteriore #» a noi sconosciuto, ossia una variabile nascosta. Se si conoscesse la variabile nascosta allora per vettore m ogni suo valore si sarebbe in grado di predire con certezza il risultato della misura di qualunque operatore (e quindi anche di operatori non commutanti). A questo fine, supponiamo quindi che esista una funzione v dell’osservabile, dello stato del sistema (e #» tale per cui, se si quindi del vettore #» n che ne caratterizza lo stato), ma anche della variabile nascosta m ` facile vedere che possiamo riprodurre i risultati conoscesse m, allora la funzione v varrebbe o λ+ o λ− . E della meccanica quantistica supponendo che ( #» · #» λ+ se m a < #» n · #» a #» #» ˆ v(A; n , m) = (14.41) #» #» #» #» λ se m · a > n · a −
#» il risultato della misura `e indeterminato, ma il suo valor Infatti, se non conosciamo il valore di m, #» Basta allora medio pu` o essere calcolato mediando sui risultati determinati da tutti i possibili valori di m. #» supporre che la distribuzione di probabilit`a di m sia uniforme per ritrovare la meccanica quantistica. #» e #» Infatti, in tal caso si trova il valore λ+ quando l’angolo θma tra m a soddisfa −1 < cos θma < cos θna ϑ e λ− se cos θna < cos θma < 1 (si veda la Fig. 14.1): ne segue che la probabilit`a di trovare λ± `e 1±cos , 2 come nel caso della meccanica quantistica. #» fosse noto, potremmo predire il risultato della misura di Se il valore della variabile nascosta m qualunque operatore, ed in particolare di operatori non commutanti. Naturalmente, sappiamo che se la misura viene eseguita, allora la meccanica quantistica ci dice che lo stato del sistema deve cambiare: #» In questa ma questo lo possiamo descrivere dicendo che la misura cambia il valore della variabile m. interpretazione, prima di eseguire la misura il sistema ha valori ben definiti anche per osservabili non commutanti, che potremmo conoscere se in aggiunta allo stato del sistema (dato da #» n ) conoscessimo #» E ` la misura a distruggere questa informazione, in seguito al fatto che non anche la variabile nascosta m. #» sappiamo come la misura influisca su m.
240
Entanglement
Figura 14.1: Esempio di variabile nascosta
14.2.3
La disuguaglianza di Bell
Possiamo chiederci se una costruzione basata sulle variabili nascoste sia sempre possibile. In effetti, per sistemi pi` u complessi di quelli di spin 12 emergono delle difficolt`a. In particolare, si pu`o dimostrare che per sistemi tripartiti (ad esempio sistemi di spin 1) non `e in generale possibile assegnare simultaneamente valori a tutte le osservabili possibili, anche in presenza di variabili nascoste (teorema di Bell-KochenSpecker). Questo per` o si dimostra solo sotto opportune ipotesi teoriche: ad esempio, che lo spazio degli ` molto difficile escludere che ci`o si possa fare rilassando alcune stati fisici sia uno spazio di Hilbert. E ipotesi, e non contraddicendo i dati sperimentali. Si dimostra tuttavia che se l’interpretazione realistica locale vale, allora debbono essere soddisfatte delle disuguaglianze, a prescindere da come l’eventuale teoria realistica locale sia di fatto realizzata. Se il realismo locale valga o no diventa cos`ı decidibile sperimentalmente. Per capirlo, supponiamo di avere un sistema che si trova in uno stato EPR, cio`e nello stato di singoletto di spin 1 |ψi = √ (| + −i − | − +i), 2
(14.42)
quindi con matrice densit` a ρ=
1 (I − #» σ 1 #» σ 2 ). 4
(14.43)
Chiediamoci quale sia la probabilit` a congiunta di una misura di spin che riveli la particella 1 con spin su lungo l’asse #» n 1 , la particella 2 con spin gi`ıu lungo un certo altro asse #» n 2. La meccanica quantistica ci permette di calcolarla: la probabilit`a `e data da N+− ( #» n 1 , #» n 2 ) = |h #» n 1↑ |h #» n 2↓ |ψi|2 = TrρPˆn#»1↑ n#»2↓
(14.44)
(I + #» n 1 · #» σ 1 ) (I − #» n 2 · #» σ 2) Pˆn#»1↑ n#»2↓ = . 2 2
(14.45)
dove il proiettore Pˆn#»1↑ n#»2↓ `e:
Quindi 1 (I + #» n 1 · #» σ 1 ) (I − #» n 2 · #» σ 2) 1 N+− ( #» n 1 , #» n 2 ) = Tr (I − #» σ 1 #» σ 2) = (1 + #» n 1 · #» n 2 ), 4 2 2 4
(14.46)
dove stiamo nuovamente usando la propriet`a che Trσi σj = 2δij e che la traccia della matrice identit`a `e uguale a 2, e ricordando che la traccia rispetto alla particella 1 si effettua sulle matrici #» σ 1 , mentre la traccia rispetto alla particella 2 si effettua sulle matrici #» σ 2.
14.2 Meccanica quantistica e realismo locale
241
Da questo risultato possiamo calcolare una famiglia di risultati collegati. N++ ( #» n 1 , #» n 2 ), in particolare, `e uguale a quanto appena trovato a meno di un segno in quanto cambia il segno di uno dei due proiettori, quindi 1 N++ ( #» n 1 , #» n 2 ) = (1 − #» n 1 · #» n 2 ). 4
(14.47)
1 n 1 · #» n 2) N−− ( #» n 1 , #» n 2 ) = N++ ( #» n 1 , #» n 2 ) = (1 − #» 4
(14.48)
1 N−+ ( #» n 1 , #» n 2 ) = N+− ( #» n 1 , #» n 2 ) = (1 + #» n 1 · #» n 2 ). 4
(14.49)
Inoltre, ovviamente,
Cerchiamo ora di interpretare questa situazione da un punto di vista di realismo locale. Secondo tale punto di vista, se si conoscesse la teoria completa, si potrebbe predire il risultato di una misura di spin delle particelle lungo qualunque asse. Se si accetta ci`o, per ogni configurazione delle variabili nascoste ciascuna delle due particelle ha spin ben definito rispetto a qualunque asse. Possiamo quindi chiederci, per esempio, qual `e la probabilit` a che la particella 1 abbia simultaneamente spin su rispetto all’asse #» n1 #» e rispetto all’asse n 2 , o spin su rispetto all’asse #» n 1 e spin gi` u rispetto all’asse #» n 2 , e cos`ı via. Notare che dal punto di vista della meccanica quantistica questo non ha senso, perch´e lo spin rispetto a due assi corrisponde a variabili incompatibili, e quindi non ha senso chiedersi quale sia la probabilit`a di una misura simultanea: o misuriamo lo spin di una particella rispetto ad un asse, o rispetto ad un altro asse. Ma in una teoria realistica locale s`ı: se conoscessimo le variabili nascoste sapremmo qual `e lo spin della particella 1 rispetto a qualunque asse, ed `e solo la misura che rovina questa informazione perch´e non sappiamo come la misura influisce sulle variabili nascoste. Quindi, supponiamo che valga il realismo locale, e definiamo M++ ( #» n 1 , #» n 2 ), la probabilit`a che la particella 1 abbia spin su rispetto ad entrambi i due assi, ed analogamente per gli altri valori, su o gi` u, dello spin. Ma noi sappiamo che nello stato dato, lo spin della particella 1 rispetto a qualunque asse `e sempre opposto allo spin della particella 2 rispetto allo stesso asse. Quindi, in tale stato M++ ( #» n 1 , #» n 2 ) = N+− ( #» n 1 , #» n 2 ), #» #» #» #» M ( n , n ) = N ( n , n ). +−
1
2
++
1
2
(14.50)
Notiamo ora che da un punto di vista realistico locale `e definito il valore dello spin della particella 1 rispetto a qualunque asse. Possiamo quindi introdurre un ulteriore asse #» n 3 , ed osservare che M+− ( #» n 1 , #» n 2 ) = M+−+ ( #» n 1 , #» n 2 , #» n 3 ) + M+−− ( #» n 1 , #» n 2 , #» n 3 ),
(14.51)
dove M+−+ ( #» n 1 , #» n 2 , #» n 3 ) `e la probabilit` a che lo spin sia su rispetto al primo asse, gi` u rispetto al secondo, e su rispetto al terzo, e cos`ı via. Naturalmente, per`o, Ma ora osserviamo che ovviamente Mijk ( #» n 1 , #» n 2 , #» n 3 ) ≤ Mij ( #» n 1 , #» n 2) #» #» #» #» M ( n , n , n ) ≤ M ( n , #» n ) ijk
1
2
3
ik
1
3
Mijk ( #» n 1 , #» n 2 , #» n 3 ) ≤ Mjk ( #» n 2 , #» n 3) :
(14.52)
l’aggiunta di una condizione non pu` o che diminuire o al pi` u lasciar invariata la probabilit`a. Usando la Eq. (14.52) per maggiorare ciascuno dei due termini a membro destro della Eq. (14.51) si ottiene quindi M+− ( #» n 1 , #» n 2 ) ≤ M−+ ( #» n 2 , #» n 3 ) + M+− ( #» n 1 , #» n 3 ),
(14.53)
che pu` o essere riscritta riordinando gli argomenti mediante l’identit`a M−+ ( #» n 2 , #» n 3 ) = M+− ( #» n 3 , #» n 2 ),
(14.54)
242
Entanglement
con il risultato M+− ( #» n 1 , #» n 2 ) ≤ M+− ( #» n 3 , #» n 2 ) + M+− ( #» n 1 , #» n 3 ),
(14.55)
che la struttura di una disuguaglianza triangolare. Possiamo infine la Eq. (14.50) per convertire quest’ultima relazione in una disuguaglianza soddisfatta dalle probabilit` a congiunte N , ossia N++ ( #» n 1 , #» n 2 ) ≤ N++ ( #» n 3 , #» n 2 ) + N++ ( #» n 1 , #» n 3 ).
(14.56)
Mentre la disuguaglianza (14.55) `e sensata soltanto nel quadro di una teoria realistica locale, in cui `e ben definita la probabilit` a di una misura di spin lungo assi diversi, la disuguaglianza (??), che ne discende, `e ben definita anche in meccanica quantistica standard, perch´e si riferisce alla probabilit`a congiunta dello spin di particelle diverse lungo diversi assi. Questa `e la disuguaglianza di Bell (in una delle sue forme); altre forme si possono ottenere esprimendo le probabilit`a in termini di valori medi di misure di spin. Possiamo ora confrontare la disuguaglianza con il risultato della meccanica quantistica con il calcolo prima effettuato, dato dalla Eq. (14.47): 1 1 ϑ2 − ϑ 1 1 (14.57) N++ ( #» n 1 , #» n 2 ) = (1 − cos ϑ12 ) = (1 − cos(ϑ2 − ϑ1 )) = sin2 4 4 2 2 con ϑ12 angolo polare nel piano che i due versori #» n 1 e #» n 2 definiscono. Questa forma si presta facilmente alla verifica della disuguaglianza di Bell. Ci mettiamo ad esempio nella situazione in cui #» n 3 `e nel piano definito da #» n e #» n ed `e la bisettrice dell’angolo ϑ (si veda la Fig. 14.2). 1
2
12
Figura 14.2: Violazione della disuguaglianza di Bell. La disuguaglianza di Bell `e: sin2
ϑ 2 − ϑ1 ϑ 2 − ϑ3 ϑ 3 − ϑ1 ≤ sin2 + sin2 . 2 2 2
(14.58)
Poniamo ϑ2 − ϑ1 = 2ϕ 2
(14.59)
ϑ3 − ϑ1 ϑ2 − ϑ3 = =ϕ 2 2
(14.60)
sin2 2ϕ ≤ 2 sin2 ϕ
(14.61)
e quindi, nella configurazione della figura.
e la disuguaglianza di Bell diventa
14.3 Il problema della misura
243
ovvero 4 sin2 ϕ cos2 ϕ ≤ 2 sin2 ϕ.
(14.62)
Si arriva alla condizione ?
cos2 ϕ ≤
1 . 2
(14.63)
Ma ovviamente, nulla ci vieta di scegliere ϕ < π4 , ed in tal caso la disuguaglianza di Bell `e violata. Di conseguenza la disuguaglianza di Bell in meccanica quantistica pu`o essere violata, e pertanto ne dobbiamo concludere che non esiste una interpretazione realistica locale della meccanica quantistica consistente con le predizioni della meccanica quantistica per l’esperimento EPR. Esperimenti di verifica delle disuguaglianze di Bell sono stati fatti nel corso degli anni in modo via via pi` u raffinato. Sono degli esperimenti molto difficili, in quanto bisogna essere certi di misurare una singola particella di una coppia e non, invece, delle propriet`a medie di un insieme di particelle che possono dipendere dall’ambiente. Inoltre bisogna essere certi del fatto che non ci sia trasmissione di informazione. Esperimenti di questo tipo furono fatti dal gruppo di A. Aspect4 ad una distanza tale da non permettere che i due eventi di misura fossero causalmente connessi, rendendo inoltre completamente casuale la scelta dell’asse da misurare. Attualmente non sembra esserci dubbio che la disuguaglianza di Bell `e sperimentalmente violata, nel modo predetto dalla meccanica quantistica.
14.3
Il problema della misura
La verifica sperimentale della violazione delle disuguaglianze di Bell fornisce forte evidenza della correttezza di alcuni degli aspetti pi` u contro-intuitivi della meccanica quantistica. In particolare, suggerisce che il realismo locale sia semplicemente falso, e quindi la sua incompatibilit`a con la meccanica quantistica non sia un sintomo dell’incompletezza di quest’ultima. Resta tuttavia un aspetto della meccanica che ne potrebbe suggerire l’incompletezza concettuale: il problema della misura. Il problema `e il seguente. In meccanica quantistica il vettore di stato evolve in maniera deterministica: |ψ(t)i = S(t, t0 )|ψ(t0 )i.
(14.64)
Non ci pu` o essere violazione di causalit` a perch´e l’evoluzione quantistica `e unitaria e causale. Tuttavia, quando il sistema viene misurato esso cambia in un modo che non `e pi` u descritto dall’evoluzione temporale. Dato un operatore Aˆ con autovalore λA , tale per cui ˆ A i = λA |ψA i A|ψ
(14.65)
se il risultato della misura `e λA , allora la funzione d’onda dopo la misura `e nello stato in |ψA i. L’operazione di misura non `e pi` u una evoluzione temporale unitaria. Il cambiamento della funzione d’onda durante l’operazione di misura `e spesso chiamato “collasso della funzione d’onda”: esso `e manifestamente non unitario ed irreversibile. Il problema della misura `e il seguente: questo “collasso” della funzione d’onda pu`o essere descritto dalla meccanica quantistica o no? Se no, allora la meccanica quantistica sembrerebbe incompleta, se s`ı, come `e possibile ottenere un comportamento non unitario da un’evoluzione unitaria? Chiediamoci quindi pi` u approfonditamente in che cosa consista una misura. Per esempio, che cosa significa misurare che lo spin di una particella `e in su o in gi` u? Un tipico modo di eseguire la misura `e di accoppiare le particelle ad un campo magnetico, che deflette le particelle in due direzioni diverse a seconda del loro spin. Se la funzione d’onda di spin della particella `e |ψi = c+ |+i + c− |−i,
(14.66)
4 Aspect A., Grangier P., Roger G., “Experimental tests of realistic local theories via Bell’s theorem”, Phys. Rev. Lett., 47 p.460 (1981); Aspect A., Grangier P., Roger G., “Experimental realization of Einstein-Podolsky-Rosen gedankenexperiment; a new violation of Bell’s inequalities”, Phys. Rev. Lett., 49 p.91 (1982); Aspect A., Dalibard J., Roger G., “Experimental test of bell’s inequalities using time-varying analyzers”, Phys. Rev. Lett., 49 p.1804 (1982).
244
Entanglement
per misurare lo spin si assoggetta il sistema ad un’evoluzione temporale S(t)|ψi = |ψ(t)i = c+ |+i|x+ (t)i + c− |−i|x− (t)i,
(14.67)
dove |x± (t)i sono autostati di posizione che si propagano in direzioni diverse, e corrispondono al fatto che la particella viene individuata in posizioni diverse, e che sono macroscopicamente distinti, cio`e hx± |x± i = 1,
hx± |x∓ i = 0.
(14.68)
±
Dopo la misura, il sistema viene rivelato in uno degli stati |x i e la sua funzione d’onda diventa cos`ı |ψi = |+i|x+ i
(14.69)
|ψi = |−i|x− i.
(14.70)
con probabilit` a |c+ |2 oppure
con probabilit` a |c− |2 . Questo corrisponde alla situazione del “gatto di Schr¨odinger”. L’apparato di misura `e macroscopico: per esempio un rivelatore in cui compare una traccia su di uno schermo. Nella versione originaria del paradosso, la particella se viene rivelata in |x+ i innesca un meccanismo che uccide un gatto. Quindi il rivelatore diventa il gatto: se `e morto lo spin `e su, se `e vivo `e gi` u. Prima della misura il sistema `e nello stato entangled Eq. (14.67). Dunque, c subito prima della misura il sistema `e in una sovrapposizione di stati macroscopici (una sovrapposizione di “gatto vivo” e “gatto morto”), e la misura fa collassare lo stato in quello di gatto vivo o gatto morto.
14.3.1
Decoerenza
La risoluzione del paradosso del gatto `e che la descrizione dello stato del sistema in termini della funzione d’onda entangled Eq. (14.67) non pu` o essere completamente corretta. Infatti, se si accoppia il sistema ad un rivelatore esterno, questo `e necessariamente a sua volta accoppiato all’ambiente esterno (ad esempio, il gatto se `e vivo, respira). Del resto, se non fosse accoppiato all’ambiente esterno sarebbe impossibile vedere il risultato della misura. Perci` o pi` u propriamente la funzione d’onda del sistema prima della misura `e S(t)|ψi = |ψ(t)i = c+ |+i|x+ (t)i|A+ i + c− |−i|x− (t)i|A− i
(14.71)
dove |A± i descrive lo stato dell’ambiente, ossia del resto dell’universo con cui il sistema `e accoppiato attraverso il rivelatore. Ma, ovviamente, lo stato dell’ambiente non `e osservabile nel suo complesso. Quindi, nel momento in cui il sistema viene accoppiato ad un apparato di misura, la matrice densit`a del nostro sistema cambia. Se all’inizio la matrice densit` a era data da ρ = |ψihψ| = (c+ |+i + c− |−i)(c∗+ h+| + c∗− h−|)
(14.72)
dopo l’interazione con il rivelatore, essa diventa ρ(t) = TrA (S(t)|ψihψ|S † (t)),
(14.73)
dove TrA indica la traccia sulle variabile di ambiente, inosservate. Ma inevitabilmente hA|Ai = 1,
hA|A0 i = 0 :
(14.74)
stati di ambiente diversi sono macroscopicamente diversi, e quindi ortogonali. Ne segue quindi che ρ(t) = |c+ |2 |+i|x+ (t)ih+|hx+ (t)| + |c− |2 |−i|x− (t)ih−|hx− (t)|,
(14.75)
che `e la matrice densit` a per uno stato misto. Un esempio esplicito di meccanismo perch´e questo possa accadere `e stato discusso nell’ambito degli stati coerenti nella sezione 7.5.2. L’accoppiamento del sistema all’ambiente trasforma la sovrapposizione quantistica in una miscela statistica. Questo fenomeno che avviene quando si accoppia l’ambiente ad un sistema quantistico viene chiamato decoerenza. Una teoria completa della decoerenza ancora non esiste. Esserne in possesso significherebbe che sono stati compresi perfettamente i processi di misura quantistici.
14.3 Il problema della misura
14.3.2
245
Misura ed informazione
Questo tuttavia suggerisce fortemente che quello che noi chiamiamo misura in meccanica quantistica sia caratterizzato dalla decoerenza. Infatti, la misura `e caratterizzata dal fatto che accoppiando il sistema al rivelatore l’interferenza scompare. Nel linguaggio dell’esperimento di Zeilinger, se un rivelatore ci dice dqa che fenditura `e passata la molecola, l’interferenza scompare. Ma questo lo possiamo capire in termini di coerenza: la miusura `e cos`ı un’approssimazione del fenomeno molto complicato per cui le matrici densit` a di sistemi quantistici diventano matrici densit`a di sistemi statistici. La natura non unitaria dell’evoluzione `e in questa interpretyazione dovutalla decoerenza, cio`e alla perdita di informazione che deriva dalla nostra incapacit` a di effettuare una misura sul sistema completo. Una volta scomparsa l’interferenza, il “collasso” della funzione d’onda non ha nulla di paradossale o concettualmente insoddisfacente. Se si accetta il fatto che la realt`a non `e deterministica, noi possiamo solo assegnare una probabilit` a agli eventi. Ma dopo la decoerenza, il sistema si trova in una sovrapposizione statistica, la cui matrice densit` a descrive la nostra informazione incompleta su di esso. Dopo aver effettuato la misura (dopo aver letto il rivelatore) la nostra informazione sullo stato del sistema `e cambiata: il sistema si trova in uno stato puro. L’apparentemente paradossale “collasso” della funzione d’onda descrive il fatto che prima dell’operazione di misura abbiamo una certa quantit`a di informazione, mentre dopo la misura abbiamo delle informazioni diverse. Nel momento della misura l’informazione che abbiamo cambia in modo discontinuo. Il vettore di stato non `e una propriet`a dei sistemi, bens`ı di quello che noi sappiamo dei sistemi fisici. Quindi la misura `e semplicemente un’approssimazione della combinazione di decoerenza, pi` u il cambiamento della nostra informazione quando vediamo quale degli eventi possibili si `e effettivamente realizzato. Ci si pu` o naturalmente porre la domanda se sia possibile scrivere un vettore di stato dell’universo, che quindi descrive tutta la realt` a, anzich´e la nostra informazione su un sottosistema. Se questo sia possibile, e se s`ı come, `e controverso: vi sono diverse proposte, ma non vi `e un consenso generalizzato. Questo `e il problema dei fondamenti della meccanica quantistica: allo stato attuale delle cose, tuttavia, non vi `e alcun modo di decidere sperimentalmente questo problema. L’atteggiamento per cui solo l’informazione che abbiamo sul sistema `e descritta dalla meccanica quantistica appare essere, allo stato attuale delle cose, tutto quanto possiamo verificare sperimentalmente.