Mec´anica Cu´antica: Notas de Clase Rodolfo Alexander Diaz Sanchez Universidad Nacional de Colombia Departamento de F´ısica Bogot´a, Colombia 23 de agosto de 2015
´Indice general 1. Linear or vector spaces 1.1. Definition of a linear vector space . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Algebraic properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3. Vector subspaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4. Dimension and bases in vector spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5. Mappings and transformations in vector spaces . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6. Linear transformations of a vector space into itself . . . . . . . . . . . . . . . . . . . . . . . . 1.6.1. Projection operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7. Normed vector spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.1. Convergent sequences, cauchy sequences and completeness . . . . . . . . . . . . . . . . 1.7.2. The importance of completeness in quantum mechanics . . . . . . . . . . . . . . . . . 1.7.3. The concept of continuity and its importance in Physics . . . . . . . . . . . . . . . . . 1.8. Banach Spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8.1. Continuous linear transformations of a Banach space into scalars . . . . . . . . . . . . 1.8.2. Continuous linear transformations of a Banach space into itself . . . . . . . . . . . . . 1.9. Hilbert spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9.1. Orthonormal sets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9.2. The conjugate space H ∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9.3. The conjugate and the adjoint of an operator . . . . . . . . . . . . . . . . . . . . . . . 1.10. Normal operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.11. Self-Adjoint operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.12. Unitary operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.13. Projections on Hilbert spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.14. Theory of representations in finite-dimensional vector spaces . . . . . . . . . . . . . . . . . . . 1.14.1. Representation of vectors and operators in a given basis . . . . . . . . . . . . . . . . . 1.14.2. Change of coordinates of vectors under a change of basis . . . . . . . . . . . . . . . . . 1.14.3. Change of the matrix representative of linear transformations under a change of basis 1.15. Active and passive transformations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.16. Theory of representations on finite dimensional Hilbert spaces . . . . . . . . . . . . . . . . . . 1.16.1. Linear operators in finite dimensional Hilbert spaces . . . . . . . . . . . . . . . . . . . 1.17. Determinants and traces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.18. Rectangular matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.19. The eigenvalue problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.19.1. Matrix representative of the eigenvalue problem . . . . . . . . . . . . . . . . . . . . . . 1.19.2. Eigenvectors and the canonical problem of matrices . . . . . . . . . . . . . . . . . . . 1.20. Normal operators and the spectral theorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.20.1. A qualitative discussion of the spectral theorem in infinite dimensional Hilbert spaces 1.21. The concept of “hyperbasis” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14 14 15 15 17 20 20 22 22 23 24 24 25 25 25 27 29 31 32 33 34 35 36 37 37 40 41 42 42 44 46 47 48 49 50 51 55 56
´INDICE GENERAL 1.22. Definition of an observable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.23. Complete sets of commuting observables (C.S.C.O.) . . . . . . . . . . . . . . . 1.24. Some terminology concerning quantum mechanics . . . . . . . . . . . . . . . . . 1.25. The Hilbert Space L2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.25.1. The wave function space ̥ . . . . . . . . . . . . . . . . . . . . . . . . . 1.26. Discrete orthonormal basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.26.1. Funci´ on delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.27. Closure relations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.28. Introduction of hyperbases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.29. Closure relation with hyperbases . . . . . . . . . . . . . . . . . . . . . . . . . . 1.30. Inner product and norm in terms of a hyperbasis . . . . . . . . . . . . . . . . . 1.31. Some specific continuous bases . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.31.1. Plane waves . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.31.2. “Delta functions” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.32. Tensor products of vector spaces, definition and properties . . . . . . . . . . . . 1.32.1. Scalar products in tensor product spaces . . . . . . . . . . . . . . . . . . 1.32.2. Tensor product of operators . . . . . . . . . . . . . . . . . . . . . . . . . 1.32.3. The eigenvalue problem in tensor product spaces . . . . . . . . . . . . . 1.32.4. Complete sets of commuting observables in tensor product spaces . . . . 1.33. Restrictions of an operator to a subspace . . . . . . . . . . . . . . . . . . . . . 1.34. Functions of operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.34.1. Some commutators involving functions of operators . . . . . . . . . . . . 1.35. Differentiation of operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.35.1. Some useful formulas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.36. State space and Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.37. Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.37.1. Elements of the dual or conjugate space Er∗ . . . . . . . . . . . . . . . . 1.37.2. The correspondence between bras and kets with hyperbases . . . . . . . 1.38. The action of linear operators in Dirac notation . . . . . . . . . . . . . . . . . . 1.38.1. Projectors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.39. Hermitian conjugation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.39.1. The adjoint operator A† in Dirac notation . . . . . . . . . . . . . . . . . 1.39.2. Mathematical objects and hermitian conjugation in Dirac notation . . . 1.40. Theory of representations of E in Dirac notation . . . . . . . . . . . . . . . . . 1.40.1. Orthonormalization and closure relation . . . . . . . . . . . . . . . . . . 1.40.2. Representation of operators in Dirac notation . . . . . . . . . . . . . . . 1.41. Change of representations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.41.1. Transformation of the coordinates of a ket . . . . . . . . . . . . . . . . . 1.41.2. Transformation of the coordinates of a bra . . . . . . . . . . . . . . . . . 1.41.3. Transformation of the matrix elements of an operator . . . . . . . . . . 1.42. Representation of the eigenvalue problem in Dirac notation . . . . . . . . . . . 1.42.1. C.S.C.O. in Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . 1.43. The continuous bases |ri and |pi . . . . . . . . . . . . . . . . . . . . . . . . . . 1.43.1. Orthonormalization and closure relations . . . . . . . . . . . . . . . . . 1.43.2. Coordinates of kets and bras in {|ri} and {|pi} . . . . . . . . . . . . . . 1.43.3. Changing from the {|ri} representation to {|pi} representation and vice 1.43.4. The R and P operators . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.43.5. The eigenvalue problem for R and P . . . . . . . . . . . . . . . . . . . . 1.43.6. Some properties of Fourier transforms . . . . . . . . . . . . . . . . . . .
3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . versa . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. 57 . 59 . 61 . 61 . 62 . 63 . 64 . 65 . 66 . 66 . 67 . 68 . 68 . 69 . 70 . 70 . 71 . 72 . 74 . 74 . 75 . 76 . 77 . 78 . 79 . 80 . 80 . 81 . 82 . 83 . 85 . 85 . 86 . 88 . 88 . 91 . 93 . 94 . 94 . 95 . 95 . 95 . 96 . 96 . 97 . 98 . 99 . 102 . 103
´INDICE GENERAL
4 1.44. General properties of two conjugate observables . . . . . . . . . . . . . 1.44.1. The eigenvalue problem of Q . . . . . . . . . . . . . . . . . . . 1.44.2. The action of Q, P and S (λ) in the {|qi} basis . . . . . . . . . 1.44.3. Representation in the {|pi} basis and the symmetrical role of P 1.45. Diagonalization of a 2 × 2 hermitian matrix . . . . . . . . . . . . . . . 1.45.1. Formulation of the problem . . . . . . . . . . . . . . . . . . . . 1.45.2. Eigenvalues and eigenvectors of K . . . . . . . . . . . . . . . . 1.45.3. Eigenvalues and eigenvectors of H . . . . . . . . . . . . . . . .
. . . . . . . . . . . . and Q . . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
2. Construcci´ on fenomenol´ ogica de los postulados 2.1. La radiaci´ on del cuerpo negro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. El efecto fotoel´ectrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. El efecto compton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4. Espectroscop´ıa, estabilidad del ´ atomo y teor´ıa de Bohr . . . . . . . . . . . . . . . . . . . 2.4.1. La teor´ıa de Bohr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2. Predicciones de la teor´ıa de Bohr para ´ atomos con un electr´ on . . . . . . . . . . 2.5. Las reglas de cuantizaci´ on de Wilson y Sommerfeld . . . . . . . . . . . . . . . . . . . . . 2.5.1. El ´ atomo de Bohr bajo las reglas de Wilson y Sommerfeld . . . . . . . . . . . . . 2.5.2. Cuantizaci´ on de Planck con las reglas de Wilson y Sommerfeld . . . . . . . . . . 2.5.3. La teor´ıa relativista de Sommerfeld y la estructura fina del ´ atomo de Hidr´ ogeno . 2.6. Los postulados de De Broglie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1. Propiedades de las ondas piloto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.2. Corroboraci´ on experimental de los postulados de De Broglie . . . . . . . . . . . . 2.6.3. Las reglas de cuantizaci´ on de Bohr a la luz de los postulados de De Broglie . . . 2.7. S´ıntesis de los resultados experimentales . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8. El experimento de Young de la doble rendija . . . . . . . . . . . . . . . . . . . . . . . . 2.8.1. Interpretaci´ on mecano-cu´ antica de la dualidad onda part´ıcula . . . . . . . . . . . 2.9. Medici´ on y preparaci´ on de un sistema: Descomposici´ on espectral . . . . . . . . . . . . . 2.10. Dualidad onda part´ıcula para la materia . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.11. Aspectos ondulatorios de una part´ıcula material . . . . . . . . . . . . . . . . . . . . . . . 2.11.1. Estados cu´ anticos arbitrarios como superposici´ on de ondas planas . . . . . . . . 2.11.2. Perfil instant´ aneo del paquete de onda . . . . . . . . . . . . . . . . . . . . . . . . 2.11.3. El principio de incertidumbre de Heisenberg . . . . . . . . . . . . . . . . . . . . . 2.12. El principio de complementariedad para la dualidad onda part´ıcula y su relaci´ on con el de incertidumbre de Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.13. Evoluci´ on temporal de paquetes de ondas libre . . . . . . . . . . . . . . . . . . . . . . . 2.14. Caracterizaci´ on de paquetes de onda gaussianos . . . . . . . . . . . . . . . . . . . . . . . 2.14.1. Integrales b´ asicas para paquetes gaussianos . . . . . . . . . . . . . . . . . . . . . 2.14.2. Perfiles de paquetes de onda gaussianos . . . . . . . . . . . . . . . . . . . . . . . 2.14.3. Relaciones de incertidumbre para paquetes gaussianos . . . . . . . . . . . . . . . 2.15. Evoluci´ on temporal de paquetes de onda gaussianos (opcional) . . . . . . . . . . . . . . 2.15.1. Dispersi´ on del paquete de onda gaussiano (opcional) . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . principio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3. Ecuaci´ on de Schr¨ odinger y sus propiedades 3.1. Plausibilidad de la ecuaci´ on de Schr¨ odinger . . . . . . . . . . . . . . . . 3.2. Ecuaci´ on de Schr¨ odinger con potencial escalar independiente del tiempo 3.3. Propiedades generales de la ecuaci´ on de Schr¨ odinger . . . . . . . . . . . 3.3.1. Determinismo en las soluciones . . . . . . . . . . . . . . . . . . . 3.3.2. Principio de superposici´ on . . . . . . . . . . . . . . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
104 104 105 106 107 107 108 110 111 111 112 113 115 116 117 119 119 120 121 122 123 125 125 126 128 131 132 135 137 138 139 143 145 147 150 150 150 151 151 152 155 155 158 160 161 161
´INDICE GENERAL
3.4. 3.5.
3.6.
3.7.
3.8.
5
3.3.3. Conservaci´ on de la probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.4. La ecuaci´ on de continuidad para la probabilidad . . . . . . . . . . . . . . . . . 3.3.5. Expresi´ on polar de la corriente de probabilidad . . . . . . . . . . . . . . . . . . Aplicaci´ on de la ecuaci´ on de Schr¨ odinger a potenciales discont´ınuos . . . . . . . . . . Potenciales rectangulares, an´ alogo ´ optico . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.1. Estrategia de soluci´ on para potenciales acotados con discontinuidades de salto 3.5.2. Expresi´ on para la corriente en regiones de potencial constante . . . . . . . . . . El potencial escal´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.1. E > V0 , reflexi´ on parcial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.2. E < V0 ; reflexi´ on total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Barrera de potencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1. E > V0 , resonancias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.2. Caso E < V0 : Efecto t´ unel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pozo de potencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8.1. Part´ıcula con energ´ıa −V0 < E < 0 . . . . . . . . . . . . . . . . . . . . . . . . . 3.8.2. Part´ıcula con energ´ıa E > 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4. Enunciado matem´ atico de los postulados 4.1. Los fen´ omenos cl´ asicos . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Los fen´ omenos cu´ anticos . . . . . . . . . . . . . . . . . . . . . . . 4.3. Establecimiento de los postulados . . . . . . . . . . . . . . . . . . 4.3.1. Descripci´ on de los estados y las cantidades f´ısicas . . . . . 4.3.2. El proceso de medici´ on y la distribuci´ on de probabilidad . 4.3.3. Relevancia f´ısica de las fases en mec´ anica cu´ antica . . . . 4.3.4. El proceso de medida y la reducci´ on del paquete de onda 4.3.5. Evoluci´ on f´ısica de los sistemas cu´ anticos . . . . . . . . . 4.3.6. Reglas de cuantizaci´ on . . . . . . . . . . . . . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
5. Consecuencias fenomenol´ ogicas de los postulados 5.1. Consideraciones estad´ısticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.1. Valor medio de un observable para un sistema en un estado dado . . . . . . . 5.1.2. Valor esperado para los observables X, P . . . . . . . . . . . . . . . . . . . . 5.1.3. Valor esperado para el commutador de dos observables . . . . . . . . . . . . . 5.1.4. La desviaci´ on media cuadr´ atica . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Observables compatibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3. Observables no compatibles e incertidumbres . . . . . . . . . . . . . . . . . . . . . . 5.4. Desviaci´ on media cuadr´ atica y principio de incertidumbre . . . . . . . . . . . . . . . 5.4.1. Paquetes de m´ınima incertidumbre . . . . . . . . . . . . . . . . . . . . . . . . 5.5. Preparaci´on de un estado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6. Propiedades adicionales de la ecuaci´ on de Schr¨ odinger . . . . . . . . . . . . . . . . . 5.6.1. Aspectos adicionales sobre la conservaci´ on de la probabilidad (opcional) . . . 5.7. Evoluci´ on temporal del valor esperado de un observable . . . . . . . . . . . . . . . . 5.7.1. Evoluci´ on temporal de los valores esperados de R, P: Teorema de Ehrenfest 5.8. Ecuaci´ on de Schr¨ odinger para sistemas conservativos . . . . . . . . . . . . . . . . . . 5.8.1. Estados estacionarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.8.2. Constantes de movimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.8.3. Frecuencias de Bohr de un sistema y reglas de selecci´ on . . . . . . . . . . . . 5.8.4. Relaci´ on de incertidumbre entre tiempo y energ´ıa para sistemas conservativos 5.8.5. Cuarta relaci´ on de incertidumbre para un paquete de onda unidimensional .
. . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
162 162 164 165 165 167 168 170 170 174 176 177 181 183 183 191
. . . . . . . . .
192 192 194 195 195 196 199 200 201 201
. . . . . . . . . . . . . . . . . . . .
205 206 206 208 209 209 210 214 215 217 219 220 220 221 222 225 226 227 228 229 231
´INDICE GENERAL
6 5.9. Consecuencias f´ısicas del principio de superposici´ on . . . . . . . . . . . 5.9.1. Diferencia entre superposici´ on lineal y mezcla estad´ıstica . . . . 5.9.2. Efectos de interferencia en fotones polarizados . . . . . . . . . 5.9.3. Suma sobre los estados intermedios . . . . . . . . . . . . . . . . 5.10. Principio de superposici´ on con varios estados asociados a una medida 5.10.1. El principio de superposici´ on para valores propios degenerados 5.10.2. Aparatos insuficientemente selectivos en la medida . . . . . . . 5.11. Discusi´ on general sobre el fen´ omeno de interferencia . . . . . . . . . . 5.12. Medici´ on insuficiente de espectros cont´ınuos . . . . . . . . . . . . . . . 5.13. Reducci´ on del paquete de onda para espectro continuo . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
6. Aplicaci´ on de los postulados con informaci´ on parcial 6.1. Aplicaci´ on de los postulados al medir sobre un subsistema . . . . . . . . . 6.1.1. Interpretaci´ on f´ısica de los estados que son productos tensoriales . 6.1.2. Significado f´ısico de estados que no son productos tensoriales . . . 6.2. Operador densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1. El concepto de mezcla estad´ıstica de estados . . . . . . . . . . . . 6.2.2. Estados puros y operador densidad . . . . . . . . . . . . . . . . . . 6.2.3. Mezcla estad´ıstica de estados: estados no puros . . . . . . . . . . . 6.2.4. Propiedades generales del operador densidad . . . . . . . . . . . . 6.2.5. Populaciones y coherencias . . . . . . . . . . . . . . . . . . . . . . 6.3. Aplicaciones del operador densidad . . . . . . . . . . . . . . . . . . . . . . 6.3.1. Sistema en equilibrio termodin´ amico . . . . . . . . . . . . . . . . . 6.3.2. Descripci´ on de subsistemas con base en observables globales de un traza parcial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.3. Traza parcial y operador densidad . . . . . . . . . . . . . . . . . . 7. Formulaciones alternativas de la mec´ anica cu´ antica 7.1. Operador evoluci´ on temporal: definici´ on y propiedades . . . . . . . . . 7.1.1. Operador evoluci´ on temporal para sistemas conservativos . . . 7.1.2. Observaciones adicionales sobre el operador evoluci´ on temporal 7.2. Bras, kets y observables equivalentes . . . . . . . . . . . . . . . . . . . 7.2.1. La transformada de un operador y sus propiedades . . . . . . . 7.3. La imagen de Schr¨ odinger y la imagen de Heisenberg . . . . . . . . . . 7.3.1. Algunos sistemas simples en la imagen de Heisenberg . . . . . . 7.4. La imagen de interacci´ on . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . sistema: . . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . el concepto de . . . . . . . . . . . . . . . . . .
232 232 234 234 237 237 238 240 241 242 244 244 245 247 248 248 249 251 252 254 255 255 256 257
. . . . . . . .
. . . . . . . .
. . . . . . . .
260 260 262 262 263 264 265 266 267
8. El oscilador arm´ onico cu´ antico 8.1. Propiedades generales del oscilador arm´ onico cu´ antico unidimensional . . . . . . . . . . . . . . 8.2. El problema de valores propios del Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3. Determinaci´ on del espectro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.1. Interpretaci´ on de los operadores a, a† y N . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.2. Estudio de la degeneraci´ on del espectro . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4. Estados propios del Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.1. Construcci´ on de los kets propios con base en el ket del estado base . . . . . . . . . . . . 8.4.2. Ortonormalidad de los kets propios (opcional) . . . . . . . . . . . . . . . . . . . . . . . . 8.4.3. Acci´ on de los operadores creaci´ on y destrucci´ on sobre los autoestados del Hamiltoniano 8.5. Funciones propias asociadas a los estados estacionarios en la base {|xi} . . . . . . . . . . . . . 8.6. Valores esperados y dispersi´ on en un estado estacionario del oscilador . . . . . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
270 270 271 273 275 275 277 277 278 280 281 283
. . . . . . . . . . . . (opcional) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
´INDICE GENERAL
7
8.7. Propiedades del estado base . . . . . . . . . . . . . . . . . . . . . . . . . 8.8. Evoluci´ on temporal de los observables del oscilador arm´ onico . . . . . . 8.9. Oscilador arm´ onico cargado en un campo el´ectrico uniforme (Opcional) 8.9.1. Soluci´ on utilizando el operador traslaci´ on . . . . . . . . . . . . . 9. Estados cuasi-cl´ asicos del oscilador arm´ onico 9.1. Parametrizaci´ on del oscilador cl´ asico con par´ ametros cu´ anticos . . . 9.2. Construcci´ on de los estados coherentes o cuasi-cl´ asicos . . . . . . . . 9.3. Propiedades de los estados |αi . . . . . . . . . . . . . . . . . . . . . . 9.3.1. Valores permitidos de la energ´ıa para un estado coherente |αi 9.3.2. C´ alculo de los observables X, P en el estado |αi . . . . . . . . 9.4. Generador y funci´ on de onda de los estados coherentes . . . . . . . . 9.5. Los estados coherentes son completos pero no ortogonales . . . . . . 9.6. Evoluci´ on temporal de los estados coherentes . . . . . . . . . . . . . 9.7. Tratamiento mecano-cu´ antico de un oscilador arm´ onico macrosc´ opico
. . . . . . . . .
. . . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
286 287 289 290
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
293 293 294 297 298 300 300 303 304 307
10.Teor´ıa general del momento angular en mec´ anica cu´ antica 10.1. Definici´ on de momento angular por sus propiedades de conmutaci´ on . . . . 10.1.1. Cuantizaci´ on del momento angular orbital . . . . . . . . . . . . . . . 10.1.2. Definici´ on de momento angular . . . . . . . . . . . . . . . . . . . . . 10.2. Propiedades algebr´ aicas del momento angular . . . . . . . . . . . . . . . . . ´ 10.2.1. Algebra de los operadores J2 , J3 , J+ , J− . . . . . . . . . . . . . . . . 10.3. Estructura de valores y vectores propios . . . . . . . . . . . . . . . . . . . . 10.3.1. Notaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3.2. Caracter´ısticas generales de los valores propios de J2 y J3 . . . . . . 10.3.3. Determinaci´ on de los valores propios de J2 y J3 . . . . . . . . . . . . 10.4. Propiedades de los vectores propios de J2 y J3 . . . . . . . . . . . . . . . . 10.4.1. Generaci´ on de autoestados por medio de los operadores J+ y J− . . 10.5. Construcci´ on de una base est´ andar con base en un C.S.C.O . . . . . . . . . 10.5.1. Descomposici´ on de E en subespacios del tipo E (j, k) . . . . . . . . . 10.6. Representaciones matriciales de los operadores momento angular . . . . . . 10.6.1. Representaciones matriciales del tipo (Ji )(j) en la base est´ andar para 10.6.2. Representaciones matriciales en la base est´ andar para j = 0 . . . . . 10.6.3. Representaciones matriciales en la base est´ andar para j = 1/2 . . . . 10.6.4. Representaciones matriciales en la base est´ andar para j = 1 . . . . .
. . . . . . . . . . . . . . j . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . arbitrario . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
308 309 309 310 310 311 311 311 312 314 316 317 319 320 321 322 323 323 325
11.Propiedades de los momentos angulares orbitales 11.1. Momentos angulares orbitales como operadores diferenciales . . . . . . . 11.2. Valores permitidos de l y m . . . . . . . . . . . . . . . . . . . . . . . . . 11.3. Propiedades fundamentales de los arm´ onicos esf´ericos . . . . . . . . . . . 11.3.1. Ortonormalidad y completez . . . . . . . . . . . . . . . . . . . . 11.3.2. Propiedades de paridad y conjugaci´ on . . . . . . . . . . . . . . . 11.3.3. Arm´ onicos esf´ericos de la forma Yl,0 (θ) y polinomios de Legendre 11.3.4. Teorema de adici´ on de los arm´ onicos esf´ericos . . . . . . . . . . . 11.4. Bases est´ andar de una funci´ on de onda sin esp´ın . . . . . . . . . . . . . 11.5. Valores esperados y dispersi´ on para sistemas en un estado |l, m, ki . . . 11.6. Probabilidades asociadas a la medida de L2 y L3 en un estado arbitrario 11.7. Ejemplos de c´ alculos de probabilidad para L2 y L3 . . . . . . . . . . . . 11.7.1. Funci´ on de onda parcialmente separable . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
326 329 330 331 332 332 333 333 334 335 337 340 340
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
´INDICE GENERAL
8
11.7.2. Funci´ on de onda totalmente separable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341 11.7.3. Comportamiento de la probabilidad con θ y ϕ . . . . . . . . . . . . . . . . . . . . . . . . . . 341 12.Interacciones centrales en mec´ anica cu´ antica 12.1. El problema de dos cuerpos en Mec´ anica cl´ asica . . . . . . . . . . . 12.2. Reducci´ on del problema de dos cuerpos en mec´ anica cu´ antica . . . 12.2.1. Autovalores y autofunciones del Hamiltoniano . . . . . . . . 12.3. El problema cl´ asico de una part´ıcula sometida a una fuerza central 12.4. Hamiltoniano cu´ antico . . . . . . . . . . . . . . . . . . . . . . . . . 12.5. Soluci´ on general del problema de valores propios . . . . . . . . . . 12.5.1. La ecuaci´ on radial . . . . . . . . . . . . . . . . . . . . . . . 12.5.2. Comportamiento de la soluci´on radial en el origen . . . . . 12.6. Estados estacionarios de una part´ıcula en un potencial central . . . 12.6.1. Degeneraci´ on de los niveles de energ´ıa . . . . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
343 343 346 347 348 350 350 351 352 353 354
´ 13. Atomos hidrogenoides 13.1. El ´ atomo de Hidr´ ogeno . . . . . . . . . . . . . . . . . . . . . . . 13.2. Problema de valores propios del ´ atomo de Hidr´ ogeno . . . . . . 13.3. Soluci´ on de la ecuaci´ on radial por series de potencias . . . . . . 13.3.1. Serie de potencias radial y relaciones de recurrencia . . 13.3.2. Condici´ on asint´ otica ρ → ∞ y truncamiento de la serie . 13.3.3. Coeficientes del polinomio radial en t´erminos de c0 . . . 13.3.4. C´alculo de c0 y de la funci´ on radial para l = 0, k = 1 . on radial para l = 0, k = 2 . 13.3.5. C´alculo de c0 y de la funci´ 13.3.6. C´alculo de c0 y de la funci´ on radial para l = k = 1 . . . 13.3.7. Estructura de los niveles de energ´ıa . . . . . . . . . . . . 13.4. Par´ ametros at´ omicos . . . . . . . . . . . . . . . . . . . . . . . . 13.5. Resumen de resultados . . . . . . . . . . . . . . . . . . . . . . . 13.6. Discusi´ on de los resultados . . . . . . . . . . . . . . . . . . . . . 13.6.1. Dependencia angular . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
356 356 357 359 359 361 362 363 364 365 366 366 367 368 369
14.Corrientes de probabilidad y acoples magn´ eticos en ´ atomos 14.1. Corrientes de probabilidad para el ´ atomo de Hidr´ ogeno . . . . . . . . . . . . . . . 14.1.1. Efecto sobre la corriente debido a la introducci´ on de un campo magn´etico ´ 14.2. Atomo de hidr´ ogeno en un campo magn´etico uniforme . . . . . . . . . . . . . . . 14.2.1. Hamiltoniano del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.2.2. Estimaci´ on num´erica de las contribuciones H0 , H1 y H2 . . . . . . . . . . 14.2.3. T´ermino diamagn´etico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.2.4. T´ermino paramagn´etico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.3. Efecto Zeeman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.3.1. Corrimiento de los niveles at´omicos con la correcci´ on paramagn´etica . . . 14.3.2. Oscilaciones dipolares el´ectricas . . . . . . . . . . . . . . . . . . . . . . . . 14.3.3. Frecuencia y polarizaci´ on de la radiaci´ on emitida . . . . . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
372 372 373 375 375 377 378 379 380 380 381 382
magn´etico . . . . . . . . . . . . . . . . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
384 384 385 386 388 388
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
15.Momento angular intr´ınseco 15.1. Comportamiento cl´ asico de ´ atomos paramagn´eticos inmersos en un campo 15.2. Experimento de Stern-Gerlach . . . . . . . . . . . . . . . . . . . . . . . . . 15.3. Resultados del experimento y el momento angular intr´ınseco . . . . . . . . 15.4. Evidencia experimental del momento angular intr´ınseco del electr´ on . . . 15.4.1. Estructura fina de las l´ıneas espectrales . . . . . . . . . . . . . . .
´INDICE GENERAL
9
15.4.2. Efecto Zeeman an´ omalo . . . . . . . . . . . . . . . . 15.5. Momento angular intr´ınseco en la cu´ antica no-relativista . . 15.6. Propiedades de un momento angular 1/2 . . . . . . . . . . . 15.6.1. Resumen de resultados . . . . . . . . . . . . . . . . . 15.6.2. Representaci´ on matricial de los observables de esp´ın 15.7. Descripci´on no-relativista de part´ıculas con esp´ın 1/2 . . . . 15.7.1. Construcci´ on de los estados . . . . . . . . . . . . . . 15.7.2. Construcci´ on de operadores . . . . . . . . . . . . . . 15.8. Representaci´ on en la base |p, εi . . . . . . . . . . . . . . . . 15.9. C´ alculos de probabilidad para estados de esp´ın 1/2 . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
16.Adici´ on de momentos angulares 16.1. El problema cl´ asico de la adici´ on del momento angular . . . . . . . . . . . 16.2. Momento angular total en mec´ anica cu´ antica . . . . . . . . . . . . . . . . 16.2.1. Dos part´ıculas sin esp´ın bajo una interacci´ on central . . . . . . . . 16.2.2. Una part´ıcula con esp´ın bajo una interacci´ on central . . . . . . . . 16.2.3. An´ alisis general de dos momentos angulares asociados a una fuerza 16.3. La adici´ on de dos momentos angulares es otro momento angular . . . . . 16.4. Adici´ on de dos momentos angulares con j(1) = j(2) = 1/2 . . . . . . . . . . 16.4.1. Autovalores de J3 y su degeneraci´ on . . . . . . . . . . . . . . . . . 2 16.4.2. Diagonalizaci´ on de J . . . . . . . . . . . . . . . . . . . . . . . . . 16.4.3. Autoestados de J2 y J3 : singlete y triplete . . . . . . . . . . . . . 16.5. M´etodo general de adici´ on de dos momentos angulares arbitrarios . . . . . 16.5.1. Formaci´ on del sistema a partir de dos subsistemas . . . . . . . . . 16.5.2. Momento angular total y sus relaciones de conmutaci´ on . . . . . . 16.5.3. Cambio de base a realizar . . . . . . . . . . . . . . . . . . . . . . . 16.5.4. Autovalores de J2 y J3 : Caso de dos espines j1 = j2 = 1/2. . . . . on: Caso general . . . . . . . . . 16.5.5. Autovalores de J3 y su degeneraci´ 16.5.6. Autovalores de J2 : caso general . . . . . . . . . . . . . . . . . . . 16.6. Autovectores comunes de J2 y J3 . . . . . . . . . . . . . . . . . . . . . . . 16.6.1. Caso especial j1 = j2 = 1/2 . . . . . . . . . . . . . . . . . . . . . . 16.7. Autovectores de J2 y J3 : Caso general . . . . . . . . . . . . . . . . . . . . 16.7.1. Determinaci´ on de los vectores |JM i del subespacio E (j1 + j2 ) . . . 16.7.2. Determinaci´ on de los vectores |JM i en los otros subespacios . . . 16.8. Transformaci´ on de la base desacoplada a la base acoplada . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
388 389 391 393 394 395 395 398 401 401
. . . . . . . . . . . . . . . . . . . . central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
404 404 404 404 406 407 408 409 410 411 412 413 414 415 415 416 417 419 421 421 423 423 424 425
. . . . . .
428 428 429 429 431 432 432
. . . .
436 436 439 440 440
17.Propiedades generales de los sistemas de dos estados 17.1. Formulaci´ on del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2. Efecto del acople sobre la energ´ıa y los estados estacionarios . . . . . . . . . . . . . . 17.2.1. Efecto del acople sobre los estados estacionarios del sistema . . . . . . . . . . 17.2.2. Efecto de un acople d´ebil sobre los niveles de energ´ıa y estados estacionarios 17.2.3. Efecto de un acople fuerte sobre los niveles de energ´ıa y estados estacionarios 17.3. Evoluci´ on del vector de estado: oscilaci´ on entre dos estados . . . . . . . . . . . . . . 18.Teor´ıa cu´ antica de la dispersi´ on 18.1. Teor´ıa cl´asica de la dispersi´ on . . . . . . . . 18.2. Diferentes tipos de colisiones . . . . . . . . 18.3. Ejemplos de dispersi´ on en mec´ anica cl´ asica 18.3.1. Dispersi´ on el´ astica por esfera r´ıgida
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . . . .
. . . .
. . . . . .
. . . .
. . . . . .
. . . .
. . . . . .
. . . .
. . . . . .
. . . .
. . . . . .
. . . .
. . . . . .
. . . .
´INDICE GENERAL
10 18.3.2. Dispersi´ on de Rutherford . . . . . . . . . . . . . . . . 18.4. Teor´ıa cu´antica de la dispersi´ on . . . . . . . . . . . . . . . . . 18.5. Estados estacionarios de dispersi´ on . . . . . . . . . . . . . . . 18.5.1. Condiciones f´ısicas sobre el paquete de ondas . . . . . 18.6. C´ alculo de la secci´ on eficaz usando corrientes de probabilidad 18.7. Ecuaci´ on integral de dispersi´ on . . . . . . . . . . . . . . . . . 18.7.1. Ecuaci´ on integral y funci´ on de Green . . . . . . . . . . 18.7.2. Determinaci´ on de la funci´ on de Green . . . . . . . . . 18.7.3. Soluci´ on de la ecuaci´ on integral . . . . . . . . . . . . . 18.8. Aproximaci´ on de Born . . . . . . . . . . . . . . . . . . . . . . 18.8.1. Rango de validez de la aproximaci´ on de Born . . . . . 18.8.2. Aproximaci´ on de Born para el potencial de Yukawa .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
441 442 443 445 448 450 450 452 453 455 457 458
19.Teor´ıa cu´ antica de la dispersi´ on II: Ondas parciales 19.1. Estados estacionarios de part´ıcula libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.2. Estados estacionarios de part´ıcula libre con momento bien definido: Ondas planas . . . . . . . . . . 19.3. Estados estacionarios de part´ıcula libre con momento angular bien definido: Ondas esf´ericas libres. 19.4. Caracterizaci´ on de las ondas esf´ericas libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 19.4.1. Algebra de generadores de ondas esf´ericas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.4.2. Relaciones de recurrencia para las ondas esf´ericas libres . . . . . . . . . . . . . . . . . . . . 19.4.3. Soluci´ on de la ecuaci´ on radial para l = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.4.4. Generaci´ on de ondas esf´ericas libres con l 6= 0, a trav´es de P+ y L± . . . . . . . . . . . . . . 19.4.5. Ondas esf´ericas libres normalizadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.4.6. Ortonormalidad de las funciones esf´ericas libres . . . . . . . . . . . . . . . . . . . . . . . . . 19.4.7. Comportamiento asint´ otico de las ondas esf´ericas libres . . . . . . . . . . . . . . . . . . . . 19.4.8. Relaci´ on entre las ondas esf´ericas libres y las planas . . . . . . . . . . . . . . . . . . . . . . 19.4.9. Interpretaci´ on f´ısica de las ondas esf´erica libres . . . . . . . . . . . . . . . . . . . . . . . . . 19.5. Ondas parciales en el potencial V (r) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.5.1. Ondas parciales en potenciales de rango finito . . . . . . . . . . . . . . . . . . . . . . . . . . 19.5.2. Secci´ on eficaz en t´erminos de los corrimientos de fase δl . . . . . . . . . . . . . . . . . . . . 19.5.3. Dispersi´ on por esfera r´ıgida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.6. Colisiones con absorci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.6.1. Secci´ on eficaz en procesos absortivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.6.2. Teorema ´ optico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
461 462 462 463 464 464 465 466 468 469 471 474 476 479 481 483 484 487 488 489 493
20.Teor´ıa estacionaria de perturbaciones 20.1. Descripci´on del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20.2. Soluci´ on aproximada para los valores propios de H (λ) . . . . . . . . . . . . . . . . . . 20.3. Perturbaci´ on de un nivel no degenerado . . . . . . . . . . . . . . . . . . . . . . . . . . 20.3.1. Correcci´ on de primer orden para la energ´ıa . . . . . . . . . . . . . . . . . . . . 20.3.2. Correcci´ on de primer orden para el autovector . . . . . . . . . . . . . . . . . . 20.3.3. Correcci´ on de segundo orden para la energ´ıa . . . . . . . . . . . . . . . . . . . 20.3.4. Correcci´ on de segundo orden para el estado . . . . . . . . . . . . . . . . . . . . 20.3.5. Cota superior para ε2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20.4. Perturbaci´ on de un nivel degenerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20.4.1. Comportamiento de subniveles degenerados a m´ as alto orden en perturbaciones 20.5. Consideraciones generales sobre teor´ıa estacionaria de perturbaciones . . . . . . . . . . 20.6. Perturbaciones estacionarias sobre el oscilador arm´ onico . . . . . . . . . . . . . . . . . 20.6.1. Orden de magnitud de los observables no perturbados . . . . . . . . . . . . . .
495 495 497 500 501 501 502 503 503 504 505 506 507 507
. . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
´INDICE GENERAL
11
20.6.2. Parametrizaci´ on de la perturbaci´ on al oscilador con potencial lineal adicional . . . . . . . . 508 20.6.3. Perturbaci´ on al oscilador arm´ onico con potencial cuadr´ atico . . . . . . . . . . . . . . . . . . 510 20.6.4. Perturbaci´ on del oscilador arm´ onico por un potencial c´ ubico . . . . . . . . . . . . . . . . . 511 21.M´ etodo variacional 21.1. Descripci´on del m´etodo . . . . . . . . . . . . . . . . . . . . . . 21.2. Implementaci´ on del m´etodo variacional . . . . . . . . . . . . . . 21.3. Funciones de prueba restringidas a un subespacio de E . . . . . 21.4. Espectro del oscilador arm´ onico por m´etodos variacionales . . . 21.4.1. Estimaci´ on del estado base . . . . . . . . . . . . . . . . 21.4.2. Estimaci´ on del primer estado excitado . . . . . . . . . . 21.5. Espectro del oscilador arm´ onico con otras funciones de prueba
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
515 515 515 518 519 519 520 521
22.Teor´ıa de perturbaciones dependiente del tiempo 22.1. Soluci´ on perturbativa de la ecuaci´ on de Schr¨ odinger dependiente del tiempo . . 22.1.1. Estado del sistema a primer orden en λ . . . . . . . . . . . . . . . . . . 22.1.2. Probabilidad de transici´ on a segundo orden en λ . . . . . . . . . . . . . 22.2. Perturbaciones sinusoidales y constantes . . . . . . . . . . . . . . . . . . . . . . 22.3. Perturbaci´ on senoidal entre dos estados discretos: resonancias . . . . . . . . . . 22.3.1. Ancho de resonancia e incertidumbre energ´ıa tiempo . . . . . . . . . . . 22.3.2. Condiciones para la validez del m´etodo perturbativo . . . . . . . . . . . 22.4. Acoplamientos con estados del espectro cont´ınuo . . . . . . . . . . . . . . . . . 22.4.1. El caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.4.2. Regla de oro de Fermi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.4.3. Probabilidad de transici´ on hacia el cont´ınuo para perturbaci´ on senoidal 22.4.4. Dispersi´ on y regla de oro de Fermi . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
522 523 525 526 527 528 529 530 533 534 534 536 536
. . . . . . . . . . . . . . . . . . . . .
538 538 539 540 540 541 543 543 544 545 546 548 550 550 551 551 553 553 554 556 556 558
. . . . . . .
23.Estructura fina e hiperfina del ´ atomo de Hidr´ ogeno 23.1. El Hamiltoniano de estructura fina . . . . . . . . . . . . . . . . . 23.1.1. Orden de Magnitud de H0 . . . . . . . . . . . . . . . . . . 23.1.2. T´ermino de correcci´ on cin´etica Wmv . . . . . . . . . . . . 23.1.3. Acoplamiento esp´ın-´ orbita WSO . . . . . . . . . . . . . . . 23.1.4. T´ermino de Darwin . . . . . . . . . . . . . . . . . . . . . 23.2. Estructura hiperfina . . . . . . . . . . . . . . . . . . . . . . . . . 23.2.1. Interpretaci´ on de los t´erminos en la estructura hiperfina . 23.3. Estructura fina del nivel n = 2 . . . . . . . . . . . . . . . . . . . 23.4. Representaci´ on matricial de la estructura fina para el nivel n = 2 23.5. C´ alculo de los t´erminos cin´
etico y de Darwin . . . . . . . . . . . 23.5.1. C´alculo de h1/Ri , 1/R2 y 1/R3 . . . . . . . . . . . . 23.5.2. C´alculo de hWmv i . . . . . . . . . . . . . . . . . . . . . . 23.5.3. El valor medio hWD i . . . . . . . . . . . . . . . . . . . . . 23.6. C´ alculo del t´ermino de esp´ın-´ orbita WSO . . . . . . . . . . . . . . 23.6.1. C´alculo del t´ermino esp´ın-angular . . . . . . . . . . . . . 23.6.2. C´alculo del t´ermino radial . . . . . . . . . . . . . . . . . . 23.6.3. Contribuci´ on esp´ın-´ orbita completa para la subcapa 2p . . 23.7. S´ıntesis de resultados sobre la estructura fina . . . . . . . . . . . 23.8. La estructura fina para n = 1 . . . . . . . . . . . . . . . . . . . . 23.9. Estructura hiperfina para n = 1 . . . . . . . . . . . . . . . . . . . 23.9.1. C´alculo del factor orbital R para Whf . . . . . . . . . . .
. . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
´INDICE GENERAL
12
23.9.2. C´alculo del factor de esp´ın para Whf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 558 23.9.3. Espectro hiperfino del nivel 1s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 559 24.Campos externos sobre el ´ atomo de Hidr´ ogeno 24.1. Efecto Zeeman de la estructura hiperfina del estado base 24.1.1. Efecto Zeeman de campo d´ebil . . . . . . . . . . 24.1.2. El efecto Zeeman para campo fuerte . . . . . . . 24.1.3. El efecto Zeeman para campo intermedio . . . . 24.2. Efecto Stark para el ´ atomo de Hidr´ogeno . . . . . . . . 24.2.1. El efecto Stark sobre el nivel n = 1 . . . . . . . . 24.2.2. Efecto Stark sobre el nivel n = 2 . . . . . . . . .
1s . . . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
25.Mol´ eculas diat´ omicas 25.1. Estados de momento angular cero (l = 0) . . . . . . . . . . . . . 25.2. Estados de momento angular no nulo (l 6= 0) . . . . . . . . . . . 25.3. Espectro de mol´eculas diat´ omicas heteropolares . . . . . . . . . . 25.3.1. Espectro puramente rotacional . . . . . . . . . . . . . . . 25.3.2. Espectro vibracional-rotacional . . . . . . . . . . . . . . . 25.4. Correcciones a la estructura espectral (opcional) . . . . . . . . . 25.4.1. Correcci´ on a las funciones de onda y los niveles de energ´ıa 25.4.2. Distorsi´ on centr´ıfuga de la mol´ecula . . . . . . . . . . . . 25.4.3. Acople vibracional-rotacional . . . . . . . . . . . . . . . . 25.5. Espectro de mol´eculas diat´ omicas homopolares: efecto Raman . .
. . . . . . .
. . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . .
. . . . . . . . . .
26.Sistemas cu´ anticos de part´ıculas id´ enticas 26.1. Part´ıculas id´enticas en mec´ anica cl´ asica . . . . . . . . . . . . . . . . . . . . . . . . 26.2. Part´ıculas id´enticas en mec´ anica cu´antica . . . . . . . . . . . . . . . . . . . . . . . 26.3. Degeneraci´ on de intercambio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26.3.1. Degeneraci´ on de intercambio para un sistema de dos part´ıculas de esp´ın 1/2 26.3.2. Degeneraci´ on de intercambio para un sistema arbitrario . . . . . . . . . . . 26.4. Operadores de permutaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26.4.1. Permutaciones en sistemas de dos part´ıculas . . . . . . . . . . . . . . . . . . 26.4.2. Simetrizadores y antisimetrizadores . . . . . . . . . . . . . . . . . . . . . . . 26.4.3. Transformaci´ on de los observables por medio de las permutaciones . . . . . 26.4.4. Permutaci´ on de un conjunto arbitrario de part´ıculas . . . . . . . . . . . . . 26.5. Postulado de simetrizaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26.5.1. Aplicaci´ on del postulado a part´ıculas compuestas . . . . . . . . . . . . . . . 26.5.2. Soluci´ on de la degeneraci´ on de intercambio . . . . . . . . . . . . . . . . . . 26.6. Aplicaci´ on del postulado de simetrizaci´ on para N = 2 . . . . . . . . . . . . . . . . 26.7. Postulado de simetrizaci´ on para N arbitrario . . . . . . . . . . . . . . . . . . . . . 26.7.1. Postulado de simetrizaci´ on para bosones . . . . . . . . . . . . . . . . . . . . 26.7.2. Postulado de simetrizaci´ on para fermiones . . . . . . . . . . . . . . . . . . . 26.8. Construcci´ on de una base de estados f´ısicos de part´ıculas id´enticas . . . . . . . . . 26.8.1. Propiedades de los kets de ocupaci´ on . . . . . . . . . . . . . . . . . . . . . . 26.9. Consistencia del postulado de simetrizaci´ on con los otros postulados . . . . . . . . 26.9.1. Postulado de simetrizaci´ on y el proceso de medida . . . . . . . . . . . . . . 26.9.2. Postulado de simetrizaci´ on y evoluci´ on temporal . . . . . . . . . . . . . . . 26.10.Consecuencias fenomenol´ ogicas del postulado de simetrizaci´ on . . . . . . . . . . . . 26.10.1.Diferencias entre fermiones y bosones . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
561 561 562 566 569 572 572 574
. . . . . . . . . .
576 578 579 581 582 583 584 587 587 587 589
. . . . . . . . . . . . . . . . . . . . . . . .
590 590 591 592 593 594 595 595 596 597 598 601 602 602 603 604 604 605 606 608 609 609 610 611 611
´INDICE GENERAL
13
26.10.2.Estado base de un sistema de part´ıculas id´enticas independientes 26.11.Predicciones f´ısicas del postulado de simetrizaci´ on . . . . . . . . . . . . 26.11.1.Predicciones sobre part´ıculas aparentemente id´enticas . . . . . . 26.11.2.Colisi´ on el´ astica de dos part´ıculas id´enticas . . . . . . . . . . . . 26.12.Situaciones en las cuales se puede ignorar el postulado de simetrizaci´ on 26.12.1.Part´ıculas id´enticas ubicadas en regiones espaciales distintas . . . 26.12.2.Identificaci´ on de part´ıculas por su direcci´ on de esp´ın . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
611 613 615 616 617 617 619
´ 27. Atomos de muchos electrones y aproximaci´ on de campo central 620 27.1. Aproximaci´ on de campo central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 621 27.2. Configuraciones electr´ onicas de los ´atomos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 624 28.El ´ atomo de Helio 28.1. Configuraciones del ´ atomo de Helio . . . . . . . . . . . . . . . . . . . 28.1.1. Degeneraci´ on de las configuraciones . . . . . . . . . . . . . . 28.2. Efecto de la repulsi´ on electrost´ atica . . . . . . . . . . . . . . . . . . . 28.2.1. Base de E (n, l; n′ , l′ ) adaptada a las simetr´ıas de W . . . . . 28.2.2. Restricciones impuestas por el postulado de simetrizaci´ on . . 28.2.3. T´erminos espectrales generados por la repulsi´ on electrost´ atica 28.3. T´erminos espectrales que surgen de la configuraci´ on 1s, 2s . . . . . . 28.3.1. La integral de intercambio . . . . . . . . . . . . . . . . . . . . 28.3.2. An´ alisis del papel del postulado de simetrizaci´ on . . . . . . . 28.3.3. Hamiltoniano efectivo dependiente del esp´ın . . . . . . . . . . 28.4. T´erminos espectrales que surgen de otras configuraciones excitadas . 28.5. Validez del tratamiento perturbativo . . . . . . . . . . . . . . . . . . 28.6. Estructura fina del ´ atomo de helio y multipletes . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
626 626 627 629 629 631 633 634 636 637 638 640 640 641
29.M´ etodo de Hartree-Fock 29.1. Producto interno entre determinantes de Slater y un operador sim´etrico 29.1.1. Ejemplo de aplicaci´ on para N = 3 . . . . . . . . . . . . . . . . . 29.2. Valor esperado de la energ´ıa . . . . . . . . . . . . . . . . . . . . . . . . . 29.2.1. Valor esperado de H (0) . . . . . . . . . . . . . . . . . . . . . . . . 29.2.2. Valor esperado de H (1) . . . . . . . . . . . . . . . . . . . . . . . . 29.2.3. Valor esperado de H = H (0) + H (1) . . . . . . . . . . . . . . . . . 29.2.4. Interpretaci´ on f´ısica de los t´erminos directo y de intercambio . . 29.3. M´etodo de Hartree-Fock para una capa cerrada . . . . . . . . . . . . . . 29.3.1. Minimizaci´ on de E [D] con ligaduras . . . . . . . . . . . . . . . . 29.3.2. C´alculo de δF [ψ, ψ ∗ ] . . . . . . . . . . . . . . . . . . . . . . . . 29.4. Operadores de Hartree-Fock . . . . . . . . . . . . . . . . . . . . . . . . . 29.5. Interpretaci´ on de la ecuaci´ on de Hartree-Fock . . . . . . . . . . . . . . . 29.6. Soluci´ on por iteraci´ on de la ecuaci´ on de HF . . . . . . . . . . . . . . . . 29.7. Determinaci´ on del valor F´ısico de la energ´ıa . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
644 646 648 649 650 651 653 653 654 655 656 658 659 659 660
. . . . . . . . . . . . .
Cap´ıtulo 1
Linear or vector spaces We shall describe the most important properties of linear or vector spaces. This treatment is not rigorous at all, and only some simple proofs are shown. Our aim limits to provide a framework for our subsequent developments.
1.1.
Definition of a linear vector space
Any non-empty set of objects V = {xi } form a linear space (or a vector space) if there is a “sum” operation defined between the elements, and a “multiplication” by scalars (i.e. the system of real or complex numbers) such that 1. If xi ∈ V , and α is a scalar, then αxi ∈ V 2. If xi , xj ∈ V , then xi + xj ∈ V 3. xi + xj = xj + xi , ∀xi , xj ∈ V 4. xi + (xj + xk ) = (xi + xj ) + xk , ∀xi , xj , xk ∈ V 5. (α + β) xi = αxi + βxi ; ∀xi ∈ V 6. α (xi + xj ) = αxi + αxj , ∀xi , xj ∈ V 7. (αβ) xi = α (βxi ) ; ∀xi ∈ V 8. 1xi = xi ; ∀xi ∈ V 9. ∃ an element 0 ∈ V such that xi + 0 = xi , ∀xi ∈ V 10. ∀xi ∈ V , ∃ an element in V denoted by −xi such that xi + (−xi ) = 0 The element 0 is usually called the null vector or the origin. The element −x is called the additive inverse of x. We should distinguish the symbols 0 (scalar) and 0 (vector). The two operations defined here (sum and product by scalars) are called linear operations. A linear space is real (complex) if we consider the scalars as the set of real (complex) numbers. Let us see some simple examples Example 1.1 The set of all real (complex) numbers with ordinary addition and multiplication taken as the linear operations. This is a real (complex) linear space. 14
1.2. ALGEBRAIC PROPERTIES
15
Example 1.2 The set Rn (C n ) of all n-tuples of real (complex) numbers is a real (complex) linear space under the following linear operations x ≡ (x1 , x2 , . . . , xn ) ;
y ≡ (y1 , y2 , . . . , yn )
αx ≡ (αx1 , αx2 , , αxn ) ; x + y ≡ (x1 + y1 , x2 + y2 , . . . , xn + yn ) Example 1.3 The set of all bounded continuous real functions defined on a given interval [a, b] of the real line, with the linear operations defined pointwise as (f + g) (x) = f (x) + g (x) ; (αf ) (x) = αf (x) ; x ∈ [a, b] We can see that a linear or vector space forms an abelian group whose elements are the vectors, and with addition as the law of combination. However, the vector space introduce an additional structure by considering multiplication by scalars which is not a group property. Some very important kinds of vector spaces are the ones containing certain sets of functions with some specific properties. We can consider for example, the set of functions defined on certain interval with some condition of continuity integrability etc. For instance, in quantum mechanics we use a vector space of functions.
1.2.
Algebraic properties
Some algebraic properties arise from the axioms: The origin or identity 0 must be unique. Assuming another identity 0′ we have that x + 0′ = 0′ + x = x for all x ∈ V. Then 0′ = 0′ + 0 = 0. Hence 0′ = 0. The additive inverse of any vector x is unique. Assume that x′ is another inverse of x then x′ = x′ + 0 = x′ + (x+ (−x)) = x′ + x + (−x) = 0 + (−x) = −x ⇒ x′ = −x
xi + xk = xj + xk ⇒ xi = xj to see it, we simply add −xk on both sides. This property is usually called the rearrangement lemma. α · 0 = 0 we see it from α · 0 + αx = α · (0 + x) = αx = 0 + αx and applying the rearrangement lemma. 0 · x = 0 it proceeds from 0 · x + αx = (0 + α) x = αx = 0 + αx and using the rearrangement lemma. (−1) x = −x we see it from x+ (−1) x = 1 · x + (−1) x = (1 + (−1)) x = 0x = 0 = x+ (−x) and the rearrangement lemma. αx = 0 then α = 0 or x = 0; for if α 6= 0 we can multiply both sides of the equation by α−1 to give −1 α (αx) = α−1 0 ⇒ α−1 α x = 0 ⇒ 1x = 0 ⇒ x = 0. If x 6= 0 we prove that α = 0 by assuming α 6= 0 and finding a contradiction. This is inmediate from the above procedure that shows that starting with α 6= 0 we arrive to x = 0. It is customary to simplify the notation in x + (−y) and write it as x − y. The operation is called substraction.
1.3.
Vector subspaces
Definition 1.1 A non-empty subset M of V is a vector subspace of V if M is a vector space on its own right with respect to the linear operations defined in V . This is equivalent to the condition that M contains all sums, negatives and scalar multiples. The other properties are derived directly from the superset V . Further, since −x = (−1) x it reduces to say that M must be closed under addition and scalar multiplication. When M is a proper subset of V it is called a proper subspace of V . The zero space {0} and the full space V itself are trivial subspaces of V . The following concept is useful to study the structure of vector subspaces of a given vector space,
CAP´ITULO 1. LINEAR OR VECTOR SPACES
16
Definition 1.2 Let S = {x1 , .., xn } be a non-empty finite subset of V , then the vector x = α1 x1 + α2 x2 + . . . + αn xn
(1.1)
is called a linear combination of the vectors in S. We can redefine a vector subspace by saying that a non-empty subset M of V is a linear subspace if it is closed under the formation of linear combinations. If S is a subset of V we can see that the set of all linear combinations of vectors in S is a vector subspace of V , we denote this subspace as [S] and call it the vector subspace spanned by S. It is clear that [S] is the smallest subspace of V that contains S. Similarly, for a given subspace M a non-empty subset S of M is said to span M if [S] = M . Note that the closure of a vector space under an arbitrary linear combination can be proved by induction from the closure property of vector spaces under linear operations. Notice additionally, that the proof of induction only guarantees the closure under any finite sum of terms, if we have an infinite sum of terms (e.g. a series) we cannot ensure that the result is an element of the space, this is the reason to define linear combinations as finite sums. If we want a property of closure under some infinite sums additional structure should be added as we shall see later. Suppose now that M and N are subspaces of V . Consider the set M + N of all sums of the form x + y with x ∈ M and y ∈ N . Since M and N are subspaces, this sum is the subspace spanned by the union of both subspaces M + N = [M ∪ N ]. It could happen that M + N = V in this case we say that V is the sum of M and N . In turn it means that every vector in V is expressible as a sum of a vector in M plus a vector in N . Further, in some cases any element z of V is expressible in a unique way as such a sum, in this case we say that V is the direct sum of M and N and it is denoted by V =M ⊕N we shall establish the conditions for a sum to become a direct sum
Theorem 1.1 Let a vector space V be the sum of two of its subspaces V = M + N . Then V = M ⊕ N ⇔ M ∩ N = {0} Proof: Assume first that V = M ⊕ N , we shall suppose that ∃ z 6= 0 with z ∈ M ∩ N , and deduce a contradiction from it. We can express z in two different ways z = z + 0 with z ∈ M and 0 ∈ N or z = 0 + z with 0 ∈ M and z ∈ N . This contradicts the definition of a direct sum. Now assume M ∩ N = {0}, by hypothesis V = M + N so that any z ∈ V can be expressed by z = x1 + y1 with x1 ∈ M and y1 ∈ N . Suppose that there is another decomposition z = x2 + y2 with x2 ∈ M and y2 ∈ N . Hence x1 + y1 = x2 + y2 ⇒ x1 − x2 = y1 − y2 ; but x1 − x2 ∈ M and y1 − y2 ∈ N . Since they are equal, then both belong to the intersection so x1 − x2 = y1 − y2 = 0 then x1 = x2 and y1 = y2 showing that the decomposition must be unique. QED. When two vector subspaces of a given space have only the zero vector in common, it is customary to call them disjoint subspaces. It is understood that it does not correspond to disjointness in the set-theoretical sense, after all two subspaces of a given space cannot be disjoint as sets, since any subspace must contain 0. Thus no confusion arises from this practice. The concept of direct sum can be generalized when more subspaces are involved. We say that V is the direct sum of a collection of subspaces {M1 , .., Mn } and denote it as V = M1 ⊕ M2 ⊕ . . . ⊕ Mn when each z ∈ V can be expressed uniquely in the form z = x1 + x2 + . . . + xn
;
xi ∈ Mi
In this case if V = M1 + .. + Mn , this sum becomes a direct sum if and only if each Mi is disjoint from the subspace spanned by the others. To see it, it is enough to realize that V = M1 + M2 + .. + Mn = M1 + [M2 + .. + Mn ] = M1 + [∪ni=2 Mi ]
1.4. DIMENSION AND BASES IN VECTOR SPACES
17
then V = M1 ⊕ [M2 + .. + Mn ] if and only if M1 ∩ [∪ni=2 Mi ] = {0}, proceeding similarly for the other Mi′ s we arrive at the condition above. Note that this condition is stronger than the condition that any given Mi is disjoint from each of the others. The previous facts can be illustrated by a simple example. The most general non-zero proper subspaces of R3 are lines or planes that passes through the origin. Thus let us define M1 = {(x1 , 0, 0)} , M2 = {(0, x2 , 0)} , M3 = {(0, 0, x3 )}
M4 = {(0, x2 , x3 )} , M5 = {(x1 , 0, x3 )} , M6 = {(x1 , x2 , 0)}
M1 , M2 , M3 are the coordinate axes of R3 and M4 , M5 , M6 are its coordinate planes. R3 can be expressed by direct sums of these spaces in several ways R3 = M1 ⊕ M2 ⊕ M3 = M1 ⊕ M4 = M2 ⊕ M5 = M3 ⊕ M6 for the case of R3 = M1 ⊕M2 ⊕M3 we see that the subspace spanned by M2 and M3 i.e. M2 +M3 = [M2 ∪ M3 ] = M4 is disjoint from M1 . Similarly M2 ∩ [M1 ∪ M3 ] = {0} = M3 ∩ [M1 ∪ M2 ]. It is because of this, that we have a direct sum. Now let us take M3 , M6 and M ′ defined as a line on the plane M4 that passes through the origin making an angle θ with the axis x3 such that 0 < θ < π/2, since R3 = M3 + M6 it is clear that R3 = M3 + M6 + M ′ ; M3 ∩ M6 = M3 ∩ M ′ = M6 ∩ M ′ = {0}
(1.2)
however this is not a direct sum because M3 + M6 = R3 so that M ′ ∩ (M3 + M6 ) 6= {0}. Despite each subspace is disjoint from each other, there is at least one subspace that is not disjoint from the subspace spanned by the others. Let us show that there are many decompositions for a given vector z ∈ R3 when we use the sum in (1.2). Since R3 = M3 + M6 a possible decomposition is z = x + y + 0 with x ∈ M3 , y ∈ M6 , 0 ∈ M ′ . Now let us take an arbitrary non-zero element w of M ′ ; clearly M3 +M6 = R3 contains M ′ so that w = x′ +y′ with x′ ∈ M3 , y′ ∈ M6 . Now we write z = x + y = (x − x′ ) + (y − y′ ) + x′ + y′ then z = (x − x′ ) + (y − y′ ) + w. We see that (x − x′ ) is in M3 and (y − y′ ) is in M6 . Now, since w ∈ M ′ and w 6= 0 this is clearly a different decomposition with respect to the original one. An infinite number of different decompositions are possible since w is arbitrary. Finally, it can be proved that for any given subspace M in V it is always possible to find another subspace N in V such that V = M ⊕ N . Nevertheless, for a given M the subspace N is not neccesarily unique. A simple example is the following, in R2 any line crossing the origin is a subspace M and we can define N as any line crossing the origin as long as it is not collinear with M ; for any N accomplishing this condition we have V = M ⊕ N .
1.4.
Dimension and bases in vector spaces
Definition 1.3 Let V be a vector space and S = {x1 , .., xn } a finite non-empty subset of V . S is defined as linearly dependent if there is a set of scalars {α1 , .., αn } not all of them zero such that α1 x1 + α2 x2 + .. + αn xn = 0
(1.3)
if S is not linearly dependent we say that it is linearly independent, this means that in Eq. (1.3) all coefficients αi must be zero. Thus linear independence of S means that the only solution for Eq. (1.3) is the trivial one. When non-trivial solutions exists the set is linearly dependent. ¿What is the utility of the concept of linear independence of a given set S? to see it, let us examine a given vector x in [S], each of these vectors arise from linear combinations of vectors in S x = α1 x1 + α2 x2 + .. + αn xn ; xi ∈ S
(1.4)
CAP´ITULO 1. LINEAR OR VECTOR SPACES
18
we shall see that for the ordered set S = {x1 , .., xn } the corresponding ordered set {α1 , .., αn } associated with x by Eq. (1.4) is unique. Suppose there is another decomposition of x as a linear combination of elements of S x = β1 x1 + β2 x2 + .. + βn xn ; xi ∈ S
(1.5)
substracting (1.4) and (1.5) we have 0 = (α1 − β1 ) x1 + (α2 − β2 ) x2 + .. + (αn − βn ) xn but linear independence require that only the trivial solution exists, thus αi = βi and the ordered set of coefficients is unique. This is very important for the theory of representations of vector spaces. The discussion above permits to define linearly independence for an arbitrary (not necessarily finite) non-empty set S Definition 1.4 An arbitrary non-empty subset S ⊆ V is linearly independent if every finite non-empty subset of S is linearly independent in the sense previously established. As before, an arbitrary non-empty set S is linearly independent if and only if any vector x ∈ [S] can be written in a unique way as a linear combination of vectors in S. The most important linearly independent sets are those that span the whole space i.e. [S] = V this linearly independent sets are called bases. It can be checked that S is a basis if and only if it is a maximal linearly independent set, in the sense that any proper superset of S must be linearly dependent. We shall establish without proof a very important theorem concerning bases of vector spaces Theorem 1.2 If S is a linearly independent set of vectors in a vector space V , there exists a basis B in V such that S ⊆ B. In words, given a linearly independent set, it is always possible to add some elements to S for it to become a basis. A linearly independent set is non-empty by definition and cannot contain the null vector. Hence, we see that if V = {0} it does not contain any basis, but if V 6= {0} and we can take a non-zero element x of V , the set {x} is linearly independent and the previous theorem guarantees that V has a basis that contains {x}, it means that Theorem 1.3 Every non-zero vector space has a basis Now, since any set consisting of a single non-zero vector can be enlarged to become a basis it is clear that any non-zero vector space contains an infinite number of bases. It worths looking for general features shared by all bases of a given linear space. Tne first theorem in such a direction is the following Theorem 1.4 Let S = {x1 , x2 , .., xn } be a finite, odered, non-empty subset of the linear space V . If n = 1 then S is linearly dependent⇔ x1 = 0. If n > 1 and x1 6= 0 then S is linearly dependent if and only if some one of the vectors x2 , ..., xn is a linear combination of the vectors in the ordered set S that precede it. Proof: The first assertion is trivial. Then we settle n > 1 and x1 6= 0. Assuming that one of the vectors xi in the set x2 , ..., xn is a linear combination of the preceding ones we have xi = α1 x1 + ... + αi−1 xi−1 ⇒ α1 x1 + ... + αi−1 xi−1 − 1 · xi = 0 since the coefficient of xi is 1, this is a non-trivial linear combination of elements of S that equals zero. Thus S is linearly dependent. We now assume that S is linearly dependent hence the equation α1 x1 + ... + αn xn = 0
1.4. DIMENSION AND BASES IN VECTOR SPACES
19
has a solution with at least one non-zero coefficcient. Let us define αi as the last non zero coefficient, since x1 6= 0 then i > 1 then we have α1 αi−1 x1 + ... + − xi−1 α1 x1 + ... + αi xi + 0 · xi+1 + ... + 0 · xn = 0 ⇒ xi = − αi αi and xi is written as a linear combination of the vectors that precede it in the ordered set S. QED The next theorem provides an important structural feature of the set of bases in certain linear spaces Theorem 1.5 If a given non-zero linear space V has a finite basis B1 = {e1 , ..., en } with n elements, then any other basis B2 = {fi } of V must be finite and also with n elements. The following theorem (that we give without proof) gives a complete structure to this part of the theory of vector spaces Theorem 1.6 Let V be a non-zero vector space. If B1 = {ei } and B2 = {uj } are two bases of the vector space, then B1 and B2 are sets with the same cardinality. These theorem is valid even for sets with infinite cardinality. This result says that the cardinality of a basis is a universal attribute of the vector space since it does not depend on the particular basis used. Hence the following are natural definitions Definition 1.5 The dimension of a non-zero vector space is the cadinality of any of its basis. If V = {0} the dimension is defined to be zero. Definition 1.6 A vector space is finite-dimensional if its dimension is a non negative integer. Otherwise, it is infinite-dimensional. As any abstract algebraic system, vector spaces requires a theory of representations in which the most abstract set is replaced by another set with more tangible objects. However, for the representation to preserve the abstract properties of the vector space, set equivalence and linear operations must be preserved. This induces the following definition Definition 1.7 Let V and V ′ two vector spaces with the same system of scalars. An isomorphism of V onto V ′ is a one-to-one mapping f of V onto V ′ such that f (x + y) = f (x) + f (y) and f (αx) = αf (x) Definition 1.8 Two vector spaces with the same system of scalars are called isomorphic if there exists an isomorphism of one onto the other. To say that two vector spaces are isomorphic means that they are abstractly identical with respect to their structure as vector spaces. Now let V be a non zero finite dimensional space. If n is its dimension, there exists a basis B = {e1 , .., en } whose elements are written in a definite order. Each vector x in V can be written uniquely in the form x = α1 e1 + .. + αn en so the n−tuple (α1 , .., αn ) is uniquely determined by x. If we define a mapping f by f (x) = (α1 , .., αn ) we see that this is an isomorphism of V onto Rn or C n depending on the system of scalars defined for V . Theorem 1.7 Any real (complex) non-zero finite dimensional vector space of dimension n is isomorphic to Rn (C n ).
CAP´ITULO 1. LINEAR OR VECTOR SPACES
20
Indeed, this theorem can be extended to vector spaces of arbitrary dimensions, we shall not discuss this topic here. By now, it suffices to realize that the isomorphism establishes here is not unique for it depends on the basis chosen and even on the order of vectors in a given basis. It can be shown also that two vector spaces V and V ′ are isomorphic if and only if they have the same scalars and the same dimension. From the results above, we could then be tempted to say that the abstract concept of vector space is no useful anymore. However, this is not true because on one hand the isomorphism depends on the basis chosen and most results are desirable to be written in a basis independent way. But even more important, almost all vector spaces studied in Mathematics and Physics posses some additional structure (topological or algebraic) that are not neccesarily preserve by the previous isomorphisms.
1.5.
Mappings and transformations in vector spaces
For two vector spaces V and V ′ with the same system of scalars we can define a mapping T of V into V ′ that preserves linear properties T (x + y) = T (x) + T (y) ; T (αx) = αT (x) T is called a linear transformation. We can say that linear transformations are isomorphisms of V into V ′ since linear operations are preserved. T also preserves the origin and negatives T (0) = T (0 · 0) = 0 · T (0) = 0 ; T (−x) = T ((−1) x) = (−1) T (x) = −T (x) we shall see later that the states of our physical systems are vectors of a given vector space. Hence, the transformations of these vectors are also important in Physics because they will represent transformations in the states of our system. We shall see later that the set of all linear transformations are in turn vector spaces with their own internal organization. Let us now define some basic operations with linear transformations, a natural definition of the sum of two linear transformations is of the form (T + U ) (x) ≡ T (x) + U (x) (1.6) and a natural definition of multiplication by scalars is (αT ) (x) ≡ αT (x)
(1.7)
finally the zero and negative linear transformations are defined as 0 (x) ≡ 0 ; (−T ) (x) ≡ −T (x)
(1.8)
with these definitions it is inmediate to establish the following Theorem 1.8 Let V and V ′ be two vector spaces with the same system of scalars. The set of all linear transformations of V into V ′ with the linear operations defined by Eqs. (1.6, 1.7, 1.8) is itself a vector space. The most interesting cases are the linear transformations of V into itself and the linear transformations of V into the vector space of scalars (real or complex). We shall study now the first case.
1.6.
Linear transformations of a vector space into itself
In this case we usually speak of linear transformations on V . The first inmediate consequence is the capability of defining the composition of operators (or product of operators) (T U ) (x) ≡ T (U (x))
(1.9)
1.6. LINEAR TRANSFORMATIONS OF A VECTOR SPACE INTO ITSELF
21
associativity and distributivity properties can easily be derived T (U V ) = (T U ) V ; T (U + V ) = T U + T V (T + U ) V
= T V + U V ; α (T U ) = (αT ) U = T (αU )
we prove for instance [(T + U ) V ] (x) = (T + U ) (V (x)) = T (V (x)) + U (V (x)) = (T V ) (x) + (U V ) (x) = (T V + U V ) (x) commutativity does not hold in general. It is also possible for the product of two non-zero linear transformations to be zero. An example of non commutativity is the following: we define on the space P of polynomials p (x) the linear operators M and D dp dp ⇒ (M D) (p) = M (D (p)) = xD (p) = x dx dx dp (DM ) (p) = D (M (p)) = D (xp) = x +p dx M (p) ≡ xp ; D (p) =
and M D 6= DM. Suppose now the linear transformations on R2 given by Ta ((x1 , x2 )) = (x1 , 0) ; Tb ((x1 , x2 )) = (0, x2 ) ⇒ Ta Tb = Tb Ta = 0 thus Ta 6= 0 and Tb 6= 0 but Ta Tb = Tb Ta = 0. Another natural definition is the identity operator I I (x) ≡ x we see that I 6= 0 ⇔ V 6= {0}. Further
IT = T I = T
for every linear operator T on V . For any scalar α the operator αI is called scalar multiplication since (αI) (x) = αI (x) = αx it is well known that for a mapping of V into V ′ to admit an inverse of V ′ into V requires to be one-to-one and onto. In this context this induces the definition Definition 1.9 A linear transformation T on V is non-singular if it is one-to-one and onto, and singular otherwise. When T is non-singular its inverse can be defined so that T T −1 = T −1 T = I it can be shown that when T is non-singular T −1 is also a non-singular linear transformation. For future purposes the following theorem is highly relevant Theorem 1.9 If T is a linear transformation on V , then T is non-singular⇔ T (B) is a basis for V whenever B is.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
22
1.6.1.
Projection operators
We shall discuss some very important types of linear transformations. Let V be the direct sum of two subspaces V = M ⊕ N it means that any vector z in V can be written in a unique way as z = x + y with x ∈ M and y ∈ N . Since x is uniquely determined by z this decomposition induces a natural mapping of V onto M in the form P (z) = x it is easy to show that this transformation is linear and is called the projection on M along N . The most important property of these transformations is that they are idempotent i.e. P 2 = P we can see it taking into account that the unique decomposition of x is x = x + 0 so that P 2 (z) = P (P (z)) = P (x) = x = P (z) The opposite is also true i.e. a given linear idempotent linear transformation induces a decomposition of the space V in a direct sum of two subspaces Theorem 1.10 If P is a linear transformation on a vector space V , P is idempotent⇔there exists subspaces M and N in V such that V = M ⊕ N and P is the projection on M along N . Proof : We already showed that decomposition in a direct sum induces a projection, to prove the opposite let define M and N in the form M ≡ {P (z) : z ∈ V } ; N = {z : P (z) = 0} M and N are vector subspaces and correspond to the range and the null space (or kernel) of the transformation P respectively. We show first that M + N = V , this follows from the identity z = P (z) + (I − P ) (z)
(1.10)
P (z) belongs to M by definition, now P ((I − P ) (z)) = (P (I − P )) (z) = P − P 2 (z) = (P − P ) (z) = 0 (z) = 0
thus (I − P ) (z) belongs to the null space N so M + N = V . To prove that this is a direct sum we must show that M and N are disjoint (theorem 1.1). For this, assume that we have a given element P (z) in M that is also in N then P (P (z)) = 0 ⇒ P 2 (z) = P (z) = 0 thus the common element P (z) must be the zero element. Hence, M and N are disjoint and V = M ⊕ N . Further, from (1.10) P is the projection on M along N . Of course in z = x + y with x ∈ M , y ∈ N we can define a projection P ′ (z) = y on N along M . In this case V = M ⊕ N = N ⊕ M but now M is the null space and N is the range. It is easy to see that P ′ = I − P . On the other hand, we have seen that for a given subspace M in V we can always find another subspace N such that V = M ⊕ N so for a given M we can find a projector with range M and null space N . However, N is not unique so that different projections can be defined on M . Finally, it is easy to see that the range of a projector P corresponds to the set of points fixed under P i.e. M = {P (z) : z ∈ V } = {z : P (z) = z}.
1.7.
Normed vector spaces
Inspired in the vectors of Rn in which we define their lengths in a natural way, we can define lengths of vectors in abstract vector spaces by assuming an additional structure
1.7. NORMED VECTOR SPACES
23
Definition 1.10 A normed vector space N is a vector space in which to each vector x there corresponds a real number denoted by kxk with the following properties: (1) kxk ≥ 0 and kxk = 0 ⇔ x = 0.(2) kx + yk ≤ kxk + kyk (3) kαxk = |α| kxk As well as allowing to define a length for vectors, the norm permits to define a distance between two vectors x and y in the following way d (x, y) ≡ kx − yk it is easy to verify that this definition accomplishes the properties of a metric d (x, y) ≥ 0 and d (x, y) = 0 ⇔ x = y
d (x, y) = d (y, x) ; d (x, z) ≤ d (x, y) + d (y, z)
in turn, the introduction of a metric permits to define two crucial concepts: (a) convergence of sequences, (b) continuity of functions of N into itself (or into any metric space). We shall examine both concepts briefly
1.7.1.
Convergent sequences, cauchy sequences and completeness
If X is a metric space with metric d a given sequence in X {xn } = {x1 , .., xn , ...} is convergent if there exists a point x in X such that for each ε > 0, there exists a positive integer n0 such that d (xn , x) < ε for all n ≥ n0 . x is called the limit of the sequence. A very important fact in metric spaces is that any convergent sequence has a unique limit. Further, assume that x is the limit of a convergent sequence, it is clear that for each ε > 0 there exists n0 such that m, n ≥ n0 ⇒ d (x, xm ) < ε/2 and d (x, xn ) < ε/2 using the properties of the metric we have m, n ≥ n0 ⇒ d (xm , xn ) ≤ d (xm , x) + d (x, xn ) <
ε ε + =ε 2 2
a sequence with this property is called a cauchy sequence. Thus, any convergent sequence is a cauchy sequence. The opposite is not necessarily true. As an example let X be the interval (0, 1] the sequence xn = 1/n is a cauchy sequence but is not convergent since the point 0 (which it wants to converge to) is not in X. Then, convergence depends not only on the sequence itself, but also on the space in which it lies. Some authors call cauchy sequences “intrinsically convergent” sequences. A complete metric space is a metric space in which any cauchy sequence is convergent. The space (0, 1] is not complete but it can be made complete by adding the point 0 to form [0, 1]. In fact, any non complete metric space can be completed by adjoining some appropiate points. It is a fundamental fact that the real line, the complex plane and Rn , C n are complete metric spaces. We define an open sphere of radius r centered at x0 as the set of points such that Sr (x0 ) = {x ∈ X : d (x, x0 ) < r} and an open set is a subset A of the metric space such that for any x ∈ A there exists an open sphere Sr (x) such that Sr (x) ⊆ A. For a given subset A of X a point x in X is a limit point of A if each open sphere centered on x contains at least one point of A different from x. A subset A is a closed set if it contains all its limit points. There is an important theorem concerning closed metric subspaces of a complete metric space Theorem 1.11 Let X be a complete metric space and Y a metric subspace of X. Then Y is complete⇔it is closed.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
24
1.7.2.
The importance of completeness in quantum mechanics
In quantum mechanics we work in an infinite dimensional vector space of functions in which we shall frequently encounter series of the form ∞ X cn ψn n=1
with ψn being functions in our space that describe physical states and cn are some appropiate coefficients. For this series to have any physical sense, it must be convergent. To analyze convergence we should construct the sequence of partial sums ( 1 ) 2 3 X X X cn ψn , cn ψn , cn ψn , ... n=1
n=1
n=1
if this series is “intrisically” convergent the corresponding sequence of partial sums should be a cauchy sequence. Any series that defines a cauchy sequence has a bounded norm
∞
X
cn ψn < ∞
n=1
it would then be desirable that an intrinsically convergent series given by a superposition of physical states ψn be another physical state ψ. In other words, the limit of the partial sums should be within the vector space that describe our physical states. To ensure this property we should demand completeness of the vector space that describe the physical states of the system. On the other hand, it would be usual to work with subspaces of the general physical space. If we want to guarantee for a series in a given subspace to be also convergent, we should require for the subspace to be complete by itself, and according to theorem 1.11 it is equivalent to require the subspace to be closed with respect to the total space. Therefore, closed subspaces of the general space of states would be particularly important in quantum mechanics.
1.7.3.
The concept of continuity and its importance in Physics
The concept of continuity arises naturally for mappings of a metric space into another metric space. Let f be a mapping of (X, d1 ) into (Y, d2 ) we say that f is continuous at x0 ∈ X if for each ε > 0 there exists δ > 0 such that d1 (x, x0 ) < δ ⇒ d2 (f (x) , f (x0 )) < ε. This mapping is said to be continuous if it is continuous for each point in its domain. Continuity is also an essential property in Physics since for most of physical observables or states we require some kind of “smoothness” or “well behavior”. Continuity is perhaps the weakest condition of well behavior usually required in Physics. We have previously defined isomorphisms as mappings that preserve all structure concerning a general vector space. It is then natural to characterize mappings that preserve the structure of a set as a metric space Definition 1.11 If X, Y are two metric spaces with metrics d1 and d2 a mapping f of X into Y is an isometry if d1 (x, x′ ) = d2 (f (x) , f (x′ )) ∀x, x′ ∈ X. If there exists an isometry of X onto Y , we say that X is isometric to Y. It is clear that an isometry is necessarily one-to-one. If X is isometric to Y then the points of these spaces can be put in a one to one correspondence in such a way that the distance between pairs of corresponding points are the same. In that sense, isometric spaces are abstractly identical as metric spaces. For instance, if we endow a vector space V with a metric then another metric vector space V ′ will be identical to V as metric and vector space if and only if there is an isometric isomorphism between them. Isometry preserves metric (distances) while isomorphism preserve vector structure (linear operations). Of course a norm-preserving mapping is an isometry for the metric induced by such a norm. Thus for our purposes norm preserving mappings will be isometries.
1.8. BANACH SPACES
1.8.
25
Banach Spaces
From our experience in classical mechanics we have seen that the concept of a vector space is useful especially when we associate a length to the vectors, this induces the concept of normed vector spaces, the norm in turn induces a metric i.e. a natural concept of the distance between vectors. Metric structure in turn lead us to the concepts of convergent sequences and continuity of functions. In particular, the previous discussion concerning completeness incline us in favor of spaces that are complete. Then we are directly led to normed and complete linear spaces Definition 1.12 A banach space is a normed and complete vector space As in any vector space, linear transformations are crucial in the characterization of Banach spaces. Since a notion of continuity is present in these spaces and continuity is associated with well behavior in Physics, it is natural to concentrate our attention in continuous linear transformations of a banach space B into itself or into the set of scalars. Transformations of B into itself will be useful when we want to study posible modifications of the vectors (for instance the time evolution of the vectors describing the state of the system). On the other hand, transformations of B into the scalars will be useful when we are interested in connecting the state of a system (represented by a vector) with a measurement (which is a number). Before considering each specific type of continuous linear transformation, we should clarify what the meaning of continuity of a linear transformation is. Since continuity depends on the metric induced on the space, we should define for a given space of linear transformations on a Banach space B, a given metric. We shall do it by first defining a norm, specifically we shall define the following norm kT k = sup {|T (x)| : kxk ≤ 1}
(1.11)
We shall refer to the metric induce by this norm when we talk about the continuity of any linear transformation of a Banach space into itself or into the scalars. It can be shown that for this norm continuity is equivalent to boundedness.
1.8.1.
Continuous linear transformations of a Banach space into scalars
Let us consider first the continuous linear transformations of B into the scalars. This induces the following Definition 1.13 A real (or complex) functional is a continuous linear transformation of a real (or complex) normed linear space into R (or C). Definition 1.14 The set of all functionals on a normed linear space N is called the conjugate space of N and is denoted by N ∗ . For the case of general normed spaces (and even for Banach spaces), the structure of their conjugate spaces is in general very intrincate. However we shall see that conjugate spaces are much simpler when an additional structure (inner product) is added to Banach spaces.
1.8.2.
Continuous linear transformations of a Banach space into itself
Let us discuss now the continuous linear transformations of Banach spaces into themselves. Definition 1.15 An operator is a continuous linear transformation of a normed space into itself. A particularly useful result in quantum mechanics is the following Theorem 1.12 If a one-to-one linear transformation T of a Banach space onto itself is continuous, then its inverse is automatically continuous
CAP´ITULO 1. LINEAR OR VECTOR SPACES
26
Though we do not provide a proof, it is important to note that this result requires the explicit use of completeness (it is not valid for a general normed space). We see then that completeness gives us another desirable property in Physics: if a given transformation is continuous and its inverse exist, this inverse transformation is also continuous. Let us now turn to projectors on Banach spaces. For general vector spaces projectors are defined as idempotent linear transformations. For Banach spaces we will required an additional structure which is continuity Definition 1.16 A projector in a Banach space B, is defined as an idempotent operator on B The consequences of the additional structure of continuity for projectors in Banach spaces are of particular interest in quantum mechanics Theorem 1.13 If P is a projection on a Banach space B, and if M and N are its range and null space. Then M and N are closed subspaces of B such that B = M ⊕ N The reciprocal is also true Theorem 1.14 Let B be a banach space and let M and N be closed subspaces of B such that B = M ⊕ N . If z = x + y is the unique representation of a vector z in B with x in M and y in N . Then the mapping P defined by P (z) = x is a projection on B whose range and null space are M and N respectively. These properties are interesting in the sense that the subspaces generated by projectors are closed subspaces of a complete space, and then they are complete by themselves. We have already said that dealing with complete subspaces is particularly important in quantum mechanics. There is an important limitation with Banach spaces. If a closed subspace M is given, though we can always find many subspaces N such that B = M ⊕ N there is not guarantee that any of them be closed. So there is not guarantee that M alone generates a projection in our present sense. The solution of this inconvenience is another motivation to endow B with an additional structure (inner product). Finally, the definition of the conjugate N ∗ of a normed linear space N , induces to associate to each operator in the normed linear space N and operator on N ∗ in the following way. Let us form a complex number c0 with three objects, an operator T on N , a functional f on N and an element x ∈ N , we take this procedure: we map x in T (x) and then map this new element of N into the scalar c0 through the functional f x → T (x) → f (T (x)) = c0 Now we get the same number with other set of three objects an operator T ∗ on N ∗ , a functional f on N (the same functional of the previous procedure) and an element x ∈ N (the same element stated before), the steps are now the following, we start with the functional f in N ∗ and map it into another functional through T ∗ , then we apply this new functional to the element x and produce the number c0 . Schematically it is f → T ∗ (f ) → [T ∗ (f )] (x) = c0
with this we are defining an apropiate mapping f ′ such that f ′ (x) gives our number. In turn it induces an operator on N ∗ that maps f in f ′ and this is the newly defined operator T ∗ on N ∗ . In summary this definition reads [T ∗ (f )] (x) ≡ f (T (x))
(1.12)
where f is a functional on N i.e. an element in N ∗ , T an operator on N and x an element of N . If for a given T we have that Eq. (1.12) holds for f and x arbitrary, we have induced a new operator T ∗ on N ∗ from T . It can be shown that T ∗ is also linear and continuous i.e. an operator. When inner product is added to the structure, this operator becomes much simpler.
1.9. HILBERT SPACES
27
By using the norm (1.11) applied to operators on B ∗ we have kT ∗ k = sup {kT ∗ (f )k : kf k ≤ 1} it can be proved that kT ∗ k = kT k
(1.13)
(αT1 + βT2 )∗ = αT1∗ + βT2∗ ; I ∗ = I ; (T1 T2 )∗ = T2∗ T1∗
(1.14)
such that the mapping T → T ∗ is norm preserving and therefore an isometry, we can also see that since linear operations are preserved the mapping T → T ∗ is an isometric isomorphism. However, the product is reversed under the mappping, this shows that the spaces ß(T ) and ß(T ∗ ) are equivalent as metric and vector spaces but they are not equivalent as algebras (the spaces are not isomorphic as algebras).
1.9.
Hilbert spaces
In R3 it is customary to define a set of three ortonormal vectors ui such that any vector in R3 can be written as x = αi ui sum over repeated indices. The dot product is defined such that x · y ≡ kxk kyk cos θ
(1.15)
the dot product is a good mathematical tool for many purposes in solid analytic geometry. If we accept the statement that the zero vector is orthogonal to every vector we can say that the dot product is null if and only if both vectors are orthogonal. Let {vi } be a given basis (not necessarily orthonormal) of R3 ; any two vectors in R3 are expressed in the form x = αi vi ; y = βj vj (1.16) the dot product and the norm of these two vectors can be written x · y = (αi vi ) · (βj vj ) = αi βj vi · vj ≡ αi βj mij
x · x = kxk2 = (αi vi ) · (αj vj ) = αi αj vi · vj ≡ αi αj mij
These expressions can be in general complicated. Notice that these and other algebraic operations with dot products become much easier when an orthonormal basis is used since in this case we have mij = δij so that x · y = αi βi and x · x = αi αi . These facts put orthonormal basis in a privileged position among other bases. Further, an attempt of extension of these ideas to C 3 permits to define the inner product in this space in the following way, given the vectors (1.16) where α and β are complex we define (x, y) = (α∗i vi ) · (βj vj ) = α∗i βj mij the conjugate on α appears to obtain the norm of a complex vectors with the inner product of such a vector with itself, as can be seen by using an orthonormal basis in which mij = δij (x, x) = kxk2 = α∗i αi = |αi | |αi | the simplification above comes from the extension of the concept of orthogonality to complex vectors, they are orthogonal if and only if (x, y) = 0. In both the real and complex cases, the concept of orthogonality was very important not only because of the geometry but also because of the algebra. We observe for instance, that no angle like the one in (1.15) can be defined in the complex case, but the algebra of inner products continues being simple and useful. On the same ground, we were able to talk about orthogonality in the complex case via the inner product and exploit the advantages of orthonormal sets, although two vectors of the complex plane are not “perpendicular”.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
28
In the same way, in abstract vector spaces is not so clear how to use the concept of orthogonality in a geometrical way, but from the discussion above it is clear that the extension of the concept would represent great simplifications from the algebraic sense. Notwithstanding, we shall see that the extension of the concept of inner product will also provide some geometrical interpretations. As always in mathematics, a natural extension should come from the extrapolation of the essential properties of the concept in the restricted way, the inner product in the complex and real spaces has the following properties (x, αy + βz) = α (x, y) + β (x, z) ; (x, y) = (y, x)∗ ; (x, x) = kxk2 we are led to the following Definition 1.17 A Hilbert space is a real or complex Banach space whose norm arises from an inner product, which in turn is defined as a complex function (x, y) of the vectors x and y with the following properties (x, αy + βz) = α (x, y) + β (x, z) (x, y) = (y, x)∗ (x, x) = kxk2 Definition 1.18 Two vectors x, y in a Hilbert space are said to be orthogonal if (x, y) = 0, we denote it as x ⊥ y. A vector is said to be normal or unitary if (x, x) = 1. From the definition the following properties hold 2
|(x, y)| ≤ kxk kyk
kx + yk + kx − yk
2
(1.17)
2
= 2 kxk + 2 kyk 2
2
(1.18) 2
2
4 (x, y) = kx + yk − kx − yk + i kx + iyk − i kx − iyk 2
2
2
x ⊥ y ⇒ kx + yk = kx − yk = kxk + kyk
2
2
(1.19) (1.20)
Eq. (1.17) is known as the Schwarz inequality. Eq. (1.18) is known as the paralelogram law because in plane geometry it reduces to the theorem which says that the sum of the squares of the sides of a paralelogram equals the sum of the squares of its diagonals. As well as its geometrical interpretation, this law says that only certain Banach spaces can be converted into Hilbert spaces, only those normed complete spaces in which the norm obeys the paralelogram law can become a Hilbert space. Further, if for a given norm, the paralelogram law is satisfied, then Eq. (1.19), gives us the recipe to define an inner product from such a norm. Finally, for reasons easy to visualize Eq. (1.20) is called the pithagorean theorem. As a matter of illustration let us prove the paralelogram law Eq. (1.18) kx + yk2 + kx − yk2 = (x + y, x + y) + (x − y, x − y) = (x, x + y) + (y, x + y) + (x, x − y) − (y, x − y) = (x, x) + (x, y) + (y, x) + (y, y) + (x, x) − (x, y) − (y, x) + (y, y) = (x, x) + (y, y) + (x, x) + (y, y) = 2 kxk2 + 2 kyk2
A vector x is said to be orthogonal to a non empty set S, if x ⊥ y for all y ∈ S. The orthogonal complement of S is the set of all vectors orthogonal to S, it is denoted as S ⊥ . Two non empty sets M and N are orthogonal if x ⊥ y for all x ∈ M and for all y ∈ N ; this is denoted as M ⊥ N . If M is a closed vector subspace of H then M ⊥ is also closed. The following theorems are important for physical purposes Theorem 1.15 If M and N are closed vector subspaces of a Hilbert space H such that M ⊥ N , then the linear subspace M + N is also closed Theorem 1.16 If M is a closed linear subspace of a Hilbert space H, then H = M ⊕ M ⊥
1.9. HILBERT SPACES
29
Thus we see that the expansion of the union of closed subspaces preserves the closure property and so the completeness property too. In addition, theorem 1.16 says that given a closed subspace of H we can always find a closed subspace to generate H by direct sum. Besides, the closed space that makes the work is the orthogonal complement. It means that for any given closed subspace M we can define a projection with range M and null space M ⊥ . Contrast this with the problem arising in Banach spaces in which we cannot guarantee the closure of the complementary space.
1.9.1.
Orthonormal sets
An orthonormal set {ei } in H is a non empty subset of H such that if i 6= j then ei ⊥ ej and kei k = 1 for all i. this set could be of any cardinality (non necessarily countable). The zero Hilbert space has no orthonormal sets. The following theorems are of great practical interest Theorem 1.17 Let {e1 , .., en } be a finite orthonormal set in H. If x is a vector in H we have n X i=1
x−
n X i=1
|(ei , x)|2 ≤ kxk2
(1.21)
(ei , x) ei ⊥ ej ; j = 1, .., n
(1.22)
We can give the following interpretation of this theorem: Eq. (1.21) says that the sum of the components of a vector in the various orthogonal directions defined by the ortonormal set, cannot exceed the length of the vector. Similarly, Eq. (1.22) says that if we substract from a vector its components in several perpendicular directions the resultant has no components left in those directions. The following theorem shows that the coefficients obtained for a given vector from an orthonormal set are not arbitrary Theorem 1.18 Ifo {ei } is an orthonormal set in a Hilbert space H, and if x is any vector in H, the set S = n ei : |(ei , x)|2 6= 0 is either empty or countable. These results permit to extend theorem 1.17 for arbitrary orthonormal sets
Theorem 1.19 Let {ei } be an arbitrary orthonormal set in H. If x is a vector in H we have X |(ei , x)|2 ≤ kxk2 X x− (ei , x) ei ⊥ ej ; j = 1, .., n
(1.23) (1.24)
o n where the symbol of sum means the following, defining the set S = ei : |(ei , x)|2 6= 0 , we define the sum to be zero (number or vector) when S is empty. If S is finite, the definitions in (1.24, 1.23) coincide with the ones in P (1.21, 1.22), if S is countably infinite, the sums become series ∞ for a given order of the set S = {e1 , .., ei , ..}, n=1 in this case the limit of the series is independent of the order chosen for S. Definition 1.19 An orthonormal set in H is said to be complete if it is maximal, that is, if it is impossible to add an element e to the set while preserving the orthonormality in the new set. Theorem 1.20 Every orthonormal set in a Hilbert space is contained in a complete orthonormal set Theorem 1.21 Every non-zero Hilbert space contains a complete orthonormal set
CAP´ITULO 1. LINEAR OR VECTOR SPACES
30 Theorem 1.22 Every orthonormal set is linearly independent
Theorem 1.23 Let H be a Hilbert space and {ei } an orthonormal set in H. The following conditions are equivalent to one another {ei } is complete
x ⊥ {ei } ⇒ x = 0 X ∀x ∈ H⇒x= (ei , x) ei X ∀ x ∈ H ⇒ kxk2 = |(ei , x)|2
(1.25) (1.26) (1.27) (1.28)
This is perhaps the most important theorem in terms of applications in Physics, and in particular quantum mechanics. It is convenient to discuss some terminology related with it. The numbers (x, ei ) are called the Fourier coeeficients of x and Eq. (1.27) is its Fourier expansion. Eq. (1.28) is called Parseval’s equation. All these equations refer to a given complete orthonormal set. This sequence of theorems are similar to the ones explained in the general theory of vector spaces in which complete orthonormal sets replaced the concept of bases, and fourier expansions replaced linear combinations. It is clear that for finite dimensional spaces Fourier expansions become linear combinations. On the other hand, since orthonormal sets are linearly independent (Theorem 1.22), it is easy to see that in the case of finite dimensional spaces complete orthonormal sets are linearly independent sets that generate any vector by linear combinations. Hence, complete orthonormal sets are bases. For infinite dimensional spaces there is a different story. If we remember that linear combinations are finite by definition, we see that in this case Fourier expansions are not linear combinations. For a given linearly independent set to be a basis, it is necessary for any vector of the space to be written as a linear combination of such a set, basis certainly exists for Hilbert spaces according to theorem 1.3 but complete orthonormal sets are NOT bases in the sense defined for the general theory of vector spaces. Moreover theorem 1.18 shows that the Fourier expansion given in Eq. (1.27) is always countable, this is a remarkable result because it means that the fourier expansion for a given complete orthonormal set is always a series, even if the cardinality of the complete orthonormal set is higher than the aleph (cardinality of the integers). The informal discussion above can be formally proved to produce the following statement Theorem 1.24 A Hilbert space is finite dimensional if and only if every complete orthonormal set is a basis. However, owing to the analogy between bases and complete orthonormal sets the following theorem is quite expected Theorem 1.25 Any two complete orthonormal sets of a given Hilbert space have the same cardinality. And this fact induces a natural definition Definition 1.20 The orthogonal dimension of a Hilbert space H is the cardinality of any complete orthonormal set in H. It is important to keep in mind the difference between the dimension and the orthogonal dimension of a Hilbert space of infinite dimension.
1.9. HILBERT SPACES
1.9.2.
31
The conjugate space H ∗
We have defined the conjugate space of a Banach space B as the set of all functionals in B i.e. of all linear continuous mappings of B into the scalars. We said however that the structure of the conjugate spaces of an arbitrary Banach space is very complex. Fortunately, this is not the case for Hilbert spaces in which the inner product provides a natural association between H and H ∗ . Let y be a fixed vector in H and consider the function fy defined by fy (x) ≡ (y, x)
(1.29)
it is easy to prove linearity fy (αx1 + βx2 ) = (y, αx1 + βx2 ) = α (y, x1 ) + β (y, x2 ) fy (αx1 + βx2 ) = αfy (x1 ) + βfy (x2 ) continuity comes from the Schwarz inequality |fy (x)| = |(x, y)| ≤ kxk kyk ⇒ |fy (x)| ≤ kyk then fy is bounded and so continuous. Indeed it can be shown that |fy (x)| = kyk. We then have found an algorithm to generate some functionals from the mapping y → fy
(1.30)
described above, this is a norm preserving mapping of H into H ∗ . However, it can be shown that indeed this is a mapping of H onto H ∗ as stated in this Theorem 1.26 Let H be a Hilbert space, and f an arbitrary functional in H ∗ . Then there exists a unique vector y ∈ H such that f (x) = (y, x) ∀x ∈ H
since the mapping (1.30) is norm preserving, we wonder whether it is linear, this is not the case because fy1 +y2 (x) = (y1 + y2 , x) = (y1 , x) + (y2 , x) = fy1 (x) + fy2 (x) fαy (x) = (αy, x) = α∗ (y, x) = α∗ fy (x) such that fy1 +y2 = fy1 + fy2 ; fαy = α∗ fy however the mapping (1.30) is an isometry (it preserves metric) since kfx − fy k = kfx−y k = kx − yk we can characterize H ∗ in the following way Theorem 1.27 H ∗ is a Hilbert space with respect to the inner product defined by (fx , fy ) = (y, x).
(1.31)
CAP´ITULO 1. LINEAR OR VECTOR SPACES
32
1.9.3.
The conjugate and the adjoint of an operator
A really crucial aspect of the theory of Hilbert spaces in Physics is the theory of operators (continuous linear transformations of H into itself), we shall see later that observables in quantum mechanics appear as eigenvalues of some of these operators. We have defined the conjugate of an operator for Banach spaces but they are still too general to get a rich structural theory of operators. The natural correspondence between H and H ∗ will provide a natural relation between a given operator on H and its corresponding conjugate operator on H ∗ . Let T be an operator on a Banach space B. We defined an operator on B ∗ denoted T ∗ and called the conjugate of T by Eq. (1.12) [T ∗ (f )] (x) = f (T (x)) (1.32) and Eqs. (1.13, 1.14) says that T → T ∗ is an isometric isomorphism (as vector spaces) between the spaces of linear operators on H and H ∗ . We shall see that the natural correspondence between H and H ∗ permits to induce in turn an operator T † in H from the operator T ∗ in H ∗ . The procedure is the following: starting from a vector y in H we map it into its corresponding functional fy , then we map fy by the operator T ∗ to get another functional fz then we map this functional into its (unique) corresponding vector z in H the scheme reads y → fy → T ∗ fy = fz → z
(1.33)
the whole process is a mapping of y to z i.e. of H into itself. We shall write it as a single mapping of H into itself in the form y → z ≡ T †y the operator T † induced in this way from T ∗ is called the adjoint operator. Its action can be understood in the context of H only as we shall see. For every vector x ∈ H we use the definition of T ∗ Eq. (1.32) to write [T ∗ (fy )] (x) = fy (T (x)) = (y, T x) [T ∗ fy ] (x) = fz (x) = (z, x) = T † y, x where we have used Eqs. (1.29, 1.33), so that (y, T x) = T † y, x ∀x, y ∈ H
(1.34)
we can see that Eq. (1.34) defines T † uniquely and we can take it as an alternative definition of the adjoint operator associated with T . It can also be verified that T † is indeed an operator, i.e. that it is continuous and linear. We can also prove the following Theorem 1.28 The adjoint operation T → T † is a one-to-one onto mapping with these properties † (T1 + T2 )† = T1† + T2† , (αT )† = α∗ T † , T † = T
(T1 T2 )† = T2† T1† ; T † = kT k ; T † T = T T † = kT k2 0∗ = 0 , I ∗ = I
If T is non-singular then T † is also non-singular and −1 † T† = T −1
(1.35)
1.10. NORMAL OPERATORS Notice for instance that T †
†
33 = T implies that (T y, x) = y, T † x ∀x, y ∈ H
(1.36)
We define the commutator of a couple of operators T1 , T2 as
[T1 , T2 ] ≡ T1 T2 − T2 T1 this operation has the following properties [T1 , T2 ] = − [T2 , T1 ]
(1.37)
[αT1 + βT2 , T3 ] = α [T1 , T3 ] + β [T2 , T3 ]
(1.38)
[T1 , αT2 + βT3 ] = α [T1 , T2 ] + β [T1 , T3 ]
(1.39)
[T1 T2 , T3 ] = T1 [T2 , T3 ] + [T1 , T3 ] T2
(1.40)
[T1 , T2 T3 ] = T2 [T1 , T3 ] + [T1 , T2 ] T3
(1.41)
[[T1 , T2 ] , T3 ] + [[T3 , T1 ] , T2 ] + [[T2 , T3 ] , T1 ] = 0
(1.42)
such properties can be proved directly from the definition, Eq. (1.37) shows antisymmetry and Eqs. (1.38, 1.39) proves linearity. Finally, relation (1.42) is called the Jacobi identity. It can be seen that the space of operators on a Hilbert space H (called ß(H)) is a Banach space and more generally a Banach Algebra. This organization permits an elegant theory of the operators on Hilbert spaces. The theory of quantum mechanics works on a Hilbert space. In addition, the most important operators on the Hilbert space in quantum mechanics are self-adjoint and unitary operators, which are precisely operators that have a specific relation with their adjoints.
1.10.
Normal operators
Definition 1.21 An operator on a Hilbert space H that commutes with its adjoint N, N † = 0 is called a normal operator There are two reasons to study normal operators (a) From the mathematical point of view they are the most general type of operators for which a simple structure theory is possible. (b) they contain as special cases the most important operators in Physics: self-adjoint and unitary operators. It is clear that if N is normal then αN is. Further, the limit N of any convergent sequence of normal operators {Nk } is also normal
†
† † †
N N † − N † N ≤ N N † − Nk Nk + Nk Nk − Nk Nk + Nk Nk − N † N
= N N † − Nk Nk† + Nk† Nk − N † N → 0
then N N † − N † N = 0 and N is normal then we have proved
Theorem 1.29 The set of all normal operators on H is a closed subset of ß(H) that is closed under scalar multiplication It is natural to wonder whether the sum and product of normal operators is normal. They are not, but we can establish some conditions for these closure relations to occur Theorem 1.30 If N1 and N2 are normal operators on H with the property that either commutes with the adjoint of the other, then N1 + N2 and N1 N2 are normal.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
34
The following are useful properties for the sake of calculations in quantum mechanics
Theorem 1.31 An operator N on H is normal ⇔ kN xk = N † x ∀x ∈ H
Theorem 1.32 If N is a normal operator on H then N 2 = kN k2
1.11.
Self-Adjoint operators
We have said that the space of operators on a Hilbert space H (called ß(H)), is a special type of algebra (a Banach Algebra) which has an algebraic structure similar to the one of the complex numbers, except for the fact that the former is non-commutative. In particular, both are complex algebras with a natural mapping of the space into itself of the form T → T † and z → z ∗ respectively. The most important subsystem of the complex plane is the real line defined by the relation z = z ∗ , the corresponding subsystem in ß(H) is therefore defined as T = T † , an operator that accomplishes that condition is called a self-adjoint operator. This is the simplest relation that can be established between an operator and its adjoint. It is clear that self-adjoint operators are normal. Further, we already know that 0† = 0 and I † = I thus they are self-adjoint. A real linear combination of self-adjoint operators is also self-adjoint (αT1 + βT2 )† = α∗ T1† + β ∗ T2† = αT1† + βT2† further, if {Tn } is a sequence of self adjoint operators that converges to a given operator T , then T is also self-adjoint
†
† † † † †
T − T ≤ kT − Tn k + Tn − Tn + Tn − T = kT − Tn k + kTn − Tn k + Tn − T
= kT − Tn k + (Tn − T )† = kT − Tn k + k(Tn − T )k = 2 kT − Tn k → 0
shows that T − T † = 0 so that T = T † this shows the following
Theorem 1.33 The self-adjoint operators in ß(H) are a closed real linear subspace of ß(H) and therefore a real Banach space which contains the identity transformation Unfortunately, the product of self-adjoint operators is not necessarily self-adjoint hence they do not form an algebra. The only statement in that sense is the following Theorem 1.34 If T1 , T2 are self-adjoint operators on H, their product is self-adjoint if and only if [T1 , T2 ] = 0 It can be easily proved that T = 0 ⇔ (x, T y) = 0 ∀x, y ∈ H. It can be seen also that Theorem 1.35 If T is an operator on a complex Hilbert space H then T = 0 ⇔ (x, T x) = 0 ∀x ∈ H. It should be emphasized that the proof makes explicit use of the fact that the scalars are complex numbers and not merely the real system. The following theorem shows that the analogy between self-adjoint operators and real numbers goes beyond the simple analogy from which the former arise Theorem 1.36 An operator T on H is self-adjoint⇔ (x, T x) is real ∀x ∈ H. An special type of self-adjoint operators are the following ones Theorem 1.37 A positive operator on H is a self-adjoint operator such that (x, T x) ≥ 0, ∀x ∈ H. Further, if (x, T x) ≥ 0, and (x, T x) = 0 ⇔ x = 0 we say that the operator is positive-definite.
1.12. UNITARY OPERATORS
35
It is clear that the following operators are positive: 0, I, T T † , T † T note also that all the analoguous elements in the complex plane are non-negative numbers 0, 1, zz ∗ = z ∗ z = |z|2 . Theorem 1.38 If A is a positive operator then I + A is non-singular Continuing the analogy between ß(H) and the algebra of complex numbers, we can see that a complex number can be written as its real and imaginary parts in the form z = a1 + ia2
;
a1 ≡
z + z∗ z − z∗ , a2 ≡ 2 2i
in a similar way we can decompose an arbitrary operator T on H in the form T = A1 + iA2 ; A1 ≡
T + T† T − T† ; A2 ≡ 2 2i
(1.43)
it is clear that A1 and A2 are self-adjoint so they can be called the “real” and “imaginary” components of the T operator. If T is self-adjoint its imaginary part is zero as expected. We can see that it is precisely because of the non commutativity of the self-adjoint operators that non-normal operators exist Theorem 1.39 If T is an operator on H it is normal ⇔ its real and imaginary parts commute
1.12.
Unitary operators
Perhaps the most important subsystem of the complex plane after the real line is the unit circle characterized by the equation zz ∗ = z ∗ z = |z|2 = 1. This leads to a natural definition of an special subset of the normal operators Definition 1.22 An operator U on H which satisfies the equation U U † = U † U = I is said to be unitary Unitary operators are thus the analogues of complex numbers of unitary absolute value. In words, unitary operators are those non-singular operators whose inverses equal their adjoints, they are thus mappings of H onto itself. The geometric significance of these operators can be clarified with the following theorem Theorem 1.40 If T is an operator on H, the following conditions are equivalent to one another T †T
= I
(T x, T y) = (x, y) kT (x)k = kxk
(1.44) ∀x, y ∈ H
∀x ∈ H
(1.45) (1.46)
In general an operator T with any of the properties (1.44-1.46), is an isometric isomorphism of H into itself, since T preserves linear operations, as well as the inner product and the norm (and thus the metric). For finitedimensional spaces any of them are necessary and sufficient conditions for T to be unitary. Nevertheless, this is not the case when we treat with infinite-dimensional spaces, let us see an example: consider the operator T in C ∞ given by T {x1 , x2 , ...} = {0, x1 , x2 , ...} which preserves norms but has no inverse. The point is that this is an isometric isomorphism into H but not onto H (the image does not contain any element of C ∞ with a non-null first component). So in the case of infinite dimension, the condition to be onto must be added to the conditions (1.44-1.45) for an operator to be unitary. Theorem 1.41 An operator on H is unitary⇔is an isometric isomorphism of H onto itself.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
36
In words, unitary operators are those one-to-one and onto operators that preserve all structure relevant for a Hilbert space: linear operations, inner products, norm and metric. In practice, unitary operators usually appear in Physics as operations that keep the norm of the vectors unaltered (like rotations in ordinary space), even this is usually the definition utilized in Physics books. There is another theorem useful in the theory of representations for Hilbert spaces which is also used sometimes as the definition Theorem 1.42 An operator T on H is unitary ⇔ T {ei } is a complete orthonormal set whenever {ei } is. Another important characteristic for physical applications is the following Theorem 1.43 The set of all unitary operators on H forms a group
1.13.
Projections on Hilbert spaces
In Banach spaces we defined projections as idempotent continuous linear transformations or equivalently as idempotent operators. We also saw that a couple of closed subspaces such that B = M ⊕ N induces a projection and viceversa. We saw however that for a given closed subspace M of B there is not necessarily another closed subspace such that B = M ⊕ N . In contrast, theorem 1.16 guarantees that for a given closed subspace M of a Hilbert space H there always exists a decomposition with another closed subspace in the form H = M ⊕ M ⊥ . Besides, in this decomposition the closed complementary space is precisely the orthogonal complement of M . Since orthogonality is a very important new concept that arises from Hilbert spaces, we shall concentrate on projections induced by this particular decomposition. It is then natural to look for the new features required by a given projection in order to have M as its range and M ⊥ as its null space Theorem 1.44 If P is a projection (with the definition given for Banach spaces) on H with range M and null space N then M ⊥ N ⇔ P = P † and in this case N = M ⊥ . A projection in which its range and null space are perpendicular is called an orthogonal projection. Indeed, orthogonal projections are the only ones that are relevant in the theory of operators on Hilbert spaces, then we shall redefine the concept of projection once again Definition 1.23 A projection on a Hilbert space will be defined as an idempotent, continuous, and self-adjoint linear transformation. If idempotent, continuous, non-self adjoint linear transformations are of some use, we call them non-orthogonal projections. The following facts are easy to show, 0 and I are projections and they are distinct if and only if H 6= {0}. P is the projection on M ⇔ I − P is the projection on M ⊥ . We can also see that x ∈ M ⇔ P x = x ⇔ kP xk = kxk it can also be seen that P is a positive operator and kP k ≤ 1. Sometimes occur in Physics that a given operator T on H maps a proper subspace M of H into itself. The following chain of definitions permits to study this kind of operators Definition 1.24 Let T be an operator on H, and M a closed vector subspace of H. M is said to be invariant under T if T (M ) ⊆ M . In this case the restriction of T to M can be regarded as an operator of M into itself. A more interesting situation occurs when M and M ⊥ are invariant under T
1.14. THEORY OF REPRESENTATIONS IN FINITE-DIMENSIONAL VECTOR SPACES
37
Definition 1.25 If both M and M ⊥ are invariant under T , we say that M reduces T or that T is reduced by M . This situation invites us to study T by restricting its domain to M and M ⊥ . The projections provide the most relevant information for these scenarios Theorem 1.45 A closed vector subspace M is invariant under an operator T ⇔ M ⊥ is invariant under T † Theorem 1.46 A closed vector subspace M reduces an operator T ⇔ M is invariant under both T and T † Theorem 1.47 If P is the projection on a closed vector subspace M of H, M is invariant under an operator T ⇔ TP = PTP Theorem 1.48 If P is the projection on a closed vector subspace M of H, M reduces an operator T ⇔ T P = P T Theorem 1.49 If P and Q are projections on closed linear subspaces M and N then M ⊥ N ⇔ P Q = 0 ⇔ QP = 0 We wonder whether the sum of projections in our present sense is also a projection. This is the case only under certain conditions Theorem 1.50 If P1 , .., Pn are projections on closed subspaces M1 , .., Mn of a Hilbert space H, then the sum P = P1 + .. + Pn is a projection ⇔the Pi′ s are pairwise orthogonal i.e. Pi Pj = δij Pi , in that case P is the projection on M = M1 + .. + Mn .
1.14.
Basic theory of representations in a general finite dimensional vector space
In this section we intend to establish an equivalence between abstract objects such as elements of vector spaces and linear transformations, in a more tangible language suitable for explicit calculations. This is the gist of the theory of representations for vector spaces
1.14.1.
Representation of vectors and operators in a given basis
If n is the dimension of a finite-dimensional vector space V , a set of n linearly independent vectors in V , forms a basis for the vector space. Given a certain ordered basis {u1 , .., un } in a vector space V any vector can be written as a linear combination of such a basis, we shall use the convention of sum over repeated indices x = xi ui
(1.47)
The coefficients xi are called the coordinates of the vector x, relative to the ordered basis {ui }. Linear independence ensures that the set of coordinates (x1 , .., xn ) is unique when the basis is ordered in a well-defined way. Therefore, this set of coordinates provides a representation of the vector x with respect to the ordered basis {ui }. A mapping T of V into itself, associates each vector x with another vector y in V y = Tx if the mapping is one-to-one and onto it admits an inverse1 x = T −1 y 1
If the mapping is only one-to-one but not onto, the inverse still exist but restricted to the vector subspace in which all the vectors x ∈ V are mapped.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
38 if the transformation is linear we have
T (αx+βy) = αT x + βT y ∀x, y ∈ V where α and β are complex numbers. The definition of T is intrinsic and does not depend on the particular basis chosen for the vector space. Notwithstanding, for many practical purposes we define a representation of both the vectors and operators in a basis {ui }. In that case, we can describe the action of T by a transformation of coordinates (in the same basis) yi = Ti (x1 , x2 , . . . , xn ) i = 1, . . . , n if Ti admits an inverse we get
xi = Ti−1 (y1 , y2 , . . . , yn )
i = 1, . . . , n
the necessary and sufficient condition for the existence of the inverse is that the jacobian J ≡ ∂Ti /∂xj be different from zero. On the other hand, if we assume that T is a linear transformation we can write y = T x = T (xi ui ) = xi T ui
(1.48)
Eq. (1.48) says that y is a linear combination of the vectors T ui , and the coefficients of the combination (coordinates) coincide with the coordinates of x in the basis ui . The vectors T ui must be linear combinations of {uj } and we denote the coefficients of these linear combinations as Tji vi ≡ T ui = uj Tji the real or complex coefficients Tji can be organized in a square T11 T12 · · · T21 T22 · · · T≡ . .. .. . ··· Tn1 Tn2 · · ·
(1.49)
arrangement of the form T1n T2n .. . Tnn
this square arrangement symbolized as T is called the matrix representative of the linear transformation T relative to the ordered basis {ui }. Substituting in Eq. (1.48) yj uj = uj Tji xi and since the uj are linearly independent yj = Tji xi this operation is represented by the following y1 y2 .. = .
and is usually written in the form
yn y1 y2 .. .
notation T11 T12 T21 T22 .. .. . .
··· ···
··· Tn1 Tn2 · · ·
T1n T2n .. . Tnn
x1 x2 .. .
xn
T11 x1 + T12 x2 + .. + T1n xn T21 x1 + T22 x2 + .. + T2n xn = .. . yn Tn1 x1 + Tn2 x2 + .. + Tnn xn y = Tx
1.14. THEORY OF REPRESENTATIONS IN FINITE-DIMENSIONAL VECTOR SPACES
39
the last equality appears in matrix notation where T is the matrix representative of the linear operator T in the ordered basis ui . Similarly, x and y are the coordinate representatives of the intrinsic vectors in the same ordered basis. Eq. (1.49) shows clearly how to construct the matrix T, i.e. applying the operator to each vector in the basis, and writing the new vectors as linear combinations of the basis. The coefficient of the i − th new vector associated to the j − th element of the basis gives the element Tji in the associated matrix. Observe that for a matrix representative to be possible, the linearity was fundamental in the procedure. On the other hand, since we are looking for an isomorphism among linear transformations on V and the set of matrices (as an algebra), we should define linear operations and product of matrices in such a way that these operations are preserved in the algebra of linear transformations. In other words, if we denote by [T ] the matrix representative of T in a given ordered basis we should find operations with matrices such that [T1 + T2 ] = [T1 ] + [T2 ] ; [αT ] = α [T ] ; [T1 T2 ] = [T1 ] [T2 ] we examine first the product by a scalar, according to the definition (1.7) we have (αT ) (ui ) = α (T ui ) = α (uj Tji ) = uj (αTji ) ⇒
(αT ) (ui ) = uj (αTji ) ⇒ (uj ) (αT )ji = uj (αTji ) using linear independence we obtain the algorithm for scalar multiplication (αT )ji = αTji Now for the sum we use the definition 1.6 (T + U ) uj (T + U ) uj
= T uj + U uj = ui Tij + ui Uij = ui (Tij + Uij ) ⇒ = ui (Tij + Uij ) ⇒ ui (T + U )ij = ui (Tij + Uij )
and along with linear independence it leads to (T + U )ij = (Tij + Uij ) Moreover, for multiplication (composition) we use definition 1.9 (T U ) ui = T (U ui ) = T (uj Uji ) = Uji T (uj ) = Uji (T uj ) = Uji (uk Tkj ) ⇒
(T U ) ui = (Tkj Uji ) uk ⇒ uk (T U )ki = uk (Tkj Uji ) linear independence gives (T U )ki = Tkj Uji
(1.50)
It can be easily shown that the matrix representations of the operators 0 and I are unique and equal in any basis, they correspond to [0]ij = 0 and [I]ij = δij . Finally, we can check from Eq. (1.49) that the mapping T → [T ] is one-to-one and onto. It completes the proof of the isomorphism between the set of linear transformations and the set of matrices as algebras. On the other hand, owing to the one-to-one correspondence T ↔ [T ] and the preservation of all operations, we see that non-singular linear transformations (i.e. invertible linear transformations) should correspond to invertible matrices. We denote T −1 the matrix representative of T −1 , and our goal is to establish the algorithm for this inverse matrix, the definition of the inverse of the linear transformation is T T −1 = T −1 T = I since the representation of the identity is always [I]ij = δij , the corresponding matrix representation of this equation is [T ]ik T −1 kj = T −1 ik [T ]kj = δij (1.51)
this equation can be considered as the definition of the inverse of a matrix if it exists. A natural definition is then
CAP´ITULO 1. LINEAR OR VECTOR SPACES
40
Definition 1.26 A matrix which does not admit an inverse is called a singular matrix. Otherwise, we call it a non-singular matrix. Since T −1 is unique, the corresponding matrix is also unique, so the inverse of a matrix is unique when it exists. A necessary and sufficient condition for a matrix to have an inverse is that its determinant must be non-zero. The algebra of matrices of dimension n × n is called the total matrix algebra An , the preceding discussion can be summarized in the following Theorem 1.51 if B = {u1 , .., un } is an ordered basis of a vector space V of dimension n, the mapping T → [T ] which assigns to every linear transformation on V its matrix relative to B, is an isomorphism of the algebra of the set of all linear transformations on V onto the total matrix algebra An . Theorem 1.52 if B = {u1 , .., un } is an ordered basis of a vector space V of dimension n, and T a linear transformation −1 whose matrix relative to B is [aij ]. Then T is non-singular ⇔ [aij ] is non-singular and in this case −1 . [aij ] = T
1.14.2.
Change of coordinates of vectors under a change of basis
We have already seen that any vector space has an infinite number of bases. Notwithstanding, once a given basis is obtained, any other one can be found by anlinear o transformation of the original basis. ′ Let {uj } be our “original” ordered basis and uj any other ordered basis. Each u′i is a linear combination of the original basis u′i = aij uj i = 1, . . . , n (1.52) linear independence of {ui } ensures the uniqueness of the coefficients aij . The natural question n o is whether we require any condition on the matrix representation aij in Eq. (1.52) to ensure that the set u′j be linearly independent. If we remember that there is a one-to-one correspondence between matrices and linear transformations we see that aij must correspond to a (unique) linear transformation A. In this notation Eq. (1.52) becomes u′i = Auj
(1.53)
n o now appealing to theorem 1.9 we see that u′j is a basis if and only if A is non-singular, but A is non-singular if and only if [A]ij = aij is a non-singular matrix. Thus Eq. (1.53) can be written in matrix notation as u′ = Au
(1.54)
the new set {u′i } is a basis if and only if the matrix A is non-singular. Any vector x can be written in both bases x = xi ui = x′i u′i = x′i aij uj = x′j aji ui
(1.55)
and owing to the linear independence of ui xi = x′j aji = a ˜ij x′j ; a ˜ij ≡ aji where a ˜ij ≡ aji indicates the transpose of the matrix A. In matrix form we have ˜ ′ u′ = Au , x = Ax
(1.56)
˜ −1 x x′ = A
(1.57)
and using Eq. (1.56) we get
1.14. THEORY OF REPRESENTATIONS IN FINITE-DIMENSIONAL VECTOR SPACES
41
observe that if the original basis transform to the new one by a non-singular matrix A (Eq. 1.54), the original g −1 then A e ˜ −1 (Eq. 1.57). It is easy to show that A ˜ −1 = A coordinates transform to the new ones by the matrix A is non-singular if and only if A is non-singular. Hence Eq. (1.57) makes sense whenever A is non-singular. Defining the transpose of a column matrix as x ˜ = (x1 , x2 , . . . , xn ) Equation (1.55) can be written as x=x ˜u = x ˜′ u′ which gives a convenient notation for the coordinate-form of vectors in different basis. It is important to emphasize that the vector x has an intrinsic meaning while its coordinates depend on the basis chosen.
1.14.3.
Change of the matrix representative of linear transformations under a change of basis
Let us define an intrinsic equation for a linear transformation T of V into itself y = Tx
(1.58)
y and x denote here intrinsic vectors while y, x are their representation in coordinates under a given ordered basis. Starting with the ordered basis {ui } we write equation (1.58) in matrix form y = Tx
(1.59)
for any other ordered basis {u′i } the matrix and coordinate representatives are different and we write them as y′ = T′ x′
(1.60)
we remark that Eqs. (1.59) and (1.60) represents the same intrinsic Equation (1.58). Since we know the relation between the coordinate representatives given by Eq. (1.57), our goal here is to know the relation between the matrix representatives of T . Using Eq. (1.57) we find ˜ −1 y = A ˜ −1 Tx = A ˜ −1 TA ˜A ˜ −1 x = A ˜ −1 TA ˜ ˜ −1 x y′ = A A y′ = T′ x′
(1.61)
where we have defined ˜ −1 TA ˜ T′ ≡ A
(1.62)
from Eqs. (1.61, 1.62) we see that T′ is the representative matrix of the operator T in the new basis u′i where ˜ −1 gives the transformation between coordinates from the old basis to the new one Eq. (1.57). We the matrix A remember that A must be non-singular to represent a change of basis. Definition 1.27 The transform of a matrix A (also called a similarity transformation) by a non singular matrix S, is defined as A′ = SAS−1 . The matrices A′ and A are said to be equivalent. Eq. (1.62) shows that the new matrix representation of T (i.e. T′ ), is equivalent2 to the old matrix represen˜ −1 is T′ . tation T, and the transform of T by A 2 Similarity transformations provides an equivalence relation between two matrices. Thus, the expression equivalent matrices becomes logical. In addition, we see that T and T′ describe the same mathematical object (though in different bases), so that the term equivalence acquires more sense in this context.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
42
We can also consider a transformation S from a vector space V into another V ′ x′ = Sx, x = S −1 x′ For S −1 to be linear, it is necessary that V and V ′ be of the same dimensionality. If a linear operator T is defined in V , then T and S induce a linear operator in V ′ in the following way let map x′ of V ′ into y′ of V ′ in the following way x′ → x = S −1 x′ → y = T x = T S −1 x′ → y′ = Sy = S T S −1 x′ hence the mapping x′ → y′ has been performed as
x′ → y′ = ST S −1
x′
or course, we can define a mapping T ′ of V ′ into itself that makes the work in a single step, thus T ′ ≡ ST S −1 ; y′ = T ′ x′
(1.63)
The transformation given by (1.63) is also a similarity transformation. Although the transformations shown in (1.62) and (1.63) resembles, they have fundamental differences. In (1.62) we are representing the same mathematical object by taking different bases, and is a matrix equation. By contrast, Eq. (1.63) expresses a relation between two different mathematical transformations acting on different spaces3 , and the equation is intrinsic, independent of the basis.
1.15.
Active and passive transformations
In Physics, it is important to differentiate between two types of transformations, the passive ones and the active ones. We can understand passive transformations by examining the transformations y → y′ , x → x′ and T → T ′ to go from Eq. (1.59) to Eq. (1.60), if we remember that both are representatives of the same intrinsic equation (1.58) we realize that the mappings described above do not change the vectors or the transformation but only their representatives. These mappings (called passive mappings) thus correspond to a change in the basis and not to a change on the mathematical objects by themselves. In contrast, an active mapping or transformation transforms a mathematical object into another one. For instance, in the first of Eqs. (1.63) we map a linear transformation on V into a different linear transformation on V ′ , the mathematical object itself has changed. Similarly the mapping x′ → y′ through T ′ described by the second of Eqs. (1.63) is an active transformation because x′ and y′ are two different vectors. The difference between a passive and active mappings or transformations should be clear from the context. For instance Eqs. (1.62) and (1.63) are identical in form from the algebraic point of view, but (1.62) represents a passive transformation (a change of basis or a change of representation), while (1.63) represents an active one.
1.16.
Theory of representations on finite dimensional Hilbert spaces
We shall study n−dimensional Hilbert spaces. We remember that an inner product is a mapping that takes an ordered pair of vectors x, y in a vector space V, and associates to it a scalar α denoted by α = (x, y) such that (x, y) = (y, x)∗ ;
(x, βy) = β (x, y) ; (x1 + x2 , y) = (x1 , y) + (x2 , y)
(x, x) ≥ 0, and (x, x) = 0 ⇔ x = 0 3
It could be argued that both spaces are identical since they have the same dimensionality. This is true only for their properties as general vector spaces, but not necessarily for any additional algebraic or topological structure on them.
1.16. THEORY OF REPRESENTATIONS ON FINITE DIMENSIONAL HILBERT SPACES
43
the definition of the inner product is intrinsic (basis independent). The norm of a vector is defined as kxk2 ≡ (x, x). This in turn allows us to normalized the vectors, i.e. construct vectors with norm or “length” equal to one by the rule xi xi ui = p (1.64) = kx (x, x) ik
such that (ui , ui ) = 1. Different inner products defined into the same vector space, lead to different Hilbert spaces. Another important concept that arises from the inner product is that of orthogonality. An orthonormal set is a set {xi } with xi ∈ H such that (xi , xj ) = δij The theory of representations of a finite dimensional Hilbert space is particularly simple if we realize that in finite dimension, the Fourier expansion given by Eq. (1.27) becomes a linear combination, the series in (1.28) to calculate the norm becomes a finite sum, and finally complete orthonormal sets become bases. These are the main ideas that lead to the theory of representations in a Hilbert space Our first goal is to find the way in which the coordinates of a given vector are obtained from the inner product. We first see the form of the coordinates when the basis consists of a complete orthonormal basis. Rewriting the Fourier expansion (1.27) in finite dimension and using sum over repeated indices we have x = (ui , x) ui = xi ui so the coordinate of a vector x associated with the normal vector ui is given by xi = (ui , x) Let us now see how an arbitrary inner product can be calculated using an orthonormal basis (x, y) = (xi ui , yj uj ) = x∗i yj (ui , uj ) = x∗i yj δij = x∗i yi
(1.65)
the norm of a vector is also easily seen as kxk2 = (x, x) = x∗i xi = |xi | |xi |
(1.66)
if the basis {vi } is not an orthonormal set, we can express the scalar product by determining the numbers mij ≡ (vi , vj )
(1.67)
the properties of the inner product lead to mij = m∗ji . This numbers form a matrix that we shall call the metric matrix. Defining (Aij )† ≡ A∗ji (the adjoint or hermitian conjugate of the matrix A) we find that m = m† , from the definition of the adjoint matrix we see that (AB)† = B† A† . A matrix that coincides with its adjoint is called self-adjoint or hermitian. The metric matrix is hermitian. We shall see now that knowing the metric matrix in a certain basis, we can find any possible inner product (x, y) = (xi vi , yj vj ) = x∗i yj (vi , vj ) = x∗i mij yj (x, y) = x† my and the norm becomes (x, x) = x∗i mij xj = x† mx
(1.68)
representing x as a one column matrix, x† is a one row matrix with the coordinates conjugated. The quantities of the form x† Ay, with A hermitian, are called hermitian forms. If additionally we impose that x† Ax ≥ 0, we have a positive definite hermitian form4 . 4 An inner product guarantees that the hermitian form constructed with the metric matrix are positive-definite. However, it is usual in relativity to define a pseudo-metric that leads to non positive definite hermitian forms. Observe that the metric tensor in relativity has some negative diagonal elements which would be forbidden if they arose from an authentic inner product.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
44
Gram-Schmidt process for orthonormalization of linearly independent sets From the previous discussion, it is very clear that complete orthonormal sets posses many advantages with respect to other sets of linearly independent vectors. It leads us to study the possibility of finding an orthonormal set from a given set of linearly independent vectors in a Hilbert space. The so-called Gram-Schmidt orthonormalization process starts from an arbitrary set of independent vectors {x1 , x2 , .., xn , ...} on H and exhibits a recipe to construct a corresponding orthonormal set {u1 , u2 , .., un , ...} with the property that for each n the vector subspace spanned by {u1 , u2 , .., un } is the same as the one spanned by {x1 , x2 , .., xn }. The gist of the procedure is based on Eqs. (1.24, 1.64). We start by normalizing the vector x1 u1 =
x1 kx1 k
now we substract from x2 its component along u1 to obtain x2 − (u1 , x2 ) u1 and normalized it u2 =
x2 − (u1 , x2 ) u1 kx2 − (u1 , x2 ) u1 k
it should be emphasized that x2 is not a scalar multiple of x1 so that the denominator above is non-zero. It is clear that u2 is a linear combination of x1 , x2 and that x2 is a linear combination of u1 , u2 . Therefore, {u1 , u2 } spans the same subspace as {x1 , x2 }. The next step is to substract from x3 its components in the directions u1 and u2 to get a vector orthogonal to u1 and u2 according with Eq. (1.24). Then we normalize the result and find u3 =
x3 − (u1 , x3 ) u1 − (u2 , x3 ) u2 kx3 − (u1 , x3 ) u1 − (u2 , x3 ) u2 k
once again {u1 , u2 , u3 } spans the same subspace as {x1 , x2 , x3 }. Continuing this way we clearly obtain an orthonormal set {u1 , u2 , .., un , ...} with the stated properties. Many important orthonormal sets arise from sequences of simple functions over which we apply the GramSchmidt process In the space L2 of square integrable functions associated with the interval [−1, 1], the functions xn (n = 0, 1, 2, ..) are linearly independent. Applying the Gram Schmidt procedure to this set we obtain the orthonormal set of the Legendre Polynomials. 2 In the space L2 of square integrable functions associated with the entire real line, the functions xn e−x /2 (n = 0, 1, 2, ..) are linearly independent. Applying the Gram Schmidt procedure to this set we obtain the normalized Hermite functions. In the space L2 associated with the interval [0, +∞), the functions xn e−x (n = 0, 1, 2, ..) are linearly independent. Orthonormalizing it we obtain the normalized Laguerre functions. Each of these orthonormal sets described above can be shown to be complete in their corresponding Hilbert spaces.
1.16.1.
Linear operators in finite dimensional Hilbert spaces
First of all let us see how to construct the matrix representation of a linear operator by making profit of the inner product. Eq. (1.49) shows us how to construct the matrix representation of T in a given basis by applying the operator to each element ui of such a basis T ui
=
uj Tji ⇒ (uk , T ui ) = (uk , uj Tji )
⇒ (uk , T ui ) = Tji mkj if the basis is orthonormal then mkj = δkj and Tki = (uk , T ui )
(1.69)
1.16. THEORY OF REPRESENTATIONS ON FINITE DIMENSIONAL HILBERT SPACES
45
Eq. (1.69) gives the way to construct an element of the matrix representative of an operator T on H through the inner product and using an orthonormal basis. Now we turn to the problem of finding a relation between the matrix representative of an operator and the matrix representative of its adjoint. If we have a linear operator T on a Hilbert space, another operator called its adjoint and denoted as T † exists such that (T x, y) = x, T † y ∀x, y ∈ V the matrix representative of T † has a rather simple relation with the matrix representative of T when an orthonormal basis is used (T (xi ui ) , yk uk ) = (xi T (ui ) , yk uk ) = x∗i yk (T ui , uk ) and using (1.49) we find on the other hand we have
∗ ∗ x∗i yk (uj Tji , uk ) = x∗i yk Tji∗ δjk = x∗i yk Tki = x∗i Teik yk
x, T † y = x∗i T † yk ik
and taking into account that x and y are arbitrary, we have ∗ e∗ T† = Teik ⇒ T† = T ik
(1.70)
and so the matrix representative of T † is the conjugate transposed of the matrix representative of T . Once again, it is important to emphasize that it is only valid in an orthonormal basis, it can easily be proved that for an e ∗ m. Remembering arbitrary basis described by the metric matrix m, the matrix representation of T † is m−1 T that an operator is hermitian or self-adjoint if it coincides with its adjoint operator (T = T † ) i.e. (T x, y) = (x, T y) , ∀x, y ∈ V, we conclude that in an orthonormal basis, hermitian operators are represented by hermitian matrices. In particular, the form to calculate the norm described in (1.66), is usually taken for granted and it is easy to forget that it only applies in orthonormal bases as we can see from (1.68). This is because the coordinates of a vector with respect to {vi } are not given by Fourier coefficients of the form described in Eq. (1.27) Now assume that we go from an orthonormal basis ui into another orthonormal basis u′i . We know from theorem 1.42 that a linear operator is unitary if and only if it transforms a complete orthonormal set into another complete orthonormal set, then if A is a unitary operator we have δij = (Aui , Auj ) = u′i , u′j = (uk aki , um amj ) = a∗ki amj (uk , um ) = a∗ki amj δkm δij
= a∗ki akj = e a∗ik akj
so the matrix of transformation from ui into u′i accomplishes A† A = 1 now, if we demand for the matrix to be non-singular it must have a unique inverse such that A† A = AA† = 1 therefore a matrix that transform an orthonormal basis into another orthonormal basis must satisfy A† = A−1 by theorem 1.51 these matrices are associated with unitary operators as long as we use an orthonormal basis, thus it is natural to call them unitary matrices.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
46
1.17.
Determinants and traces
A very important property of any matrix is its determinant denoted by |A| and is a real or complex number associated with the matrix. Its construction was primarily motivated by the study of simultaneous linear equations. We assume that the reader is familiarized with the concept and the calculation of this quantity. We have mentioned that a matrix admits an inverse if and only if its determinant is non-null. This is because the inverse of a matrix A depends on |A|−1 . The determinant of the transpose coincides with the determinant of the matrix e (1.71) A = |A|
a for the conjugate matrix (in which we conjugate each of its elements) we get |A∗ | = |A|∗
(1.72)
Additionally it can be demostrated that the determinant of the product is the product of the determinants |AB| = |A| · |B| and since the determinant of the identity is 1 we get 1 = |1| = AA−1 = |A| · A−1
so that
if any row or column is multiplied three dimensions α a11 α a12 a21 a22 a31 a32
−1 A = |A|−1
(1.73)
(1.74)
by a scalar α, the determinant is also multiplied by the scalar. For example in a11 a12 a13 α a13 a11 α a12 a13 a23 = a21 α a22 a23 = α a21 a22 a23 a31 α a32 a33 a31 a32 a33 a33
(1.75)
so that if we multiply an n × n matrix by a scalar, the determinant is
in particular
|αA| = αn |A|
(1.76)
|−A| = (−1)n |A|
(1.77)
another important property is the trace of the matrix defined as the sum of its diagonal elements T rA = aii
(1.78)
we emphasize the sum over repeated indices. We prove that T r [AB] = T r [BA]
(1.79)
in this way T r [AB] = (AB)ii = aik bki = bki aik = (BA)kk = T r [BA] it is important to see that the trace is cyclic invariant, i.e. h i h i T r A(1) A(2) . . . A(n−2) A(n−1) A(n) = T r A(n) A(1) A(2) . . . A(n−2) A(n−1) h i = T r A(n−1) A(n) A(1) A(2) . . . A(n−2)
(1.80)
1.18. RECTANGULAR MATRICES
47
and so on. To prove it, we define B ≡ A(1) A(2) . . . A(n−1) so that h i h i h i h i T r A(1) A(2) . . . A(n−2) A(n−1) A(n) = T r BA(n) = T r A(n) B = T r A(n) A(1) A(2) . . . A(n−2) A(n−1)
and taking into account that the indices (1) , (2) , ... are dummy, any cyclic change is posible. It worths saying that property (1.79) does not mean that the matrices can be commuted to calculate the trace, for instance for three or more matrices the trace is not the same for any order of the matrices, only cyclic changes are possible. In that sense, we should interpret (1.79) as a cyclic change and not as a commutation. But the most important properties of the traces and determinants is that they are invariant under a similarity transformation ′ A = BAB−1 = |B| · |A| · B−1 = |B| · |A| · |B|−1 ⇒ A′ = |A| where we have used (1.73) and (1.74). Now for the invariance of the trace
n X X X X X −1 ¯bli bik akl = T rA = T r BAB = BAB−1 ii = bik akl¯bli = δkl akl = akk = T rA ′
i=1
ikl
ikl
kl
k
alternatively we can see it by using the cyclic invariance of the trace (see Eq. 1.80), such that T r A′ = T r BAB−1 = T r B−1 BA = T rA
the invariance of determinants and traces under similarity transformations are facts of major importance because all representations of a given linear transformation are related each other by similarity transformations. It means that determinants and traces are intrinsic quantities that can be attributed to the linear transformations thus Definition 1.28 We define the trace and the determinant of a given linear transformation of V into itself by calculating the trace and determinant of the matrix representative of the linear transformation in any basis.
1.18.
Rectangular matrices
A rectangular matrix is an arrangement of numbers consisting of m rows and n columns. In that case we say that the matrix has dimensions m × n. The elements of such a matrix will be of the form (A)ik = aik
;
i = 1, . . . , m
;
k = 1, . . . , n
the transpose of this matrix would have dimensions n × m. A column vector arrangement (from now on, we shall call it simply a “vector”, though it is not neccesarily a vector in all the sense of the word) is a rectangular matrix of dimension m × 1, its transpose (a row “vector”) is a rectangular matrix of dimensions 1 × m. Now, it would be desirable to extrapolate the algorithm of square matrices composition to calculate products of rectangular matrices cij ≡ aik bkj It is observed that this extrapolation of the matrix product to the case of rectangular matrices C = AB, can be defined consistently only if the number of columns of A coincides with the number of rows of B. AB = C
if A ≡ Am×n and B ≡ Bn×d ⇒ Cm×d
CAP´ITULO 1. LINEAR OR VECTOR SPACES
48
In particular, the product of a column vector (m × 1 matrix) with a m × m matrix in the form xA cannot be eA defined. Nevertheless, the product of the transpose of the vector (row vector) and the matrix A in the form x can be defined. In a similar fashion, the product Ae x cannot be defined but Ax can. From these considerations eA correspond to a new column vector and a new row vector respectively. the quantities Ax and x From the dimensions of the rectangular matrices we see that e n×m and Bn×d ⇒ B e d×n Am×n ⇒ A
and the product AB is defined. However, their transposes can only be multiplied in the opposite order, i.e. in the e A. e Indeed, it is easy to prove that, as in the case of square matrices, the transpose of a product is the order B product of the transpose of each matrix in the product, but with the product in the opposite order. Applying this property it can be seen that ] =x ] e e eA (Ax) ; (e xA) = Ax
where we have taken into account that the transpose of the transpose is the original matrix.
1.19.
The eigenvalue problem
If T is a linear transformation on a vector space of finite dimension n, the simplest thing that the linear transformation can do to a vector is to produce a “dilatation” or “contraction” on it, eventually changing the “sense” of the “arrow” but keeping its “direction”. In algebraic words, certain vectors can be transformed by T into a scalar multiple of itself. If x is a vector in H this operation is given by T x = λx
(1.81)
a non-zero vector x such that Eq. (1.81) holds, is called an eigenvector of T , and the corresponding scalar λ is called an eigenvalue of T . Each eigenvalue has one or more eigenvectors associated with it and to each eigenvector corresponds a unique eigenvalue. Let us assume for a moment that the set of eigenvalues for a given T is non-empty. For a given λ consider the set M of all its eigenvectors together with the vector 0 (which is not an eigenvector), we denote this vectors as (λ) xi . M is a linear subspace of H, we see it by taking an arbitrary linear combination of vectors in M (λ) (λ) (λ) (λ) T αi xi = αi T xi = αi λxi = λ αi xi ⇒ (λ) (λ) = λ αi xi T αi xi
such that a linear combination is also an eigenvector with the same eigenvalue. Indeed, for Hilbert spaces it can be shown that M is a closed vector subspace of H. As any vector space, M has many basis and if H is finite dimensional, complete orthonormal sets are basis. The dimension of M is thus the maximum number of linearly independent eigenvectors associated with λ. M is called the vector eigenspace generated by the eigenvalue λ. This discussion induces the following Definition 1.29 A given eigenvalue λ in Eq. (1.81) is called n−fold degenerate if n is the dimension of the eigenspace M of H generated by λ. In other words, n is the maximum number of linearly independent eigenvectors of λ. If n = 1 we say that λ is non-degenerate. Even for non-degenerate eigenvalues we always have an infinite number of eigenvectors, for if x(λ) is an eigenvector, then αx(λ) is also an eigenvector for any scalar α. Eq. (1.81) can be written equivalently as (T − λI) x = 0
(1.82)
1.19. THE EIGENVALUE PROBLEM
49
we return to the problem of the existence of eigenvalues, the operator T on C ∞ given by T {x1 , x2 , ...} = {0, x1 , x2 , ...} is an operator on a Hilbert space that has no eigenvalues. We confront then the problem of characterizing the type of operators that admit eigenvalues. In the finite dimensional case, we shall see that the theory of representations and the fundamental theorem of algebra ensures the existence of eigenvalues for an arbitrary operator.
1.19.1.
Matrix representative of the eigenvalue problem
The one to one correspondence between matrices and operators in the finite dimensional case permits to make a matrix representation of the eigenvalue equation (1.81). Let T be the n × n matrix associated with the operator T and x the column vector representative of x (an n × 1 matrix). Eq. (1.81) is written as Tx = λx
(1.83)
which is the eigenvalue equation associated with the matrix. The idea is trying to solve for the eigenvalues and eigenvectors in a given representation. The values λ are in general complex. According with our previous discussion the eigenvalue is the “dilatation”or “contraction” factor, if it is a negative real number it “inverts the sense of the arrow”. Let us rewrite the eigenvalue equation as (T − λ1) x = 0
(1.84)
for simplicity we shall use n = 3 but the arguments are valid for arbitrary finite dimensions. In three dimensions the explicit form of (1.84) becomes (T11 − λ) X1 + T12 X2 + T13 X3 = 0 T21 X1 + (T22 − λ) X2 + T23 X3 = 0 T31 X1 + T32 X2 + (T33 − λ) X3 = 0
(1.85)
This set of homogeneous equations for X1 , X2 , X3 has non trivial solution only if the determinant of the system is null, therefore T11 − λ T T 12 13 |T − λ1| = T21 T22 − λ T23 = 0 (1.86) T31 T32 T33 − λ
this condition is known as the secular or characteristic equation of the matrix. The variables to be found are the eigenvalues λ associated with the matrix. It worths saying that even if non-trivial solutions exist, the set of homogeneous equations (1.85) do not give us definite values for all the components of the eigenvectors but only for the quotient among these components. This can be understood either from algebraic or geometric arguments. From the algebraic point of view, it is related with the fact that the product of the eigenvector x with any scalar is also an eigenvector, this can be seen inmediately from (1.84)5 . Geometrically, this implies that only the “direction” of the eigenvector is determined but not its “length” neither its “sense”. This is particularly apparent in three dimensions. Since T represents a linear transformation, it is clear that if T preserves the direction of x i.e. Tx = λx it also preserves the “direction” of the vector αx for α arbitrary. When the determinant (1.86) is expanded, we observe that the solution of the secular equation reduces to finding the roots of a polynomial of n degree. Appealing to the fundamental theorem of algebra we always have exactly n complex roots, some of them could be repeated so that we could have fewer than n distinct roots. In 5 Alternatively, this can be seen form the fact that the secular equation only has non-trivial solution when one or more of the equations is linearly dependent with the others. In such a case there are more variables than equations and hence an infinite number of solutions.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
50
general we can construct no more than n linearly independent vectors xk each one associated with an eigenvalue λk . By now, the set of eigenvalues are associated to a matrix, but in order to associate it to its corresponding operator, we should be sure that the set of eigenvalues is the same for any representation of the operator i.e. that all equivalent matrices have the same set of eigenvalues Theorem 1.53 If two n × n matrices are equivalent i.e. T ′ = ST S −1 then both have the same set of eigenvalues. In summary, the fundamental theorem of Algebra together with the intrinsic meaning of the set of eigenvalues, solves the problem of the existence of eigenvalues for linear transformations on finite-dimensional vector spaces. Definition 1.30 The set of eigenvalues of T is called its spectrum and is denoted by σ (T ). Theorem 1.54 If T is an arbitrary linear transformation on a finite dimensional complex vector space, the spectrum of T constitute a non-empty finite subset of the complex plane. The number of elements in this subset does not exceed the dimension n of the space. Some other important theorems related with the set of eigenvalues are the following Theorem 1.55 T is singular ⇔ 0 ∈ σ (T ). Theorem 1.56 If T is non-singular, then λ ∈ σ (T ) ⇔ λ−1 ∈ σ T −1
More information about the spectral resolution of some types of operators in a Hilbert space will be given by means of the spectral theorem. By now, we turn to the problem of the sets of eigenvectors and its relation with the canonical problem of matrices.
1.19.2.
Eigenvectors and the canonical problem of matrices
Since we can have many representations of a given operator by changing basis, many matrix representatives can be constructed. It is natural to wonder whether it is posible to choose the basis in such a way that the matrix representative is as simple as possible. In practice, the simplest matrices are diagonal matrices i.e. matrices for which Tij = 0 for i 6= j. Thus, we are looking for a basis under which the matrix representative of a given operator T is diagonal. Starting with a given basis {ui } we obtain a matrix representative of T (denoted by T), we wonder whether there exists another basis {u′i } for which the matrix representative T′ of T is diagonal. From Eqs. (1.54, 1.62) we see that T and T′ are related by a similarity transformation that also gives us the transformation among the bases e −1 TA e u′ = Au ; T′ = A (1.87) We shall see that for finite dimensional matrices, the canonical problem of matrices is intimately related with the structure of its eigenvectors. Let us consider the representation Xk of the eigenvectors of T with respect to the original basis {ui }. We denote the i−th coordinate of the k−th eigenvector in the form Xik (with respect to the original basis). We are able to settle an square arrangement with this eigenvectors, putting them aside as column vectors. In three dimensions, such an arrangement has the form X11 X12 X13 (1.88) X ≡ (X1 X2 X3 ) = X21 X22 X23 X31 X32 X33 Eqs. (1.84) are written for each eigenvalue λk and its corresponding eigenvector Xk in the form (T − λk 1) Xk = 0 ⇒ TXk = λk Xk no sum over k
(1.89)
1.20. NORMAL OPERATORS AND THE SPECTRAL THEOREM
51
writing Eqs. (1.89) in components with respect to the basis {ui } we get (for n dimensions) n X j=1 n X j=1
Tij Xjk = λk Xik ⇒ Tij Xjk =
n X
Xij δjk λk
(1.90)
j=1
in the two previous equations there is no sum over the repeated index k. The Xjk element is the j−th component of the Xk vector. Now, the quantity δjk λk can be associated with a diagonal matrix, in three dimensions this matrix is written as λ1 0 0 λ ≡ 0 λ2 0 (1.91) 0 0 λ3 in matrix form Eq. (1.90) reads
TX = Xλ multiplying on left by X−1 we find X−1 TX = λ
(1.92)
it corresponds to a similarity transformation acting on T. Note that the matrix X built from the eigenvectors is e We see then that matrix T is diagonalized by the transformation matrix (comparing with 1.87 we have X ≡ A). X by means of a similarity transformation and the elements of the diagonal correspond to the eigenvalues (λk associated with the column vector Xk of the matrix X in Eq. 1.88). When there are some degenerate eigenvalues i.e. some of them acquire the same value, it is not always possible to diagonalize the matrix T. It is because in that case, the eigenvectors that form the matrix X are not necessarily linearly independent. If any given column vector of the matrix is linearly dependent with the others, the determinant of X is zero and X−1 does not exist. On the other hand, when diagonalization is possible, the determinant and the trace of T can be calculated taking into account that such quantities are invariant under a similarity transformation, therefore det T = det X−1 TX = det λ = λ1 λ2 . . . λn T rT = T r X−1 TX = T rλ = λ1 + λ2 + . . . + λn
(1.93) (1.94)
so that the determinant and the trace of a diagonalizable matrix are simply the product and sum of its eigenvalues respectively. In summary, a canonical form of a given matrix can be obtained as long as the eigenvectors of the matrix form a basis, the question is now open for the conditions for the eigenvectors to form a basis, and this is part of the program of the spectral theorem.
1.20.
Normal operators and the spectral theorem
Let T be an operator on a finite-dimensional Hilbert space H. By theorem 1.54 the spectrum σ (T ) is a nonempty finite set of complex numbers with cardinality less than or equal to the dimension n of H. Let λ1 , .., λm be the set of distinct eigenvalues; let M1 , .., M˙ m be their corresponding eigenspaces; and let P1 , .., Pm be the projections on these eigenspaces. The spectral theorem is the assertion that the following three statements are equivalent to one another I) The Mi′ s are pairwise orthogonal and H = M1 ⊕ ...⊕.Mm P Pm II) The Pi′ s are pairwise orthogonal, I = m i=1 Pi , and T = i=1 λi Pi . III) T is normal.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
52
The assertion I) means that any vector x ∈ H can be expressed uniquely in the form x = x1 + .. + xm ; xi ∈ Mi ; (xi , xj ) = 0 f or i 6= j
(1.95)
applying T on both sides and using linearity T x = T x1 + .. + T xm = λ1 x1 + .. + λm xm
(1.96)
this shows the action of T on each element of H in an apparent pattern from the geometrical point of view. It is convenient to write it in terms of projections on each Mi . Taking into account that Mj ⊆ Mi⊥ for each i and for every j 6= i we obtain from Eq. (1.95) that Pi x = xi from which it follows Ix = x = x1 + .. + xm = P1 x + .. + Pm x Ix = (P1 + .. + Pm ) x ; ∀x ∈ H therefore I=
m X
Pi
(1.97)
i=1
and relation (1.96) gives
T x = λ1 x1 + .. + λm xm = λ1 P1 x + .. + λm Pm x T x = (λ1 P1 + .. + λm Pm ) x ; ∀x ∈ H hence T =
m X
λi Pi
(1.98)
i=1
Eq. (1.98) is called the spectral resolution of the operator T . In this resolution it is to be understood that all the λ′i s are distinct and that the Pi′ s are non-zero projections which are pairwise orthogonal and satisfy condition (1.97). It can be shown that the spectral resolution is unique when it exists. Now, we look for the conditions that the operator must satisfies to be decomposed as Eq. (1.98). From Eq. (1.98) we see that T † = λ∗1 P1 + . . . + λ∗m Pm (1.99) and multiplying (1.98) with (1.99) and using the fact that the Pi′ s are pairwise orthogonal we have ! m ! m m X m X m m X X X X † ∗ TT = λi Pi λk Pk = λi λ∗k Pi Pk = λi λ∗k Pi2 δik i=1
TT† =
m X k=1
i=1 k=1
k=1
|λk |2 Pk
i=1 k=1
(1.100)
and multiplying in the opposite order we obtain the same result T †T =
m X k=1
from which we see that
h
|λk |2 Pk
i T, T † = 0
(1.101)
and the operator must be normal. We have proved that I)→II)→III). To complete the proof we should show that III)→I) i.e. that every normal operator T on H satisfies conditions I). This task is accomplished by the following chain of theorems
1.20. NORMAL OPERATORS AND THE SPECTRAL THEOREM
53
Theorem 1.57 If T is normal, x is an eigenvector of T with eigenvalue λ ⇔ x is an eigenvector of T † with eigenvalue λ∗ . Theorem 1.58 If T is normal the Mi′ s are pairwise orthogonal Theorem 1.59 If T is normal, each Mi reduces T . Theorem 1.60 If T is normal, the Mi′ s span H. For most of applications theorem 1.58 is rewritten as Theorem 1.61 If T is normal, two eigenvectors of T corresponding to different eigenvalues are orthogonal. In particular this is valid for self-adjoint and unitary operators. Assume that T = T † , since for a given eigenvector x there is a unique eigenvalue λ we see from theorem 1.57 that λ = λ∗ so the corresponding eigenvalues are real. Now assume for a normal operator T that σ (T ) is a subset of the real line, using the spectral resolution of T † Eq. (1.99) we find T † = λ∗1 P1 + . . . + λ∗m Pm = λ1 P1 + . . . + λm Pm = T we have the following Theorem 1.62 Let T be a normal operator on a Hilbert space of finite dimension H with distinct eigenvalues {λ1 , .., λm }, then T is self-adjoint ⇔each λi is real. It is important to emphasize that the hypothesis of real eigenvalues leads to the self-adjointness of the operator only if normality is part of the hypothesis (because of the use of the spectral thoerem). It does not discard the possibility of having non-normal operators with real spectrum, in that case such operators would not be selfadjoint. In addition, it worths remembering that self-adjoint operators where constructed as the analogous of “the real line subset” in the algebra of operators. So the fact that its eigenvalues are all real is a quite expected result. An special type of self-adjoint operators are the positive operators for which (x, T x) ≥ 0 ∀x ∈ H
(1.102)
applying the spectral resolution of T on xi ∈ Mi with xi 6= 0, we have T xi =
m X
λk Pk xi =
k=1
m X
λk xi δik = λi xi
k=1
and using it in Eq. (1.102) we find (xi , T xi ) = (xi , λi xi ) = λi (xi , xi ) ≥ 0 no sum over i λi kxi k2 ≥ 0 ⇒ λi ≥ 0
on the other hand, by assuming that a normal operator T has a real non-negative spectrum we obtain ! ! n n n n X n n X n X X X X X (x, T x) = x, λi Pi x = xk , λi xi = λi (xk , xi ) = λi δki kxk k2 i=1
(x, T x) =
n X k=1
we see then that
λk kxk k2 ≥ 0
k=1
i=1
k=1 i=1
k=1 i=1
CAP´ITULO 1. LINEAR OR VECTOR SPACES
54
Theorem 1.63 Let T be a normal operator on a Hilbert space of finite dimension H with distinct eigenvalues {λ1 , .., λm }, then T is positive ⇔ λi ≥ 0. Now, for a normal operator T , a necessary and sufficient condition for T to be unitary is that T † T = I (in finite dimension it is not necessary to show that T T † = I) using Eqs. (1.97, 1.100) the condition for unitarity is T †T = I ⇒
m X k=1
|λk |2 Pk = I ⇒
m X k=1
|λk |2 Pk =
m X
Pk
k=1
multiplying by Pi and using the pairwise orthogonality of projectors m X k=1
|λk |2 Pk Pi =
m X k=1
Pk Pi ⇒ |λi |2 Pi2 = Pi2 ⇒ |λi |2 Pi = Pi
so that |λi | = 1. This procedure also shows that if T is a normal operator in which |λi | = 1 for each i, then T T † = I and T is unitary, then we have Theorem 1.64 Let T be a normal operator on a Hilbert space of finite dimension H with distinct eigenvalues {λ1 , .., λm }, then T is unitary ⇔ |λi | = 1 for each i. Now, remembering that unitary operators where constructed as the analogous of “the unitary circle subset” in the algebra of operators, the fact that its eigenvalues lie in the unitary circle of the complex plane is pretty natural. Now we are prepared to discuss the canonical problem for normal matrices. We denote ni the dimension of each eigenspace Mi it is clear that n1 + n2 + ... + nm = n Mi contains independent vectors xi1 , .., xini that can be orthonormalized by a Gram Schmidt process i ni ilinearly to say u1 , .., uni . If we do this for each Mi the set form by the union of these orthonormal sets i i {u} ≡ ∪m i=1 u1 , .., uni
is clearly an orthonormal set because all vectors corresponding with different Mi′ s are orthogonal according to theorem 1.58. In addition, since the Mi′ s span H according to theorem 1.60 this orthonormal set is complete and hence a basis. Therefore, for any normal operator T of H we can always form an orthonormal complete set of eigenvectors. If we use this orthonormal complete eigenvectors to form the matrix of diagonalization Eq. (1.88) we see that the matrix obtained is a unitary matrix, it is clear that for this matrices the inverse always exists since λi 6= 0 for each i and therefore the diagonalization can be carried out. Then we have the following Theorem 1.65 The diagonalization of a normal matrix T can be performed by a similarity transformation of the form T′ = U TU−1 where U is a unitary matrix. This is of particular interest because it means that given a matrix representative of T in a basis consisting of a complete orthonormal set, there exists another complete orthonormal set for which the matrix representative
1.20. NORMAL OPERATORS AND THE SPECTRAL THEOREM
55
acquires its canonical form. Further, it is easy to see that the canonical form of a normal matrix is given by λ1 .. . λ 1 λ2 .. . λ2 . .. λm . . . λm
where the elements out of the diagonal are zero and each λi is repeated ni times (λi is ni −fold degenerate). It is easily seen that the matrix representation of Pi in this orthonormal basis is 0 0 0n1 ×n1 1n1 ×n1 0 0 0 P1 = 0 1n2 ×n2 0 ; Pm = ; P2 = 0 0 0 1nm ×nm 0 0 0 and the matrix representation of the spectral decomposition becomes clear.
1.20.1.
A qualitative discussion of the spectral theorem in infinite dimensional Hilbert spaces
The rigorous discussion of the infinite dimensional case for the spectral theorem is out of the scope of this survey. We shall only speak qualitatively about the difficulties that arises when we go to infinite dimension. For simplicity we assume that A is a self-adjoint operator, the spectral resolution is given by A=
m X
λi Pi
i=1
since the eigenvalues are real we can order them in a natural way in the form λ1 < λ2 < .. < λm and we use the Pi′ s to define new projections Pλ0
= 0
Pλ1
= P1
Pλ2
= P1 + P2 ....
Pλm
= P1 + ... + Pm = I
the spectral decomposition of the self-adjoint operator A can be written as A = λ1 P1 + λ2 P2 + ... + λm Pm = λ1 (Pλ1 − Pλ0 ) + λ2 (Pλ2 − Pλ1 ) + ... + λm Pλm − Pλm−1 m X A = λi Pλi − Pλi−1 i=1
if we define
∆Pλi ≡ Pλi − Pλi−1
CAP´ITULO 1. LINEAR OR VECTOR SPACES
56 we can rewrite the decomposition of A as A=
m X
λi ∆Pλi
Z
λ dPλ
i=1
which suggest an integral representation A=
(1.103)
in this form, the spectral decomposition of a self-adjoint operator is valid for infinite dimensional Hilbert spaces. For normal operators we have a similar pattern N=
Z
λ dPλ
(1.104)
The first problem to carry out this generalization is that an operator on H need not have eigenvalues at all. In this general case the spectrum of T is defined as σ (T ) = {λ : T − λI is singular} when H is finite dimensional, σ (T ) consists entirely of eigenvalues. In the infinite dimensional case we only can say that σ (T ) is non-empty, closed and bounded. Once this difficulty is overcome we should give a precise meaning to the integrals (1.103, 1.104) and prove the validity of those relations. We shall see later that an extension of the spectral theorem in its present form to infinite dimensions is obtained by using the concept of observable. It worths emphasizing that the existence of eigenvalues in the finite dimensional case came from the fundamental theorem of algebra, which in turn came from the fact that the characteristic equation of a finite dimensional matrix is a polynomial equation. An extension to infinite dimension clearly does not lead to a polynomial equation.
1.21.
The concept of “hyperbasis”
Suppose that the vector space that concerns us is V , which is a proper subspace of a bigger vector space W . As any vector space, W has a basis {wi } that generates any vector in W by linear combinations. It is obvious that any vector of V must be generated through linear combinations of {wi }. However, there are at least two reasons for which {wi } is not a basis for V (a) at least one element of the set {wi } is not in V , and one of the conditions for a given set S to be a basis of a given vector space V is that S ⊆ V . (b) given a basis {vi } of V we have that {wi } and {vi } does not have in general the same cardinality, and we know that different bases must have the same cardinality. Let us see a simple example: let us use an orthonormal basis of R3 given by 1 1 1 u1 ≡ √ (1, 1, 1) ; u2 ≡ √ (4, −1, −3) ; u3 = √ (−2, 7, −5) 3 26 78 to generate all vector of the XY plane. The coordinates of ui are written with respect to the ordinary cartesian coordinates. Since these vectors generate R3 it is clear that they generate the XY plane which is a proper subset of R3 . Notwithstanding, none of the vectors ui lies in the XY plane, all the elements of this “hyperbasis” are outside of the vector space we pretend to expand. Further, any basis of XY has two elements while our hyperbasis has three elements. Therefore, the cardinality of the hyperbasis is higher than the dimension of the space that we shall study. For our purposes however, what really matters is that any vector in XY can be generated as a linear combination of {u1 , u2 , u3 }. For instance, the vector x of the XY plane represented by (3, −2, 0) in ordinary
1.22. DEFINITION OF AN OBSERVABLE
57
cartesian coordinates, is represented in this hyperbasis as x = (u1 , x) u1 + (u2 , x) u2 + (u3 , x) u3 1 1 √ √ (1, 1, 1) · (3, −2, 0) u1 + (4, −1, −3) · (3, −2, 0) u2 + = 3 26 1 + √ (−2, 7, −5) · (3, −2, 0) u3 78 1 14 20 x = √ u1 + √ u2 − √ u3 3 26 78 note that in this case an element of the plane is given by a triple with respect to the hyperbasis, in this case x=
1 14 20 √ ,√ , − √ 3 26 78
in quantum mechanics we shall use a similar strategy but for orthogonal dimensions instead of dimensions. The Hilbert space L2 that concerns us is of infinite countable orthogonal dimension, but we shall use frequently orthogonal basis of a bigger space with infinite continuous orthogonal dimension. Therefore, we shall expand the vectors of L2 in terms of orthogonal hyperbases {vx } with continuous cardinality. In general, the elements vx of the bigger space will be outside of L2 . However, as before a fourier expansion (instead of a linear combination) will be possible with this hyperbasis. Notice that for any cardinality of the orthogonal dimension of a Hilbert space, we see that the Fourier expansion Eq. (1.27) is always a series. This is by virtue of theorem 1.18 that says that the non-zero fourier coefficients of any vector are always countable, even if the complete orthonormal set belongs to a higher cardinality. However, such a theorem is valid for complete orthonormal sets in which all the elements of the set lies in the space under consideration. If we use a hyper orthonormal complete set the elements of this hyper orthogonal basis do not lie on the space that we are expanding, thus theorem 1.18 does not necessarily hold. Consequently, when continuous hyper orthonormal basis are used, we shall obtain integrals instead of series in our Fourier expansions. Does it make any sense to replace series by integrals? it suffices to observe that it is in general easier to solve integrals in a closed form than series in a closed form.
1.22.
Definition of an observable
Measurements in Physics are always real numbers. In quantum mechanics, such measurements are related with eigenvalues of some operators on a Hilber space. It is then natural to associate measurements with eigenvalues of self-adjoint operators since their spectra are always real. For any finite-dimensional Hilbert space it is always possible to form a complete orthonormal set with the eigenvectors of a normal operator, and in particular with the eigenvectors of a self-adjoint operator. However, in infinite dimensional Hilbert spaces this is not necessarily the case. Therefore, we establish the following Definition 1.31 A given self-adjoint operator A on H is called an observable, if there exists a complete orthonormal set of eigenvectors of A. The following sets of theorems are of central importance in quantum mechanics Theorem 1.66 If two operators A and B commute and if x is an eigenvector of A, then Bx is also an eigenvector of A with the same eigenvalue. If λ is non-degenerate x is also an eigenvector of B. If λ is n−fold degenerate, the eigensubspace Mλ is invariant under B.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
58 Since x is an eigenvector of A we have
Ax = λx ⇒ BAx = λBx ⇒ ABx = λBx where we have used the fact that A and B commutes, hence A (Bx) = λ (Bx) which proves that Bx is an eigenvector of A with eigenvalue λ. Observe that if λ is non-degenerate all its eigenvectors are “colinear” hence Bx must be colinear with x i.e. Bx = cx and x is also an eigenvector of B. On the other hand, if λ is n−fold degenerate, we can only say that Bx lies in the n dimensional eigensubspace Mλ of A. In other words, if x ∈ Mλ then Bx ∈ Mλ Another way to express the previous theorem is Theorem 1.67 If two operators A and B commute, every eigensubspace of A is invariant under B. Of course, the roles of A and B can be interchanged. Theorem 1.68 If two normal operators A and B commute, and if x1 , x2 are two eigenvectors of A with different eigenvalues, then (x1 , Bx2 ) = 0. By hypothesis we have Ax1 = λ1 x1 ; Ax2 = λ2 x2 but from theorem 1.66 Bx2 is an eigenvector of A with eigenvalue λ2 . Now from theorem 1.61 since λ1 6= λ2 then Bx2 is orthogonal to x1 and the theorem is proved. The previous theorems do not use the concept of observable6 , but the following one does Theorem 1.69 Let A and B be two observables in a Hilbert space H. Then A and B commute⇔one can construct a complete orthonormal set in H with eigenvectors common to A and B. Assume that A and B commute, we shall define the normalized eigenvectors of A as uin Auin = λn uin ; i = 1, .., gn where gn is the degree of degeneration of λn . For n 6= n′ the eigenvectors are orthogonal and for n = n′ and i 6= i′ we can always orthonormalized the vectors in each eigensubspace of A, so that uin , ujk = δnk δij let us write H as a decomposition of the eigenspaces of A (taking into account that A is an observable) H = M1 ⊕ M2 ⊕ M3 ⊕ ... there are two cases. For each one dimensional Mk (each non-degenerate λk ) all vectors in Mk are “colinear” and they are also eigenvectors of B. In the other case, gp > 1 then Mp is gp dimensional. We can only say that Mp is invariant under B. Consider the restriction of A and B to the subspace Mp . Since the vectors uip in Mp are eigenvectors of A, the restriction (p)
of A to Mp has a matrix representative Aij of the form
6
(p) Aij = vpi , Avpj = vpi , λp vpj = λp vpi , vpj = λp δij
However, we assumed that the operators involved posses eigenvalues, and this fact cannot taken for granted in infinite dimensions.
1.23. COMPLETE SETS OF COMMUTING OBSERVABLES (C.S.C.O.)
59
thus the matrix representation of A(p) is λp I for any orthonormal set complete in Mp (not neccesarily the original). Now let us see the matrix representative of the restriction B (p) of B on Mp , writing this representation in our original orthonormal set (p) Bij = uip , Bujp
since B is a self-adjoint operator this matrix is self-adjoint, and according to theorem 1.65 they can always be diagonalized by a unitary transformation, which in turn means that there exists an orthonormal set vpi in Mp for which the matrix representative of B (p) is diagonal, hence (p) (p) Bij = vpi , Bvpj = Bi δij
which means that the new orthonormal set complete in Mp consists of eigenvectors of B (p)
Bvpi = Bi vpi and since Mp contains only eigenvectors of A, it is clear that vpi is an orthonormal set complete in Mp that are common eigenvectors of A and B. Proceeding in this way with all eigensubspaces of A with more than one dimension, we obtain a complete orthonormal set in H in which the elements of the set are common eigenvectors of A and B. It is important to emphasize that for a given Mp the orthonormal set chosen a priori does not in general consist of eigenvectors of B, but it is always possible to obtain another orthonormal set that are eigenvectors of B and by definition they are also eigenvectors of A. Now let us prove that if A and B are observables with a complete orthonormal set of common eigenvectors then they commute. Let us denote the complete orthonormal set of common eigenvectors as uin,p then ABuin,p = bp Auin,p = an bp uin,p BAuin,p = an Buin,p = an bp uin,p therefore [A, B] uin,p = 0 since uin,p form a complete orthonormal set, then [A, B] = 0. It is also very simple to show that if A and B are commuting observables with eigenvalues an and bp and with common eigenvectors uin,p then C =A+B is also an observable with eigenvectors uin,p and eigenvalues cn,p = an + bp .
1.23.
Complete sets of commuting observables (C.S.C.O.)
Consider an observable A and a complete orthonormal set uin of the Hilbert space that consists of eigenvectors of A. If none of the eigenvalues of A are degenerate then the eigenvalues determine the eigenvectors in a unique way (within multiplicative constant factors). All the eigensubspaces Mi are one-dimensional and the complete orthonormal set is simply denoted by {un }. This means that there is only one complete orthonormal set (except for multiplicative phase factors) associated with the eigenvectors of the observable A. We say that A constitutes by itself a C.S.C.O. On the other hand, if some eigenvalues of A are degenerate, specifying an is not enough to determine a complete orthonormal set for H because any orthonormal set in the eigensubspace Mn can be part of such a complete orthonormal set. Thus the complete orthonormal set determined by the eigenvectors of A is not unique and it is not a C.S.C.O.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
60
Now we add a second observable B that commutes with A, and construct a complete orthonormal set common to A and B. By definition, A and B constitutes a C.S.C.O. if the complete orthonormal set common to both is unique (within constant phase factors for each of the vectors in the complete set). In other words, it means that any pair of eigenvalues an , bp determines the associated common normalized eigenvector uniquely, except for a phase factor. In theorem 1.69 we constructed the complete orthonormal set common to A and B by solving the eigenvalue equation of B within each eigensubspace defined by A. For A and B to constitute a C.S.C.O. it is necessary and sufficient that within each Mn the gn eigenvalues of B be distinct7 . In this case, since all eigenvectors vni in each (n) Mn have the same eigenvalue an of A, they will be distinguished by the gn distinct eigenvalues bi associated with these eigenvectors of B. Note that it is not necessary that the eigenvalues of B be non-degenerate, we can have two (or more) equal eigenvalues of B associated with two (or more) distinct eigensubspaces Mn and Mk of A. We only require not to have degeneration of the eigenvalues of B within a given eigensubspace Mn of A. Indeed, if B were non-degenerate it would be a C.S.C.O. by itself. On the other hand, if for at least one pair {an , bp } there exist two or more linearly independent eigenvectors common to A and B they are not a C.S.C.O.. Let us add a third observable C that commutes with both A and B, and proceeds as above. When to the pair {an , bp } corresponds only one eigenvector common to A and B, then it is automatically an eigenvector of C as well. On the contrary, if the eigensubspace Mn,p is gn,p dimensional, we can construct within it, an orthonormal set of eigenvectors of C. Proceeding in this way with each Mn,p we can construct a complete orthonormal set with eigenvectors common to A, B, C. These three observables are a C.S.C.O. if this complete orthonormal set is unique (except for multiplicative phase factors). Once again, if Mn,p (n,p) has the eigenvectors uin,p common to A and B this occurs if and only if all gn,p eigenvalues of C denoted as ck are distinct. As before, C can be degenerate, but as long as degenerate eigenvalues are not repeated within a single eigenspace Mn,p of A and B. Therefore, a given triple of eigenvalues {an , bp , ck } of A, B, C has a unique common eigenvector within a multiplicative factor. If two or more linearly independent eigenvectors common to A, B, C can be constructed for a given set {an , bp , ck }, we can add a fourth observable D that commute with those three operators and so on. Definition 1.32 A set of observables {A, B, C, ..} is called a complete set of commuting observables (C.S.C.O.) if (i) All observables commute pairwise, (ii) specifying the set of eigenvalues {an , bp , ck , ..} of the observables determines a unique (within phase factors) complete orthonormal set of eigenvectors common to all the observables. An equivalent form is the following Definition 1.33 A set of observables {A, B, C, ..} is called a complete set of commuting observables (C.S.C.O.) if there is a unique complete orthonormal set (within phase factors) of common eigenvectors. It is obvious that if a given set is a C.S.C.O. we can add any observable that commutes with the observables of the set and the new set is also a C.S.C.O. However, for most of our purposes we shall be interested in “minimal C.S.C.O.” in the sense that by removing any observable of the set, the new set is not complete. If a given set {A1 , .., An } of observables is a C.S.C.O., an eigenvector associated with a set {ak1 , .., akn } determines a unique common normal eigenvector (within a phase factor) so it is natural to denote the vector as uak1 ,ak2 ,akn . We shall see later that in quantum mechanics a global phase has no Physical information. Therefore, all normal vectors associated with {ak1 , .., akn } have the same Physical information, this fact enhance the qualification of “unique” for these vectors, although they are not unique from the mathematical point of view. 7
If Mn is one dimensional then an eigenvector of A in Mn is automatically an eigenvector of B and it is clearly uniquely determined, except for multiplicative factors. Only the case in which Mn has more than one dimension is non-trivial.
1.24. SOME TERMINOLOGY CONCERNING QUANTUM MECHANICS
1.24.
61
Some terminology concerning quantum mechanics
We have defined linear combinations as finite sums. A basis in a vector space is thus a set of linearly independent vectors for which any vector of the space can be written as a finite sum of elements of the basis (multiplied by the appropiate scalars). Notably, bases always exist even in an infinite-dimensional vector space. However, in practice it is not easy to find a basis in an infinite dimensional Hilbert space. In this case, it is more usual to utilize complete orthonormal sets, they make a work similar to basis in the sense that they generate any vector, but the difference is that complete orthonormal sets expand a vector in a series (Fourier expansion) while bases do it in finite sums. In quantum mechanics we call a basis to mean a complete orthonormal set, and the series expansion is usually call a linear combination. Since we never use basis in the mathematical sense, there is no confusion with this terminology. Self-adjoint operators are usually called hermitian operators. The conjugate space H ∗ of H is usually call the dual space of H. The vectors in our Hilbert space are called kets, while the correponding elements in the dual space (the functionals) are called bras. In addition the Hilbert space we work with, is a separable space so that its dimension is countable (countably infinite). We shall resort however to some hyperbases which are of continuous cardinality, the elements of these hyperbases do not belong to our Hilbert space. Consequently, the elements of the hyperbasis will not be physical states, but we shall call them continuous basis. Nevertheless, they will be very useful for practical calculations. In addition there will be a change of notation to facilitate the mathematical calculations, it is called Dirac notation
1.25.
The Hilbert Space L2
We shall see later that the information of a quantum particle is described by a function of the space and time denoted as ψ (r, t) and called the wave function. The quantity, |ψ (r, t)|2 dx dy dz will be interpreted as the probability of finding at time t, the particle in a volume dx dy dz. Since the particle must be somewhere in the space, we must demand that the integral over the whole volume must be equal to unity Z dV |ψ (r, t)|2 = 1 the integration extends over all space. However, in certain cases we could assume that the particle is in a given confined volume and the integral will be restricted to such a volume. The discussion above leads to the fact that the space of Physical states of one particle should be described by a square-integrable wave function. The state space is then the Hilbert space L2 of the square-integrable functions in a given volume. For a system of several particles we will have a space with similar features, but by now we will concentrate on the space that describes a single particle. For several reasons we cannot specified in general the state space of a particle. First of all, several physical considerations can lead us to the fact that the particl is confined to a certain bounded volume. For instance, in one dimension it is not the same the space of functions that are square integrable in the whole real line, as (say) the space of functions that are square integrable in a bounded interval. In other words, different regions of square integrability leads us to different L2 spaces. On the other hand, it is usual to demand as well as square integrability, that the functions accomplish additional features of regularity. For example, to be defined all along the interval, or to be continuous, derivable, etc. The specific conditions depend on the particular context, and they are required to define the state space completely. For example, it has no physical meaning to have a function that is discontinuous at a given point since no experiment can measure a real phenomenon at scales below certain threshold. We could then be tempted to say that we must demand the functions to be continuous. However, this is not necessarily the case since some nonphysical functions could help us to figure out what is happening. Let us take some familiar examples in classical mechanics, it is usual in electrostatics to assume the presence of a surface charge, which leads to a discontinuity
CAP´ITULO 1. LINEAR OR VECTOR SPACES
62
in the electric field, in the real world a charge is distributed in a very thin but finite layer and the discontinuity is replaced by a very slopy curve. Indeed, a surface charge is equivalent to an infinite volume density, but we have seen that this assumption provides a simple picture of many electrostatic phenomena though it is not a real physical state. Classical waves represented by a single plane wave in optics are other good examples, since it is not possible to have a real wave being totally monochromatic (a physical state is always a superposition of several plane waves), but many of the wave phenomena are easier to study with these non physical states, and indeed many real physical phenomena such as the laws of geometric optics are predicted by using them. In summary, depending on our purposes (and attitudes) we could demand to have only physical states or to decide to study some non-physical ones that are obtain when some physical parameters are settle at extreme values. Quantum mechanics is not the exception for this strategy, and our assumptions on the functions to work with, affects the definition of the Hilbert space of states that we should use as a framework. Hence, given the volume V in which the particle can stay, we say that our space of states is a subspace of the Hilbert space L2 of the square integrable functions in the volume V . We denote by ̥ the subspace of states in which ̥ ⊆ L2 . For this subspace to be a Hilbert space, it must be closed (for completeness to be maintained).
1.25.1.
The wave function space ̥
According to the discussion above, we only can say that our wave function space that describe our physical states is a closed subspace of L2 for a volume determined by our physical conditions. What really matters is to be sure whether the additional conditions imposed to our functions keeps ̥ as a closed vector space. For instance, if we assume continuity and/or derivability, it is easy to show that a finite linear combination preserves these conditions. Less evident is to ensure that a series preserves these conditions (for the subspace to be closed in L2 ), but we are not be concern with this problem here, neither we shall discuss the aspects concerning the completeness of L2 . We then limite ourselves to determine the vector space character of L2 . Let ψ1 , ψ2 ∈ L2 , we show that ψ (r) = λ1 ψ1 (r) + λ2 ψ2 (r) is a square integrable function. For this, we expand |ψ (r)|2 |ψ (r)|2 = |λ1 |2 |ψ1 (r)|2 + |λ2 |2 |ψ2 (r)|2 + λ∗1 λ2 ψ1∗ (r) ψ2 (r) + λ1 λ∗2 ψ1 (r) ψ2∗ (r) now for the last two terms we have
hence
h i |λ∗1 λ2 ψ1∗ (r) ψ2 (r)| = |λ1 λ∗2 ψ1 (r) ψ2∗ (r)| ≤ |λ1 | |λ2 | |ψ1 (r)|2 + |ψ2 (r)|2
h i |ψ (r)|2 ≤ |λ1 |2 |ψ1 (r)|2 + |λ2 |2 |ψ2 (r)|2 + 2 |λ1 | |λ2 | |ψ1 (r)|2 + |ψ2 (r)|2
and the integral of each of the functions on the right-hand side converges. Then the integral Z |ψ (r)|2 dV converges. So ψ is a square integrable function. The scalar product will be defined as (ϕ, ψ) =
Z
dV ϕ∗ (r) ψ (r)
it can be shown that this integral always converges if ϕ and ψ belong to L2 . We should check that this definition accomplishes the properties of an inner product, the properties arise directly from the definition (ϕ, λ1 ψ1 + λ2 ψ2 ) = λ1 (ϕ, ψ1 ) + λ2 (ϕ, ψ2 ) ; (λ1 ϕ1 + λ2 ϕ2 , ψ) = λ∗1 (ϕ1 , ψ) + λ∗2 (ϕ2 , ψ) (ϕ, ψ) = (ψ, ϕ)∗ ; (ψ, ψ) ≡ kψk2 ≥ 0 and (ψ, ψ) = 0 ⇔ ψ = 0
1.26. DISCRETE ORTHONORMAL BASIS
63
let us mention some important linear oprators on functions ψ (r) ∈ ̥. The parity opeartor defined as Πψ (x, y, z) = ψ (−x, −y, −z)
the product operator X defined as
Xψ (x, y, z) = xψ (x, y, z) and the differentiation operator with respect to x denoted as Dx ∂ψ (x, y, z) ∂x it is important to notice that the operators X and Dx acting on a function ψ (r) ∈ ̥, can transform it into a function that is not square integrable. Thus it is not an operator of ̥ into ̥ nor onto ̥. However, the non-physical states obtained are frequently useful for practical calculations. The commutator of the product and differentiation operator is of central importance in quantum mechanics ∂ ∂ ∂ ∂ x [X, Dx ] ψ (r) = − x ψ (r) = x ψ (r) − [xψ (r)] ∂x ∂x ∂x ∂x ∂ ∂ = x ψ (r) − x ψ (r) − ψ (r) ∂x ∂x [X, Dx ] ψ (r) = −ψ (r) ∀ψ (r) ∈ ̥ Dx ψ (x, y, z) =
therefore [X, Dx ] = −I
1.26.
(1.105)
Discrete orthonormal basis
The Hilbert space L2 (and thus ̥) has a countable infinite dimension, so that any authentic basis of ̥ must be infinite but discrete. A discrete orthonormal basis {ui (r)} with ui (r) ∈ ̥ should follows the rules given in section 1.9.1. Thus orthonormality is characterized by Z (ui , uj ) = d3 r u∗i (r) uj (r) = δij the expansion of any wave function (vector) of this space is given by the Fourier expansion described by Eq. (1.27) Z X ψ (r) = ci ui (r) ; ci = (ui , ψ) = d3 r u∗i (r) ψ (r) (1.106) i
using the terminology for finite dimensional spaces we call the series a linear combination and ci are the components or coordinates, which correspond to the Fourier coefficients. Such coordinates provide the representation of ψ (r) in the basis {ui (r)}. It is very important to emphasize that the expansion of a given ψ (r) must be unique for {ui } to be a basis, in this case this is guranteen by the form of the Fourier coefficients. Now if the Fourier expansion of two wave functions are X X ϕ (r) = bj uj (r) ; ψ (r) = ci ui (r) j
i
The scalar product and the norm can be expressed in terms of the components or coordinates of the vectors according with Eqs. (1.65, 1.66) X X 2 (ϕ, ψ) = b∗i ci ; (ψ, ψ) = |ci | (1.107) i
i
and the matrix representation of an operator T in a given orthonormal basis {ui } is obtained from Eq. (1.69) Tij ≡ (ui , T uj )
CAP´ITULO 1. LINEAR OR VECTOR SPACES
64
1.26.1.
Funci´ on delta de Dirac
Como veremos a continuaci´ on la funci´ on delta de Dirac es un excelente instrumento para expresar el hecho de que un conjunto ortonormal dado sea completo. Tambi´en es u ´til para convertir densidades puntuales, lineales y superficiales, en densidades volum´etricas equivalentes. Es importante enfatizar que la funci´ on delta de Dirac mas que una funci´ on es una distribuci´ on. En el lenguaje del an´ alisis funcional, es una uno-forma que act´ ua en espacios vectoriales de funciones, asign´ andole a cada elemento del espacio, un n´ umero real de la siguiente forma: Sea V el espacio vectorial de las funciones definidas en el dominio (b, c) con ciertas propiedades de continuidad, derivabilidad, integrabilidad, etc. La distribuci´ on delta de Dirac es un mapeo que asigna a cada elemento f (x) de V un n´ umero real con el siguiente algoritmo8 Z c f (a) si a ∈ (b, c) f (x) δ (x − a) dx = 0 si a ∈ / [b, c] b mencionaremos incidentalmente que con esta distribuci´ on es posible escribir una densidad de carga (o masa) puntual (ubicada en r0 ) como una densidad volum´etrica equivalente ρ (r) = qδ r′ − r0
(1.108)
esta densidad reproduce adecuadamente tanto la carga total como el potencial y el campo que genera, una vez que se hagan las integrales apropiadas. Hay varias sucesiones de distribuciones que convergen a la funci´ on Delta de Dirac, una de las mas utilizadas es la sucesi´ on definida por 2 n 2 fn (x − a) = √ e−n (x−a) (1.109) π se puede demostrar que al tomar el l´ımite cuando n → ∞ se reproduce la definici´ on y todas las propiedades b´ asicas de la distribuci´ on delta de Dirac. N´ otese que todas las distribuciones gaussianas contenidas en esta sucesi´ on tienen area unidad y est´ ´ an centradas en a. De otra parte, a medida que aumenta n las campanas gaussianas se vuelven m´ as agudas y m´ as altas a fin de conservar el ´ area, para valores n suficientemente altos, el ´ area se concentra en una vecindad cada vez m´ as peque˜ na alrededor de a. En el l´ımite cuando n → ∞, toda el ´ area se concentra en un intervalo arbitrariamente peque˜ no alrededor de a. Algunas propiedades b´ asicas son las siguientes: 1. 2.
R∞
−∞ δ (x
R∞
−∞ f
− a) dx = 1
(x) ∇δ (r − r0 ) dV = − ∇f |r=r0
3. δ (ax) =
1 |a| δ (x)
4. δ (r − r0 ) = δ (r0 − r) 5. xδ (x) = 0 6. δ x2 − e2 =
1 2|e|
[δ (x + e) + δ (x − e)]
Vale enfatizar que debido a su naturaleza de distribuci´ on, la funci´ on delta de Dirac no tiene sentido por s´ı sola, 1 sino u ´nicamente dentro de una integral. Por ejemplo cuando decimos que δ (ax) = |a| δ (x), no estamos hablando
R ∞ si r = 0 y δ (x) dx = 1. Esta definici´ on se basa en una 0 si r = 6 0 concepci´ on err´ onea de la distribuci´ on delta de Dirac como una funci´ on. A pesar de ello, hablaremos de ahora en adelante de la funci´ on delta de Dirac para estar acorde con la literatura. 8
Es usual definir la “funci´ on” delta de Dirac como δ (r) =
1.27. CLOSURE RELATIONS
65
de una coincidencia num´erica entre ambos miembros, sino de una identidad que se debe aplicar al espacio vectorial de funciones en que estemos trabajando, es decir Z c Z c 1 δ (x) dx ∀ f (x) ∈ V y ∀ a ∈ R f (x) δ (ax) dx = f (x) |a| b b Estrictamente, el mapeo tambi´en se puede hacer sobre los n´ umeros complejos con propiedades an´ alogas. En este mismo esp´ıritu, es necesario aclarar que la densidad volum´etrica equivalente de una carga puntual (y todas las densidades equivalentes que se pueden formar con la delta) es realmente una distribuci´ on. Por ejemplo, la densidad descrita por (1.108), solo tiene realmente sentido dentro de integrales que generan la carga total, el potencial o el campo. Las densidades ordinarias son funciones, pero las densidades equivalentes son distribuciones. En s´ıntesis, lo que se construye con la densidad volum´etrica equivalente es una distribuci´ on que me produzca el mapeo adecuado para reproducir la carga total, el potencial y el campo. En m´ aRs de una dimensi´ on la delta se convierte simplemente en productos de deltas unidimensionales, la (n) n propiedad δ (x) d x = 1, aplicada a n dimensiones, nos dice que la delta no es adimensional, sus dimensiones son de x−n . De momento, el uso que le daremos a la delta estar´ a relacionado con la completez del sistema orthonormal que usemos. N´ otese que en dimension finita la completez se comprueba simplemente asegur´ andonos de tener igual n´ umero de vectores linealmente independientes que la dimensi´ on del espacio. En espacios de dimension infinita en cambio podr´ıamos tener un conjunto infinito contable que no fuera completo y que se vuelve completo al agregarle otro conjunto finito o infinito contable, pues en tal caso la cardinalidad no cambia. En dimensi´ on infinita un conjunto ortonormal puede tener la cardinalidad de la dimensi´ on ortogonal del espacio y sin embargo no ser completo. Es por esto que la prueba de completez es particularmente importante.
1.27.
Closure relations
Naturalmente, para que todo vector arbitrario ψ (r) de ̥ sea expandible en los vectores unitarios linealmente independientes {ui (r)}, es necesario que el conjunto que define la base sea completo, la condici´ on de completez puede obtenerse reemplazando los coeficientes de Fourier cn en la expansi´ on de ψ (r) X X XZ B ψ (r) = cn un (r) = (un , ψ) un (r) = u∗n r′ ψ r′ un (r) d3 r′ n
ψ (r) =
Z
B
A
ψ r′
" X n
n
#
u∗n r′ un (r)
n
A
d3 r′
donde la integral con l´ımites A y B significa una integral triple de volumen. Por otro lado Z B ψ (r) = ψ r′ δ r − r′ d3 r′ A
Igualando las dos u ´ltimas expresiones, y teniendo en cuenta que ψ (r′ ) es arbitraria se obtiene X u∗n r′ un (r) = δ r − r′
(1.110)
n
retrocediendo en nuestros pasos vemos que la relaci´ on anterior nos garantiza que cualquier funci´ on arbitraria dentro del espacio se puede expandir en t´erminos del conjunto {un (r)}. A su vez vemos que la expansion para una base ordenada dada {un (r)} es u ´nica, lo cual se obtiene gracias a la independencia lineal del conjunto. Por tanto a la Ec. (1.110), se le conoce como relaci´ on de completez. We shall study several complete sets that consequently accomplish property (1.110). The proof of completeness of these sets is however out of the scope of this manuscript.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
66
1.28.
Introduction of hyperbases
In the case of discrete basis each element ui (r) is square integrable and thus belong to L2 and in general to ̥ as well. As explained before, it is sometimes convenient to use some hyperbases in which the elements of the basis do not belong to either L2 or ̥, but in terms of which a function in ̥ can be expanded, the hyperbasis {u (k, r)} will have in general a continuous cardinality with k denoting the continuous index that labels each vector in the hyperbasis. According to our previous discussions the Fourier expansions made with this hyperbasis are not series but integrals, these integrals will be called continuous linear combinations.
1.29.
Closure relation with hyperbases
In the hyperbasis {u (k, r)}, k is a continuous index defined in a given interval [c, d]. Such an index makes the role of the index n in discrete bases. We shall see that a consistent way of expressing orthonormality for this continuous basis is9 Z B (1.111) (uk , uk′ ) = u∗ (k, r) u k′ , r d3 r = δ k − k′ A
we show it by reproducing the results obtained with discrete bases. Expanding an arbitrary function ψ (r) of our Hilbert space as a continuous linear combination of the basis gives ψ (r) =
Z
d
c (k) u (k, r) dk
c
then we have (uk′ , ψ) = =
Z
uk′ ,
c
d
Z
c
d
c (k) u (k, r) dk
=
c (k) δ k − k′ dk = c k′
Z
c
d
c (k) (uk′ , uk ) dk
from which the fourier coefficients of the continuous expansion are evaluated as c k′ = (uk′ , ψ)
(1.112)
when the Fourier coefficients are associated with continuous linear combinations (integrals) they are usually called Fourier transforms. In this case, a vector is represented as a continuous set of coordinates or components, where the components or coordinates are precisely the Fourier transforms. Therefore, in terms of the inner product, the calculation of the Fourier coefficients in a continuous basis (Fourier transforms) given by Eq. (1.112) coincides with the calculation of them with discrete bases Eq. (1.106). Eq. (1.112) in turn guarantees that the expansion for a given ordered continuous bases is unique10 . Those facts in turn depends strongly on our definition of orthonormality in the continuous regime Eq. (1.111) showing the consistency of such a definition. After all, we should remember that hyperbases are constructed as useful tools and not as physical states, in that sense we should not expect a “truly orthonormality relation” between them11 . 9
From now on we shall say continuous bases, on the understanding that they are indeed hyperbases. Remember that for a given set of vectors to constitute a basis, it is important not only to be able to expand any vector with the elements of the set, it is also necessary for the expansion of each vector to be unique. In normal basis (not hyperbasis) this is guaranteed by the linear independence, in our continuous set it is guranteed by our definition of orthonormality in such a set. 11 It is clear for example that with r = r′ the “orthonormality” relation diverge, so it is not a normalization in the mathematical sense. 10
1.30. INNER PRODUCT AND NORM IN TERMS OF A HYPERBASIS
67
Let us see the closure relation Z
Z d c (k) u (k, r) dk = (uk , ψ) u (k, r) dk c c Z d Z B 3 ′ ∗ ′ ′ u k, r ψ r d r u (k, r) dk ψ (r) = c A Z B Z d ∗ ′ ψ (r) = u k, r u (k, r) dk ψ r′ d3 r′
ψ (r) =
d
c
A
on the other hand
ψ (r) =
Z
B
A
from which we find
Z
d
u∗ k, r′
c
δ r − r′
ψ r′
d3 r′
u (k, r) dk = δ r − r′
(1.113)
which defines us the closure relation for a continuous basis {u (k, r)}. From the discussion above, the closure relations for discrete or continuous basis can be interpreted as “representations” of the Dirac delta function. Similar situation occurs with the orthonormality relation but only for continuous bases. It worths emphasizing at this point that a given representation of the delta in a given space cannot be applied to another space. For example, it is possible to have a r−dimensional vector space of functions V1 with P a basis {vn (r)}, that defines a closure relation rn=1 vn∗ (r′ ) vn (r) = δ1 (r − r′ ), let us think about another r + k dimensional vector space denoted by V2 and such that V2 ⊃ V1 , such P that a basis {um } of V2 includes the previous ∗ ′ ′ basis plus other linearly independent vectors; the closure relation is: r+k n=1 un (r ) un (r) = δ2 (r − r ). What is the ′ ′ difference between δ1 (r − r ) and δ2 (r − r )?, the answer lies in the distribution nature of the badly called Dirac delta function; the fundamental property of this distribution tells us that for all functions ψ (r′ ) that belongs to V1 we have that # " Z B Z B X ′ ∗ ′ 3 ′ ψ r vn r vn (r) d r = ψ r′ δ1 r − r′ d3 r′ ψ (r) = A
A
n
however, if the function ψ (r) does not belong to V1 but it belongs to V2 then δ1 (r − r′ ) is not an adequate distribution to represent this function. This is a general property of the distributions, since they are defined solely by means of the way in which they map the functions of a specific vector space into the scalars. A representation of the Dirac delta (and in general of any distribution) is linked to a very specific vector space of functions.
1.30.
Inner product and norm in terms of the components of a vector in a hyperbases
Let us take two vectors ϕ and ψ that belong to ̥. Both can be expressed as continuous linear combinations of a continuous basis {uk } ψ (r) =
Z
d
dk u (k, r) c (k)
; ϕ (r) =
c
Z
c
d
dk′ u k′ , r b k′
now the idea is to write the scalar product of them in terms of the continuous set of components of each vector i.e. in terms of their Fourier transforms c (k) and b (k′ ). The scalar product is Z B Z d Z d Z B 3 ∗ ′ ∗ ′ (ϕ, ψ) = d r ϕ (r) ψ (r) = dk dk b k c (k) d3 r u∗ k′ , r u (k, r) A
c
c
A
CAP´ITULO 1. LINEAR OR VECTOR SPACES
68
now using the orthonormality relation Eq. (1.111) we have Z B Z d Z d 3 ∗ ′ (ϕ, ψ) = d r ϕ (r) ψ (r) = dk dk b∗ k′ c (k) δ k − k′ A c c Z d (ϕ, ψ) = dk b∗ (k) c (k)
(1.114)
c
the norm is obtained simply by taking ϕ = ψ then (ψ, ψ) = kψk2 =
Z
c
d
dk |c (k)|2
(1.115)
Eqs. (1.114, 1.115) are clearly the continuous analogs of Eq. (1.107) for discrete basis. In summary, the basic relations obtained in discrete bases (inner products, norms, fourier coefficients, orthonormality, completeness etc.) possses the same structure in continuous bases but with the following replacements Z X ↔ dk , δij ↔ δ k − k′ i(discrete) ↔ k(continuous) , i
1.31.
Some specific continuous bases
1.31.1.
Plane waves
We shall use a continuous basis represented by the set n o 1 3/2 ip·r/~ ze ; z≡ 2π~ where p is the continuous index that labels the different vectors of the basis. Indeed, p represents three continuous indices px , py , pz . By now ~ is simply a mathematical constant, but it will become highly relevant in Physics. We consider the space of square integrable functions over the whole space, all integrals are undestood to be triple integrals. The continuous linear combination of a given square integrable function is given by Z 1 3/2 ∞ 3 ¯ ψ (r) = d p ψ (p) eip·r/~ 2π~ −∞ it is clear that ψ¯ (p) provides the continuous set of coordinates of the vector ψ (r) under our continuous basis. They are thus the Fourier transforms of ψ (r) with respect to the basis of plane waves. It is useful to define vp (r) ≡ zeip·r/~
(1.116)
from which the fourier transforms can be calculated by Eq. (1.112) c (k) = (uk , ψ) ⇒ ψ¯ (p) = (vp , ψ) = the basic relation in Fourier analysis
1 (2π)3
Z
∞
1 2π~
3/2 Z
∞
d3 r e−ip·r/~ ψ (r)
−∞
d3 k eik·u = δ3 (u)
(1.117)
−∞
can be used by assigning k → zp and u → (r − r′ ) to show that Z ∞ Z ∞ p 1 ′ d3 p vp∗ r′ vp (r) = d3 p ei ~ (r−r ) = δ3 r − r′ 3 (2π~) −∞ −∞
(1.118)
1.31. SOME SPECIFIC CONTINUOUS BASES
69
by comparing it with Eq. (1.113), we see that (1.118) expresses the completeness relation for the continuous basis {vp } in the space of functions that are square-integrable in the whole physical space. The orthonormality relation can also be obtained from the property (1.117) but with the assignments k → zr and u → p − p′ Z ∞ r 1 ′ vp , vp′ = d3 r e−i ~ (p−p ) = δ3 p′ − p = δ3 p − p′ (1.119) 3 (2π~) −∞ by using p = p′ in Eq. (1.119) it is clear that kvp k2 = (vp , vp ) is divergent. Thus, the plane waves are not squareintegrable in the whole space. Therefore, the elements of this continuous basis do not belong to the Hilbert space under study.
1.31.2.
“Delta functions”
We shall use a continuous basis of “highly improper” functions defined by ξr0 (r) ≡ δ (r − r0 )
(1.120)
{ξr0 (r)} represents the set of delta functions centered at each of the points r0 of the whole space. These functions are not square-integrable so {ξr0 (r)} ∈ / ̥. Nevertheless, the following relations are valid for functions that belong to ̥ Z ψ (r) = d3 r0 ψ (r0 ) δ (r − r0 ) Z ψ (r0 ) = d3 r ψ (r) δ (r0 − r) rewritten them appropiately we have
ψ (r) = ψ (r0 ) =
Z
Z
d3 r0 ψ (r0 ) ξr0 (r)
(1.121)
d3 r ξr∗0 (r) ψ (r) = (ξr0 , ψ)
(1.122)
Eq. (1.121) gives ψ (r) ∈ ̥ as a continuous linear combination of the set {ξr0 }, where ψ (r0 ) are the fourier transforms. On the other hand, (1.122) indicates that the fourier transforms are evaluated as usual. By using the properties of the Dirac delta function, it is possible to prove that the set {ξr0 } accomplishes orthonormality and completeness relations Z ξr0 , ξr′0 = d3 r δ (r − r0 ) δ r − r′0 = δ r0 − r′0 and
Z
3
d
r0 ξr∗0
′
r
ξr0 (r) =
Z
d3 r0 δ r′ − r0
δ (r − r0 ) = δ r − r′
note that the non-physical functions that constitute a continuous basis can usually be seen as limits in which one or more parameters of a physically realizable state are taken at extreme (non-physical) values. As an example the Dirac function can be taken as the limit of gaussians given by Eq. (1.109) 2 n 2 fn (x − a) = √ e−n (x−a) π for each value of n these functions are square integrable, continuous, and derivable, they could describe a physical system. Notwithstanding, by taking n → ∞, the functions are no longer square-integrable and lose all properties of well-behavior. Concerning plane waves, physical states (in both classical and quantum mechanics) consists of a superposition of plane waves with a finite width spectrum of frecuencies ∆ν, by taking the limit ∆ν → 0 we obtain a monochromatic (non-physical) wave, corresponding to a single plane wave.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
70
1.32.
Tensor products of vector spaces, definition and properties
Let V1 and V2 be two vector spaces of dimension n1 and n2 . Vectors and operators on each of them will be denoted by labels (1) and (2) respectively. Definition 1.34 The vector space V is called the tensor product of V1 and V2 V ≡ V1 ⊗ V2 if there is associated with each pair of vectors x (1) ∈ V1 and y (2) ∈ V2 a vector in V denoted by x (1) ⊗ y (2) and called the tensor product of x (1) and y (2), and in which this correspondence satisfies the following conditions: (a) It is linear with respect to multiplication by a scalar [αx (1)] ⊗ y (2) = α [x (1) ⊗ y (2)] ; x (1) ⊗ [βy (2)] = β [x (1) ⊗ y (2)]
(1.123)
(b) It is distributive with respect to addition
x (1) + x′ (1) ⊗ y (2) = x (1) ⊗ y (2) + x′ (1) ⊗ y (2) x (1) ⊗ y (2) + y′ (2) = x (1) ⊗ y (2) + x (1) ⊗ y′ (2)
(1.124)
(c) When a basis is chosen in each space, say {ui (1)} in V1 and {vj (2)} in V2 , the set of vectors ui (1) ⊗ vj (2) constitutes a basis in V . If n1 and n2 are finite, the dimension of the tensor product space V is n1 n2 . An arbitrary couple of vectors x (1), y (2) can be written in terms of the bases {ui (1)} and {vj (2)} respectively, in the form X X x (1) = ai ui (1) ; y (2) = bj vj (2) i
j
Using Eqs. (1.123, 1.124) we see that the expansion of the tensor product is given by x (1) ⊗ y (2) =
XX i
j
ai bj ui (1) ⊗ vj (2)
so that the components of the tensor product of two vectors are the products of the components of the two vectors of the product. It is clear that the tensor product is commutative i.e. V1 ⊗V2 = V2 ⊗V1 and x (1)⊗y (2) = y (2)⊗x (1) On the other hand, it is important to emphasize that there exist in V some vectors that cannot be written as tensor products of a vector in V1 with a vector in V2 . Nevertheless, since {ui (1) ⊗ vj (2)} is a basis in V any vector in V can be expanded in it XX ψ= cij ui (1) ⊗ vj (2) (1.125) i
j
in other words, given a set of n1 n2 coefficients of the form cij it is not always possible to write them as products of the form ai bj of n1 numbers ai and n2 numbers bj , we cannot find always a couple of vectors in V1 and V2 such that ψ = x (1) ⊗ y (2).
1.32.1.
Scalar products in tensor product spaces
If there are inner products defined in the spaces V1 and V2 we can define an inner product in the tensor product space V . For a couple of vectors in V of the form x (1) ⊗ y (2) the inner product can be written as x′ (1) ⊗ y′ (2) , x (1) ⊗ y (2) = x′ (1) , x (1) (1) y′ (2) , y (2) (2)
1.32. TENSOR PRODUCTS OF VECTOR SPACES, DEFINITION AND PROPERTIES
71
where the symbols (, )(1) and (, )(2) denote the inner product of each of the spaces of the product. From this, we can see that if the bases {ui (1)} and {vj (2)} are orthonormal in V1 and V2 respectively, then the basis {ui (1) ⊗ vj (2)} also is (ui (1) ⊗ vj (2) , uk (1) ⊗ vm (2)) = (ui (1) , uk (1))(1) (vj (2) , vm (2))(2) = δik δjm Now, for an arbitrary vector in V , we use the expansion (1.125) and the basic properties of the inner product XX XX (ψ, φ) = cij ui (1) ⊗ vj (2) , bkm uk (1) ⊗ vm (2) =
X
i
j
c∗ij
i,j
(ψ, φ) =
X
X k,m
k
m
bkm (ui (1) ⊗ vj (2) , uk (1) ⊗ vm (2)) =
c∗ij bij
X i,j
c∗ij
X
bkm δik δjm
k,m
i,j
it is easy to show that with these definitions the new product accomplishes the axioms of an inner product.
1.32.2.
Tensor product of operators
e (1) acting on V Consider a linear transformation A (1) defined in V1 , we associate with it a linear operator A e as follows: when A (1) is applied to a tensor of the type x (1) ⊗ y (2) we define e (1) [x (1) ⊗ y (2)] = [A (1) x (1)] ⊗ y (2) A
when the operator is applied to an arbitrary vector in V , this definition is easily extended because of the linearity of the transformation XX XX e (1) ψ = A e (1) e (1) [ui (1) ⊗ vj (2)] A cij ui (1) ⊗ vj (2) = cij A i
e (1) ψ = A
XX i
j
j
i
j
cij [A (1) ui (1)] ⊗ vj (2)
(1.126)
e (2) of a linear transformation in V2 is obtained in a similar way the extension B XX e (2) ψ = B cij ui (1) ⊗ [B (2) vj (2)] i
j
finally, if we consider two operators A (1) , B (2) defined in V1 and V2 respectively, we can define their tensor product A (1) ⊗ B (2) as [A (1) ⊗ B (2)] ψ =
XX i
j
cij [A (1) ui (1)] ⊗ [B (2) vj (2)]
(1.127)
it is easy to show that A (1) ⊗ B (2) is also a linear operator. From Eqs. (1.126, 1.127) we can realize that the e (1) on V can be seen as the tensor product of A (1) with extension of the operator A (1) on V1 to an operator A e (2) the identity operator I (2) on V2 . A similar situation occurs with the extension B e (1) = A (1) ⊗ I (2) ; B e (2) = I (1) ⊗ B (2) A
(1.128)
e (1) B e (2) to act on an arbitrary element of a basis {ui (1) ⊗ vj (2)} Now let us put the operators A (1)⊗B (2) and A of V [A (1) ⊗ B (2)] ui (1) ⊗ vj (2) = [A (1) ui (1)] ⊗ [B (2) vj (2)] h i e (1) B e (2) ui (1) ⊗ vj (2) = A e (1) {ui (1) ⊗ [B (2) vj (2)]} = [A (1) ui (1)] ⊗ [B (2) vj (2)] A
CAP´ITULO 1. LINEAR OR VECTOR SPACES
72
e (1) and B e (2) therefore, the tensor product A (1) ⊗ B (2) coincides with the ordinary product of two operators A on V e (1) B e (2) A (1) ⊗ B (2) = A e (1) and B e (2) commute in V . To see it, we put their additionally, it can be shown that operators of the form A products in both orders to act on an arbitrary vector of a basis {ui (1) ⊗ vj (2)} of V h
i e (1) B e (2) ui (1) ⊗ vj (2) = A e (1) {ui (1) ⊗ [B (2) vj (2)]} = [A (1) ui (1)] ⊗ [B (2) vj (2)] A h i e (2) A e (1) ui (1) ⊗ vj (2) = B e (2) {[A (1) ui (1)] ⊗ vj (2)} = [A (1) ui (1)] ⊗ [B (2) vj (2)] B
therefore we have
h
i e (1) , B e (2) = 0 A
or
A (1) ⊗ B (2) = B (2) ⊗ A (1)
an important special case of linear operators are the projectors, as any other linear operator, the projector in V is the tensor product of the projectors in V1 and V2 . Let M1 and N1 be the range and null space of a projector in V1 and M2 , N2 the range and null space of a projector in V2 V1 = M1 ⊕ N1 ; x (1) = xM (1) + xN (1) ; xM (1) ∈ M1 , xN (1) ∈ N1 ; P1 (x (1)) = xM (1)
V2 = M2 ⊕ N2 ; y (2) = yM (2) + yN (2) ; yM (2) ∈ M2 , yN (2) ∈ N2 ; P2 (y (2)) = yM (2) (P1 ⊗ P2 ) (x (1) ⊗ y (2)) = [P1 x (1)] ⊗ [P2 y (2)] = xM (1) ⊗ yM (2) for an arbitrary vector we have (P1 ⊗ P2 ) ψ = (P1 ⊗ P2 ) (P1 ⊗ P2 ) ψ =
XX i
j
XX i
j
cij ui (1) ⊗ vj (2) =
XX i
j
cij [P1 ui (1)] ⊗ [P2 vj (2)]
cij ui,M (1) ⊗ vj,M (2)
finally, as in the case of vectors, there exists some operators on V that cannot be written as tensor products of the form A (1) ⊗ B (2).
1.32.3.
The eigenvalue problem in tensor product spaces
Let us assume that we have solved the eigenvalue problem for an operator A (1) of V1 . We want to seek for information concerning the eigenvalue problem for the extension of this operator to the tensor product space V . For simplicity, we shall assume a discrete spectrum A (1) xin (1) = an xin (1) ; i = 1, 2, . . . , gn ; xin (1) ∈ V1 where gn is the degeneration associated with an . We want to solve the eigenvalue problem for the extension of this operator in V = V1 ⊗ V2 e (1) ψ = λψ ; ψ ∈ V1 ⊗ V2 A
from the definition of such an extension, we see that a vector of the form xin (1) ⊗ y (2) for any y (2) ∈ V2 is an e (1) with eigenvalue an eigenvector of A e (1) xi (1) ⊗ y (2) = A (1) xi (1) ⊗ y (2) = an xi (1) ⊗ y (2) ⇒ A n n n i i e A (1) xn (1) ⊗ y (2) = an xn (1) ⊗ y (2)
1.32. TENSOR PRODUCTS OF VECTOR SPACES, DEFINITION AND PROPERTIES
73
e (1) can be generated in this way. We shall see that it is true if it is natural to ask whether any eigenvector of A A (1) is an observable in V1 . Assuming it, the set of orthonormal eigenvectors xin (1) forms a basis in V1 . If we now take an orthonormal basis {ym (2)} in V2 , then the set of vectors i,m i ψn ≡ xn (1) ⊗ ym (2) o n e (1) with eigenvalues forms an orthonormal basis in V . It is clear that the set ψni,m consists of eigenvectors of A e (1) have been generated with the an , and since they are a basis, a complete orthonormal set of eigenvectors of A e (1) is also an procedure explained above. This in turn means that if A (1) is an observable in V1 , its extension A e observable in V . Further, the spectrum of A (1) coincides with the spectrum of A (1). Notwithstanding, it worths to say that if N2 is the dimension of V2 , if an is gn −fold degenerate in V1 , it will be gn ·N2 −degenerate in V . This is because for a given eigenvector xin (1) in V1 , there are N2 eigenvectors ψni,m ≡ xin (1) ⊗ ym (2) since m = 1, . . . , N2 . We know that each eigenvalue an of A (1) in V1 defines an eigensubspace V1,an in V1 with gn dimension. The corresponding eigensubspace generated by an in V is a N2 · gn subspace Van . The projector onto V1,an is written by ⊥ ⊥ ⊥ V1 = V1,an ⊕ V1,a ; x (1) = xan (1) + x⊥ an (1) ; xan (1) ∈ V1,an , xan (1) ∈ V1,an n
P1an (x (1)) = xan (1) and its extension to V is defined as Pe1an
≡ P1an ⊗ I2 ;
Pe1an ψni,m ≡ Pe1an xin (1) ⊗ ym (2) = P1an xin (1) ⊗ ym (2)
Pe1an ψni,m = xan (1) ⊗ ym (2)
Now assume that we have a sum of operators of both spaces e (1) + B e (2) C=A
where A (1) and B (2) are observables in their corresponding spaces, with the following eigenvalues and eigenvectors A (1) xin (1) = an xin (1) ; i = 1, 2, . . . , gn ; xin (1) ∈ V1
k k k B (2) ym (2) = bm ym (2) ; k = 1, 2, . . . , hm ; ym (2) ∈ V2
e (1) and B e (2) commute, so they should have a commom basis of eigenvectors in V . This basis we have seen that A is precisely, the tensor product of their eigenvectors h i h i k k e (1) xin (1) ⊗ ym A (2) = an xin (1) ⊗ ym (2) i h i h k k e (2) xin (1) ⊗ ym (2) = bm xin (1) ⊗ ym (2) B e (1) + B e (2) and they are also eigenvectors of C = A h ih i h i e (1) + B e (2) xi (1) ⊗ yk (2) = (an + bm ) xi (1) ⊗ yk (2) A n m n m h i h i k k C xin (1) ⊗ ym (2) = cnm xin (1) ⊗ ym (2) ; cnm = an + bm
e (1) + B e (2) the eigenvalues of C are the sums of the eigenvalues of A e (1) and B e (2). Besides, we So that if C = A can form a basis of eigenvectors of C by taking the tensor product of the basis of A (1) and B (2). It is important to emphasize that even if an and bm are non-degenerate, it is posible that cnm be degenerate. Assume that an and bm are non-degenerate, and for a given cnm let us define all the sets of pairs
CAP´ITULO 1. LINEAR OR VECTOR SPACES
74
{(nj , mj ) : j = 1, . . . , q} such that anj + bmj = cnm . In that case, the eigenvalue cnm is q−fold degenerate, and every eigenvector corresponding to this eigenvalue can be written as q X j=1
cj xnj (1) ⊗ ymj (2)
in this case there are eigenvectors of C that are not tensor products.
1.32.4.
Complete sets of commuting observables in tensor product spaces
For simplicity assume that A (1) forms a C.S.C.O. by itself in V1 , while {B (2) , C (2)} constitute a C.S.C.O. in V2 . We shall show that by gathering the operators of the C.S.C.O. in V1 with the operators of C.S.C.O. in V2 , we form a C.S.C.O. in V with their corresponding extensions. Since A (1) is a C.S.C.O. in V1 , all its eigenvalues are non-degenerate in V1 A (1) xn (1) = an x (1) the ket x (1) is then unique within a constant factor. In V2 the set of two operators {B (2) , C (2)} defines commom eigenvectors {ymp (2)} that are unique in V2 within constant factors B (2) ymp (2) = bm ymp (2) ; C (2) ymp (2) = cp ymp (2) In V , the eigenvalues are N2 −fold degenerate. Similarly, there are N1 linearly independent eigenvectors of B (2) and C (2) associated with two given eigenvalues of the form (bm , cp ). However, the eigenvectors that are common e (1) , B e (2) , C e (2) are unique within constant factors to the three commuting observables A e (1) [xn (1) ⊗ ymp (2)] = an [x (1) ⊗ ymp (2)] A e (2) [xn (1) ⊗ ymp (2)] = bm [x (1) ⊗ ymp (2)] B e (2) [xn (1) ⊗ ymp (2)] = cp [x (1) ⊗ ymp (2)] C
that {xn (1) ⊗ ymp (2)} since {xn (1)} and {ymp (2)} were bases in V1 and V2 , we see n o is a basis in V constituted e e e by commom eigenvectors of the three operators. Thus the set A (1) , B (2) , C (2) is a C.S.C.O. in V .
1.33.
Restrictions of an operator to a subspace
It is useful in many applications to be able to restrict an operator to a certain subspace Vq of a given vector space V . Let us assume V
= V1 ⊕ . . . ⊕ Vq ⊕ . . .
x = x1 + . . . + xq + . . .
;
xi ∈ Vi
Projectors, which are the natural operators to “restrict” a vector by extracting the components that are orthonormal to a given subspace, will be also the natural operators to rectrict operators. Let Pq be the projector onto a subspace Vq . A priori, we could think in defining a restriction by “restricting the vector” in which the operator will act on. This is done by substracting all components orthogonal to the subspace Vq by applying a projection, and then let the operator A act on this projection so we have A = APq ⇒ Ax = APq x = Axq
1.34. FUNCTIONS OF OPERATORS
75
in this case we have restricted the domain of A appropriately, but once the operator A is applied, the image could be outside of the subspace too. Hence, the projector must be applied again after the application of A in order to b of the operator A to the subspace Vq as restrict the image appropriately. We then define the restriction A bq ≡ Pq A = Pq APq A
(1.129)
so that both the domain and the range are restricted to Vq . It can be easily checked that the matrix representation bq is reduced to a submatrix in the Vq space. Let qk be the dimension of Vq . Let us use an ordered basis such of A that the first qk terms expand Vq . Using such a basis we have bq uj = (ui , Pq APq uj ) = (Pq ui , APq uj ) bq = ui , A A ij (ui , Auj ) if i, j ≤ qk (Pq ui , APq uj ) = 0 if i > qk and/or j > qk observe that the submatrix associated with i, j ≤ qk (i.e. associated with the Vq subspace), remains the same with respect to the non-restricted matrix. But the elements outside of such a submatrix are zeros, showing that the new operator only acts in Vq . bq of an operator A differs from A itself, because we are It is important to emphasize that the restriction A changing the mapping. In the special case in which the subspace Vq is invariant under A, the range of A is automatically restricted into Vq when the domain is restricted to Vq . Thus in that case the restriction can be defined with only one projector operator bq ≡ APq A bq is identical to the mapping described by A when so when Vq is invariant under A the mapping described by A such mappings are restricted to the domain Vq .
1.34.
Functions of operators
Let A be an arbitrary operator. The operator An with n being a non-negative integer is easily defined as A0 ≡ I , An = AA · · · A (n times) similarly for negative integers a consistent definition is n A−n ≡ A−1 with AA−1 = A−1 A = I
it is useful to define functions of operators. Assume that a function F can be expanded in certain domain in the following way ∞ X F (z) = fn z n (1.130) n=0
by definition, the function F (A) of the operator A corresponds to an expansion of the form (1.130) with the same coefficients fn ∞ X F (A) = fn An (1.131) n=0
for instance, the function eA of the operator A reads A
e =
∞ X An
n=0
n!
=I +A+
A2 A3 + + ... 2! 3!
CAP´ITULO 1. LINEAR OR VECTOR SPACES
76
the convergence of series of the type (1.131) depends on the eigenvalues of A and the radius of convergence of the function (1.130). We shall not treat this topic in detail. If F (z) is a real function the coefficients fn are real. On the other hand, if A is hermitian then F (A) also is, as can be seen from (1.131). Owing to the analogy between real numbers and hermitian operators this relation is quite expected. Now, assume that xi,k is an eigenvector of A with eigenvalue ai we then have Axi,k = ai xi,k ⇒ An xi,k = ani xi,k and applying the eigenvector in Eq. (1.131) we find F (A) xi,k =
∞ X
fn ani xi,k = xi,k
n=0
∞ X
fn ani
n=0
F (A) xi,k = F (ai ) xi,k
so that if xi,k is an eigenvector of A with eigenvalue ai , then xi,k is also eigenvector of F (A) with eigenvalue F (ai ). On the other hand, if the operator is diagonalizable (this is the case for observables), we can find a basis in which the matrix representative of A is diagonal with the eigenvalues ai in the diagonal. In such a basis, the operator F (A) has also a diagonal representation with elements F (ai ) in the diagonal. For example let σz be an operator that in certain basis has the matrix representation 1 0 σz = 0 −1 in the same basis we have σz
e
=
e1 0 0 e−1
=
e 0 0 1/e
if A and B do not commute, we have that in general the operators F (A) and F (B) do not commute either. For instance eA eB = eB eA = eA+B =
∞ ∞ ∞ ∞ X An X B m X X An B m = n! m! n! m!
n=0 ∞ X
m=0 ∞ m X
An B m An = n! m! n! n=0 m=0 n=0
B m! m=0
∞ X (A + B)n
n=0
n=0 m=0 ∞ X ∞ X
n!
(1.132) (1.133) (1.134)
these three expressions are in general different from each other unless [A, B] = 0. We see by direct inspection of Eqs. (1.132, 1.133, 1.134) that if A and B commute, then F (A) and F (B) also do. Notice that when A, B commute they can be diagonalized simultaneously and so F (A) and F (B), which is another way to see that if [A, B] = 0 then [F (A) , F (B)] = 0.
1.34.1.
Some commutators involving functions of operators
Theorem 1.70 Suppose we have two operators A and B such that B commutes with their commutator, that is [B, C] = 0 ; C ≡ [A, B]
(1.135)
if F (B) is a function of the operator B then we have [A, F (B)] = [A, B] F ′ (B)
(1.136)
1.35. DIFFERENTIATION OF OPERATORS
77
where F ′ (B) is the derivative of F (B) “with respect to B” defined as F (B) =
∞ X
n=0
fn B n ⇒ F ′ (B) ≡
Proof : The commutator [A, F (B)] is given by "
[A, F (B)] = A,
∞ X
n=0
fn B
n
#
=
∞ X
nfn B n−1
(1.137)
fn [A, B n ]
(1.138)
n=0
∞ X
n=0
we show by induction that [A, B n ] = [A, B] nB n−1
(1.139)
for n = 0 we have B n = I and both sides clearly vanish. Now let us assume that it works for n and show that it is satisfied by n + 1. Applying Eq. (1.41), and taking into account Eqs. (1.139, 1.135) we have A, B n+1 = [A, BB n ] = [A, B] B n + B [A, B n ] = [A, B] BB n−1 + B [A, B] nB n−1 = CBB n−1 + BCnB n−1 = CB n + nCBB n−1 = C (n + 1) B n A, B n+1 = [A, B] (n + 1) B n
which shows the validity of Eq. (1.139). Replacing Eq. (1.139) in Eq. (1.138), we find [A, F (B)] = [A, B]
∞ X
fn nB n−1 = [A, B] F ′ (B)
n=0
Corollary 1.71 It is straightforward to show that if both operators commute with their commutator we see that equations (1.140) [A, F (B)] = [A, B] F ′ (B) ; [G (A) , B] = [A, B] G′ (B) are satisfied simultaneously. A very important case in Physics occurs when [A, B] = αI. In that case, we have [A, B] = αI ⇒ [A, F (B)] = αF ′ (B) ; [G (A) , B] = αG′ (B)
1.35.
(1.141)
Differentiation of operators
Let A (z) an operator that depends on the arbitrary variable z. We define the derivative of A (z) with respect to z as dA A (z + ∆z) − A (z) = l´ım (1.142) ∆z→0 dz ∆z provided that this limit exists. Operating A on an arbitrary vector x and using a basis {ui } independent of z, we have A (z) x = A (z) xi ui = xi A (z) ui = xi uj Aji (z) (1.143) since dA/dz is another operator, it makes sense to talk about its matrix representation dA (z) dA (z) dA (z) dA (z) x= xi ui = xi ui = xi uj dz dz dz dz ji
(1.144)
Applying the derivative on both extremes of Eq. (1.143), and taking into account that the basis {ui } is independent of z, we have dAji (z) d A (z) x = xi uj (1.145) dz dz
CAP´ITULO 1. LINEAR OR VECTOR SPACES
78 comparing Eqs. (1.144, 1.145) we obtain
dA (z) dz
dAji (z) dz
= ji
so the matrix representative of the derivative of A is obtained by taking the derivative of each of its elements12 . The differentiation rules are similar to the ones in ordinary calculus d dF dG (F + G) = + dz dz dz
d dF dG (F G) = G+F dz dt dt
;
(1.146)
except that care must be taken with the order of appearance for the operators involved. Let us examine the second of this equations, applying F G to an arbitrary vector x and using a basis {ui } we have (F G) x = xi uj (F G)ji taking the derivative on both sides we have d (F G) d d d d = (F G)ji = [Fjk Gki ] = Fjk Gki + Fjk Gki dz dz dz dz dz ji " # dF dG = Gki + Fjk dz jk dz ki in matrix form we see that
d (FG) dF dG = G+F dz dz dz since there is a one-to-one isomorphism from the operators onto the matrices, we see that this relation is also valid for the operators.
1.35.1.
Some useful formulas
Applying the derivation rules we can develop some identities for functions of operators. Let us calculate the derivative of the operator eAt . By definition we have eAt =
∞ X (At)n
n=0
n!
differentiating the series term by term we have ∞ ∞ ∞ X X X d At An An (At)n−1 e = ntn−1 =0+ ntn−1 =A dt n! n! (n − 1)! n=0 n=1 n=1 "∞ # "∞ # X (At)k X (At)k d At e = A = A dt k! k! k=0
k=0
where we have used the assignment k = n − 1. The series in the brackets is eAt once again, so we have d At e = AeAt = eAt A dt
(1.147)
12 Care must be taken to distinguish between the derivative in Eq. (1.137) and the derivative in Eq. (1.142). In Eq. (1.137) the derivative is taken with respect to B as the “variable of derivation”. On the other hand, in Eq. (1.142) the variable to derive with, is a parameter z from which our matrix depend on.
1.36. STATE SPACE AND DIRAC NOTATION
79
in this case eAt and A commutes because only one operator is involved. Suppose that we want to differentiate eAt eBt . Applying Eqs. (1.146, 1.147) we have Bt d e d At Bt d eAt Bt e e = e + eAt = AeAt eBt + eAt BeBt dt dt dt
the operator A can pass over eAt if desired but not over eBt unless that A and B commute. Similarly, B can pass over eBt but not over eAt . However, even if a single operator appears we should be careful with the order sometimes. For instance, if A (t) is an arbitrary function of time then d A(t) dA A(t) e e 6= (1.148) dt dt it could be checked that A (t) and dA (t) /dt must commute with each other for the equality to be valid. Consider again two operators that commute with their commutator, we shall show that 1
[A, [A, B]] = [B, [A, B]] = 0 ⇒ eA eB = eA+B e 2 [A,B] (Glauber ′ s f ormula)
(1.149)
let define F (t) with t real as dF (t) = AeAt eBt + eAt BeBt = A eAt eBt + eAt Be−At eAt eBt dt At −At = A + e Be F (t)
F (t) ≡ eAt eBt ; dF (t) dt
(1.150)
since A, B commute with their commutator, we can apply Eq. (1.140), so that At e , B = t [A, B] eAt ⇒ eAt B = BeAt + t [A, B] eAt ⇒ eAt Be−At = B + t [A, B]
substituting this expression in Eq. (1.150) we get dF (t) = {A + B + t [A, B]} F (t) dt
(1.151)
by hypothesis, A + B commutes with [A, B], so that the differential equation (1.151) can be integrated as if A + B and [A, B] were numbers 1 2 F (t) = F (0) e(A+B)t+ 2 [A,B]t setting t = 0 we see that F (0) = I, thus we obtain 1
2
F (t) = e(A+B)t+ 2 [A,B]t
setting t = 1 and taking into account again that A + B commutes with [A, B], we obtain (1.149). It is necessary to emphasize that this equation is valid only if A and B commutes with [A, B].
1.36.
State space and Dirac notation
We have defined the space of Physical states as the one constituted by functions ψ (r) square-integrable in a given volume. The space with these characteristics is denoted by L2 , but since in general with add some requirements to these functions, we actually work in a subspace ̥ ⊆ L2 . On the other hand, we have seen that several bases can be constructed to represent those functions. Therefore, the Physical system will be described by either the functions ψ (r) or by the sete of its coordinates in a given representation. When the representation
CAP´ITULO 1. LINEAR OR VECTOR SPACES
80
is discrete we have a numerable set of coordinates (Fourier coefficients) while in the case of continuous bases, the set of coordinates is continuous as well (Fourier transforms). In particular, the continuous basis denoted as ξr0 (r) shows that the function ψ (r) can be considered as a coordiante system as well, because in this basis, each coordinate is defined as ψ (r0 ) i.e. the value of ψ at each fixed point r0 of the volume13 . We have now a situation similar to the one obtained in R3 , we can define a vector by a triple of coordinates in any basis defined by a set of coordinate axes. However, vectors in R3 can be defined geometrically (intrinsically), and its algebra can be performed in a coordinate-free form. In the same way, we wish to define our state vector in a coordinate free (or intrinsic) way. The abstract space of state vectors of a particle is denoted as Er which should be isometrically isomorphic with ̥. We should also define the notation and algebra on the Er space. Though we initially start with Er as identical to ̥, we shall see that it permits a generalization of the formalism when the states in ̥do not contain all the Physical information of the system, as is the case when spin degrees of freedom are introduced in the formalism. Hence, the algebra that we shall develop now will be valid when these generalizations are carried out. In developing this algebra we are going to present the Dirac notation which is useful in practical calculations
1.37.
Dirac notation
We are going to establish a one-to-one correspondence between the states of ̥ and the states of Er , though the latter will be extended later. Thus to every square-integrable function ψ (r) in ̥ we make to correspond an abstract vector in Er in the form ψ (r) ↔ |ψi an abstract vector in the notation |ψi will be called a ket. Notice that no r−dependence appears in |ψi. Indeed, ψ (r) is interpreted in this framework as a representation of |ψi in which each ψ (r) is a coordinate in the basis given by ξr (r′ ). Therefore, r plays the role of index (three continuous indices) for the particular basis used. The space of states of a particle in one dimension is denoted as Ex , while in three dimensions is Er .
1.37.1.
Elements of the dual or conjugate space Er∗
In section 1.9.2 we defined a one-to-one correspondence between vectors (kets) of a Hilbert space and functionals (bras) in the conjugate (dual) space in the following way (see Eqs. 1.29, 1.30) |ψi ↔ f|ψi ; f|ψi (|ϕi) ≡ (|ψi , |ϕi) Dirac notation designates f|ψi as hψ| which is called a bra. The correspondence above and the inner product will be written as |ψi ∈ Er ↔ hψ| ∈ Er∗ ; hψ| (|ϕi) ≡ (|ψi , |ϕi) it induces a natural notation for the inner product ((|ψi , |ϕi)) ≡ hψ| ϕi this is also called a bracket (i.e. the union of a bra with a ket). Let us now write the properties developed in section 1.9.2 Eq. (1.31), with this new notation fα|ψi+β|ϕi = α∗ f|ψi + β ∗ f|ϕi
α |ψi + β |ϕi ∈ Er ↔ α∗ hψ| + β ∗ hϕ| ∈ Er∗ 13 Notice that this is a simple way of defining an scalar field. A scalar field is completely delimited by defining its value at each point of the space in which the field is defined (at a given time). In this case the number of coordinates is cleraly the number of points in our space.
1.37. DIRAC NOTATION
81
which is consistent with the properties of the inner product (α |ψi + β |ϕi , |χi) = (α∗ hψ| + β ∗ hϕ|) |χi ⇒ hαψ + βϕ| χi = α∗ hψ| χi + β ∗ hϕ| χi
since the functionals (bras) are linear by definition, a linear combination of kets gives f|ψi (α |ϕi + β |χi) ≡ αf|ψi (|ϕi) + βf|ψi (|χi) in Dirac notation it reads hψ| αϕ + βχi = α hψ| ϕi + β hψ| χi from these facts it is clear that for any scalar α |αψi = α |ψi
;
hαψ| = α∗ hψ|
(1.152)
now since (|ψi , |ϕi) = (|ϕi , |ψi)∗ ⇒ hψ| ϕi = hϕ| ψi∗
1.37.2.
The correspondence between bras and kets with hyperbases
We have seen that hyperbases are sets of elements from which any element of the space can be expanded despite those elements do not belong to the space under study. On the other, hand we have seen that the correspondence between vectors and functionals (kets and bras) is one-to-one and onto. However, when hyperbases are used we shall see that some linear functionals (bras) can be well-defined while there is not a well-defined corresponding vector (ket) (ε) Assume for example that we have a ket in ̥ given by a sufficiently regular function ξx0 (x) such that Z ∞ dx ξx(ε) (x) = 1 0 −∞
E D (ε) (ε) with the form of a peak of height ∼ 1/ε and width ∼ ε centered at x = x0 . If ε 6= 0 then ξx0 ∈ Ex . Let ξx0 ∈ Ex∗ be its associated bra. The idea is to have a function that conveeges to the Dirac delta function when ε → 0. For each |ψi ∈ Ex we have that Z ∞ (ε) (ε) hξx0 |ψi = ξx0 , ψ = dx ξx(ε) (x) ψ (x) (1.153) 0 −∞
now we let ε to approach zero, and we find that
l´ım ξx(ε) ∈ / ̥x 0
ε→0
since the square of its norm to 1/ε and diverges. Nevertheless, in the limit ε → 0 the expression (1.153) is D tend (ε) still well-defined, so that ξx0 is still associated with a functional that can be applied to any element of the state space, we shall denote this bra as hξx0 | and this functional associates with each vector |ψi ∈ Ex the value ψ (x0 ) taken on by the associated wave function in ̥x at the point x0 D l´ım ξx(ε) = hξx0 | ∈ Ex∗ if |ψi ∈ Ex ⇒ hξx0 | ψi = ψ (x0 ) 0 ε→0
then the bra hξx0 | ∈ Ex∗ exists but there is not a ket associated with it in the hyperbasis.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
82
This dissymetry is associated with the use of a hyperbasis. The elements of the hyperbasis do not belong to ̥x and so has no elements associated in Ex either. However, the inner product of it with any element of ̥x is well-defined and it permits to associate a bra belonging to Ex∗ . Indeed, by the theory of Hilbert spaces the corresponding ket must exists, what really happens is that we cannot construct it as an element of our hyperbasis, this is perfectly undestandable since such elements are out of our Hilbert space. Notice that we have indeed extended the concept of inner product and we have applied it to elements out of our Hilbert space. For practical reasons it is usual to associate the bras hξx0 | ∈ Ex∗ to the “generalized ket” |ξx0 i that are not physical states but are advantageous from the practical point of view. Another example is the continuous basis consisting of plane waves truncated outside an interval of width L vp(L) (x) = √ 0
1 eip0 x/~ 2π~
; −
L L ≤x≤ 2 2
(L)
with the function vp0 (x) going rapidly Eto zero outside of that interval, but keeping continuity and differentiability. (L) The ket associated is denoted as vp0 E (L) vp(L) (x) ∈ ̥ ↔ v ∈ Ex x p0 0
the square of the norm is ∼ L/2π~, diverges if L → ∞. Therefore E l´ım vp(L) ∈ / Ex 0 L→∞
D E (L) (L) now we consider the limit of the bra vp0 associated with vp0 and applied to an arbitrary vector |ψi ∈ Ex Z L/2 D 1 (L) (L) vp0 ψi = vp0 , ψ ≃ √ dx e−ip0 x/~ 2π~ −L/2
in the limit L → ∞ we find ψ¯ (p0 ) i.e. the Fourier transform of ψ (x) evaluated at p = p0 . From which we see that the inner product converges and is well-defined D l´ım vp(L) ≡ hvp0 | ∈ Ex∗ 0 L→∞
E (L) but it does not correspond to the ket associated with the limit of kets of the form vp0 .
E (ε) We could take the results above with the following point of view, the ket |ξx0 i means the ket given by ξx0 with ε much smaller than any other length involved in the problem, so we are really working in Ex . The results obtained at theEend depends very little on ε as long as it is much smaller than any other length in the problem. (ε) Certainly, ξx0 does not form an orthonormal basis, and do not satisfy a closure realtion with ε 6= 0, but it aproaches the orthonormality and closure conditions as ε becomes very small. The introduction of generalized kets, will ensure that we balance bras and kets in the limits concerned above. Generalized kets do not have finite norm, but they can acquire a finite inner product with kets of our space of states.
1.38.
The action of linear operators in Dirac notation
Linear operators are characterized easily in Dirac notation ′ ψ = A |ψi ;
|ψi , ψ ′ ∈ Ex
A (α |ψi + β |ϕi) = αA |ψi + βA |ϕi
1.38. THE ACTION OF LINEAR OPERATORS IN DIRAC NOTATION
83
the product of operators writes AB |ψi = A (B |ψi)
it is also important to calculate the inner product between |ϕi and |ψ ′ i = A |ψi in the form |ϕi , ψ ′ = (|ϕi , A |ψi) = hϕ| (A |ψi) this is usually denoted simply as
hϕ| (A |ψi) ≡ hϕ| A |ψi
1.38.1.
Projectors
The simplest of all projectors are the ones in which the range are one dimensional subspaces of the Hilbert space. Let {|ψi} be the one dimensional space spanned by the single non-zero ket |ψi. The projector P|ψi takes an arbitrary ket |ϕi ∈ Ex and maps it into {|ψi} i.e. P|ψi |ϕi = α |ψi
; α ≡ hψ| ϕi
in Dirac notation it could be written as P|ψi ≡ |ψi hψ| ;
P|ψi |ϕi = (|ψi hψ|) |ϕi = |ψi hψ| ϕi = α |ψi
(1.154)
the most important property of a projector is the idempotence so that 2 P|ψi
≡
(|ψi hψ|) (|ψi hψ|) = |ψi hψ| ψi hψ| = P|ψi
⇒ hψ| ψi = 1
so the definition of P|ψi Eq. (1.154) as a projector is consistent only if |ψi is normalized. Now we can write the projector onto a subspace of more than one dimension. If nj is the dimension of the (n ) subspace Mj j ⊆ Ex we can define the projector from a complete orthonormal set i uj ; i = 1, .., nj (1.155) that spans such a subspace
(n1 )
Ex = M1
(nj )
⊕ . . . ⊕ Mj
⊕ ...
x = x1 + . . . + xj + . . . nj n1 X X (1) i (j) x = αi u1 + . . . + αi uij + . . . i=1
(n) αk
i=1
≡ ukn , x
PMj x = xj =
nj X
(j)
αi uij
i=1
PMj x =
nj X i=1
in Dirac notation it is
uij , x uij
nj nj X i X i i i uj uj |xi PMj |xi = huj |xi uj = i=1
i=1
CAP´ITULO 1. LINEAR OR VECTOR SPACES
84 thus a direct notation for the projector is PMj ≡
nj X i i uj uj
(1.156)
i=1
(nj )
it is clear that this is a projector as long as Eq. (1.155) defines an orthonormal set that spans Mj nj . 2 PM j
=
! nj ! nj nj nj ED X X E D X X i i k k uj uj uij huij ukj uj = ukj uj
i=1 nj nj
2 PM j
=
of dimension
i=1 k=1
k=1
XX uij δik i=1 k=1
D
nj X i i uj uj = PM ukj = j i=1
If we have an observable A, its spectrum of eigenvectors forms a basis and we can construct a complete orthonormal set. In that case, the spectral theorem (assuming it can be extended to infinite dimension for observables) says that the identity and the observable A itself can be decomposed by means of the projectors built on each eigensubspace of the observable, if Mi is the eigensubspace generated by the eigenvalue λi of A we have that Ex = M1 ⊕ . . . ⊕ Mi ⊕ . . . x = x1 + . . . + xi + . . .
Pi x = xi in Dirac notation we have Pi =
ni E D X j uji ui j=1
the spectral theorem says that ∞ X
i=1 ∞ X
Pi =
λi Pi =
i=1
ni E D ∞ X X j uji = I ui i=1 j=1 ni ∞ X X i=1 j=1
ED λi uji uji = A
(1.157) (1.158)
n o these forms will be applied frequently in quantum mechanics. Notice that Eq. (1.157) is valid if and only if uji is a complete orthonormal set. Thus the decomposition of the identity in projectors is usually taken as the closure relation for the basis (or hyperbasis) in which we are working. It is also usual to work with a more general type of projector of the form P = |ψi hϕ|
(1.159)
applying an arbitrary vector on it we find |ψi hϕ| χi = α |ψi ; α ≡ hϕ| χi this is a projector on the one dimensional subspace {|ψi}. This operator is idempotent only if hϕ| is normal, however it defines a non-orthogonal projection, since we shall see later that this operator is not self-adjoint or hermitian.
1.39. HERMITIAN CONJUGATION
1.39.
85
Hermitian conjugation
We have defined the action of a linear operator on a ket. We see that it induces a natural action of the operator on the bra f|ϕi (A |ψi) = (|ϕi , A |ψi) ≡ gA|ϕi (|ψi) ∀ |ψi ∈ Ex (1.160)
the definition of the new functional gA|ϕi from a given f|ϕi and a given A is written in Dirac notation as14 A
f|ϕi ≡ hϕ| → gA|ϕi ≡ hϕ| A
(1.161)
hϕ| (A |ψi) = (hϕ| A) (|ψi)
(1.162)
and Eq. (1.160) is written as so it is written simply as hϕ| A |ψi we should check that g is indeed a functional i.e. that it is a continuous linear mapping of the vectors into the complex numbers, the basic properties of functionals are reproduced gαA|ϕi+βA|χi (ψ) = α∗ gA|ϕi (|ψi) + β ∗ gA|χi (|ψi) gA|ϕi (α |ψi + β |χi) = αgA|ϕi (|ψi) + βgA|ϕi (|χi) Further, the association (1.161) is linear, to see it, we write a linear combination of bras hϕ| = λ1 hϕ1 | + λ2 hϕ2 | which means that hϕ| ψi = λ1 hϕ1 | ψi + λ2 hϕ2 | ψi ; ∀ |ψi ∈ Ex then (hϕ| A) (|ψi) = hϕ| (A |ψi) = (λ1 hϕ1 | + λ2 hϕ2 |) (A |ψi) = λ1 hϕ1 | (A |ψi) + λ2 hϕ2 | (A |ψi) = λ1 (hϕ1 | A) |ψi + λ2 (hϕ2 | A) |ψi since ψ is arbitrary we find hϕ| A = λ1 hϕ1 | A + λ2 hϕ2 | A notice that is different to start with a linear combination of kets from starting with a linear combination of bras, because the linear combination of a ket corresponds to a linear combination with conjugate coefficients in the bras (antilinearity). The order is important, the new bra induced from hϕ| by the operator A is written as hϕ| A and not in the form A hϕ|. For instance if we apply this relations to a ket the first expression hϕ| A |ψi is a complex number, while the second A hϕ| ψi = αA is another operator.
1.39.1.
The adjoint operator A† in Dirac notation
In Dirac notation we write |ψ ′ i = A |ψi ≡ |Aψi. We now want to know what is the corresponding bra |ψ ′ i ↔ hψ ′ | ≡ hAψ|. In mathematical notation the question is |ψi → f|ψi ; ψ ′ = A |ψi ≡ |Aψi ⇒ ′ ? ψ → f|ψ′ i 14
Notice that gA|ψi is a new functional induced from f|ϕi and A. Of course gA|ψi must be associated to some vector i.e. gA|ψi = f|χi for some |χi in our vector space, but it does not concern us. In particular, it is very important to observe that gA|ψi 6= fA|ψi .
CAP´ITULO 1. LINEAR OR VECTOR SPACES
86
to elucidate the answer we apply an arbitrary vector |ϕi to the functional we want to find fA|ψi (|ϕi) = f|ψ′ i (|ϕi) = hψ ′ |ϕi = hAψ| ϕi = hψ| A† ϕi where we have applied property (1.36). Now we apply property (1.162) to get E f|ψ′ i (|ϕi) = hψ| A† ϕ = hψ| A† (|ϕi)
since this is valid for |ϕi arbitrary we find
in Dirac notation we have then
f|ψ′ i ≡ ψ ′ = hψ| A†
′ ψ = A |ψi ≡ |Aψi
′ ψ = hψ| A† ≡ hAψ|
notice that as before, the mapping of the dual space into itself is denoted with the operator defined on the righthand side and not on the left15 . Further by assigning A = λI and taking into account that A† = λ∗ I we have that
′ ψ = hλψ| = hλIψ| = hψ| (λI)† = hψ| λ∗ I ⇒ hλψ| = λ∗ hψ|
in agreement with Eq. (1.152). On the other hand since
′ ψ ϕi = hϕ| ψ ′ i∗
we see that
hψ| A† |ϕi = hϕ| A |ψi∗
and we remember the most important properties of the adjoint operators (see Eqs. (1.35)) † A† = A , (αA + βB)† = α∗ A† + β ∗ B † (AB)† = B † A†
1.39.2.
(1.163)
(1.164) (1.165)
Mathematical objects and hermitian conjugation in Dirac notation
In general, the order of bras, kets and operators is of major importance, the only objects we can put in any order are scalars, for instance the mathematical objects λ hϕ| B |ψi ; λ hψ| B |ϕi ; λ hψ| ϕiB ; λ |ψi hϕ| B
(1.166)
are all distinct each other, the first and second are complex numbers, while the last two are operators, as can be verified by applying an arbitrary vector on the right-hand side of these objects. However, expressions like λ |ψi hϕ| B ; |ψi λ hϕ| B ; |ψi hϕ| λB ; |ψi hϕ| Bλ are all equal, indeed we could think about the multiplication by a scalar as equivalent to the operator λI which commutes with everything. 15 Stricktly speaking, a mapping of the dual (or conjugate) space into itself is carried out by the conjugate operator instead of the adjoint operator since the latter maps the Hilbert space into itself and not the dual. Notwithstanding, from the practical point of view this subtlety is irrelevant.
1.39. HERMITIAN CONJUGATION
87
We shall now define a useful operation that we call hermitian conjugation. Our basic objects are kets, bras, operators and scalars. In general words, hermitian conjugations are mappings induced by the existence of the dual E ∗ of our Hilbert space E. A ket |ψi ∈ E is naturally mapped into a bra hψ| ∈ E ∗ . A bra hψ| ∈ E ∗ is naturally mapped into an element of the conjugate space of E ∗ , i.e on E ∗∗ . However, for Hilbert spaces it can be shown that E ∗∗ = E hence the bra is mapped into its corresponding ket16 . An operator A in ß(E) is mapped naturally into the conjugate vector A∗ in ß(E ∗ ) but the inner product structure permits in turn to define another operator A† in ß(E) from A∗ and from the practical point of view we regard A∗ and A† as identical. Thus the hermitian conjugation in this case will be the mapping A → A† . Now finally for scalars. Taking into account that for all practical uses scalars λ can be considered as operators in ß(E) of the form λI we see that the natural hermitian conjugation gives λI → (λI)† = λ∗ . Therefore, the natural conjugation operation is λ → λ∗ . We notice now that the hermitian conjugation reverses the order of the objects to which it is applied. We have seen that (A |ψi)† = hψ| A† , Eq. (1.165) shows that the order of a product of operators is reversed when we apply the “adjointness” (or hermitian conjugation) on that product, when scalars are involved the place in which scalars are located is irrelevant. By the same token, let us see what is the conjugate of the non orthogonal projection defined in (1.159) P = |ψi hϕ| ; P † = (|ψi hϕ|)† applying Eq. (1.163) we find hχ| (|ψi hϕ|)† |ηi = [hη| (|ψi hϕ|) |χi]∗ = hη| ψi∗ hϕ| χi∗ = hχ| ϕi hψ| ηi hχ| (|ψi hϕ|)† |ηi = hχ| (|ϕi hψ|) |ηi then we have
; ∀ |ηi , |χi ∈ E
(|ψi hϕ|)† = |ϕi hψ|
(1.167)
once again, the hermitian conjugation converts each object in its hermitian conjugate and reverse the order of such objects. These observations permit to give a rule to obtain the hermitian conjugate of a mathematical object composed by a juxtaposition of bras, kets, operators and scalars. The rule is (a) replace each object by its hermitian conjugate |ψi → hψ| , hϕ| → |ϕi ,
A → A† , λ → λ∗
and (b) reverse the order of the factors, taking into account that the position of the scalars are not relevant. The hermitian conjugate of the objects defined in (1.166) are given by [λ hϕ| B |ψi]† = hψ| B † |ϕi λ∗ = λ∗ hψ| B † |ϕi = [λ hϕ| B |ψi]∗ [λ hψ| B |ϕi]† = hϕ| B † |ψi λ∗ = λ∗ hϕ| B † |ψi = [λ hψ| B |ϕi]∗ [λ hψ| ϕiB]† = B † hϕ| ψiλ∗ = λ∗ hϕ| ψiB † = (λ hψ| ϕi)∗ B †
[λ |ψi hϕ| B]† = B † |ϕi hψ| λ∗ = λ∗ B † |ϕi hψ| = λ∗ B † [|ψi hϕ|]† in the first two expressions the original mathematical objects are scalars and hence the hermitian conjugates are also scalars (the complex conjugates of the original scalars). In the third expression the original object is an operator and its hermitian conjugate is also an operator (the adjoint of the original operator). In the fourth expression, the original object is a product of two operators and a scalar (a scalar times a projection times the operator B) and the adjoint is the product of the scalar and adjoint of each of the operators in reverse order. In 16 In Banach spaces, the property B ∗∗ = B is called reflexibity and is not in general satisfied. For Hilbert spaces, reflexibity is automatic from which we can assign the dual element of a dual element to the original vector. This is another satisfying property of Hilbert spaces, not accomplished by general Banach spaces.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
88
each case, the scalars are located in the most convenient place since their positions are unimportant. Indeed, we can put the conjugate of the scalars in any place, for instance in the case [λ |χi hψ| B |ϕi]† = [λ hψ| B |ϕi |χi]† = λ∗ hψ| B |ϕi∗ hχ| that coincides with the rules when we take into account Eq. (1.163). It is important to see that according to (1.167) the projectors given by (1.154) are hermitian, thus according to theorem 1.44, they are orthogonal projectors (i.e. projectors in the sense of a Hilbert space), this in turn says that the sums in (1.156) are also orthogonal projectors (see theorem 1.50). On the other hand, the projectors described by (1.159) with |ϕi = 6 |ψi are non-hermitian and consequently they are non-orthogonal projections.
1.40.
Theory of representations of E in Dirac notation
For most of our purposes we shall use a representation with respect to orthonormal bases. The particular problem suggests the particular basis to work with. Most of the developments here are not new but gives us a very good opportunity of using the Dirac notation and be aware of its great advantages as a tool for calculations. We are going to describe the representation theory in both discrete and continuous bases.
1.40.1.
Orthonormalization and closure relation
In Dirac notation, the orthonormality of a set of discrete {|ui i} or continuous {|wα i} orthonormal kets is expressed by hui |uj i = δij ; hwα |wα′ i = δ α − α′
we emphasize once again that hwα |wα i diverges so that |wα i does not have a bounded norm and thus it does not belong to our state space. We call |wα i generalized kets because they can be used to expand any ket of our state space. A discrete set {ui } or a continuous one {wα } constitutes a basis if each ket |ψi of our state space can be expanded in a unique way on each of these sets Z X |ψi = ci |ui i ; |ψi = dα c (α) |wα i (1.168) i
the problem is considerably simplified if we asume that the bases are orthonormal, because in that case we can extract the coefficients by applying a bra huk | or hwα′ | on both sides of these equations Z X ci |ui i ; hwα′ |ψi = hwα′ | dα c (α) |wα i huk |ψi = huk | huk |ψi =
hw |ψi = α′
X Zi
i
ci huk | ui i =
X
ci δki = ck
i
dα c (α) hw | wα i = α′
Z
from which we obtain the familiar result ck = huk |ψi
;
dα c (α) δ α − α′ = c α′
c α′ = hwα′ |ψi
(1.169)
replacing the Fourier coefficients (1.169) in the expansions (1.168) we find |ψi = |ψi =
X
Z
i
hui |ψi |ui i =
X i
|ui i hui |ψi =
dα hwα |ψi |wα i =
Z
X i
!
|ui i hui | |ψi
dα |wα i hwα |ψi =
Z
dα |wα i hwα | |ψi
1.40. THEORY OF REPRESENTATIONS OF E IN DIRAC NOTATION
89
since this is valid for any ket |ψi ∈ E the operators in parenthesis must be the identity operator on E Z X |ui i hui | = I ; P{wα } ≡ dα |wα i hwα | = 1 P{ui } ≡
(1.170)
i
we can reverse the steps and show that applying the identity in the form given by Eqs. (1.170) we obtain that any |ψi ∈ E must be a unique linear combination of {|ui i} or {|wα i} ! X X |ui i hui | |ψi = |ui i hui | ψi |ψi = I |ψi = P{ui } |ψi = |ψi =
X i
i
i
ci |ui i ; ci ≡ hui | ψi Z
(1.171)
Z dα |wα i hwα | |ψi = dα |wα i hwα | ψi
|ψi = I |ψi = P{wα } |ψi = Z |ψi = dα c (α) |wα i ; c (α) ≡ hwα | ψi
these facts show that Eqs. (1.170) manifest a closure relation in Dirac notation. This is consistent with our discussion in Sec. 1.38.1 that led to Eq. (1.157), in which we saw that each element of the form |ui i hui | is a projector operator and Eqs. (1.170) are decompositions of the identity in projectors17 . In other words, the projector given by the sums in (1.170) has the whole space as its range. In the case of the continuous basis, they are “hyperprojectors” but we shall call them projectors from now on. Hence the representation of a ket |ψi in a discrete basis is given by the set of its fourier coefficients {hui | ψi} it is usually written in matrix form as a column matrix hu1 | ψi c1 hu2 | ψi c2 .. . . = . . |ψi = hui | ψi ci .. .. . . the representation of a ket |ψi in a continuous basis is given by the set of its fourier transforms {hui | ψi} it is usually written in continuous matrix form as a column matrix .. .. . . = c (α) |ψi = hw | ψi α .. .. . . the representation of a bra can be obtain by the same insertion of the identity as follows X hψ| = hψ| I = hψ| P{ui } = hψ| ui i hui | hψ| =
17
X i
i
c∗i hui |
; ci = hui | ψi
In Eq. (1.157) the lower index labels the eigenvalue and the upper index indicates the degree of degeneracy of the given eigenvalue. In Eq. (1.170) the single index runs over all different eigenvectors.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
90
which can also be obtained by taking the hermitian conjugation of Eq. (1.171) and applying (1.152). For continuous basis the process is similar Z hψ| = hψ| I = hψ| P{wα } = dα hψ| wα i hwα | Z hψ| = dα c∗ (α) hwα | ; c (α) = hwα | ψi in matrix notation the bra is represented as a one row matrix of the coefficients, in both the discrete and continuous cases hψ| = hψ| u1 i hψ| u2 i · · · hψ| ui i · · · hψ| = c∗1 c∗2 · · · c∗3 · · · hψ| =
···
c∗ (α) · · ·
by comparing the representation of the corresponding ket |ψi we see that the representation of the bra is obtained by transposing the matrix representative of the ket (i.e. converting the column in a row) and taking the conjugate of each element. Let us reproduce the inner product expressions (1.107) and (1.114) by insertion of the identity with projectors hϕ| ψi = hϕ| I |ψi = hϕ| P{ui } |ψi = hϕ| ψi =
X i
b∗i ci ;
X i
hϕ| ui ihui |ψi
bi = hui | ϕi ; ci = hui |ψi Z
hϕ| ψi = hϕ| I |ψi = hϕ| P{wα } |ψi = dα hϕ| wα ihwα |ψi Z hϕ| ψi = dα b∗ (α) c (α) ; b (α) = hwα | ϕi ; c (α) = hwα |ψi in matrix form we can see the inner product as the product of a row vector times a column vector c1 c2 .. X ∗ ∗ ∗ ∗ hϕ| ψi = b1 b2 · · · b3 · · · bi ci . = ci i .. . in continuum form we have
hϕ| ψi =
···
.. Z . ∗ b (α) · · · c (α) = dα b∗ (α) c (α) .. .
and the norms are obtained with ϕ = ψ i.e. bi = ci or b (α) = c (α) X 2 Z 2 hψ| ψi = kψk = |ci | = dα |c (α)|2 i
1.40. THEORY OF REPRESENTATIONS OF E IN DIRAC NOTATION
1.40.2.
91
Representation of operators in Dirac notation
Let us see the representation of an operator A under a basis {ui } or {wα }. We have seen that a matrix representative of A under the basis {ui } is Aij = hui | Auj i = hui | A |uj i and in a continuous basis
A α, α′ = hwα | A |wα′ i
they are arranged in a square matrix with infinite countable or continuous numbers of columns and rows
A=
A11 A12 · · · A21 A22 · · · .. .. . . Ai1 Ai2 · · · .. .. . .
A= ···
A1j A2j .. . Aij .. .
··· ··· ···
.. . A (α, α′ ) · · · .. .
it is interesting to see the matrix representative of a product of operators by insertion of the identity (AB)ij = hui | AB |uj i = hui | AIB |uj i = hui | AP{ui } B |uj i = (AB)ij =
X
Aik Bkj
X k
hui | A |uk i huk | B |uj i
k
which coincides with the algorithm for matrix multiplication developed in Sec. 1.14.1, Eq. (1.50). We can develop easily the matrix multiplication algorithm with continuum matrices (AB) (α, β) = hwα | AB |wβ i = hwα | AIB |wβ i = hwα | AP{ui } B |wβ i Z (AB) (α, β) = dγ hwα | A |wγ i hwγ | B |wβ i Z (AB) (α, β) = dγ A (α, γ) B (γ, β)
(1.172)
now let us see the matrix representative of the ket |ψ ′ i given by A |ψi = ψ ′
from the knowledge of the components of |ψi and A, in a given representation {ui }. The coordinates of |ψ ′ i in this basis is X c′i = hui ψ ′ = hui | A |ψi = hui | AI |ψi = hui | AP{ui } |ψi = hui | A |uk i huk | ψi c′i
=
X k
k
Aik ck
CAP´ITULO 1. LINEAR OR VECTOR SPACES
92 that explicitly can be illustrated as ′ c1 c′ 2 .. . c′ i .. .
=
A11 A12 · · · A21 A22 · · · .. .. . . Ai1 Ai2 · · · .. .. . .
A1j A2j .. . Aij .. .
··· ··· ···
c1 c2 .. .
ci .. .
with a continuous basis {wα } we have ′
Z
′
c (α) = hwα | ψ i = hwα | A |ψi = hwα | AI |ψi = hwα | AP{wα } |ψi = Z ′ dβ A (α, β) c (β) c (α) =
dβ hwα | A |wβ i hwβ |ψi
which is the continuous extension of multiplication of a matrix with a column vector. Let us see the representation of the bra hψ| A hψ| A = hψ| IAI = =
XX i
j
XX i
j
hψ| ui i hui | A |uj i huj |
c∗i Aij huj |
Therefore, the bra hψ| A is represented by the product of the matrix representing A respecting the order A11 A21 .. ∗ ∗ ∗ hψ| A = c1 c2 · · · c3 · · · . Ai1 .. .
row matrix that represents hψ| times the square A12 · · · A22 · · · .. .
A1j A2j .. .
···
Aij .. .
Ai2 .. .
··· ··· ···
observe that the matrix product is not defined in the opposite order, thus we cannot give meaning to A hψ|. In many cases, it is also interesting to calculate the element hϕ| A |ψi in terms of the coordinates of the bra and the ket and in terms of the components of A. To do it, we insert an expansion of the identity twice hϕ| A |ψi = hϕ| IAI |ψi = hϕ| P{ui } AP{ui } |ψi = hϕ| A |ψi =
XX i
b∗i Aij cj
j
XX i
j
hϕ| ui i hui | A |uj i huj |ψi
; bi = hui | ϕi, Aij = hui | A |uj i , cj = huj |ψi
which in matrix form is written as a bilinear form
hϕ| A |ψi =
b∗1 b∗2 · · ·
b∗3
···
A11 A12 · · · A21 A22 · · · .. .. . . Ai1 Ai2 · · · .. .. . .
A1j A2j .. . Aij .. .
··· ··· ···
c1 c2 .. .
ci .. .
(1.173)
1.41. CHANGE OF REPRESENTATIONS
93
this is the natural way of superposing the representations of hϕ|, A, and |ψi respecting the order. The result is of course a number. The extension for continuous bases is Z Z hϕ| A |ψi = hϕ| P{wα } AP{wβ } |ψi = dα dβ hϕ| wα i hwα | A |wβ i hwβ |ψi and we obtain hϕ| A |ψi =
Z Z
dα dβ b∗ (α) A (α, β) c (β)
b (α) = hwα | ϕi ; A (α, β) = hwα | A |wβ i ; c (β) = hwβ |ψi notice that Eq. (1.162) expresses the associativity of the matrix expressions given by Eq. (1.173). Finally, the projection operator P = |ψi hψ| has matrix representative given by Pij = hui | P |uj i = hui | ψihψ |uj i = ci c∗j in matrix language it is written as c1 c2 .. |ψi hψ| = . ci .. .
c∗1 c∗2 · · ·
c∗3
··· =
c1 c∗1 c1 c∗2 · · · c2 c∗1 c2 c∗2 · · · .. .. . . ci c∗1 ci c∗2 · · · .. .. . .
c1 c∗j · · · c2 c∗j · · · .. . ∗ ci cj · · · .. .
this representation is particularly simple when P = |uk i huk | i.e. when the ket that forms the projector is part of the basis. The matrix representation of the adjoint operator is obtained by using property (1.163) A† = hui | A† |uj i = huj | A |ui i∗ = A∗ji ij A† (α, β) = hwα | A† |wβ i = hwβ | A |wα i∗ = A∗ (β, α)
these results coincide with the one obtained in Eq. (1.70). If A is hermitian then A = A† and Aij = A∗ji ; A (α, β) = A∗ (β, α)
(1.174)
in particular applying these conditions for i = j or α = β we see that the diagonal elements of an hermitian matrix are real. These facts are valid only if the basis is orthonormal, otherwise the matrix representative of the adjoint of the matrix takes another form.
1.41.
Change of representations
In a representation characterized by a given orthonormal basis {|ui i} the kets, bras and operators have some specific matrix representatives. We want to write the matrix representative of these objects in a new orthonormal basis {|tk i} using the Dirac notation18 . For future purposes we define the matrix S in the form ∗ Sik ≡ hui | tk i ; S† = Sik = htk | ui i ki
18
This problem is a bit lees general that the one treated in Sec. (1.14), because in that section the bases involved are non necessarily orthonormal. However, in this case we are treating the problem in infinite dimension.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
94 (k)
To give a geometrical meaning to S, let define Vi ≡ Sik and V(k) the k−th column vector with components Sik . Then, it is clear that V(k) is the matrix representative (column matrix) of the element |tk i in the basis {|ui i}. We then construct a square matrix by putting these column vectors side by side S12 S11 S12 · · · S11 S = V(1) V(2) · · · = S21 S22 · · · = S21 S22 · · · .. .. .. .. . . . . We can also see that S is a unitary matrix X † X S †S = Ski Sim = htk | ui i hui | tm i = htk | P{ui } |tm i = htk | tm i = δkm km
consequently
SS †
ij
i
=
X
i
† Sik Skj
=
k
X k
hui | tk i htk | uj i = hui | P{tk } |uj i = hui | uj i = δij S † S = SS † = I
On the other hand, we will also require the closure and orthonormalization relations with both bases X |ui i hui | = I ; hui | uj i = δij P{ui } = i
P{tk } =
1.41.1.
X k
|tk i htk | = I
htk | tm i = δkm
;
Transformation of the coordinates of a ket
The coordinates of a ket |ψi in the basis {|ui i} are hui | ψi ≡ |ψi(ui ) . To know the coordinates in the new basis htk | ψi, in terms of the old ones, we insert the closure relation for {|uk i} in the element htk | ψi X X † htk | ψi = htk | ui i hui | ψi = Ski hui | ψi i
(t) ck
=
X
i
† (u) Ski ci
(t)
; c
= S † c(u)
i
The inverse relation can be obtained by taking into account that S † = S −1 c(t) = S −1 c(u) ⇒ c(u) = Sc(t) or alternatively by inserting an identity in the element hui | ψi X X hui | ψi = hui | tk i htk | ψi = Sik htk | ψi k
(u) ci
=
X
k
(t) Sik ck
(u)
; c
= Sc(t)
k
1.41.2.
Transformation of the coordinates of a bra
We insert the identity in the element hψ| tk i X X hψ| tk i = hψ| ui i hui | tk i = hψ| ui iSik i
∗(t) ck
=
X i
similarly
i
∗(u) ci Sik
∗(t)
⇒e c
e c∗(u) = e c∗(t) S †
=e c∗(u) S
1.42. REPRESENTATION OF THE EIGENVALUE PROBLEM IN DIRAC NOTATION
1.41.3.
95
Transformation of the matrix elements of an operator
We start with htk | A |tm i and insert two identities XX X † (u) htk | A |tm i = htk | IAI |tm i = htk | ui i hui | A |uj i huj |tm i = Ski Aij Sjm (t) Akm
=
X
i
† (u) Ski Aij Sjm
j
i,j
; A(t) = S † A(u) S
(1.175)
i,j
and the inverse relation is obtained from huk | A |um i = (u) Akm
=
X i,j
X
huk | ti i hti | A |tj i htj |um i = (t) † Ski Aij Sjm
;
X
(t)
† Ski Aij Sjm
i,j
A(u) = SA(t) S †
(1.176)
i,j
or taking into account that S † = S −1 .
1.42.
Representation of the eigenvalue problem in Dirac notation
For a given observable A the eigenvalue problem reads A |ψi = λ |ψi we want to construct its matrix representation in a basis {ui }. We first multiply by a bra of the form hui | on both sides hui | A |ψi = λhui |ψi and insert an identity
X j
hui | A |uj i huj |ψi = λhui |ψi X
Aij cj
j
= λci ; ci ≡ hui |ψi ; Aij ≡ hui | A |uj i
with ci and Aij the matrix elements of |ψi and A in the basis {ui }. This expression can be rewritten as X [Aij − λδij ] cj = 0 j
which is the well known expression for the eigenvalue problem in matrix form.
1.42.1.
C.S.C.O. in Dirac notation
n o (1) (m) Assume that a given set of observables {A1 , ..., Am } forms a C.S.C.O. Then a given set of eigenvalues an1 , ..., anm defines a unique normalized eigenvector common to all the observables (within a phase factor). We shall see later that any set of kets that differ in a global phase factor |ψi , eiθ1 |ψi , ..., eiθk |ψi
n o (1) (m) have the same physical information. Thus, the normalized ket associated with the set an1 , ..., anm is unique from the physical pointof view. Therefore, it is usual to denote the corresponding ket in the form |ψn1 ,...,nm i or simply as |n1 , n2 , ..., nm i and the set of eigenvalues are called quantum numbers. Ai |n1 , . . . , ni , ..., nm i = a(i) ni |n1 , . . . , ni , ..., nm i ; i = 1, .., m
CAP´ITULO 1. LINEAR OR VECTOR SPACES
96
1.43.
The continuous bases |ri and |pi
From the wave functions space ̥ we have constructed the abstract space Er such that there is an isometric isomorphism of ̥ onto Er , therefore they are abstractly identical as Hilbert spaces. Consequently, an element ψ (r) ∈ ̥ has a unique image |ψi ∈ Er and vice versa. In particular, the inner product must be preserved by this correspondence |ψi ↔ ψ (r) ; |ϕi ↔ ϕ (r) ; hψ| ↔ ψ ∗ (r) ; hϕ| ↔ ϕ∗ (r) Z (|ϕi , |ψi) = (ϕ, ψ) ≡ hϕ| ψi = d3 r ϕ∗ (r) ψ (r) Er will describe the state space of a spinless particle. We have discussed before that ψ (r) can also be interpreted as a representation of the abstract ket |ψi in the continuous basis {ξr (r′ )} defined in Eq. (1.120). We also saw that ξr (r′ ) are not elements of ̥, but they can be used to expand any element of ̥ in a unique way. We call ξr (r′ ) “generalized wave functions” and it is natural to associate with them some “generalized kets” denoted as |ri that do not belong to Er but can expand any element of Er in such a way that if ψ (r) ↔ |ψi then the expansion of ψ (r) under ξr (r′ ) has the same coefficients as the expansion of |ψi under |ri Z Z ψ (r) = dr′ c r′ ξr′ (r) ; |ψi = dr′ c r′ r′
We denote this association as ξr ↔ |ri. Similarly, for the continuous basis defined in Eq. (1.116) by {vp (r)} which has plane waves as “generalized wave functions”, we shall have a continuous basis of Er denoted as |p0 i ξr r′ ↔ |ri ; vp (r) ↔ |pi therefore, using the bases {ξr (r′ )} and {vp (r)} of ̥ we have defined two continuous basis in Er denoted as {|ri} and {|pi}. Consequently, all bras, kets and operators in Er will have a continuous matrix representation in these bases. The basis {|ri} is labeled by three continuous indices x, y, z which are the coordinates of a point in three dimensional space. Similarly, the basis {|pi} is labeled by three continuous indices px , py , pz which are components of a cartesian vector.
1.43.1.
Orthonormalization and closure relations
We shall calculate hr |r′ i using the definition of the scalar product in Er Z Z ′ 3 ′′ ∗ ′′ ′′ hr r = d r ξr r ξr′ r = d3 r′′ δ r′′ − r δ r′′ − r′ hr r′ = δ r − r′
(1.177)
similarly
Z Z Z ′ ′ 1 3 1 3 3 ∗ 3 −ip·r/~ ip′ ·r hp p = d r vp (r) vp′ (r) = d re e = d3 r e−i(p−p )·r/~ 2π~ 2π~ ′ ′ hp p = δ p−p
where we have used property (1.117). The closure relations for {|ri} and {|pi} are written according with the second of Eqs. (1.170) integrating over three indices instead of one. The orthonormality and closure relations for these bases are then hr r′ = δ r − r′ ; hp p′ = δ p − p′ (1.178) Z Z d3 r |ri hr| = I ; d3 p |pi hp| = I (1.179)
1.43. THE CONTINUOUS BASES |Ri AND |Pi
1.43.2.
97
Coordinates of kets and bras in {|ri} and {|pi}
Consider an arbitrary ket |ψi corresponding to a wave function ψ (r). The closure relations for {|ri} and {|pi} permits to expand |ψi as Z Z Z Z 3 3 3 (1.180) |ψi = d r |ri hr| ψi = d r c (r) |ri ; |ψi = d p |pi hp| ψi = d3 p c¯ (p) |pi the coefficients c (r) = hr| ψi and c¯ (p) = hp| ψi are calculated as follows Z Z 3 ′ ∗ ′ ′ hr| ψi = d r ξr r ψ r = d3 r′ δ r′ − r ψ r′ = ψ (r) hp| ψi =
ψ (r) =
c (r) = hr| ψi = ψ (r)
;
Z
3
d r
vp∗ (r)
1 2π~
3/2 Z
d3 r e−ip·r/~ ψ (r) = ψ¯ (p)
hence c¯ (p) = hp| ψi = ψ¯ (p)
(1.181)
the coefficients c (r) of the expansion of |ψi under {|ri} are the wave functions evaluated at the point r, this fact reinforces the interpretation of the wave function as the representation of |ψi under the basis |ri. The coefficients c¯ (p) are the fourier transforms of the wave function, this coefficients ψ¯ (p) are usually called “wave functions in momentum space”, since they represent the same abstract vector |ψi it is clear that ψ (r) and ψ¯ (p) contain the same physical information, this can also be seen by taking into account that given ψ (r) then ψ¯ (p) is uniquely determined and vice versa. On the other hand, by comparing Eqs. (1.180, 1.181) with Eqs. (1.121, 1.122) we see that if ψ (r) ↔ |ψi then the expansion of ψ (r) under ξr (r′ ) has the same coefficients as the expansion of |ψi under |ri as we demanded. Similar situation occurs with the basis {vp } in ̥ and the basis |pi in Er . An important particular case arises when |ψi = |pi which is indeed a generalized ket. Assuming that all the relations above are also valid for generalized kets, and taking into account that |pi ↔ vp (r), then Eq. (1.181) gives 1 3/2 ip·r/~ hr| pi = vp (r) = e (1.182) 2π~ the same result is obtained by taking into account the equality of the inner product of vectors in ̥ and vectors in Er when this equality is extended to generalized vectors Z Z hr| pi = (|ri , |pi) = (ξr , vp ) = d3 r′ ξr∗ r′ vp r′ = d3 r′ δ r′ − r vp r′ = vp (r) applying Eq. (1.181) for |ψi = |r′ i ↔ ψ (r) = ξr′ (r) we find
hr| r′ i = ξr′ (r) = δ r − r′
which is consistent with the orthonormalization relation. Similar arguments leads to hp| ri =
vp∗ (r)
=
1 2π~
3/2
e−ip·r/~ ;
hp| p′ i = δ p − p′
Assume that we have an orthonormal basis {ui (r)} in ̥ and an orthonormal basis {|ui i} in Er such that ui (r) ↔ |ui i. Starting with the closure relation for {|ui i} in Er X i
|ui i hui | = I
CAP´ITULO 1. LINEAR OR VECTOR SPACES
98
and evaluating the matrix element of it between |ri and |r′ i we have X hr |ui i hui | r′ i = hr| I r′ = hr| r′ i i
and using Eqs. (1.181, 1.178) we find
X i
ui (r) u∗i r′ = δ r − r′
which is the closure relation as it was expressed in Eq. (1.110) for {ui (r)} in ̥, reversing the steps we can obtain the closure relation for {|ui i} in Er starting from the closure relation for {ui (r)} in ̥19 . Notice that the inner product of two kets in terms of their coordinates under the basis {|ri} is a particular case of Eq. (1.114). Equivalently, we obtain it by insertion of the identity Z hϕ |ψi = d3 r hϕ |ri hr |ψi and interpreting the components hϕ |ri and hr |ψi as in Eq. (1.181) Z hϕ |ψi = d3 r ϕ∗ (r) ψ (r) a similar procedure can be done for the basis {|pi} Z Z 3 hϕ |ψi = d p hϕ |pi hp |ψi = d3 p ϕ ¯∗ (p) ψ¯ (p) from which it is obtained
Z
d3 r ϕ∗ (r) ψ (r) =
this is a well-known property of the Fourier trasnforms.
1.43.3.
Z
d3 p ϕ ¯∗ (p) ψ¯ (p)
Changing from the {|ri} representation to {|pi} representation and vice versa
The procedure is similar to the one in section 1.41 but for continuous basis. If we consider the change from {|ri} to {|pi}, the unitary matrix S of changing the basis is 1 3/2 ip·r/~ S (r, p) = hr |pi = e (1.183) 2π~ a ket |ψi is represented as ψ (r) in {|ri} and we know well that in {|pi} it is given by ψ¯ (p). Here we see that it is consistent with the formalism developed in Sec. 1.41 hp |ψi = ψ¯ (p) = similarly hr |ψi = ψ (r) = 19
Z
3
Z
d r hp |ri hr |ψi = 1 2π~
3/2 Z
3
3/2 Z
d3 r S† (r, p) hr |ψi
d3 r e−ip·r/~ ψ (r)
d p hr |pi hp |ψi = 1 2π~
Z
Z
(1.184)
d3 p S (r, p) hp |ψi
d3 p eip·r/~ ψ¯ (p)
(1.185)
Notice that I (r, r′ ) = hr′ | I |ri = hr′ | ri = δ (r − r′ ) shows that the Dirac delta can be seen as the representation of the identity under the continuous hyperbasis {|ri}.
1.43. THE CONTINUOUS BASES |Ri AND |Pi
99
the representation of bras can be obtained by hermitian conjugation of the relations with kets. Now for a given operator, the matrix elements in {|pi} read A (p′ , p) = hp′ | A |pi inserting two identities we get Z Z
′
3 ′ p A |pi = d3 r p′ r′ i r′ A |ri hr |pi d r Z Z
′ 3 ′ d3 r S † r′ , p′ A r′ , r S (r, p) p A |pi = d r
which is the continuous generalization of (1.175). Using (1.183) we find Z Z 1 3 ′ ′ ′ d3 r′ d3 r e−ip ·r /~ A r′ , r eip·r/~ A p ,p = 2π~ Z Z 1 3 ′ ′ ′ A p ,p = d3 r′ d3 r e−i(p ·r −p·r)/~ A r′ , r 2π~ the inverse relation is obtained from
′ r A |ri =
′ r A |ri =
Z Z
3 ′
d p
d3 p′
Z Z
d3 p r′ p′ i p′ A |pi hp |ri
d3 p S r′ , p′ A p′ , p S † (r, p)
this is the continuous generalization of (1.176). From (1.183) we find Z Z 1 3 ′ ′ A r′ , r = d3 p′ d3 p eip ·r /~ A p′ , p e−ip·r/~ 2π~ Z Z 1 3 ′ ′ d3 p′ d3 p ei(p ·r −p·r)/~ A p′ , p A r′ , r = 2π~
1.43.4.
The R and P operators
Let |ψi be an arbitrary ket of Er and ψ (r) = ψ (x, y, z) the corresponding wave function. We define an operator X in the form20 ′ ψ = X |ψi such that in the {|ri} representation the associated wave function ψ ′ (r) = ψ (x, y, z) is given by ψ ′ (x, y, z) = xψ (x, y, z)
(1.186)
so in the {|ri} representation, it corresponds to the operator that multiplies the wave function by x. We should emphasize however, that the operator X is defined on the Er state space. Eq. (1.186) can be expressed by hr| X |ψi = hr| ψ ′ i = ψ ′ (r) = xψ (r) = xhr |ψi Of course, we can introduce the operators Y and Z in a similar way hr| X |ψi = xhr |ψi , hr| Y |ψi = yhr |ψi , hr| Z |ψi = zhr |ψi ; |ri = |x, y, zi
(1.187)
we can consider X, Y, Z as the “components” of a “vector operator” R, by now it only means a condensed notation inspired in the fact that x, y, z are the components of the ordinary vector r. 20
The operator X does not belong to ß(Er ), because for some square integrable functions ψ (r), the function ψ ′ (r) defined in Eq. (1.186) is not square integrable.
CAP´ITULO 1. LINEAR OR VECTOR SPACES
100
These operators can be easily manipulated in the {|ri} representation. For instance, the element hϕ| X |ψi can be calculated as Z Z 3 hϕ| X |ψi = d r hϕ| ri hr| X |ψi = d3 r ϕ∗ (r) x ψ (r) similarly, we define the operators Px , Py , Pz that forms the “vector operator” P, such that their action in the {|pi} representation is given by hp| Px |ψi = px hp |ψi , hp| Py |ψi = py hp |ψi , hp| Pz |ψi = pz hp |ψi ; |pi = |px , py , pz i
(1.188)
however, when we require to work with both operators simultaneously, we should choose only one basis. Hence, it is important to know how the operator P acts in the {|ri} representation, and how the operator R acts in the {|pi} representation. Let us first look for the way in which the operator P acts in the {|ri} representation. For this, we use Eqs. (1.181, 1.182, 1.188) to evaluate hr| Px |ψi =
Z
3
d p hr| pi hp| Px |ψi =
Z
3
d p hr| pipx hp| ψi =
1 2π~
3/2 Z
d3 p eip·r/~ px ψ¯ (p)
(1.189)
to evaluate this term we start with the expression of the Fourier transform Eq. (1.185)
ψ (r) = ∂ψ (r) ∂x ∂ψ (r) ∂x
1 2π~
3/2 Z
∞
d3 p eip·r/~ ψ¯ (p)
−∞ 3/2 Z ∞
∂ ip·r/~ ¯ = d p e ψ (p) ∂x −∞ Z 1 3/2 ∞ 3 i = d p px eip·r/~ ψ¯ (p) 2π~ ~ −∞ 1 2π~
we have that ~ ∂ψ (r) = i ∂x
1 2π~
3
3/2 Z
∞
d3 p px eip·r/~ ψ¯ (p)
(1.190)
−∞
if we continue derivating this expression we find ∂ n ψ (r) = ∂xn
1 2π~
3/2 Z
∞
d3 p
−∞
i px ~
n
eip·r/~ ψ¯ (p)
replacing (1.190) in (1.189) we obtain hr| Px |ψi =
~ ∂ψ (r) i ∂x
and similarly for Py , Pz . In vector form we summarize it as hr| P |ψi =
~ ∇hr |ψi i
(1.191)
in the {|ri} representation, the operator P coincides with the differential operator acting on the wave functions. Let us calculate hϕ| Px |ψi in the {|ri} representation hϕ| Px |ψi =
Z
3
d r hϕ |ri hr| Px |ψi =
Z
~ ∂ d r ϕ (r) ψ (r) i ∂x 3
∗
(1.192)
1.43. THE CONTINUOUS BASES |Ri AND |Pi
101
of great importance are the commutators among the components Pi , Ri . We shall calculate them in the {|ri} representation, for instance hr| [X, Px ] |ψi = hr| (XPx − Px X) |ψi = hr| (XPx ) |ψi − hr| (Px X) |ψi ~ ∂ hr| Xψi = hr| X |Px ψi − hr| Px |Xψi = x hr| Px ψi − i ∂x ~ ∂ ~ ∂ ~ ∂ = x hr| Px |ψi − hr| X |ψi = x hr| ψi − [x hr| ψi] i ∂x i ∂x i ∂x ~ ∂ ~ ∂ ~ x hr| ψi − x [hr| ψi] − hr| ψi = i ∂x i ∂x i so that hr| [X, Px ] |ψi = i~ hr| ψi since this is valid for any ket |ψi and any generalized ket |ri of the basis, we conclude that [X, Px ] = i~I it is usual to omit the identity operator since it is not important for practical calculations. In a similar way, we can calculate the other commutators, to condense notation it is convenient to define R1 ≡ X, R2 ≡ Y, R3 ≡ Z, P1 ≡ Px , P2 ≡ Py , P3 ≡ Pz to write [Ri , Rj ] = [Pi , Pj ] = 0 ; [Ri , Pj ] = i~δij
(1.193)
they are called canonical commutation relations. These relations are intrinsic and should not depend on the basis in which we derive them. We can show that R and P are hermitian operators. For example let us show that X is hermitian Z ∗ Z Z ∗ 3 3 ∗ 3 hϕ| X |ψi = d r hϕ |ri hr| X |ψi = d r ϕ (r) x ψ (r) = d r ψ (r) x ϕ (r) hϕ| X |ψi = hψ| X |ϕi∗
since this is valid for arbitrary kets |ψi and |ϕi, and taking into account Eq. (1.163) we conclude that X = X † . For Px we see that Z ∗ Z Z ∗ 3 3 ∗ 3 ¯ ¯ hϕ| Px |ψi = d p hϕ |pi hp| Px |ψi = d p ϕ¯ (p) px ψ (p) = d p ψ (p) px ϕ ¯ (p) hϕ| Px |ψi = hψ| Px |ϕi∗
and Px = Px† . The procedure is the same for the other components of R and P R = R† , P = P† There is an alternative proof of the hermiticity of P by using its action in the {|ri} representation given by Eq. (1.191). Integrating Eq. (1.192) by parts we have Z Z ∞ ~ ∂ ∗ hϕ| Px |ψi = dy dz dx ϕ (r) ψ (r) i ∂x −∞ Z Z ∞ ~ ∂ ∗ x=∞ ∗ = dy dz [ϕ (r) ψ (r)]x=−∞ − dx ψ (r) ϕ (r) i ∂x −∞
CAP´ITULO 1. LINEAR OR VECTOR SPACES
102
since the scalar product hϕ| ψi is convergent, ϕ∗ (r) ψ (r) approaches zero when x → ±∞. Hence the first term on the right-hand side vanishes and we find Z ∗ Z ~ ∂ ∗ ~ ∂ 3 3 ∗ d r ψ (r) ϕ (r) = d r ψ (r) ϕ (r) hϕ| Px |ψi = − i ∂x i ∂x hϕ| Px |ψi = hψ| Px |ϕi∗ two things deserve attention, first the presence of the i factor is essential because i∂/∂x is hermitian but ∂/∂x is not. Second, we have used explicitly the fact that |ψi and |ϕi belong to Er by assuming that the scalar product hϕ| ψi is convergent, so this proof is not valid for generalized kets.
1.43.5.
The eigenvalue problem for R and P
Let us calculate the matrix element X (r′ , r) of the operator X in the basis {|ri}
X r′ , r = r′ X |ri = x′ r′ ri = x′ δ r − r′ = xδ r − r′ = x r′ ri
′
r Xri = x r′ ri
so the components of the ket X |ri in the {|r′ i} representation are equal to the ones of the ket |ri = |x, y, zi multiplied by x X |ri = x |ri we proceed in the same way for Y and Z X |ri = x |ri , Y |ri = y |ri , Z |ri = z |ri ; |ri = |x, y, zi the kets |ri are eigenkets common to X, Y, Z. The set {|ri} of common eigenvectors of X, Y, Z forms a basis showing that {X, Y, Z} is a complete set of commuting observables. On the other hand, the specification of the three eigenvalues x0 , y0 , z0 determines uniquely the “normalized” eigenvector |r0 i except for a phase eiθ . In the {|ri} representation the coordinates of |r0 i are δ (x − x0 ) δ (y − y0 ) δ (z − z0 ). Therefore, the set {X, Y, Z} constitutes a C.S.C.O. in Er . Analogous reasoning shows that for the commuting observables {Px , Py , Pz } the eigenvalues and eigenvectors are Px |pi = px |pi , Py |pi = py |pi , Pz |pi = pz |pi ; |pi = |px , py , pz i since {|pi} is a basis the operators Px , Py , Pz are observables. Because the set of eigenvalues (p0x , p0y , p0z ) determines uniquely the vector |p0 i the set {Px , Py , Pz } constitutes as C.S.C.O. in Er . It worths pointing out that X is not a C.S.C.O. by itself in the Er state space because when x0 is specified y0 and z0 can take any real values. Therefore, x0 is an infinitely degenerate eigenvalue. Notwithstanding in the state space Ex of a particle in one dimension, X constitutes a C.S.C.O. since the eigenvalue x0 determines uniquely the eigenvector |x0 i, and its coordinates in the {|xi} representation are given by δ (x − x0 ). It can also be shown that the set {X, Py , Pz } constitutes a C.S.C.O. since they commute with each other, and for a set of eigenvalues {x0 , p0y , p0z } there is a unique eigenvector whose associated wave function is ψx0 ,p0y ,p0z (x, y, z) = δ (x − x0 )
1 i(p0y y+p0z z)/~ e 2π~
of course, similar C.S.C.O. are built from the sets {Y, Px , Pz } , {Z, Px , Py }
1.43. THE CONTINUOUS BASES |Ri AND |Pi
1.43.6.
103
Some properties of Fourier transforms
We have seen that if a vector |ψi acquires the value ψ (r) in the {|ri} basis, its value ψ (p) in the {|pi} basis is connected with ψ (r) through a Fourier transform Eqs. (1.184, 1.185) 3/2 Z 1 (1.194) ψ¯ (p) = d3 r e−ip·r/~ ψ (r) 2π~ Z 1 3/2 ψ (r) = d3 p eip·r/~ ψ¯ (p) (1.195) 2π~ It can be seen that if ψ depends only on |r| = r, then ψ depends only on |p| = p and is given by Z pr 1 2 ∞ ψ (r) = ψ (r) ⇒ ψ¯ (p) = ψ¯ (p) = √ r dr sin ψ (r) ~ 2π~ p 0
(1.196)
to see it, let us apply a rotation R to the vector p p′ ≡ Rp and we use such a rotated vector in Eq. (1.194), taking into account that ψ (r) = ψ (|r|) = ψ (r) Z 1 3/2 ′ ′ ¯ ψ p = d3 r e−ip ·r/~ ψ (r) 2π~ now we use a new (rotated) variable r′ = Rr ψ¯ p′ =
1 2π~
3/2 Z
′
′
d3 r′ e−ip ·r /~ ψ r ′
(1.197)
and we take into account that the length r, the volume element, and the dot product are all conserved under a rotation d3 r′ = d3 r ; p′ · r′ = p · r ; ψ r ′ = ψ (r) applying these invariances in Eq. (1.197), we see that
ψ¯ p′ = ψ (p)
since the rotation is arbitrary, it means that ψ only depends on |p| and not on its direction. Therefore, we can evaluate ψ (p) with Eq. (1.194), by choicing p = puz
Z Z Z π Z 2π 1 3/2 1 3/2 ∞ 2 3 −ipz/~ ψ (p) = d re ψ (r) = r dr ψ (r) dθ sin θ e−ipr cos θ/~ dϕ 2π~ 2π~ 0 0 0 Z Z π 1 3/2 ∞ 2 ψ (p) = 2π r dr ψ (r) dθ sin θ e−ipr cos θ/~ (1.198) 2π~ 0 0 let us evaluate the integral in θ Z π Z −ipr cos θ/~ dθ sin θ e = 0
= = Z
π 0
dθ sin θ e−ipr cos θ/~ =
2~ ipr − 2i pr cos θ/~ dθ e sin θ e ipr 2~ 0 Z h i i 2~ π 2~ 1 −ipr cos θ/~ π − 2i pr cos θ/~ d − 2 pr cos θ/~ dθ e e = e (1.199) ipr 0 dθ ipr 2 0 2~ h pr pr i 2~ 1 ipr/~ 2~ 2i e − e−ipr/~ = Im eipr/~ = Im cos + i sin ipr 2 ipr 2 pr ~ ~ pr 2~ sin (1.200) pr ~ π
− 2i pr cos θ/~
CAP´ITULO 1. LINEAR OR VECTOR SPACES
104 substituting Eq. (1.200) in Eq. (1.198) we have ψ (p) = 2π
1 2π~
3/2 Z
∞
2
r dr ψ (r)
0
2~ pr sin pr ~
thus, Eq. (1.196) is obtained.
1.44.
General properties of two conjugate observables
Two arbitrary observables Q and P are called conjugate if they obey the conmutation rule [Q, P ] = i~
(1.201)
such couples of observables are frequently encountered in quantum mechanics. The position and momentum observables are good examples. However, in what follows all properties are derived from the commutation rule (1.201) regardless the specific form of the operators. Let us define the operator S (λ) that depends on a real parameter λ as (1.202) S (λ) = e−iλP/~ since P is observable and so hermitian this operator is unitary S † (λ) = eiλP/~ = S −1 (λ) = S (−λ)
(1.203)
since P obviously commute with itself, Eq. (1.149) leads to S (λ) S (µ) = S (λ + µ)
(1.204)
now we calculate the commutator [Q, S (λ)]. To do it, we take into account that [Q, P ] = i~ clearly commutes with Q and P , therefore we can apply theorem 1.70, Eq. (1.136) to obtain iλ −iλP/~ ′ [Q, S (P )] = [Q, P ] S (P ) = i~ − e = λS (P ) ~ where we have written S (P ) instead of S (λ) to emphasize that when applying Eq. (1.136) we are considering S as a function of the operator P (so the derivative is with respect to P ). Rewriting it in the old notation we have [Q, S (λ)] = λS (λ) ⇒ QS (λ) − S (λ) Q = λS (λ) QS (λ) = S (λ) [Q + λ]
1.44.1.
(1.205)
The eigenvalue problem of Q
Suppose that Q has a non-zero eigenvector |qi, with eigenvalue q Q |qi = q |qi
(1.206)
applying Eq. (1.205) on the vector |qi we have QS (λ) |qi = S (λ) [Q + λ] |qi = S (λ) [q + λ] |qi
Q [S (λ) |qi] = [q + λ] [S (λ) |qi]
(1.207)
therefore, S (λ) |qi is also an eigenvector of Q with eigenvalue q + λ. Note that S (λ) |qi is non-zero because S (λ) is unitary so the norm of |qi is preserved. On the other hand, since λ can take any real value, we conclude that by
1.44. GENERAL PROPERTIES OF TWO CONJUGATE OBSERVABLES
105
starting with an eigenvector of Q, we can construct another eigenvector of Q with any real eigenvalue by applying the appropiate S (λ). Consequently, the spectrum of Q is continuous and consists of all real values. Note that this result shows in particular that conjugate operators Q, P cannot exist in finite dimensional vector spaces since for the latter the spectrum must be finite. Even they do not exist strictly in spaces of denumerable dimension such as L2 , (for which the spectrum must be at most denumerable), so the eigenvectors |qi will form hyperbasis in L2 . Let us now show that if any given q is non-degenerate, then all the other eigenvalues of Q are also nondegenerate. For this we assume that the eigenvalue q+λ is at least two-fold degenerate and arrive to a contradiction. From this hypothesis, there are at least two orthogonal eigenvectors |q + λ, αi and |q + λ, βi associated with the eigenvalue q + λ hq + λ, β |q + λ, αi = 0 (1.208) now consider the two vectors S (−λ) |q + λ, αi and S (−λ) |q + λ, βi from Eq. (1.207) we see that QS (−λ) |q + λ, αi = [q + λ + (−λ)] S (−λ) |q + λ, αi = qS (−λ) |q + λ, αi QS (−λ) |q + λ, βi = [q + λ + (−λ)] S (−λ) |q + λ, βi = qS (−λ) |q + λ, βi
so S (−λ) |q + λ, αi and S (−λ) |q + λ, βi are two eigenvectors associated with the eigenvalue q. Calculating the inner product of them hq + λ, β| S † (−λ) S (−λ) |q + λ, αi = hq + λ, β |q + λ, αi = 0 where we have used Eq. (1.208) and the fact that S (λ) is unitary. Thus, we arrive to the fact that S (−λ) |q + λ, αi and S (−λ) |q + λ, βi are two orthogonal (and so linearly independent) eigenvectors associated with q, contradicting the hypothesis that q is non-degenerate. This result can be extended to find that the eigenvalues of Q must all have the same degree of degeneracy. We now look for the eigenvectors. We fix the relative phses of the diffrent eigenvectors of Q with respect to the eigenvector |0i associated with the eigenvalue 0, by setting |qi ≡ S (q) |0i
(1.209)
applying S (λ) on both sides of (1.209) and using (1.204), we get S (λ) |qi = S (λ) S (q) |0i = S (λ + q) |0i = |q + λi and the corresponding bra gives hq| S † (λ) = hq + λ| now using Eq. (1.203) we see that S † (λ) = S (−λ) from which hq| S (−λ) = hq + λ| ⇒ hq| S (λ) = hq − λ| where we have replaced λ → −λ in the last step. In summary the action of S (λ) on the eigenvectors |qi of Q are given by S (λ) |qi = |q + λi ; hq| S (λ) = hq − λ| (1.210) now we can characterize the action of the operators P, Q and S (λ) in either the {|qi} basis or the {|pi} basis.
1.44.2.
The action of Q, P and S (λ) in the {|qi} basis
Since Q is an observables the set of eigenvectors {|qi} of Q forms a basis. A given ket |ψi in our Hilbert space can be written in the {|qi} basis as ψ (q) ≡ hq |ψi
CAP´ITULO 1. LINEAR OR VECTOR SPACES
106 let us calculate the representation of Q |ψi in this basis
hq| Q |ψi = qhq |ψi = qψ (q) where we have used (1.206) and the hermiticity of Q. The action of Q on |ψi reduces to a simple multiplication with its associated eigenvalue. The action of S (λ) on |ψi in this basis is also simple hq| S (λ) |ψi = hq − λ| ψi = ψ (q − λ) ;
S (λ) ≡ e−iλP/~
(1.211)
where we have used (1.210). Note that a function f (x − a) is the function that at the point x = x0 + a, takes on the value f (x0 ), so that it is the function obtained from f (x)by a translation of +a. Therefore, Eq. (1.211, shows that the action of S (λ) on |ψi in the basis {|qi} , can be described as a translation of the wave function over a distance +λ parallel to the q−axis. So S (λ) is usually called the translation operator. The action of P on |ψi in the {|qi} basis is a bit longer to obtain. Let ε be an infinitesimal quantity such that ε S (−ε) = eiεP/~ = I + i P + O ε2 ~
therefore
h i ε ε hq| S (−ε) |ψi = hq| I + i P + O ε2 |ψi = hq |ψi + i hq| P |ψi + O ε2 ~ ~ ε 2 hq| S (−ε) |ψi = ψ (q) + i hq| P |ψi + O ε ~
(1.212)
on the other hand, from Eq. (1.211) we have
hq| S (−ε) |ψi = ψ (q + ε)
(1.213)
and comparing (1.212) with (1.213) we have ε ψ (q + ε) = ψ (q) + i hq| P |ψi + O ε2 ⇒ ~ ε i hq| P |ψi = ψ (q + ε) − ψ (q) − O ε2 ~
solving for hq| P |ψi and taking into account that ε is infinitesimal we have hq| P |ψi = hq| P |ψi =
~ ψ (q + ε) − ψ (q) l´ım i ε→0 ε ~ d ψ (q) i dq
so the action of P on a ket in the {|qi} basis is that of
1.44.3.
(1.214)
~ d i dq .
Representation in the {|pi} basis and the symmetrical role of P and Q
From Eq. (1.214), we can obtain the wave function vp (q) associated in the {|qi} basis, with the eigenvector |pi of P with eigenvalue p 1 vp (q) = hq |pi = √ eipq/~ 2π~ we can then write
1 |pi = √ 2π~
Z
∞
−∞
dqeipq/~ |qi
1.45. DIAGONALIZATION OF A 2 × 2 HERMITIAN MATRIX
107
a wave function in the {|pi} representation is given by Z Z ¯ ψ (p) = hp |ψi = hp| |qi hq| ψi = hp |qi hq| ψi Z ∞ 1 ¯ ψ (p) = √ dqeipq/~ ψ (q) 2π~ −∞ which is the Fourier transform of ψ (q). It can be shown that the action of the P operator in the {|pi} repesentation is associated with multiplication by p, while the representation of X corresponds to the operations i~d/dp. Therefore, the results are symmetrical in the {|qi} and {|pi} bases. It comes from the fact that we can interchange Q and P with no more cost than changing the sign of the conmutator in (1.201). The analogous of the translation operation in the {|pi} basis is the operator defined by T (α) = eiαQ/~ which acts as a translation in the momentum space. The arguments developed for the basis {|qi} can be repeated in the basis {|pi} by interchanging P by Q and i by −i everywhere. As a matter of curiosity, in Classical Mechanics, the Hamilton equations are also symmetrical in the conjugate variables (Q, P ) and we can interchange them with no more cost that a change in sign. We emphasize again that the results obtained in this section only depend on the canonica rule of commutation (1.201) and not on the explicit form of the Q and P operators.
1.45.
Diagonalization of a 2 × 2 hermitian matrix
This example illustrates many concepts introduced in the eigenvalue problem in a quite simple way. Further, it is useful in many practical calculations involving systems of two states in quantum mechanics. The eigenvalue problem is very easy but the determination of eigenvectors could lead easily to complicated expressions. We shall determine the eigenvalues and find the eigenvectors in a way easy to handle.
1.45.1.
Formulation of the problem
Consider an hermitian operator R in a two dimensional Hilbert space. Its matrix representation in a given orthonormal basis {|ϕ1 i , |ϕ2 i} reads H≡
hϕ1 | R |ϕ1 i hϕ1 | R |ϕ2 i hϕ2 | R |ϕ1 i hϕ2 | R |ϕ2 i
=
H11 H12 H21 H22
(1.215)
an hermitian operator is described by an hermitian matrix when the basis used is orthonormal. Therefore, ∗ ∗ ∗ H11 = H11 ; H22 = H22 ; H12 = H21
so that diagonal elements are real. Let us express the matrix in Eq. (1.215) in the equivalent form H = H = H =
1 (H11 + H22 ) 0 (H11 − H22 ) H12 2 + 1 0 H21 − 12 (H11 − H22 ) 2 (H11 + H22 ) ! ∗ 2H21 1 1 1 1 0 (H11 −H22 ) (H11 + H22 ) + (H11 − H22 ) 2H21 0 1 2 2 −1 (H11 −H22 ) ! ∗ 2H21 1 1 1 (H11 −H22 ) (H11 + H22 ) I + (H11 − H22 ) K ; K ≡ 2H21 2 2 −1 (H11 −H22 ) 1 2
(1.216)
CAP´ITULO 1. LINEAR OR VECTOR SPACES
108
and I is the identity matrix. Let |ψ± i be two linearly independent eigenvectors of K K |ψ± i = κ± |ψ± i
(1.217)
applying the ket |ψ± i on Eq. (1.216) we have 1 1 (H11 + H22 ) I |ψ± i + (H11 − H22 ) K |ψ± i 2 2 1 [(H11 + H22 ) + (H11 − H22 ) κ± ] |ψ± i 2
H |ψ± i = H |ψ± i =
therefore |ψ± i are also eigenvectors of H with eigenvalues H |ψ± i = E± |ψ± i
; E± ≡
1 [(H11 + H22 ) + (H11 − H22 ) κ± ] 2
(1.218)
note that the problem reduces to find the eigenvectors of K (which coincide with the ones of H) and also its eigenvalues (which are related with the eigenvalues of H through Eq. 1.218). Solving the problem for K is equivalent to choose the origin of the eigenvalues in (H11 + H22 ) /2 = (T rH)/2. Note that this shift is independent of the basis chosen to write H.
1.45.2.
Eigenvalues and eigenvectors of K
For simplicity we define the angles θ, ϕ in terms of the matrix elements Hij as follows 2 |H21 | H11 − H22 = |H21 | eiϕ
tan θ = H21
0≤θ<π
, ,
(1.219)
0 ≤ ϕ < 2π
(1.220)
so ϕ is the argument of the term H21 . Matrix K in Eq. (1.216) can be written as K=
1 2|H21 |eiϕ (H11 −H22 )
2|H21 |e−iϕ (H11 −H22 )
−1
!
=
1 tan θ e−iϕ tan θ eiϕ −1
(1.221)
the characteristic equation of matrix (1.221) yields det [K − λI] = 0 = (1 − κ) (−1 − κ) − tan2 θ ⇒ 1 κ2 − 1 − tan2 θ = 0 ⇒ κ2 = 1 + tan2 θ = cos2 θ the eigenvalues of K read κ+ =
1 1 , κ− = − cos θ cos θ
(1.222)
and they are real as expected. We can express 1/ cos θ in terms of the matrix elements Hij by using Eqs. (1.219) and the fact that cos θ and tan θ are both of the same sign since 0 ≤ θ < π. s s 2 p 1 4 |H | (H11 − H22 )2 + 4 |H21 |2 21 = 1 + tan2 θ = 1 + = cos θ (H11 − H22 )2 (H11 − H22 )2 s (H11 − H22 )2 + 4 |H21 |2 1 κ± = ± =± (1.223) cos θ (H11 − H22 )2
1.45. DIAGONALIZATION OF A 2 × 2 HERMITIAN MATRIX
109
let us find the eigenvectors of K. We denote as a and b the components of |ψ+ i in the basis {|ϕ1 i , |ϕ2 i}. From Eqs. (1.221, 1.222) this eigenvector must satisfy 1 1 tan θ e−iϕ a a = iϕ tan θ e −1 b b cos θ of course only one of the two equations is linearly independent since only quotients between the coefficients can be determined, therefore a 1 −iϕ −iϕ a + b tan θ e = ⇒ b tan θ e =a −1 cos θ cos θ multiplying by eiϕ/2 and defining 2α ≡ θ this equation yields sin 2α −iϕ/2 1 − cos 2α iϕ/2 b = a e e cos 2α cos 2α
b sin 2α e−iϕ/2 = a (1 − cos 2α) eiϕ/2 b (2 sin α cos α) e−iϕ/2 = a 1 − 1 − 2 sin2 α eiϕ/2
in terms of θ we get
2 iϕ/2 2b sinα cos α e−iϕ/2 = 2a sin α e b cos α e−iϕ/2 = a sin α eiϕ/2
θ θ −iϕ/2 e = a sin eiϕ/2 2 2 we demand normalization with the additional requirement of positivity for the coefficient a, so we have a sin θ eiϕ/2 2 2 |a|2 + |b|2 = 1 ⇒ |a|2 + =1 θ −iϕ/2 cos 2 e 2 θ θ |a|2 + a tan eiϕ = 1 ⇒ |a|2 + |a|2 tan2 = 1 2 2 θ θ = 1 ⇒ |a|2 = cos2 |a|2 1 + tan2 2 2 b cos
so that a = cos
θ ≥0 2
since 0 ≤ θ < π
(1.224)
(1.225)
replacing (1.225) in (1.224) we get b cos
θ −iϕ/2 θ θ θ e = cos sin eiϕ/2 ⇒ b = sin eiϕ 2 2 2 2
so that the eigenvector |ψ+ i′ associated with the eigenvalue κ+ reads |ψ+ i′ = a |ϕ1 i + b |ϕ2 i = cos
θ θ |ϕ1 i + sin eiϕ |ϕ2 i 2 2
it is clear that |ψ+ i ≡ e−iϕ/2 |ψ+ i′ is also an eigenvector of K with the same eigenvalue κ+ and this vector looks more symmetrical. Thus, we define the eigenvector |ψ+ i as21 |ψ+ i = cos 21
θ −iϕ/2 θ e |ϕ1 i + sin eiϕ/2 |ϕ2 i 2 2
This is equivalent to define the phase of the coefficient a as −ϕ/2 instead of zero, in the process of normalization.
(1.226)
CAP´ITULO 1. LINEAR OR VECTOR SPACES
110
an analogous calculation gives the eigenvector of K corresponding to κ− = −1/ cos θ |ψ− i = − sin
θ −iϕ/2 θ e |ϕ1 i + cos eiϕ/2 |ϕ2 i 2 2
(1.227)
the eigenvalues of H are obtained by combining Eqs. (1.218, 1.223) E± ≡ = E± ≡
1 [(H11 + H22 ) + (H11 − H22 ) κ± ] 2 s # " 1 (H11 − H22 )2 + 4 |H21 |2 (H11 + H22 ) ± (H11 − H22 ) 2 (H11 − H22 )2 q 1 2 2 (H11 + H22 ) ± (H11 − H22 ) + 4 |H21 | 2
it worths saying that the eigenvalue problem can be solved directly without resorting to the angles θ and ϕ defined in Eq. (1.219, 1.220). This procedure is advantageous only if we have to calculate the eigenvectors as well.
1.45.3.
Eigenvalues and eigenvectors of H
Let us summarize our results. We consider an hermitian operator R in a two dimensional Hilbert space, and its matrix representation in the orthonormal basis {|ϕ1 i , |ϕ2 i} hϕ1 | R |ϕ1 i hϕ1 | R |ϕ2 i H11 H12 H≡ (1.228) = hϕ2 | R |ϕ1 i hϕ2 | R |ϕ2 i H21 H22 its eigenvalues and eigenvectors are given by q 1 2 2 E± ≡ (H11 + H22 ) ± (H11 − H22 ) + 4 |H21 | 2 θ θ |ψ+ i = cos e−iϕ/2 |ϕ1 i + sin eiϕ/2 |ϕ2 i 2 2 θ −iϕ/2 θ |ψ− i = − sin e |ϕ1 i + cos eiϕ/2 |ϕ2 i 2 2 2 |H21 | tan θ = , H21 = |H21 | eiϕ ; 0 ≤ θ < π H11 − H22
(1.229) (1.230) (1.231) ,
0 ≤ ϕ < 2π
(1.232)
as a matter of consistence we can see that E+ + E− = H11 + H22 = T rH
,
E+ E− = H11 H22 − |H12 |2 = det H
in agreement with Eq. (1.93, 1.94). From Eq. (1.229), the spectrum becomes degenerate i.e. E+ = E− when (H11 − H22 )2 + 4 |H21 |2 = 0. That is when H11 = H22 and H12 = H21 = 0. So a 2 × 2 hermitian matrix has a degenerate spectrum if and only if it is proportional to the identity. It worths remarking that although functions of θ are expressed simply in terms of the Hij elements by means of Eqs. (1.232), it is not the case when functions of θ/2 appears. Thus, when we do calculations with the eigenvectors (1.230, 1.231), it is convenient to keep the results in terms of θ/2 up to the end of the calculation instead of replacing it in terms of the Hij quantities.
Cap´ıtulo 2
Construcci´ on fenomenol´ ogica de los postulados de la mec´ anica cu´ antica Nuestro presente entendimiento de la naturaleza requiere reevaluar las leyes de la mec´ anica cl´ asica, especialmente en lo referente a los fen´ omenos at´ omicos y subat´ omicos. No obstante, existen manifestaciones macrosc´ opicas de los procesos cu´ anticos. A manera de ejemplo, la existencia misma de los s´ olidos solo se puede explicar en un contexto cu´ antico, y los modelos sobre calor espec´ıfico de los s´ olidos no se pueden explicar con un modelo cl´ asico. A finales del siglo diecinueve, se identificaban en la f´ısica dos tipos de entidades bien diferenciadas: la materia y la radiaci´ on. Las leyes de Newton permit´ıan explicar los fen´ omenos relativos a la materia en la escala macrosc´ opica 1 y las ecuaciones de Maxwell proporcionaban una excelente descripci´ on de la din´ amica de la radiaci´ on . Finalmente, la interacci´ on de la materia con la radiaci´ on la proporcionaba la ley de fuerza de Lorentz. Es notable el hecho de que la teor´ıa de Maxwell habia logrado la unificaci´ on de fen´ omenos que antes se consideraban separados: la electricidad, el magnetismo y la ´ optica. No obstante, a finales del siglo diecinueve y principios del veinte una serie de experimentos condujeron a reevaluar la estructura fundamental de la materia y adem´ as a replantear las leyes que rigen a estas estructuras fundamentales. La mec´ anica cu´ antica es entonces el resultado de estos replanteamientos. Vale decir por supuesto que al menos en principio, el mundo macrosc´ opico tambi´en se rige por la leyes de la cu´ antica, si bien para la mayor´ıa de fen´ omenos a escala humana, la F´ısica cl´ asica representa una descripci´ on mucho m´ as simple y al mismo tiempo bastante adecuada. A continuaci´ on se realizar´ a una breve descripci´ on de los experimentos que dieron lugar a las nuevas ideas sobre el mundo microsc´opico, con el fin de dejar claros los puntos que es necesario reevaluar en la mec´ anica cl´ asica. La descripci´ on de estos experimentos no pretende ser completa ni exhaustiva, solo pretende mostrar las ideas que ´estos nos arrojan sobre el comportamiento de la naturaleza a nivel microsc´ opico (at´ omico y subat´ omico). Para un estudio m´ as detallado de estos experimentos el lector puede recurrir a los textos est´ andar sobre F´ısica Moderna (ver por ejemplo Ref. [1]).
2.1.
La radiaci´ on del cuerpo negro
Un cuerpo negro tiene la capacidad de absorber toda la radiaci´ on que incide sobre ´el, a su vez esto lo convierte en un emisor perfecto. Utilizando argumentos de la termodin´ amica y la mec´ anica estad´ıstica, Rayleigh y Jeans predijeron el espectro del cuerpo negro utilizando la distribuci´ on de Boltzmann. Sin embargo, las predicciones de Rayleigh y Jeans estaban muy lejos del espectro experimental en el r´egimen de longitudes de onda corta, fen´ omeno conocido como la “cat´ astrofe del ultravioleta”. Es bien conocido que la energ´ıa asociada a una frecuencia particular de la radiaci´ on del cuerpo negro se relaciona con la energ´ıa de una part´ıcula cargada en la pared de una cavidad del cuerpo negro oscilando sinusoidalmente a la misma frecuencia. Originalmente, Max Planck cuantiz´ o la energ´ıa 1
Las ondas mec´ anicas pod´ıan explicarse en u ´ltimo t´ermino con las leyes de Newton.
111
112
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
de la part´ıcula oscilante asumiendo que cada una de estas part´ıculas solo puede tener una energ´ıa εn que sea m´ ultiplo entero de una energ´ıa fundamental ε0 = hν siendo ν la frecuencia de oscilaci´ on y siendo h una constante universal que se ajusta experimentalmente, por lo tanto εn = nhν
,
n = 0, 1, 2, 3, 4, . . .
(2.1)
recalculando el espectro con este postulado, Planck pudo reproducir el espectro del cuerpo negro para todas las longitudes de onda. Posteriormente, Planck observ´ o que esto era equivalente a cuantizar directamente las ondas electromagn´eticas estacionarias asociadas a cada frecuencia y que oscilan sinusoidalmente. De hecho, Planck generaliza su postulado diciendo que la Ec. (2.1) describe la energ´ıa total asociada a cualquier entidad f´ısica cuya u ´nica coordenada generalizada efect´ ua oscilaciones arm´ onicas simples (variaciones sinusoidales en el tiempo).
2.2.
El efecto fotoel´ ectrico
Cuando se hace incidir luz ultravioleta sobre la superficie de un metal, se emiten electrones provenientes de dicho metal. A principios del siglo XX, Lenard realiz´ o experimentos en donde los electrones extra´ıdos con luz ultravioleta de la superficie met´ alica (fotoc´ atodo) son acelerados por una diferencia de potencial con respecto a otro electrodo. Al medir la corriente que llegaba al segundo electrodo como funci´ on del voltage entre los electrodos, observ´ o que todav´ıa llegaba corriente incluso cuando el potencial era retardante para cargas negativas indicando que los electrones son emitidos con energ´ıa cin´etica que no es despreciable. La forma de la curva indic´ o que no todos los fotoelectrones son emitidos con la misma energ´ıa cin´etica pero existe un voltaje retardante de corte V = −Vm´ax luego del cual cesa la fotocorriente. Este voltage de corte sugiere la existencia de una energ´ıa m´ axima bien definida para los fotoelectrones dada por Em´ax = eVm´ax siendo e la magnitud de la carga electr´ onica. Los fotoelectrones de m´ axima energ´ıa son los que provienen de la superficie del fotoc´ atodo en tanto que los fotoelectrones de menor energ´ıa provienen del interior del fotoc´ atodo y pierden energ´ıa cin´etica al llegar a la superficie, esto nos indica que Em´ax es una buena medida de la energ´ıa transmitida a los electrones en el proceso fotoel´ectrico. Lenard encontr´ o adem´ as que la corriente fotoel´ectrica es directamente proporcional a la intensidad luminosa incidente para voltages acelerantes. Sin embargo, observ´ o tambi´en que el potencial de corte retardante V = −Vm´ax es independiente de la intensidad luminosa. En consecuencia, la energ´ıa m´ axima adquirida por los electrones es independiente de la intensidad luminosa incidente. En el marco de la teor´ıa cl´ asica, se puede demostrar que la energ´ıa cin´etica promedio de los electrones sometidos a la luz ultravioleta es proporcional al campo el´ectrico al cuadrado (asociado a la onda incidente) y por tanto es proporcional a la intensidad incidente. Esto entra en conflicto directo con el hecho de que la energ´ıa adquirida por los electrones de la superficie del fotoc´ atodo sea independiente de la intensidad luminosa. Un problema m´ as serio surge cuando se intenta calcular el tiempo necesario para que los fotoelectrones adquieran la energ´ıa suficiente para llegar al otro electrodo. Este tiempo se estim´ o en unos ∼ 100seg bajo la hip´ otesis cl´ asica de que la energ´ıa luminosa se distribuye uniformemente sobre frentes de onda esf´ericos cuyo centro es la fuente. Experimentos posteriores revelaron que el tiempo de absorci´ on no superaba los ∼ 10−9 seg. Lo anterior llev´ o a Einstein en 1905 a generalizar el postulado de Planck enunciando que el contenido energ´etico de una onda electromagn´etica de frecuencia ν en una fuente de radiaci´ on (onda libre) tambi´en puede tener solo valores de la forma nhν siendo n entero no-negativo y ν la frecuencia de la onda que se propaga. Esto implica que al pasar la fuente de un estado de energ´ıa nhν a otro de energ´ıa (n − 1) hν, la fuente emite un paquete de energ´ıa electromagn´etica con energ´ıa hν. Einstein propuso adem´ as que este paquete de energ´ıa (fot´ on) est´ a localizado inicialmente en una peque˜ na regi´ on del espacio y permanece localizado cuando se aleja de la fuente luminosa con velocidad c, en contraste con la expansi´ on caracter´ıstica de un frente de onda cl´ asico. Este paquete o cuanto de energ´ıa denominado fot´ on posee una energ´ıa ε = hν. Postul´ o adem´ as que en el proceso fotoel´ectrico un cuanto era completamente absorbido por el fotoelectr´ on. En primera instancia, el hecho de que el cuanto permaneciera localizado y fuese completamente absorbido permit´ıa que los fotoelectrones absorbieran la energ´ıa necesaria para formar la fotocorriente de manera casi instant´anea, eliminando la incompatibilidad con el tiempo de absorci´ on que se presentaba con las ondas cl´ asicas.
2.3. EL EFECTO COMPTON
113
Por otro lado, definamos ∆E como la energ´ıa necesaria para que un electr´ on pueda llegar al otro electrodo, esta ser´ a igual a la energ´ıa necesaria para llegar a la superficie, mas la energ´ıa W necesaria para salir del material venciendo la fuerzas superficiales atractivas. El mecanismo fotoel´ectrico imparte una energ´ıa hν al fotoelectr´ on y si esta energ´ıa es mayor que ∆E el electr´ on puede escapar de la superfice del fotoc´ atodo. Es claro que para los electrones de la superficie ∆E = W de modo que la m´ axima energ´ıa cin´etica con la que llegan los fotoelectrones al otro electrodo es Em´ax = hν − W mostrando claramente que tal energ´ıa m´ axima es funci´ on lineal de la frecuencia de la radiaci´ on incidente, pero es independiente de su intensidad. Estas predicciones fueron corroboradas por Millikan en 1916.
2.3.
El efecto compton
En 1923, Compton realiz´ o un experimento en el cual un haz aproximadamente monocrom´ atico de rayos X de longitud de onda λ0 , incid´ıa en una placa met´ alica. Compton encontr´ o que la radiaci´ on dispersada conten´ıa un pico de intensidad asociado a la longitud de onda λ1 > λ0 , adem´ as del pico asociado a λ0 . A la presencia de este pico en λ1 se le conoce como efecto Compton. En la discusi´ on subsecuente nos concentraremos en la explicaci´ on del pico de intensidad en λ1 . angulo de dispersi´ on θ, pero La observaciones mostraban que λ1 aumentaba a medida que se incrementaba el ´ era independiente del material de la l´ amina met´ alica. Puesto que λ1 es siempre mayor que λ0 , la frecuencia ν1 = c/λ1 de la radiaci´ on dispersada disminuye al aumentar el ´ angulo θ de dispersi´ on. Adicionalmente, si asumimos que ν1 es proporcional a la energ´ıa E1 del cuanto asociado a la radiaci´ on (como lo sugiere el efecto fotoel´ectrico), la dependencia de E1 con θ es cualitativamente similar a la dependencia angular de la energ´ıa de una part´ıcula dispersada por otra part´ıcula. Por supuesto esta dispersi´ on debe ser relativista, puesto que los fotones son eminentemente relativistas. El procedimiento de Compton fu´e en consecuencia, combinar la teor´ıa de la dispersi´ on cl´ asica relativista entre particulas con la relaci´ on frecuencia energ´ıa asumida para el cuanto de radiaci´ on (fot´ on) en el efecto fotoel´ectrico. Consideremos entonces un cuanto o paquete localizado asociado a la radiaci´ on electromagn´etica (rayos X en este caso), en la cual se cumple la relaci´ on E = hν (2.2) donde adem´ as el momento lineal del fot´ on es p. La energ´ıa total relativista de una part´ıcula de masa en reposo m0 es m0 c2 E=q (2.3) 2 1 − vc2
y dado que la velocidad del fot´ on es c, su masa en reposo debe ser nula. Por tanto, su energ´ıa E es totalmente cin´etica. Adicionalmente, la relaci´ on entre el momento lineal y la energ´ıa de una part´ıcula relativista est´ a dada por 2 E 2 = p2 c2 + m0 c2 (2.4) puesto que m0 = 0 para el fot´ on, esta relaci´ on se convierte en p=
E hν h = = c c λ
(2.5)
Ahora bien, puesto que la frecuencia ν1 donde se obtiene un pico de intensidad (ν1 < ν0 ) de la radiaci´ on dispersada, es independiente del material de la hoja met´ alica, es razonable suponer que en la dispersi´on no participa el ´ atomo completo. En consecuencia, otra de las suposiciones fundamentales de Compton, fu´e que los fotones se dispersaban en virtud de las colisiones entre ´estos y los electrones libres en la l´ amina, que est´ an inicialmente en reposo. Esta suposici´ on es razonable si tenemos en cuenta que un cuanto de rayos X tiene una energ´ıa mayor
114
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
en varios ´ ordenes de magnitud a la energ´ıa de un cuanto de luz ultravioleta, y teniendo en cuenta que a su vez el efecto fotoel´ectrico sugiere que la energ´ıa de un cuanto de luz ultravioleta, es comparable con la energ´ıa de ligadura del electr´on en el metal. Consideraremos entonces una colisi´ on entre un fot´ on y un electr´ on libre en reposo. Por simplicidad elegimos el on localizado. Denotaremos como (E0 , p0 ) a la energ´ıa y la eje X a lo largo del momento lineal incidente p0 del fot´ magnitud del momento lineal del fot´ on incidente, (E1 , p1 ) ser´ an la energ´ıa y el momento lineal del fot´ on dispersado en un ´ angulo θ (con respecto a X). Finalmente, (T, p) son la energ´ıa cin´etica y el momento lineal del electr´ on dispersado en un ´angulo φ con respecto al eje X. La conservaci´ on del momento lineal en X nos dice que p0 = p1 cos θ + p cos φ
(2.6)
y la conservaci´ on del momento lineal en Y nos dice que p1 sin θ = p sin φ
(2.7)
elevando al cuadrado ambas ecuaciones se obtiene (p0 − p1 cos θ)2 = p2 cos2 φ ;
p21 sin2 θ = p2 sin2 φ
y sumando estas expresiones, obtenemos p20 + p21 − 2p0 p1 cos θ = p2
(2.8)
por otro lado, aplicando la conservaci´ on de la energ´ıa total relativista antes y despu´es de la dispersi´ on, se tiene que E0 + m0 c2 = E1 + T + m0 c2 ⇒ E0 − E1 = T
donde m0 es la masa en reposo del electr´ on. Aplicando la relaci´ on (2.5), que es v´ alida solo para el fot´ on, se encuentra que c (p0 − p1 ) = T (2.9) Adicionalmente, aplicando la relaci´ on (2.4), al electr´ on dispersado tenemos que T + m0 c2
2
= p2 c2 + m0 c2
T2 + 2T m0 = p2 c2
2
⇒ T 2 + 2T m0 c2 = p2 c2 (2.10)
sustituyendo p2 y T de las Ecs. (2.8, 2.9) en la Ec. (2.10) resulta c2 (p0 − p1 )2 + 2c (p0 − p1 ) m0 = p20 + p21 − 2p0 p1 cos θ ⇒ −2p0 p1 + 2m0 c (p0 − p1 ) = −2p0 p1 cos θ ⇒ c2 (p0 − p1 ) 1 m0 c (p0 − p1 ) = p0 p1 (1 − cos θ) ⇒ = (1 − cos θ) ⇒ p0 p1 m0 c 1 1 1 − = (1 − cos θ) p1 p0 m0 c multiplicando por h y usando la relaci´ on (2.5) para el fot´ on, queda finalmente (λ1 − λ0 ) = λC (1 − cos θ)
;
λC ≡
h ≃ 0,02426 × 10−8 cm m0 c
(2.11)
´ 2.4. ESPECTROSCOP´IA, ESTABILIDAD DEL ATOMO Y TEOR´IA DE BOHR
115
donde λC se denomina la longitud de onda de Compton. La Ec. (2.11) se conoce como ecuaci´ on de Compton. Esta ecuaci´ on predice que el aumento en la longitud de onda asociada al segundo pico de resonancia con respecto a la longitud de onda incidente, depende solamente del ´ angulo de dispersi´ on y de la constante universal λC , pero es independiente del material de la hoja met´ alica y de la longitud de onda incidente. La corroboraci´ on experimental fu´e realizada por diversos autores tales como Bothe, Wilson, Geiger, y Bless entre los a˜ nos 1923 y 1927. Este experimento adem´ as de dar una prueba convincente de la existencia del cuanto de radiaci´ on (fot´ on), muestra que ´este puede comportarse como part´ıcula en un experimento de dispersi´ on. Vimos anteriormente que el efecto fotoel´ectrico tambi´en proporciona evidencia de la existencia de los cuantos, que adem´as se suponen localizados como las part´ıculas. A priori pareciera darse un retroceso a una imagen corpuscular de la radiaci´ on. No obstante, la radiaci´ on electromagn´etica tiene ciertas propiedades como la difracci´ on, que solo puede ser explicada en t´erminos de movimiento ondulatorio. Esto nos conduce a considerar que en la radiaci´ on electromagn´etica el comportamiento ondulatorio y corpuscular coexisten, fen´ omeno que se conoce como dualidad onda-part´ıcula. Experimentos posteriores nos permitir´ an profundizar sobre esta naturaleza dual en el mundo microsc´ opico.
2.4.
El problema espectrosc´ opico, la estabilidad del ´ atomo y la teor´ıa de Bohr
Con el advenimiento del modelo at´ omico de Rutherford, en el cual el ´ atomo estaba constitu´ıdo por un peque˜ no n´ ucleo de carga positiva con la carga negativa (electrones) orbitando en la periferia, surge el problema de la estabilidad del ´ atomo. Esto debido a que la electrodin´ amica cl´ asica predice que una carga acelerada rad´ıa emitiendo energ´ıa. Por tanto, los electrones al orbitar deber´ıan radiar perdiendo energ´ıa y provocando el colapso del electr´ on hacia el n´ ucleo. El hecho de que la estructura at´ omica fuese estable constituy´ o entonces un reto para la F´ısica de principios del siglo XX. Por otra parte, surg´ıa el problema de la discretizaci´ on de los espectros at´ omicos. No entraremos en detalles sobre los montajes experimentales para medir estos espectros. Mencionaremos simplemente, que cuando una descarga el´ectrica atraviesa una regi´ on que contiene un gas monoat´ omico las colisiones de los ´ atomos con los electrones y con otros ´ atomos hacen que los ´ atomos adquieran una energ´ıa mayor que la normal. Al regresar a su estado normal, los ´ atomos liberan la energ´ıa excedente en forma de radiaci´ on electromagn´etica, la cual est´ a compuesta por ondas de diferente longitud de onda. La observaci´ on de estas longitudes de onda que componen a la radiaci´ on (l´ıneas espectrales) mostr´ o que la radiaci´ on electromagn´etica emitida por un ´ atomo libre consiste solo de ciertas longitudes de onda, es decir el espectro es discreto2 . Adicionalmente, se observ´ o que cada tipo de ´ atomo tiene su propio espectro, es decir un conjunto caracter´ıstico de longitudes de onda, hecho que es de gran importancia pr´ actica. Ahora bien, el espectro del ´ atomo de Hidr´ ogeno es relativamente simple en virtud de la simplicidad de su estructura at´ omica. En dicho espectro se observa que la distancia en longitudes de onda de dos l´ıneas contiguas decrece al disminuir la longitud de onda de las l´ıneas hasta llegar a una l´ınea l´ımite de convergencia que denotamos por λ∞ = 3645,6 A. La regularidad y simplicidad de este espectro llev´ o a buscar f´ ormulas emp´ıricas que revelaran el patr´ on de longitudes de onda del espectro de emisi´ on. Adicionalmente, se observ´ o que la estructura de las l´ıneas espectrales para ´ atomos alcalinos (con un solo electr´ on en la capa externa), obedece a un patr´ on similar. Despu´es de muchos an´ alisis se encontr´ o que en t´erminos del n´ umero de onda k = λ−1 la f´ ormula emp´ırica 1 1 k=R − (m − a)2 (n − b)2 describ´ıa muy bien la distribuci´ on de l´ıneas espectrales de los ´ atomos alcalinos, donde R, a y b son constantes propias del elemento, en tanto que m y n son enteros positivos. La constante R es conocida como constante de 2
Esto contrasta por ejemplo, con el espectro cont´ınuo de la radiaci´ on electromagn´etica emitida por la superficie de los s´ olidos a alta temperatura.
116
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
Rydberg. Para el ´ atomo de Hidr´ ogeno en particular, se tiene que a = b = 0 y R ≡ RH = 109677,576 cm−1 y se escribe 1 1 − k = RH , n>m (2.12) m2 n 2 las series de n´ umeros de onda fueron clasificadas de acuerdo a valores fijos de m. Hablamos entonces de la serie de Lyman (m = 1), serie de Balmer (m = 2), Paschen (m = 3), Brackett (m = 4) y Pfund (m = 5). Hemos descrito el espectro de emisi´ on. No obstante, tambi´en existe el espectro de absorci´ on, para el cual se usa una fuente que emite un espectro cont´ınuo cuya radiaci´ on se hace incidir sobre un recipiente de vidrio que contiene el gas monoat´ omico que se desea investigar. Al medir el espectro que emite el gas monoat´ omico despu´es de haber absorbido la radiaci´ on cont´ınua, se observa que el espectro es cont´ınuo pero faltan algunas l´ıneas muy espec´ıficas, y que corresponden a las l´ıneas del espectro que han sido suprimidas del espectro cont´ınuo emitido por la fuente, y que debieron ser absorbidas por los ´ atomos del gas. Se observ´ o que para cada elemento, a cada l´ınea del espectro de absorci´ on le corresponde una l´ınea en el espectro de emisi´ on, pero lo rec´ıproco no es cierto: solo ciertas l´ıneas de emisi´ on se manifiestan en el espectro de absorci´ on. En el espectro de absorci´ on del ´ atomo de Hidr´ogeno, normalmente solo aparecen las l´ıneas correspondientes a la serie de Lyman; pero cuando el gas est´ aa muy alta temperatura (por ejemplo en la superficie de una estrella), se observan las l´ıneas de la serie de Balmer en el espectro de absorci´ on.
2.4.1.
La teor´ıa de Bohr
Los postulados que describiremos a continuaci´ on, enunciados por Niels Bohr en 1913, permitieron dar cuenta razonablemente de los siguientes fen´ omenos: (a) La estabilidad del ´ atomo, (b) La naturaleza discreta de los espectros de emisi´ on y absorci´ on, (c) La descripci´ on espec´ıfica del espectro del ´ atomo de Hidr´ogeno, (d) La diferencia entre el espectro de absorci´ on y el de emisi´ on. Tales postulados fueron los siguientes: 1. En el ´ atomo, un electr´ on se mueve en una ´ orbita circular alrededor del n´ ucleo, bajo la influencia de la interacci´ on coulombiana entre el n´ ucleo y el electr´ on, y obedeciendo a las leyes de la mec´ anica cl´ asica. 2. De la infinidad de ´ orbitas cl´ asicamente permitidas, el electr´ on solo puede moverse en aquellas para las cuales el momento angular orbital L es un multiplo entero de la cantidad ~ ≡ h/2π. Esto es L = n~ = nh/2π
,
n = 1, 2, 3, . . .
(2.13)
3. A pesar de que el electr´ on est´ a en permanente aceleraci´ on, se mueve en una ´ orbita permitida sin radiar energ´ıa electromagn´etica, de modo que su energ´ıa total E, permanece constante. 4. Un electr´ on emite energ´ıa electromagn´etica, solo cuando se mueve de una ´ orbita permitida (con energ´ıa Ei ) a otra ´ orbita permitida (con energ´ıa Ef ), de manera discont´ınua. La frecuencia de la radiaci´ on permitida est´ a dada por Ei − Ef ν= (2.14) h Con estos postulados, Bohr da cuenta de la estabilidad del ´ atomo e introduce la cuantizaci´ on del momento angular, en contraste con los postulados de cuantizaci´ on antes descritos, los cuales involucran la cuantizaci´ on de la energ´ıa. N´ otese que el cuarto postulado Ec. (2.14) est´ a ´ıntimamente relacionado con el postulado de Einstein, ya que E = Ei − Ef es la energ´ıa del cuanto (fot´ on) que se emite, y por tanto E = hν.
´ 2.4. ESPECTROSCOP´IA, ESTABILIDAD DEL ATOMO Y TEOR´IA DE BOHR
2.4.2.
117
Predicciones de la teor´ıa de Bohr para ´ atomos con un electr´ on
Vamos a estudiar el caso de un ´ atomo de masa M y carga +Ze, con un electr´ on de masa m y carga −e. Este + es el caso del Hidr´ ogeno (Z = 1), el helio ionizado He (Z = 2), el litio doblemente ionizado Li++ (Z = 3), etc. Supongamos que el electr´ on se mueve en trayectoria circular alrededor del n´ ucleo. Por simplicidad, asumiremos que el n´ ucleo permanece fijo en un sistema de referencia inercial, lo cual es razonable teniendo en cuenta que la masa del n´ ucleo es mucho mayor que la del electr´ on. La condici´ on de estabilidad de esta ´ orbita circular es que la fuerza coulombiana iguale a la fuerza centr´ıpeta necesaria para mantener la trayectoria circular. v2 Ze2 = m r2 r
(2.15)
siendo v la rapidez del electr´ on y r el radio del c´ırculo. El momento angular est´ a dado por L = mvr aplicando la condici´ on de cuantizaci´ on Ec. (2.13), se tiene que mvr = n~ ⇒ v =
n~ , n = 1, 2, 3, 4, . . . mr
(2.16)
y sustituyendo esta rapidez en la Ec. (2.15) queda Ze2 = mrv 2 = mr
n2 ~2 n2 ~2 = m2 r 2 mr
despejando r vemos que el radio estar´ıa tambi´en cuantizado n2 ~2 ; n = 1, 2, 3, 4, . . . mZe2
(2.17)
n~ mZe2 Ze2 n~ 1 = = ; n = 1, 2, 3, 4, . . . mr m n2 ~2 n~
(2.18)
r= reemplazando (2.17) en (2.16) tenemos v=
vemos que tanto la velocidad como el radio est´ an cuantizados como consecuencia de la cuantizaci´ on del momento angular. Similarmente es f´ acil ver que los postulados de Bohr tambi´en conducen a la cuantizaci´ on de la energ´ıa. Para verlo, tendremos en cuenta que la energ´ıa potencial coulombiana est´ a dada por V =−
Ze2 r
donde el menos se debe a la naturaleza atractiva de la interacci´ on. Por otro lado, la energ´ıa cin´etica (no-relativista) se puede calcular empleando la Ec. (2.15) 1 Ze2 T = mv 2 = (2.19) 2 2r sumando estas dos energ´ıas y empleando la Ec. (2.17) la energ´ıa total queda E = T +V =− E = −
Ze2 Ze2 mZe2 = −T = − 2r 2 n2 ~2
mZ 2 e4 ; n = 1, 2, 3, 4, . . . 2n2 ~2
(2.20)
cuando se calcula el radio de la ´ orbita menor (n = 1), empleando los valores num´ericos apropiados (con Z = 1) en la Ec. (2.17) se obtiene ~2 r0 = ≡ a0 ≈ 0,53 × 10−10 m (2.21) me2
118
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
es claro de la Ec. (2.17) que este es el menor radio posible. Adicionalmente, este valor concuerda de forma razonable con las predicciones para el modelo at´ omico de Rutherford. As´ı mismo, la Ec. (2.20) nos dice que cuando n = 1 obtenemos el estado de menor energ´ıa, de modo que n = 1 corresponde al estado base o estado normal del ´ atomo de Hidr´ ogeno. El valor del radio para este estado de menor energ´ıa se denomina radio de Bohr. Finalmente, la velocidad del electr´ on es m´ axima cuando n = 1 como se aprecia en la Ec. (2.18). Tomando Z = n = 1 y los valores num´ericos apropiados en la Ec. (2.18) esta velocidad est´ a dada por v ≈ 2,2 × 106 m/seg < 0,01c como esta velocidad es menos del uno por ciento de la velocidad de la luz, se espera que una descripci´ on norelativista sea adecuada, esto es adem´ as consistente con la suposici´ on no-relativista dada en la Ec. (2.19). Sin embargo, la descripci´ on no-relativista deja de ser adecuada para valores grandes de Z. Por otra parte, se observa que al incrementarse el n´ umero cu´ antico a partir del estado base n = 1, la energ´ıa se hace menos negativa, y por tanto se incrementa. Claramente, E = 0 es una energ´ıa l´ımite (asociada a n → ∞), y los estados de energ´ıa se aproximan arbitrariamente a E = 0 cuando n crece. En consecuencia, los estados permitidos son todos de energ´ıa negativa. Esto se debe a que energ´ıas mayores que cero, corresponden a electrones libres que ya no est´ an ligados al ´ atomo, y en estado libre la energ´ıa de los electrones corresponde a un espectro cont´ınuo. Es de enfatizar sin embargo, que la teor´ıa de Bohr solo nos habla de electrones ligados a un ´ atomo. Queda entonces por calcular las frecuencias permitidas para la radiaci´ on emitida, para lo cual apelamos al cuarto postulado Ec. (2.14) que combinado con la Ec. (2.20) conduce a " # Ei − Ef mZ 2 e4 1 1 ν= = − 2 (2.22) h 4π~3 n2f ni que en t´erminos del n´ umero de onda k = λ−1 = ν/c nos da " # 1 1 ; k = RH − 2 n2f ni
RH ≡
me4 2 Z 4πc~3
(2.23)
expresi´ on que coincide con la f´ ormula emp´ırica (2.12), en donde una evaluaci´ on num´erica de la constante RH en la Ec. (2.23), coincidia razonablemente con el valor num´erico que se hab´ıa obtenido emp´ıricamente RH ≃ 109677,576 cm−1 . La teor´ıa de Bohr nos dice entonces que existe una energ´ıa asociada al estado base o de m´ınima energ´ıa para el electr´ on, que corresponde a n = 1. En una descarga el´ectrica el ´ atomo puede absorber energ´ıa y generar una transici´ on a un estado de energ´ıa mayor o estado excitado con n > 1. Una vez excitado, el ´ atomo emitir´ a este exceso de energ´ıa para regresar al estado base. En general, esta desexcitaci´ on se logra mediante una serie de transiciones en las que el electr´ on pasa sucesivamente por estados de energ´ıa cada vez m´ as baja hasta llegar al estado base. En cada transici´ on se emitir´ a radiaci´ on electromagn´etica con frecuencias dadas por la Ec. (2.22). Por ejemplo, un electr´ on puede ser excitado al estado con n = 6, y pasar sucesivamente por los estados n = 4, 2, 1 emitiendo tres l´ıneas del espectro at´ omico, con frecuencias dadas por (2.22). En la infinidad de excitaciones y desexcitaciones de todos los ´ atomos que se efect´ uan en la medida del espectro de emisi´ on, se presentan todas las transiciones posibles y por tanto se exhibe el espectro completo. Estas predicciones fueron corroboradas experimentalmente para el hidr´ ogeno (Z = 1) y para el He+ (Z = 2). As´ı mismo, la teor´ıa puede explicar el espectro de absorci´ on para ´ atomos con un electr´ on. Ya que solo ciertas transiciones son posibles, el ´ atomo solo absorber´ a cantidades discretas de energ´ıa de la radiaci´ on incidente. La radiaci´ on incidente consiste de haces de cuantos de todas las frecuencias, en donde solo los fotones con frecuencias dadas por (2.22) pueden ser absorbidos. No obstante, los ´ atomos en general est´ an inicialmente en el estado base n = 1, de manera que solo pueden presentarse procesos de absorci´ on de n = 1 a n > 1, raz´ on por la cual se observar´ an normalmente solo las l´ıneas asociadas a la serie de Lymann en el caso del Hidr´ ogeno. Cuando el gas est´ a a una temperatura elevada, es posible que algunos ´ atomos est´en inicialmente en el primer estado excitado n = 2 de modo que tambi´en ser´ an observables las l´ıneas de la serie de Balmer. La temperatura necesaria para
´ DE WILSON Y SOMMERFELD 2.5. LAS REGLAS DE CUANTIZACION
119
que exista una poblaci´ on razonable de ´ atomos en el estado n = 2 se puede calcular utilizando la estad´ıstica de Boltzmann, vemos que una fracci´ on 1/e de los ´ atomos estar´ a en el estado n = 2 para temperaturas del orden de 105 K, temperatura t´ıpica de algunas superficies estelares. En consecuencia, la teor´ıa de Bohr puede tambi´en explicar la diferencia entre el espectro de absorci´ on y el de emisi´ on. Todas las predicciones de la teor´ıa de Bohr, se ajustan a´ un mejor cuando se tiene en cuenta la correcci´ on de que la masa nuclear es finita y se realiza la reducci´ on del problema de dos cuerpos al problema de un cuerpo con masa igual a la masa reducida del sistema (ver secci´ on 12.1). Posteriormente, la cuantizaci´ on de los estados de energ´ıa de los electrones en el ´ atomo fu´e corroborada por los experimentos de Franck y Hertz.
2.5.
Las reglas de cuantizaci´ on de Wilson y Sommerfeld
En las descripciones anteriores, vemos que las cuantizaciones introducidas hasta el momento obedecen a problemas fenomenol´ogicos a priori diferentes y cada proceso de cuantizaci´ on se ha introducido para cada fen´ omeno espec´ıfico. Las reglas de cuantizaci´ on de Wilson y Sommerfeld constituyen un intento de unificar al menos parcialmente estos diversos postulados de cuantizaci´ on. Una primera observaci´ on es el hecho de que la cuantizaci´ on de la energ´ıa de Planck est´ a asociada a osciladores arm´ onicos y la de Bohr est´ a asociada a ´ orbitas circulares regulares. Es decir, ambas est´ an asociadas a un movimiento peri´ odico. En mec´ anica cl´ asica, los movimientos peri´ odicos son particularmente transparentes en la formulaci´ on de Hamilton-Jacobi de la mec´ anica cl´ asica, particularmente en la variante conocida como variables acci´on-´ angulo. Por esta raz´ on, la formulaci´ on que veremos a continuaci´ on est´ a basada en el formalismo de las variables acci´ on ´ angulo. La regla de cuantizaci´ on de Wilson y Sommerfeld se enuncia de la siguiente manera: Sea q una coordenada generalizada de un sistema f´ısico que var´ıa peri´ odicamente con el tiempo, y sea pq su momento can´ onicamente conjugado. Este par de variables can´ onicas q y pq obedecen a la siguiente regla de cuantizaci´ on I pq dq = nq h (2.24) siendo nq un n´ umero cu´ antico entero y la integral cerrada se efect´ ua sobre un periodo de movimiento. N´ otese que el producto de una coordenada generalizada por su momento conjugado siempre tiene unidades de momento angular, y por eso la cuantizaci´ on est´ a directamente relacionada con la constante de Planck, la cual tiene unidades de momento angular. Veremos que la cuantizaci´ on de Bohr y de Planck surgen como casos especiales de esta regla de cuantizaci´ on, y que adem´ as permite ampliar el dominio de la mec´ anica cu´ antica. Sin embargo, es necesario aclarar que la regla de Wilson y Sommerfeld no puede explicar la cuantizaci´ on de Einstein o Compton, puesto que en estos casos los cuantos son esencialmente libres y no poseen un movimiento peri´odico.
2.5.1.
El ´ atomo de Bohr bajo las reglas de Wilson y Sommerfeld
Retomemos el ´ atomo de Bohr con un electr´ on de masa m en una ´ orbita circular de radio r0 con velocidad constante. Usaremos la coordenada generalizada θ (la coordenada r no es independiente de modo que no se incluye como coordenada generalizada), la coordenada θ es claramente peri´ odica si consideramos que la rapidez ˙ y del electr´ on es uniforme. El momento can´ onicamente conjugado a θ es el momento angular orbital L = mr02 θ, dado que θ˙ = cte por ser peri´ odico el movimiento, vemos que el momento angular es una constante de movimiento. Al aplicar la regla de cuantizaci´ on (2.24) a q = θ y pq = L tenemos I nh L dθ = 2πL = nq h ⇒ L = = n~ 2π que reproduce la regla de cuantizaci´ on de Bohr.
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
120
2.5.2.
Cuantizaci´ on de Planck con las reglas de Wilson y Sommerfeld
Consideremos un oscilador arm´ onico simple de masa m, frecuencia angular ω = 2πν y amplitud x0 . La coordenada generalizada x es peri´ odica y viene dada por3 x = x0 sin 2πνt = x0 sin ωt el momento can´ onicamente conjugado a x es p = mx, ˙ de modo que
y la regla de cuantizaci´ on (2.24) nos da
I
p = mx0 ω cos ωt
(2.25)
I
(2.26)
p dx = mx0 ω
cos ωt dx = nh
para poder evaluar esta integral debemos expresar cos ωt en funci´ on de x x2 = x20 sin2 ωt = x20 1 − cos2 ωt p x20 − x2 cos ωt = ± x0
⇒ cos2 ωt =
x20 − x2 x20 (2.27)
es claro que el signo de cos ωt (que es el signo del momento p de acuerdo con la Ec. 2.25), viene dado por el sentido instant´ aneo de movimiento. Vamos a expresar el movimiento peri´ odico completo partiendo del origen hacia la derecha y llegando de nuevo al origen desde la izquierda. En la primera etapa desde cero hasta x0 , la velocidad (y por tanto cos ωt) es positiva. Desde x0 hasta cero cos ωt es negativo, al igual que desde cero hasta −x0 . Finalmente cos ωt ≥ 0 en el intervalo desde −x0 hasta cero. Tenemos entonces I Z x0 Z 0 Z −x0 Z 0 cos ωt dx = |cos ωt| dx + (− |cos ωt|) dx + (− |cos ωt|) dx + |cos ωt| dx Z
0
x0
x0 x0
Z
Z
0 −x0
|cos ωt| dx + |cos ωt| dx − |cos ωt| dx − 0 0 p p Z x0 Z −x0 x20 − x2 x20 − x2 = 2 dx − 2 dx x0 x0 0 0
=
0
Z
−x0
0
−x0
|cos ωt| dx
donde hemos usado la Ec. (2.27) en el u ´ltimo paso. Haciendo x′ = −x en la segunda integral se tiene Z x0 p 2 I Z x0 p 2 x0 − x2 x0 − x′2 cos ωt dx = 2 dx − 2 −dx′ x0 x0 0 0
y siendo x′ variable muda, ambas integrales son id´enticas de modo que " p #x0 I Z x0 p 2 x0 − x2 4 x x20 − x2 x20 x cos ωt dx = 4 dx = + arcsin = 2x0 (arcsin 1 − arcsin 0) = πx0 x0 x0 2 2 x0 0 0
con lo cual la integral en (2.26) queda I 2π mω 2 x20 1 mω 2 x20 p dx = πmωx20 = = ω 2 ν 2 ahora bien, recordando que la energ´ıa total del oscilador arm´ onico es igual a la energ´ıa potencial m´ axima E = (1/2) mω 2 x20 (ya que en la posici´ on de m´ axima elongaci´ on no hay energ´ıa cin´etica), y usando la regla de cuantizaci´ on (2.26), tenemos que I E p dx = = nh ⇒ E = nhν ν que es la regla de cuantizaci´ on de Planck. 3
Naturalmente puede haber una fase, pero esto no es relevante para nuestros prop´ ositos.
´ DE WILSON Y SOMMERFELD 2.5. LAS REGLAS DE CUANTIZACION
2.5.3.
121
La teor´ıa relativista de Sommerfeld y la estructura fina del ´ atomo de Hidr´ ogeno
Por medio de espectr´ ometros de gran resoluci´ on, fu´e posible determinar que los ´ atomos poseen una estructura fina en su espectro. En particular, la estructura fina del ´ atomo de Hidr´ ogeno pose´ıa una separaci´ on en componentes de una misma l´ınea espectral, unas 104 veces menor que la separaci´ on entre l´ıneas espectrales (en t´erminos de n´ umero de onda). Basado en la cuantizaci´ on de Wilson y Sommerfeld, el u ´ltimo de ´estos adicion´ o un postulado de la siguiente forma: Lo que se supon´ıa como un solo estado del ´ atomo de Hidr´ ogeno, consiste en realidad de varios estados de energ´ıas aproximadamente iguales, asociados a ´ orbitas el´ıpticas de diferente excentricidad. Sin embargo, el movimiento se sigue considerando peri´ odico, de modo que las reglas de cuantizaci´ on de Wilson y Sommerfeld permanecen v´ alidas. En primer lugar, Sommerfeld evalu´ o las consecuencias de este postulado adicional en t´erminos de la regla de cuantizaci´ on de Wilson y Sommerfeld en el marco de la mec´ anica cl´ asica no-relativista. Utilizando coordenadas polares r y θ, y teniendo en cuenta que r ya no es constante, entonces r y θ se considerar´ an coordenadas generalizadas con sus momentos can´ onicamente conjugados. Por tanto, habr´ a dos condiciones de cuantizaci´on, a diferencia on quedan en del caso de ´ orbita circular en el cual hay solo una. Puesto que pr = mr˙ las condiciones de cuantizaci´ la forma I I L dθ = nθ h ; pr dr = nr h la primera condici´on nos provee de la regla de cuantizaci´ on ya conocida del momento angular L = nθ ~ ,
nθ = 1, 2, 3, . . .
en tanto que la segunda condici´ on de cuantizaci´ on queda en la forma a L − 1 = nr ~ , nr = 0, 1, 2, 3, . . . b
siendo a y b los semiejes mayor y menor de la elipse respectivamente.. La relaci´ on de estabilidad de la ´ orbita el´ıptica an´ aloga a la Ec. (2.15) para ´ orbita circular, conduce a las relaciones de cuantizaci´ on para los semiejes y la energ´ıa de los electrones en las ´ orbitas el´ıpticas a=
n2 ~2 nθ , b=a 2 µZe n
,
E=−
µZ 2 e4 ; 2n2 ~2
n ≡ nθ + nr , n, nθ = 1, 2, 3, . . .
(2.28)
donde µ es la masa reducida del electr´ on (es decir ya se tuvo en cuenta el efecto de masa finita del n´ ucleo). El n´ umero cu´ antico n se denomina n´ umero cu´ antico principal, puesto que la energ´ıa de los estados (en aproximaci´ on norelativista) solo depende de ´el. Por otro lado, nθ se conoce como n´ umero cu´ antico azimutal. Obs´ervese que el semieje mayor coincide con el radio de la ´orbita circular de Bohr, como se observa al comparar la primera de las Ecs. (2.28) con la Ec. (2.17). Adicionalmente, la segunda de las Ecs. (2.28) muestra que la forma de la elipse est´ a determinada por el cociente nθ /n. Cuando n = nθ , las ´ orbitas son c´ırculos de radio a y nos reducimos a las orbitas de Bohr. Es f´ ´ acil ver que para un n fijo, hay n valores diferentes para el n´ umero cu´ antico azimutal nθ . En consecuencia, hay n ´ orbitas el´ıpticas (una de ellas es circular) asociadas a un mismo valor de la energ´ıa (la cual solo depende de n), se dice entonces que las ´orbitas posibles para un n dado est´ an degeneradas. Por otra parte, el estimativo del orden de magnitud de la velocidad m´ axima de un electr´ on en una ´ orbita −2 de Bohr, nos di´ o que v/c ≃ 10 . Esto implicar´ıa que la correcci´ on relativista a la energ´ıa total, debida a la variaci´ on relativista de la masa electr´ onica sea del orden de (v/c)2 ≃ 10−4 , que a su vez es el orden de magnitud de separaci´ on entre componentes de la misma l´ınea espectral (con respecto a la separaci´ on de las l´ıneas). Esto sugiere que la degeneraci´ on pueda removerse aplicando la corrreci´ on relativista al modelo. Una vez hechas tales consideraciones, Sommerfeld encontr´ o la siguiente expresi´ on para la energ´ıa total de un electr´ on que se mueve en una ´ orbita el´ıptica caracterizada por los n´ umeros cu´ anticos n y nθ µZ 2 e4 α2 Z 2 1 3 E =− 2 2 1+ − 2n ~ n nθ 4n
122
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
donde la constante adimensional α se define como α≡
e2 1 ≃ ~c 137
la dependencia con nθ de la correcci´ on relativista, introduce la remoci´ on de la degeneraci´ on necesaria para explicar la estructura fina del ´ atomo de Hidr´ ogeno. No obstante, exist´ıan algunas transiciones que no se observaban experimentalmente. Por ejemplo, una transici´ on del estado (n, nθ ) = (3, 2) al estado (1, 1) es posible. Pero la transici´ on del estado (3, 3) al estado (1, 1) no se observa en un solo paso. Sin embargo, la u ´ltima transici´ on (que nos lleva al estado base) se puede hacer en dos transiciones directas que s´ı est´ an permitidas: (3, 3) → (2, 2) → (1, 1). Las observaciones experimentales nos llevan a la siguiente regla de selecci´ on: Una transici´ on entre dos estados caracterizados por los n´ umeros cu´ anticos (ni , nθi ) y nf , nθf solo es posible si se cumple la condici´ on nθi − nθf = ±1
esta regla de selecci´ on debe ser postulada por aparte en la teor´ıa relativista de Sommerfeld.
2.6.
Los postulados de De Broglie
Los modelos de Einstein y Compton suger´ıan que la radiaci´ on (fotones) pod´ıa tener comportamiento de part´ıcula. Esencialmente, la naturaleza corpuscular de la radiaci´ on se manifiesta en la interacci´ on radiaci´ on materia (al menos a nivel microsc´ opico), en tanto que el patr´ on ondulatorio se manifiesta en la forma en que la radiaci´ on se propaga. Ahora bien, si la radiaci´ on puede tener comportamiento corpuscular, es natural apelar a un principio de simetr´ıa y preguntarse si las part´ıculas (la materia) pueden exhibir comportamiento ondulatorio. Este principio de simetr´ıa fu´e el que introdujo de Broglie en 1924. Puesto que el comportamiento ondulatorio de las part´ıculas no se hab´ıa observado, era necesario que las predicciones sobre la longitud de la onda asociada a la part´ıcula (que De Broglie llam´ o onda piloto), fuesen mucho menores que todas las dimensiones t´ıpicas de la mayor´ıa de objetos materiales. Para estimar la longitud de las ondas piloto asociadas a una part´ıcula, De Broglie supuso que la relaci´ on entre la energ´ıa total relativista E y la frecuencia ν de esta onda, era id´entica a la relaci´ on de Einstein para la radiaci´ on electromagn´etica E ν= (2.29) h y que la longitud de onda λ se puede calcular con la relaci´ on usual entre λ, ν y la velocidad w de propagaci´ on de la onda w λ= (2.30) ν para la radiaci´ on electromagn´etica w = c, y por tanto λ=
c hc = ν E
(2.31)
adicionalmente, la Ec. (2.5) nos dice que el momento lineal de un fot´ on es p = E/c, de modo que λ queda en la forma h λ= (2.32) p En s´ıntesis, De Broglie postul´ o que las Ecs. (2.32, 2.29), que hasta aqu´ı eran v´ alidas solo para fotones, tambi´en nos dan la longitud de onda y la frecuencia de las ondas piloto asociadas a una part´ıcula de momento lineal p y energ´ıa relativista E, de modo que h E λ= ; ν= (2.33) p h
2.6. LOS POSTULADOS DE DE BROGLIE
123
n´ otese que la derivaci´ on de la Ec. (2.32) provino de hacer w = c en la Ec. (2.30), lo cual no es v´ alido para part´ıculas con masa diferente de cero, al menos si suponemos que la velocidad de la onda est´ a relacionada con la velocidad de la part´ıcula. Sin embargo, la relaci´ on (2.32) es independiente de la velocidad de la onda y fu´e la relaci´ on que De Broglie extrapol´ o para part´ıculas.
2.6.1.
Propiedades de las ondas piloto
Es de esperarse que la velocidad de la onda piloto sea la velocidad de la part´ıcula, o al menos que haya una relaci´ on simple entre las dos. Combinando las Ecs. (2.30, 2.33) vamos a calcular la velocidad de propagaci´ on w de las ondas piloto asociadas a la part´ıcula Eh E w = νλ = = (2.34) hp p y utilizando la expresi´ on para la energ´ıa total relativista tenemos q q 2 2 2 2 c p2 + (m0 c)2 c p + (m0 c ) w = = p p s 2 m0 c w = c 1+ p
(2.35)
observamos que w es mayor que c. No obstante, esto no supone una contradicci´ on ya que w est´ a asociado a
Figura 2.1: Apariencia de una onda piloto, asociada a una part´ıcula. Puesto que suponemos que una part´ıcula est´ a localizada, su paquete de onda asociado debe estar tambi´en localizado. El perfil ψ (x, t) del paquete, se dibuja aqu´ı para una configuraci´ on instant´ anea evaluada en t = t0 . la velocidad de fase de las ondas piloto. Es de esperarse que el perfil instant´ aneo de una onda piloto tenga una apariencia similar a la mostrada en la Fig. 2.1. Es decir, la onda piloto debe tener un valor distinto de cero solo en cierta vecindad espacial, ya que es l´ ogico que la localizaci´ on de la onda piloto est´e asociada a la localizaci´ on de la part´ıcula. Para formar un pulso de ondas como el de la Fig. 2.1 es necesario superponer un n´ umero infinito de ondas monocrom´ aticas, constituyendo un paquete de ondas. Para dicho paquete, debe distinguirse entre la velocidad de fase w y la velocidad de grupo wg , del paquete4 . Es posible demostrar que estas velocidades vienen 4
Las caracter´ısticas de un paquete de ondas, su velocidad de fase y de grupo, ser´ an consideradas en detalle en las secciones 2.11 y 2.13.
124
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
dadas por w=
dν ν ; wg = k dk
adem´ as, es la velocidad de grupo la que no debe superar a la velocidad de la luz, es decir la que est´ a asociada a los fen´ omenos de transporte. Calculemos entonces la velocidad de grupo de las ondas piloto de una part´ıcula en movimiento. Partimos de las Ecs. (2.33) E 1 p ν= ; k≡ = h λ h por tanto dν = wg =
dE dp ; dk = h h dν dE = dk dp
(2.36)
utilizando de nuevo la expresi´ on relativista de la energ´ıa, tenemos E2
c2 p2 + m0 c2 p dE = c2 ⇒ dp E =
2
2E dE = 2pc2 dp
⇒
(2.37)
reemplazando (2.37) en (2.36) se tiene wg = c2
p E
(2.38)
y teniendo en cuenta las expresiones relativistas E = m0 γc2 , p = m0 γvp
;
γ≡q
1 1−
vp2 c2
(2.39)
donde vp es la velocidad de la part´ıcula y m0 su masa en reposo. Sustituyendo (2.39) en (2.38), se obtiene wg = c2
m0 γvp = vp m0 γc2
(2.40)
de modo que la velocidad de grupo, que es la que contiene las propiedades de propagaci´ on de la onda, es igual a la velocidad de la part´ıcula, mostrando la consistencia de los postulados de De Broglie. Por otro lado, las Ecs. (2.34, 2.38) nos dicen la relaci´ on que hay entre la velocidad de fase y la velocidad de grupo (o velocidad de la part´ıcula) w=
c2 c2 = wg vp
n´ otese que si us´ aramos las Ecs. (2.31, 2.29), en lugar de las Ecs. (2.32, 2.29) obtendr´ıamos w=
ν E hc = νλ = =c k h E
;
wg =
dν dE/h = =c dk dE/hc
relaci´ on que solo es v´ alida para cuantos que se mueven a la velocidad de la luz. Ya hab´ıamos enfatizado que la Ec. (2.32) se obten´ıa usando w = c en la Ec. (2.30), lo cual solo era v´ alido para la radiaci´ on. Sin embargo, la Ec. (2.32) era independiente de la velocidad, y por esa raz´ on se pod´ıa extrapolar a part´ıculas materiales. En contraste, la Ec. (2.31) depende expl´ıcitamente de la velocidad c, y no puede ser extrapolada directamente.
2.6. LOS POSTULADOS DE DE BROGLIE
2.6.2.
125
Corroboraci´ on experimental de los postulados de De Broglie
Para poder medir experimentalmente la longitud de la onda piloto asociada a una part´ıcula, debemos encontrar un sistema para el cual λ = h/p sea del orden de magnitud de las dimensiones caracter´ısticas de dicho sistema. Consideremos primero una part´ıcula de polvo con radio t´ıpico r y densidad ρ que se mueve con una velocidad no relativista v. Utilizando valores t´ıpicos tomaremos r = 10−4 cm , ρ = 10gr/cm3 , v = 1cm/seg , h = 6,62 × 10−27 erg − seg de modo que 4 3 πr ρv ≃ 4 × 10−11 gr − cm − seg−1 3 h 6,62 × 10−27 gr − cm2 − seg−2 − seg = ≃ 1,6 × 10−16 cm p 4 × 10−11 gr − cm − seg−1
p = mv = λ =
esta longitud es ¡108 veces menor que un radio at´ omico!. Por tanto, no es viable para una exploraci´ on experimental. Consideremos ahora un electr´ on cuya energ´ıa sea del orden de 10eV = 1,6 × 10−11 ergs, esta es aproximadamente, la energ´ıa cin´etica de un electr´ on en el ´ atomo de Hidr´ ogeno. Para esta energ´ıa cin´etica la velocidad es mucho menor que c y se puede considerar no relativista. Por tanto, si asumimos un electr´ on libre no relativista con esta energ´ıa, su impulso viene dado por la expresi´ on no-relativista p=
√
2mT ≃ 3,9 × 10−8 cm
esta longitud es casi un orden de magnitud mayor que un radio at´ omico t´ıpico, y aproximadamente del orden de 5 magnitud de la distancia interat´ omica en un cristal . Esto sugiere que un electr´ on incidiendo en un cristal puede presentar fen´ omenos de difracci´ on, en donde las “rendijas” son los intersticios interat´ omicos. No describiremos aqu´ı los montajes experimentales que condujeron a la detecci´ on del patr´ on de difracci´ on de los electrones. Basta con decir que los experimentos de Davidson y Germer en 1927 tomaron el patr´ on de difracci´ on de los electrones que inciden en un cristal. El patr´ on anular de difracci´ on de los electrones por cristales, no se puede atribuir a la interferencia entre dos o m´ as electrones distintos, sino a las ondas asociadas a un solo electr´ on y que provienen de distintas partes del cristal. Esto se debe a que en el montaje experimental se emple´ o un haz de tan baja intensidad, que los electrones son emitidos uno por uno, eliminando as´ı las posibles interferencias entre electrones distintos.
2.6.3.
Las reglas de cuantizaci´ on de Bohr a la luz de los postulados de De Broglie
Hemos visto que la longitud de la onda piloto de un electr´ on es aproximadamente λ ≃ 4 × 10−8 cm (asumiendo que su energ´ıa cin´etica es aproximadamente la del electr´ on en el estado base del ´ atomo de Hidr´ ogeno). Por otro lado, el radio de Bohr es la distancia t´ıpica del electr´ on al n´ ucleo en el estado base del ´ atomo de Hidr´ ogeno y est´ a dada por r0 ≃ 0,5 × 10−8 cm. En consecuencia, λ es casi un orden de magnitud mayor al radio de Bohr y por tanto, es de esperarse que el comportamiento ondulatorio sea esencial en el entendimiento de las ´ orbitas en el ´ atomo de Hidr´ ogeno. Sin embargo, las consideraciones anteriores se realizaron para electrones libres que no repiten su orbita peri´ ´ odicamente, raz´ on por la cual su onda piloto asociada deb´ıa ser una onda viajera que acompa˜ nara a la part´ıcula en su propagaci´ on. Ahora bien, un electr´ on en una ´ orbita at´ omica posee un movimiento peri´ odico y no posee una direcci´ on neta de propagaci´ on6 , con lo cual esperar´ıamos que su onda piloto asociada no tenga una direcci´ on neta de propagaci´ on. Esto nos conduce de manera natural a considerar que la onda piloto asociada a un electr´ on en una ´ orbita at´ omica peri´ odica debe ser una onda estacionaria i.e. con nodos fijos. 5
Adem´ as, esta longitud de onda es muy grande con respecto a todas las dimensiones esperadas de la part´ıcula asociada (el electr´ on). Por ejemplo, si promediamos el vector r sobre un periodo completo, tomando como origen el n´ ucleo at´ omico, dicho promedio es nulo. 6
126
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
Veremos que la combinaci´ on de la regla de cuantizaci´ on de Bohr junto con los postulados de De Broglie, nos conducen a ondas piloto estacionarias. La regla de cuantizaci´ on de Bohr Ec. (2.16) se escribe como mvr = pr =
nh 2π
; n = 1, 2, 3, . . .
siendo p el momento lineal del electr´ on en la ´ orbita permitida de radio r. Al sustituir el momento lineal por el primer postulado de De Broglie de la Ec. (2.33) tenemos nh hr = ; n = 1, 2, 3, . . . λ 2π 2πr = nλ ; n = 1, 2, 3, . . .
(2.41)
de manera que el per´ımetro de las ´ orbitas permitidas es un m´ ultiplo entero de longitudes de onda de De Broglie. La Ec. (2.41) es precisamente la condici´ on para que las ondas piloto del electr´ on que se mueve repetidamente sobre su ´ orbita, se combinen coherentemente con las ondas piloto de recorridos anteriores, de modo que la superposici´ on forme una onda estacionaria. De hecho, si se violara la condici´ on (2.41), entonces cuando se superpongan las ondas asociadas a un gran n´ umero de recorridos, su interferencia ser´ a destructiva y se cancelar´ a su intensidad promedio. Puesto que la intensidad de la onda piloto es una medida de la ubicaci´ on de la part´ıcula, lo anterior implica que el electr´ on no podr´ıa estar en esa ´ orbita. La Fig. 2.2 ilustra el patr´ on de intensidad ψ (x, t0 ) de la onda estacionaria asociada a las tres primeras ´ orbitas de Bohr, para un tiempo fijo t = t0 . Cuando el tiempo evoluciona cambia la magnitud y el signo de los patrones oscilantes, pero la ubicaci´ on de los nodos es la misma en todo tiempo, ya que ´estos son fijos en una onda estacionaria. Por otra parte, es posible demostrar que la exigencia de ondas piloto estacionarias para part´ıculas en movimiento peri´ odico, conduce a que dicha part´ıcula deba satisfacer las reglas de cuantizaci´ on de Wilson y Sommerfeld, Ec. (2.24). Finalmente, las caracter´ısticas independientes del tiempo de la onda estacionaria permiten explicar porqu´e el electr´ on en movimiento peri´ odico orbital no emite radiaci´ on electromagn´etica.
2.7.
S´ıntesis de los resultados experimentales
Newton consider´ o que la luz era un haz de corp´ usculos que pod´ıan reflejarse en un espejo cuando “rebotan”. Sin embargo, los experimentos que mostraron fen´ omenos como la interferencia y la difracci´ on, establecieron la naturaleza ondulatoria de la luz a mediados del siglo XIX, lo cual permiti´ o la fusi´ on de la ´ optica con la electricidad y el magnetismo. Los fen´ omenos de polarizaci´ on de la luz pueden interpretarse como una manifestaci´on del car´ acter vectorial del campo el´ectrico. No obstante, el estudio de la radiaci´ on del cuerpo negro sugiri´ o la hip´ otesis de la cuantizaci´ on de la energ´ıa de las ondas electromagn´eticas estacionarias (osciladores arm´ onicos) que se generaban al interior del cuerpo negro. La energ´ıa de estos osciladores es de la forma E = nhν con n = 0, 1, 2, ...; siendo ν la frecuencia de cada oscilador. Esta cuantizaci´ on permite predecir adecuadamente el espectro de emisi´ on del cuerpo negro empleando la estad´ıstica de Boltzmann. Por otra parte, el estudio del efecto fotoel´ectrico sugiri´ o que las ondas electromagn´eticas libres que se propagaban tambi´en estaban constitu´ıdas por paquetes de energ´ıa que indican valores discretos de ´esta. Cada paquete denominado fot´ on tendr´ a una energ´ıa dada por E = hν. Esto permiti´ o a Einstein comprender porqu´e la energ´ıa m´ axima adquirida por los electrones era independiente de la intensidad de la onda electromagn´etica incidente y porqu´e este energ´ıa se adquir´ıa en tiempos tan cortos. Para ello era necesario adem´ as que el paquete estuviera localizado en una peque˜ na regi´ on del espacio y que permaneciera localizado a medida que se aleja de la fuente, a diferencia de las ondas cl´ asicas que se extienden cuando se alejan de la fuente. M´ as adelante, mediante la irradiaci´ on de una placa met´ alica con rayos X, compton muestra que estos cuantos pueden dispersarse mediante la colisi´ on con un electr´ on libre estacionario, emulando una colisi´ on tipo “bolas de billar”. De esta forma pudo predecir el pico en el espectro asociado a una longitud de onda mayor que la incidente. En s´ıntesis, estos experimentos est´ an mostrando la naturaleza discreta de la energ´ıa que se propaga en una onda electromagn´etica y el hecho de que el cuanto asociado se puede comportar como part´ıcula. Adicionalmente, tanto
2.7. S´INTESIS DE LOS RESULTADOS EXPERIMENTALES
127
Figura 2.2: Patrones de onda estacionaria (lineas punteadas) asociados a las tres primeras ´ orbitas de Bohr (lineas continuas). El perfil se dibuja para una configuraci´ on instant´ anea evaluada en t = t0 .
la cuantizaci´ on como la colisi´ on de fotones con electrones libres pudo explicarse satisfactoriamente relacionando los par´ ametros de part´ıcula (energ´ıa E y momento p del fot´ on) con los par´ ametros de onda (frecuencia ν y n´ umero
128
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
de onda k del fot´on) de la radiaci´ on, en la forma E = hν ; p = ~k ; ~ ≡
h ; h ≃ 6,62 × 10−34 Joul × seg 2π
(2.42)
De otra parte, los experimentos espectrosc´ opicos nos muestran que la radiaci´ on emitida o absorbida debida a transiciones electr´ onicas en los ´ atomos, solo nos arroja cuantos con valores discretos de longitud de onda, y por tanto de energ´ıa. Esto implica que los niveles de energ´ıa permitidos para un electr´ on ligado a un ´ atomo tambi´en est´ an cuantizados. Lo anterior llev´ o a Bohr a postular la cuantizaci´ on del momento angular asociado al electr´ on junto con la hip´ otesis de ausencia de radiaci´ on, en contraste con las predicciones de la mec´ anica cl´ asica. La cuantizaci´ on de los estados de energ´ıa at´ omicos fu´e corroborada por los experimentos de Franck y Hertz, en tanto que las reglas de cuantizaci´ on fueron perfeccionadas por Wilson y Sommerfeld. Una vez caracterizada la dualidad onda part´ıcula de la radiaci´ on, es natural preguntarse si esta dualidad est´ a tambi´en presente en los objetos f´ısicos que tradicionalmente llamamos materia, por ejemplo en los electrones. Esta pregunta condujo a De Broglie a postular que el movimiento de una part´ıcula est´ a gobernado por la propagaci´ on ondulatoria de ciertas ondas piloto asociadas con la part´ıcula. Asumiendo que la energ´ıa E y el momento p de la part´ıcula tambi´en cumplen las relaciones (2.42) dadas para el fot´ on, De Broglie estim´ o la frecuencia y la longitud de onda de las ondas piloto λ = h/p ; ν = E/h (2.43) Este postulado fu´e confirmado por los experimentos de Davidson y Germer sobre difracci´ on de electrones. Naturalmente, el momento y la energ´ıa totales se deben conservar en cada proceso, en donde los momentos y energ´ıas de la radiaci´ on y la materia est´ an dados por los postulados anteriores. Vamos ahora a examinar en m´ as detalle el experimento de Young de la doble rendija. Veremos que este an´ alisis aportar´ a ideas adicionales con respecto al comportamiento de la naturaleza a nivel subat´ omico.
2.8.
El experimento de Young de la doble rendija
Hemos visto que es necesario incorporar aspectos corpusculares al comportamiento de la radiaci´ on electromagn´etica, la pregunta es si debemos abandonar la teor´ıa ondulatoria de la radiaci´ on electromagn´etica. Veremos que no es posible con una teor´ıa puramente corpuscular explicar todos los fen´ omenos relacionados con los fotones, de manera que tendremos que incorporar tanto los aspectos ondulatorios como corpusculares de la radiaci´ on. El dispositivo utilizado se muestra en la Fig. 2.3, y consiste en una fuente aproximadamente monocrom´ atica frente a la cual se coloca una placa opaca P con dos rendijas peque˜ nas F1 y F2 (peque˜ nas con respecto a la longitud de onda emitida), detr´ as de esta placa opaca se ubica una pantalla de observaci´ on O que es usualmente una placa fotogr´ afica. Es importante que las dimensiones de las rendijas sean menores que la longitud de onda, ya que de lo contrario las intensidades recogidas en la pantalla O ser´ an compatibles con la ´ optica geom´etrica que puede explicarse con una teor´ıa corpuscular. En contraste, el fen´ omeno de difracci´ on que se presenta cuando las rendijas son peque˜ nas nos muestra la naturaleza ondulatoria del fen´ omeno. Cuando obstru´ımos la rendija F2 obtenemos sobre la pantalla O una distribuci´ on de intensidades I1 (x) que es el patr´ on de difracci´ on generado por la rendija F1 . An´ alogamente, al cerrar F1 obtenemos el patr´ on de intensidades I2 (x). Si ahora abrimos las dos rendijas simult´ aneamente obtendremos un nuevo patr´ on de intensidades I (x). La primera observaci´on es que la intensidad resultante NO es la suma de las intensidades obtenidas con una sola rendija I (x) 6= I1 (x) + I2 (x) ¿como podr´ıan explicarse estos resultados a la luz de una teor´ıa corpuscular?. Es bien conocido que el patr´ on de Difracci´ on generado por una sola rendija no puede ser explicado con una teor´ıa corpuscular cuando la rendija tiene una dimensi´on menor que la longitud de onda incidente. Sin embargo, veremos que a´ un cuando pudi´esemos explicar el fen´ omeno de una rendija con una teor´ıa corpuscular, el patr´ on de interferencia que se forma cuando se abren las dos rendijas entra en conflicto con una teor´ıa puramente corpuscular. Asumamos que el patr´ on de
2.8. EL EXPERIMENTO DE YOUNG DE LA DOBLE RENDIJA
129
Figura 2.3: (a) Montaje del experimento de Young con doble rendija. (b) Patr´ on de intensidades asociado a la exposici´ on por una sola rendija. La l´ınea punteada indica la suma de los dos patrones de intensidad. (c) Patr´ on de intensidades obtenido con la apertura simult´ anea de las dos rendijas. El contraste con la gr´ afica punteada nos muestra que la intensidad resultante no es la suma de las intensidades obtenidas con la apertura de una sola rendija, revelando la existencia de un patr´ on de interferencia. interferencia que se observa, es generado por la interacci´ on de tipo corpuscular entre los fotones que pasan por la rendija F1 con aquellos que pasan por la rendija F2 . De ser as´ı, tendr´ıamos que si regulamos la potencia de la fuente de tal manera que los fotones salgan pr´ acticamente uno por uno, se eliminar´ıan estas interacciones y por tanto deber´ıa desaparecer este patr´ on de interferencia, incluso si se espera mucho tiempo para que se depositen mucho fotones sobre O. Veamos ahora cual ser´ıa la predicci´ on de una teor´ıa puramente ondulatoria. La teor´ıa ondulatoria predice que la intensidad en un punto dado I (x) es proporcional a la amplitud al cuadrado del campo el´ectrico evaluado en tal punto. Cuando las dos rendijas est´ an abiertas es claro que el campo total resultante en tal punto es la superposici´ on de los dos campos generados por la onda que pasa por cada rendija E (x) = E1 (x) + E2 (x)
130
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
la intensidad es entonces proporcional a la amplitud del campo el´ectrico total al cuadrado I (x) ∝ |E (x)|2 = |E1 (x) + E2 (x)|2
I1 (x) ∝ |E1 (x)|2 ; I2 (x) ∝ |E2 (x)|2 ⇒ I (x) 6= I1 (x) + I2 (x) si E1 (x) y E2 (x) se escriben en notaci´ on compleja, el t´ermino de interferencia resultante depender´ a de la diferencia en las fases complejas asociadas a E1 (x) y E2 (x). Esta interferencia explica el patr´ on de franjas que ocurre en el fen´ omeno de difracci´ on por dos rendijas. Si disminu´ımos la potencia de la fuente, las franjas de interferencia disminuir´ an en intensidad pero no desaparecer´ an. De por s´ı este fue uno de los experimentos determinantes en favor de la teor´ıa ondulatoria en el siglo XIX. Sin embargo, los resultados obtenidos cuando la potencia de la fuente es tal que los fotones se liberan uno a uno, son realmente sorprendentes y entran en conflicto con la teor´ıa puramente corpuscular pero tambi´en con la teor´ıa puramente ondulatoria. Por una parte, si hacemos que el tiempo de exposici´ on sea muy largo de manera que una gran cantidad de fotones impactan la placa fotogr´ afica, vemos que las franjas de interferencia no desaparecen a pesar de haber eliminado la interacci´ on entre los fotones. Por tanto, la teor´ıa corpuscular no puede predecir este fen´ omeno. La teor´ıa ondulatoria en cambio ofrece una explicaci´ on satisfactoria al respecto. De otra parte, si el tiempo de exposici´ on lo hacemos muy corto de modo que solo unos pocos fotones impacten la pantalla, vemos que los impactos sobre la placa son muy localizados como se esperar´ıa de un comportamiento corpuscular, y no se observa el patr´ on de interferencia con baja intensidad que predecir´ıa la teor´ıa ondulatoria. Mas a´ un si el experimento para tiempos cortos de exposici´ on se repite muchas veces para las mismas condiciones iniciales (el mismo dispositivo con fotones de la misma energ´ıa y momento, as´ı como igual tiempo de exposici´ on), vemos que los pocos impactos localizados en cada experimento pueden tener una distribuci´ on muy diferente. Esto indica que el proceso tiene un car´ acter altamente aleatorio que no es atribu´ıble al desconocimiento o falta de control en las condiciones iniciales. Si en cambio repetimos el experimento muchas veces bajo las mismas condiciones iniciales pero para tiempos de exposici´ on muy grandes, en los cuales muchos fotones han impactado la placa, vemos que el patr´ on cont´ınuo de intensidades se forma seg´ un lo indicado en la teor´ıa ondulatoria, es decir con los patrones adecuados de interferencia. Para este caso el fen´ omeno es altamente reproducible, es decir la distribuci´ on de intensidades es esencialmente la misma en cada experimento. Si se hacen experimentos para tiempos de exposici´ on espec´ıficos y estos tiempos de exposici´ on se van incrementando gradualmente, vemos que a medida que el tiempo de exposici´ on aumenta el experimento se vuelve m´ as reproducible, pasando desde resultados muy aleatorios para tiempos de exposici´ on cortos (pocos fotones incidentes) hasta resultados altamente reproducibles para tiempos muy largos de exposici´ on (muchos fotones incidentes). Esto revela que la ley fundamental que rige al fen´ omeno debe ser de naturaleza probabil´ıstica, ya que un modelo probabil´ıstico en general falla en sus predicciones cuando una muestra posee muy pocos elementos o eventos, pero es altamente predictivo cuando la muestra consta de un enorme n´ umero de elementos o de eventos. En nuestro caso los eventos son los impactos de los fotones sobre la placa y lo que vemos es que el patr´ on de interferencia se va construyendo a medida que los fotones van impactando la placa. Un aspecto que no hemos tocado hasta aqu´ı, es el referente a la determinaci´ on de la rendija por la cual pasa cada fot´ on. Si queremos determinar por cual rendija pasa cada uno de los fotones que se emiten uno por uno, podemos colocar dos detectores (digamos dos fotomultiplicadores) sobre cada rendija F1 y F2 , en tal caso podemos determinar completamente la rendija a trav´es de la cual pasa cada fot´ on, ya que cuando se emite un fot´ on una se˜ nal es registrada en uno de los detectores pero no en ambos al tiempo. Sin embargo, en este caso todos los fotones detectados son absorbidos por los detectores y no alcanzan la pantalla. En otras palabras, la completa determinaci´ on de la rendija por la cual pasa cada fot´ on destruy´ o completamente la informaci´ on sobre el patr´ on de difracci´ on. Por otro lado, si dejamos un detector solo en F1 y dejamos abierto F2 veremos que cuando han pasado muchos fotones cerca del 50 % han sido detectados (con respecto al experimento anterior). Conclu´ımos que los on de difracci´ on que se construir´ a gradualmente sobre la pantalla dem´as han pasado por F2 pero entonces el patr´ ser´ a el correspondiente a la difracci´ on por una rendija, no se observar´ a entonces el fen´ omeno de interferencia
2.8. EL EXPERIMENTO DE YOUNG DE LA DOBLE RENDIJA
131
inherente al experimento con dos rendijas. Una vez m´ as el proceso de medici´ on (determinaci´ on de la rendija de paso) ha alterado la evoluci´ on posterior del sistema. En lo referente al car´ acter probabil´ıstico cu´ antico, es necesario distinguirlo de los aspectos probabil´ısticos que se emplean usualmente en mec´ anica cl´ asica. En la termodin´ amica y especialmente en la mec´ anica estad´ıstica cl´ asica, se utilizan conceptos de probabilidad y estad´ıstica debido a que en la pr´ actica (experimental) no es posible determinar o controlar las condiciones iniciales de muchas part´ıculas, aunado con la dificultad pr´actica (te´ orica) de resolver un gran n´ umero de ecuaciones diferenciales acopladas. Se asume sin embargo en las teor´ıas cl´ asicas que si conozco todas las condiciones iniciales puedo al menos en principio predecir las trayectorias exactas de las part´ıculas y por tanto de mi sistema como un todo. En cu´ antica nos vemos avocados a usar la probabilidad incluso con el conocimiento y/o control de las condiciones iniciales del sistema, estamos hablando entonces de un comportamiento probabil´ıstico esencial e inherente a las leyes de la naturaleza, al menos en nuestra presente interpretaci´ on de los fen´ omenos.
2.8.1.
Interpretaci´ on mecano-cu´ antica de la dualidad onda part´ıcula
Hemos visto que tanto los aspectos corpusculares como los ondulatorios son indispensables para un correcto entendimiento de los experimentos de Young con doble rendija. Dado que en mec´ anica cl´ asica estos aspectos son mutuamente excluyentes, ser´ a necesario replantearse las ideas de la mec´ anica cl´ asica, las cuales despu´es de todo tuvieron su semilla en los fen´ omenos macrosc´ opicos. Veamos a la luz de los resultados anteriores que aspectos deben ser revaluados De la discusi´ on anterior hemos visto que cuando colocamos un fotomultiplicador (o dos) para detectar por cual rendija van a pasar los electrones, afectamos de manera fundamental al sistema produciendo un cambio dr´ astico en el resultado final debido a que los fotones detectados se absorben y no alcanzan la pantalla. Vemos entonces que el proceso de medici´ on afecta de forma fundamental al sistema que se mide. En mec´ anica cl´ asica, si bien es necesario perturbar al sistema para poder medirlo, est´ a impl´ıcito que esta perturbaci´ on se puede hacer arbitrariamente peque˜ na al menos en principio. En mec´ anica cu´ antica ´este y otros experimentos nos indicar´ an que cuando se realiza un proceso de medici´ on existe una cierta “perturbaci´ on fundamental” que no puede ser minimizada y que altera de manera considerable al sistema que se mide. Por otro lado, hemos visto que aunque los fotones se env´ıen uno por uno, eliminando de esta forma la interacci´ on entre fotones, un fot´ on parece comportarse diferente si est´ an abiertas las dos rendijas con respecto al caso en que una sola de ellas est´ a abierta, de no ser as´ı la intensidad resultante cuando las dos est´ an abiertas ser´ıa la suma de las intensidades obtenidas cuando se abre cada una. Adicionalmente, ya hemos visto que si intentamos determinar por cual rendija pasan los fotones, evitamos que estos alcancen la pantalla. Esto se puede replantear diciendo que es imposible observar el patr´ on de interferencia y al mismo tiempo conocer por cual rendija pas´ o cada fot´ on. Esta afirmaci´ on ser´ a reforzada m´ as adelante cuando discutamos el principio de incertidumbre de Heisenberg. Para resolver esta paradoja es necesario abandonar la idea de que cada fot´ on pasar´ a inevitablemente por una rendija espec´ıfica, lo cual nos lleva a su vez a cuestionar el concepto de trayectoria, tan firmemente establecido en la mec´anica cl´ asica. Ahora bien, hemos visto que cuando unos pocos fotones han impactado la pantalla, la distribuci´ on de estos fotones no es reproducible a pesar de que los experimentos se repitan bajo las mismas condiciones iniciales. Esto implica que para un fot´ on dado no podemos predecir con total certeza en qu´e punto golpear´ a a la pantalla incluso si conocemos sus condiciones iniciales. En consecuencia, el conocimiento de las condiciones iniciales de un sistema no determina completamente el movimiento subsecuente de ´este. No obstante, el hecho de que el mismo patr´ on de interferencia se construya cuando el n´ umero de fotones es muy alto, nos indica que las condiciones iniciales nos pueden determinar una distribuci´ on de probabilidad que s´ı puede ser especificada por alguna ecuaci´ on din´ amica. En este caso espec´ıfico, la probabilidad de que un fot´ on golpee la pantalla dentro de un intervalo entre el punto x y el punto x + dx, es proporcional a I (x) dx calculado con la teor´ıa ondulatoria, es decir ser´ a proporcional a 2 |E (x)| dx. N´ otese que el principio de superposici´ on que rige el comportamiento de los fen´ omenos ´opticos cl´ asicos est´ a basado en el hecho de que las ecuaciones de Maxwell sin fuentes son ecuaciones lineales y homog´eneas, para
132
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
las cuales vale el principio de superposici´ on, si E1 y E2 son soluciones de las Ecs. de Maxwell sin fuentes, una combinaci´ on lineal de ellas tambi´en lo es. Los anteriores hechos se pueden entonces postular en la siguiente forma: Los aspectos corpusculares y ondulatorios de la luz son inseparables. De modo que la luz se comporta simult´aneamente como onda y como flujo de part´ıculas. Las predicciones sobre el comportamiento del fot´ on son solo de car´ acter probabil´ıstico. El comportamiento ondulatorio nos dictamina la distribuci´ on de probabilidad de su manifestaci´ on como part´ıcula (fot´ on). La informaci´ on f´ısica sobre el fot´ on en un momento dado est´a determinada por la componente E (r, t) de la onda electromagn´etica que es soluci´ on de las ecuaciones de Maxwell. El campo E (r, t) caracteriza al estado de los fotones en el tiempo t. Dicho campo se interpreta como la amplitud de probabilidad de que un fot´ on aparezca en el punto r en el tiempo t. Esto implica que la correspondiente probabilidad de que un fot´ on est´e en el volumen d3 r centrado en r es proporcional a |E (r, t)|2 d3 r. M´ as adelante veremos que la amplitud de probabilidad E (r, t) tendr´ a su an´ alogo para la materia en la denominada funci´ on de onda ψ (r, t). Si bien existen muchas analog´ıas entre E (r, t) y ψ (r, t) tambi´en existen algunas diferencias importantes, por ejemplo E (r, t) no caracteriza completamente al estado de un fot´ on, en tanto que la funci´on de onda caracteriza completamente el estado de una part´ıcula sin esp´ın. La funci´ on de onda es esencialmente compleja en tanto que E se hace complejo solo por conveniencia. La teor´ıa cu´ antica completa para los fotones (electrodin´ amica cu´ antica) debe tener en cuenta el car´ acter eminentemente relativista de las ecuaciones de Maxwell y adem´ as corresponde a la cuantizaci´ on de un medio que es cl´ asicamente cont´ınuo (campos electromagn´eticos). En contraste, la mec´ anica cu´ antica para part´ıculas corresponde a la cuantizaci´ on de un medio que cl´ asicamente se considera discreto (part´ıculas puntuales) y que en muchos casos se puede tratar como no-relativista. Aqu´ı solo trabajaremos la mec´ anica cu´ antica no relativista de medios cl´ asicamente discretos y por tanto no trabajaremos el problema concerniente al proceso matem´ atico de cuantizaci´ on del fot´ on.
2.9.
Proceso de medici´ on, preparaci´ on de un sistema y el principio de la descomposici´ on espectral
Vamos a examinar otro experimento de o´ptica que arrojar´ a muchas luces sobre las ideas relativas al proceso de medici´ on en cu´antica. La Fig. 2.4, muestra el montaje que queremos estudiar. Asumamos que hacemos incidir una onda plana monocrom´ atica de una fuente sobre un polarizador P , elegiremos el eje z como el eje de propagaci´ on de la onda electromagn´etica y asumiremos que el polarizador P se ubica en el plano xy. Paralelo al plano xy colocaremos un analizador A que transmitir´ a luz polarizada a lo largo de ux y absorber´ a luz polarizada a lo largo de uy . Asumiremos que el experimento se realizar´ a en condiciones en donde sea v´ alida la ´ optica cl´asica, es decir cuando el haz de luz es muy intenso. En este caso, cuando la onda pasa por P queda polarizada en una direcci´ on espec´ıfica up caracterizada por up = cos θ ux + sin θ uy la onda plana monocrom´ atica que sale del polarizador P est´ a caracterizada por el campo el´ectrico E (r, t) = E0 up ei(kz−ωt) = E0 cos θei(kz−ωt) ux + E0 sin θ ei(kz−ωt) uy
(2.44)
E0 es la amplitud (constante) de la onda polarizada. La intensidad es proporcional a |E0 |2 . Cuando la onda polarizada pasa por el analizador su campo el´ectrico vendr´ a dado por E′ (r, t) = E0′ ux ei(kz−ωt) = E0 cos θ ux ei(kz−ωt) que surge b´ asicamente de la eliminaci´ on de la componente a lo largo de uy en la Ec. (2.44). La intensidad de la onda que pas´ o el analizador est´ a dada por |E0′ |2 es decir I ′ = I cos2 θ
´ Y PREPARACION ´ DE UN SISTEMA: DESCOMPOSICION ´ ESPECTRAL 2.9. MEDICION
133
Figura 2.4: (a) Montaje experimental para medidas de polarizaci´ on. En z < 0 tenemos luz no polarizada que en z = 0 se polariza en la direcci´ on up . El analizador A suprimir´ a la componente uy del campo el´ectrico polarizado. resultado conocido como la ley de Malus. Nos preguntamos ahora por lo que ocurre a nivel cu´ antico. Es decir, cuando la intensidad de la fuente es tan baja que los fotones se emiten uno a uno, de manera que la cuantizaci´ on de la radiaci´ on se hace manifiesta. Podemos colocar un detector de fotones detr´ as del analizador para mirar los resultados. Retomaremos para ello los resultados de las discusiones anteriores. En primera instancia, debido a la existencia de un cuanto indivisible (el fot´ on) el detector no registra una fracci´ on de fot´ on. O bien el fot´ on cruza el analizador o bien es absorbido completamente por ´el. Adicionalmente, no podemos predecir con total certeza si un cierto fot´ on incidente sobre el analizador cruzar´ a o ser´ a absorbido por ´este. Solo podremos conocer la probabilidad de que un evento espec´ıfico de estos ocurra. Veremos sin embargo que en ciertos casos espec´ıficos, podremos hacer predicciones con total certeza. Cuando el n´ umero total de fotones es muy grande, es decir cuando ha pasado suficiente tiempo, se construir´ a un patr´ on reproducible de probabilidad equivalente al que se obtiene para tiempos cortos con un haz de alta intensidad. En s´ıntesis debe generarse un patr´ on reproducible (y por tanto predecible) que corresponda adem´ as al 2 l´ımite cl´ asico. Es decir, si N es el n´ umero (grande) de fotones entonces un n´ umero dado por N cos θ de fotones cruzar´ a el analizador. N´ otese que el aparato de medida (analizador) solo puede dar algunos resultados espec´ıficos que llamaremos resultados propios o autoresultados. En este experimento solo hay dos resultados posibles: el fot´ on pasa el analizador o es absorbido por ´el. Hay entonces una cuantizaci´ on del resultado, lo cual es muy diferente al escenario cl´ asico en el cual la intensidad puede variar de manera cont´ınua desde 0 hasta I cuando el ´ angulo θ se var´ıa de forma cont´ınua. El experimento muestra adem´ as el siguiente resultado, si el fot´ on est´ a polarizado a lo largo de ux dicho fot´ on pasar´ a con toda certeza el analizador (con probabilidad 1). An´ alogamente, si el fot´ on est´ a polarizado a lo largo on ser´ a absorbido (probabilidad cero para pasar). Estas aseveraciones de uy hay una certeza total de que este fot´ requieren naturalmente de una repetici´ on de una gran cantidad de experimentos que muestren la naturaleza
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
134
probabil´ıstica para fotones con estas polarizaciones. Adicionalmente, se observa que estos son los u ´nicos estados de polarizaci´ on que conducen a una total certeza en la medida. Por esta raz´ on llamaremos a estos estados de polarizaci´ on estados propios o autoestados. Vemos adem´ as que a cada resultado propio le corresponde un estado propio, el resultado propio “fot´ on que cruza” est´ a asociado con el estado propio de polarizaci´ on a lo largo de ux . El resultado propio “fot´ on que se absorbe” est´ a asociado a fotones con polarizaci´ on uy . En otras palabras, para un estado propio tenemos total certeza de obtener su correspondiente resultado propio. Matem´ aticamente podemos describir nuestros dos estados propios como (2) u(1) p = ux ; up = uy
La siguiente pregunta obvia es ¿cu´ al es la probabilidad de obtener un resultado propio dado, cuando el estado es una superposici´ on de los estados propios? es decir cuando el estado de polarizaci´ on del fot´ on es arbitrario i.e. (2) up = cos θ ux + sin θ uy = cos θ u(1) p + sin θ up
(2.45)
para obtener la distribuci´ on de probabilidad es necesario tener una gran cantidad de eventos para cada estado de polarizaci´ on. Esto se logra midiendo muchos fotones que poseen las mismas condiciones iniciales7 y se encuentra experimentalmente que para un n´ umero N (grande) de fotones con polarizaci´ on dada por un ´ angulo θ en (2.45) un a, y N sin2 θ de ellos ser´ a absorbido. Por tanto, un fot´ on espec´ıfico con polarizaci´ on n´ umero N cos2 θ de ellos pasar´ 2 2 definida por θ tiene una probabilidad P (1) = cos θ de ser transmitido y una posibilidad P (2) = sin θ de ser absorbido. Esto coincide con la ley cl´ asica de Malus como esper´ abamos cuando el n´ umero de fotones es grande. Lo anterior junto con la Ec. (2.45), nos indica que la probabilidad de obtener un cierto resultado propio es proporcional al cuadrado del valor absoluto del coeficiente del estado propio asociado, al coeficiente lo llamamos la amplitud de probabilidad, las amplitudes de probabilidad A (i) y las probabilidades P (i) para cada resultado propio son en este caso D 2 D (1) 2 A (1) = cos θ = u(1) u i ; P (1) = cos θ = u u i p p p p D 2 D (2) 2 A (2) = sin θ = u(2) p up i ; P (2) = sin θ = up up i P (1) + P (2) = cos2 θ + sin2 θ = 1
en algunos casos ser´ a necesario colocar una constante de proporcionalidad para garantizar que la suma de las probabilidades de todos los resultados propios sea uno. Esto nos induce a postular que si tenemos un conjunto de autoresultados {Ri } asociados a autoestados {ψi } un estado arbitrario se escribir´ a como superposici´ on de los autoestados X ψ= ci ψi (2.46) i
y la probabilidad de obtener un autoresultado Rk ser´ a
o equivalentemente
|ck |2 P (Rk ) = P 2 i |ci | P (Rk ) =
|hψk | ψi|2 hψ| ψi
donde el denominador me asegura la conservaci´ on de la probabilidad X P (Ri ) = 1 i
7
N´ otese que el polarizador tiene el papel de reproducir las mismas condiciones iniciales en cada conjunto de experimentos.
(2.47)
(2.48)
2.10. DUALIDAD ONDA PART´ICULA PARA LA MATERIA
135
puesto que el conjunto de todos los autoresultados es por definici´ on el conjunto de todos los resultados experimentales que podemos obtener al medir el sistema. Esta afirmaci´ on se denomina el principio de descomposici´ on espectral. El ejemplo de los fotones polarizados nos indica adem´ as que la descomposici´ on espectral espec´ıfica depende del tipo de instrumento de medici´ on dado que hay que utilizar los autoestados que corresponden a este aparato. Por ejemplo, si el analizador (aparato de medici´ on) tiene una orientaci´ on diferente, los autoestados estar´ an definidos seg´ un esta nueva direcci´ on. Si en vez de un analizador tenemos un medidor de otra variable f´ısica (por ejemplo el esp´ın) los autoresultados deben definirse correspondientemente y por lo tanto los autoestados. Supongamos que dos fotones poseen la misma polarizaci´ on pero se diferencian en otros observables f´ısicos (momento, esp´ın, etc.), un aparato que mide polarizaci´ on solo puede dicernir los diferentes valores de este observable, por tanto si existen otros observables que caracterizan a mi part´ıcula, al autovalor de polarizaci´ on {a}, le corresponde mas de un autoestado ya que todos los autoestados con polarizaci´ on {a} est´ an asociados a este autovalor sin importar cuales sean los valores de los otros observables. Decimos que los autoestados est´ an degenerados con respecto al observable o autovalor {a} lo cual seg´ un la presente discusi´ on indica que solo tenemos una informaci´ on parcial sobre el sistema. Volveremos sobre el tema de la degeneraci´ on m´ as adelante. La consistencia de estos resultados se puede examinar poniendo un segundo analizador A′ despu´es de A y que permita el paso de fotones con polarizaci´ on en ux . Dado que todos los fotones que pasaron por A quedaron “preparados” en el estado de polarizaci´ on ux , todos estos fotones est´ an en un solo autoestado del nuevo analizador A′ con autoresultado “el fot´ on pasa”. Por tanto, todos los fotones que pasaron por A deben pasar por A′ . Similarmente, ′ si A est´ a orientado seg´ un uy , todos los fotones que vienen de A deben ser absorbidos en A′ . Estas predicciones est´ an confirmadas por los experimentos. Analicemos ahora un aspecto de la medici´ on directamente asociado con la naturaleza cu´ antica de la radiaci´ on. Al ser el fot´ on un cuanto indivisible solo existe la posibilidad de transmisi´ on o absorci´ on, esto desemboc´ o en el hecho de que a partir de un estado arbitrario de polarizaci´ on, hay un cambio abrupto luego de la medici´ on para los fotones que pasan, pues estos pasan de la polarizaci´ on up a la polarizaci´ on ux que corresponde a un autoestado de mi aparato. Existe entonces una perturbaci´ on fundamental que altera el estado del sistema y que no puede ser disminu´ıda. N´ otese que despu´es de la medici´ on (preparaci´ on del fot´ on en un autoestado) tenemos una informaci´ on adicional “el fot´ on ha pasado el analizador”. Lo anterior es entonces una confirmaci´ on de que el proceso de medici´ on perturba de manera fundamental el estado del sistema. Podr´ıamos en este punto postular que luego del proceso de medici´ on, el sistema queda preparado en un estado propio definido por el sistema mismo y por el aparato de medici´ on.
2.10.
Dualidad onda part´ıcula para la materia
Hemos visto que de acuerdo con los postulados de De Broglie, la materia al igual que los fotones exhibe un comportamiento dual onda part´ıcula. La corroboraci´ on experimental de estos postulados se realiz´ o a trav´es de los experimentos de Davidsson y Germer, as´ı como los experimentos de G. P. Thomson (ambos sobre difracci´ on de electrones), y los experimentos de Estermann, Frisch y Stern concernientes a la difracci´ on de ´ atomos de Helio. Adicionalmente, De Broglie postul´ o que si bien la onda asociada a una part´ıcula libre era una onda viajera (nodos en movimiento), para un electr´ on en un ´ atomo que est´e ligado al n´ ucleo at´ omico y que recorre su ´ orbita peri´odicamente, su onda piloto debe estar asociada a una onda estacionaria (nodos fijos). Esta interpretaci´ on permiti´ o dar una explicaci´ on a las reglas de cuantizaci´ on de Bohr, demostrando que las ´ orbitas permitidas en un ´ atomo son aquellas que corresponden a un per´ımetro circular con un n´ umero entero de longitudes de ondas estacionarias. Adem´ as para ´ orbitas no circulares la exigencia de ondas estacionarias result´ o equivalente a las reglas de cuantizaci´ on de Wilson y Sommerfeld, en donde los niveles permitidos de energ´ıa aparecen como los an´ alogos de los modos normales de una cuerda vibrante. Recordemos adem´ as que dentro de sus postulados De Broglie asume que la energ´ıa E y el momento p de una
136
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
part´ıcula material posee la siguiente relaci´ on con sus par´ ametros de onda E = hν = ~ω
;
p = ~k
(2.49)
siendo ν, ω, k la frecuencia, frecuencia angular y n´ umero de onda respectivamente. La correspondiente longitud de onda es 2π h λ= = (2.50) |k| |p|
una estimaci´ on de la longitud de onda de la materia ordinaria nos permite comprender porqu´e no observamos la naturaleza ondulatoria de la materia ordinaria en el mundo macrosc´ opico. En virtud de la gran simetr´ıa que parece existir entre la radiaci´ on y la materia, vamos a incorporar las ideas ya recogidas de los experimentos ´ opticos para incorporarlas a la naturaleza de las part´ıculas materiales. Estas extrapolaciones est´ an soportadas en el hecho de que experimentos similares a los ´ opticos se pueden realizar con los electrones y otras part´ıculas materiales, y observar que el comportamiento es muy similar al mostrado por los fotones. Comenzaremos entonces por mencionar que el concepto cl´ asico de trayectoria ser´ a sustitu´ıdo por el concepto de una distribuci´ on din´ amica (dependiente del tiempo) de probabilidad de que la part´ıcula est´e en cierta regi´ on del espacio. Para ello ser´ a necesario encontrar una amplitud de probabilidad ψ (r, t) que estar´ a asociada a un campo escalar. A esta amplitud de probabilidad se le conoce como funci´ on de onda y me define el estado de una part´ıcula en un instante dado, es decir contiene toda la informaci´ on posible sobre la part´ıcula. La probabilidad de a dada por encontrar a la part´ıcula en un volumen d3 r est´ dP (r, t) = C |ψ (r, t)|2 d3 r donde C es una constante de normalizaci´ on. Puesto que los experimentos muestran que esta distribuci´ on de probabilidad presenta las propiedades ondulatorias, es necesario que la ecuaci´ on de movimiento que la genera sea lineal y homog´enea para que se cumpla el principio de superposici´ on que se requiere para los fen´ omenos de interferencia. Es claro que estos fen´ omenos de interferencia se ver´ an reflejados en la probabilidad (al igual que en la intensidad en los fen´ omenos ´ opticos), al elevar al cuadrado la cantidad ψ (r) (el an´ alogo a E (r, t) en ´ optica). Dado que la part´ıcula debe estar siempre en alg´ un lugar, es claro que la probabilidad total debe ser igual a la unidad Z C |ψ (r, t)|2 d3 r = 1 (2.51)
esto nos indica entonces que los estados f´ısicos ψ (r, t) deben ser funciones de cuadrado integrable en todas las regiones accesibles a la part´ıcula (es posible que ciertas condiciones f´ısicas hagan que algunas regiones no sean accesibles). En otras palabras, la integral sobre el volumen accesible de la part´ıcula debe ser convergente. Asumiremos adem´ as que se cumple el principio de descomposici´ on espectral aplicado a la medida de una cantidad f´ısica arbitraria. Esto significa que (a) El resultado de la medida debe pertenecer a un conjunto de autoresultados {a}. (b) Con cada autovalor a se asocia un autoestado, es decir una autofunci´ on ψa (r). Esta autofunci´ on cumple la condici´ on de que si ψ (r, t0 ) = ψa (r) siendo t0 el instante en el cual se realiza la medida, el resultado de tal medida nos dar´ a con toda certeza el autovalor a. (c) Para todo estado ψ (r, t) la probabilidad Pa de obtener el autovalor a cuando se realiza una medida en el tiempo t0 , se encuentra descomponiendo ψ (r, t) en los autoestados ψa (r, t) ψ (r, t0 ) =
X a
ca ψa (r)
;
|ca |2 |hψa |ψi|2 Pa = P = 2 hψ |ψi b |cb |
;
X
Pa = 1
a
en virtud de la arbitrariedad del estado inicial ψ (r, t0 ), lo anterior implica que los autoestados ψa (r) deben ser completos, es decir deben formar una base para el conjunto de todos los estados f´ısicos posibles, esto nos llevar´ a de manera natural al concepto de observable. (d) Si la medida nos arroja un autovalor a, la part´ıcula quedar´ a
2.11. ASPECTOS ONDULATORIOS DE UNA PART´ICULA MATERIAL
137
en su autoestado asociado ψa (r). (e) La ecuaci´ on que describe la evoluci´ on del sistema (evoluci´ on temporal de la amplitud de probabilidad) debe ser lineal y homog´enea en ψ. Debe tener soluciones de naturaleza ondulatoria compatibles con las relaciones de De Broglie, en la siguiente secci´ on estudiaremos con m´ as detalle estas propiedades. Es importante observar que cuando realizamos el paso de suplantar la trayectoria de una part´ıcula (cl´ asicamente puntual), por una distribuci´ on din´ amica de probabilidad (un campo) estamos reemplazando un estado cl´ asico de part´ıcula puntual de seis par´ ametros en cada tiempo (tres coordenadas de posici´ on y tres de velocidad), por un estado cu´ antico determinado por un n´ umero infinito de par´ ametros: el valor de la funci´ on de onda en cada punto del espacio (y en el tiempo dado). El hecho de que la distribuci´ on de probabilidad dependa del tiempo nos llevar´ a al concepto de propagaci´ on de la onda asociada con la part´ıcula. A manera de ejemplo, en el experimento de la doble rendija de Young cuando se observa el patr´ on de interferencia no poseemos informaci´ on sobre la rendija por la cual pas´ o cada fot´ on (tambi´en vale para electrones u otras part´ıculas materiales), en realidad la onda asociada cruza por ambas rendijas y solo podemos calcular la probabilidad de que pase por una de ellas. Es importante mencionar sin embargo, que la simetr´ıa materia radiaci´ on exhibida hasta el momento posee una excepci´ on importante: los fotones son en general emitidos (creados) o absorbidos (destru´ıdos) durante un experimento. En contraste, las part´ıculas materiales no se crean ni se destruyen en los experimentos t´ıpicos. Por ejemplo, un electr´on emitido por un filamento caliente ya exist´ıa previamente en el filamento. De la misma forma un electr´ on absorbido en un detector no desaparece, simplemente se vuelve parte de un ´ atomo del detector o de una corriente en ´este. En realidad la teor´ıa de la relatividad predice que es posible la creaci´ on y aniquilaci´ on de part´ıculas materiales: por ejemplo un fot´ on de alta energ´ıa que pasa cerca a un ´ atomo puede crear un par electr´ on positr´ on (part´ıcula antipart´ıcula). Rec´ıprocamente, una colisi´ on electr´ on positr´ on aniquila a ambas part´ıculas emitiendo un fot´ on, esta conversi´ on radiaci´ on materia o viceversa es posible gracias a la equivalencia energ´etica de la masa. Sin embargo, en el l´ımite no relativista la materia no se puede crear ni destru´ır, lo cual nos lleva a una ley importante de conservaci´ on del n´ umero de part´ıculas. En particular, para sistemas de una part´ıcula podemos hacer la afirmaci´ on de que la part´ıcula est´ a en alguna parte para todo tiempo, lo cual nos indica una conservaci´ on de la probabilidad (la integral de volumen 2.51 debe ser la unidad para todo tiempo). Resumamos entonces las diferencias importantes entre materia y radiaci´ on que nos conducen a que la teor´ıa cu´ antica para la materia es m´ as sencilla. (a) Los fotones son irremediablemente relativistas, la materia en cambio puede estar en un r´egimen no relativista y de hecho para s´ olidos a temperaturas normales los electrones y n´ ucleos tienen velocidades mucho menores que la de la luz. Por tanto, para la materia tiene sentido una teor´ıa cu´ antica no relativista pero no para la radiaci´ on. (b) La naturaleza relativista de los fotones (y de la materia a altas energ´ıas) conduce a que el n´ umero de fotones no se conserva en el tiempo, por tanto la distribuci´ on de probabilidad debe colapsar para tiempos anteriores a la emisi´ on y posteriores a la absorci´ on, la Ec. (2.51) no es v´ alida para todo tiempo y debe incorporarse una ecuaci´ on o ecuaciones que me den cuenta de la din´ amica en el n´ umero de part´ıculas (din´ amica de creaci´ on y destrucci´ on). (c) Desde el punto de vista cl´ asico las part´ıculas suelen modelarse como medios discretos (part´ıculas puntuales), en tanto que el escenario cl´ asico del fot´ on corresponde a medios cont´ınuos (campos electromagn´eticos). La cuantizaci´ on de la materia se asocia entonces a menudo con la cuantizaci´ on de un medio cl´ asicamente discreto (teor´ıa cu´ antica “ordinaria”), en tanto que la cuantizaci´ on de la radiaci´ on est´ a necesariamente asociada a la cuantizaci´ on de un medio cl´ asicamente cont´ınuo (teor´ıa cu´ antica de campos).
2.11.
Aspectos ondulatorios de una part´ıcula material
Hemos visto que la distribuci´ on de probabilidad est´ a asociada con las propiedades ondulatorias de la materia (o la radiaci´ on). Por tanto, la generaci´ on de la ecuaci´ on din´ amica para esta distribuci´ on de la probabilidad requerir´ a de estudiar las propiedades ondulatorias que dicha ecuaci´ on debe generar. En general, la mayor parte de la discusi´ on que se desarrollar´ a en esta secci´ on es tambi´en v´ alida para ondas cl´ asicas, los desarrollos matem´ aticos son b´ asicamente id´enticos pero la interpretaci´ on difiere en ambos casos. Si seguimos los postulados de De Broglie, el punto de partida natural ser´ a el estudio de las ondas viajeras libres. Dentro de la ecuaci´ on de onda cl´ asica libre
138
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
(i.e. homog´enea) la soluci´ on m´ as simple (monocrom´ atica) es la soluci´ on tipo onda plana ψ (r, t) = Aei(k·r−ωt)
(2.52)
es inmediato ver que la onda plana es tal que |ψ (r, t)|2 = |A|2 de modo que si efectivamente representa a la onda asociada a una part´ıcula libre, nos predice que la distribuci´ on de probabilidad de una part´ıcula libre es uniforme en el espacio, lo cual es compatible con la homogeneidad e isotrop´ıa del espacio. Podr´ıa argumentarse que las ondas planas no son de cuadrado integrable de modo que no representan estrictamente un estado f´ısico. Sin embargo, nuestra experiencia con la ´ optica en la cual las ondas planas tampoco son estados f´ısicos nos muestra que el estudio de sus propiedades es muy provechoso, por un lado porque se puede considerar como el l´ımite de un estado f´ısico y por otro lado porque los estados f´ısicos se podr´ an escribir como superposici´ on de tales funciones en virtud de su completez (ver secci´ on 1.31.1). Tomaremos entonces la soluci´ on (2.52) como el prototipo de una onda piloto. Nuestro objetivo ser´ a realizar una teor´ıa no relativista que sea compatible con los postulados de De Broglie. Partiremos entonces de la relaci´ on no relativista entre E y p para una part´ıcula p2 E= (2.53) 2m y utilizando las relaciones de De Broglie (2.49) llegamos a ~k2 (2.54) 2m la relaci´ on de dispersi´ on (2.54) nos dice que la ecuaci´ on de onda NO es la ecuaci´ on din´ amica que gobierna a la teor´ıa cu´ antica no relativista de una part´ıcula, ya que es f´ acil demostrar que insertando (2.52) en la ecuaci´ on de onda cl´ asica se obtiene la relaci´ on de dispersi´ on ω=
ω 2 = k2 v 2
(2.55)
siendo v la velocidad de la onda. Volveremos sobre este problema m´ as adelante, de momento asumiremos que la onda viajera libre (2.52) es soluci´ on de la ecuaci´ on de movimiento para el estado cu´ antico ψ de una part´ıcula libre con relaci´ on de dispersi´ on dada por (2.54). Puesto que las ondas piloto deben generar los fen´ omenos ondulatorios, es necesario que la combinaci´ on lineal de soluciones sea soluci´ on de la ecuaci´ on din´ amica para generar los fen´ omenos de interferencia.
2.11.1.
Estados cu´ anticos arbitrarios como superposici´ on de ondas planas
De acuerdo con lo anterior, y dado que las ondas planas pueden generar cualquier funci´ on de cuadrado integrable (completez) cualquier estado cu´ antico de una part´ıcula (no necesariamente libre) se puede escribir como una superposici´ on de la forma Z 1 ψ (r, t) = ψ¯ (k, t) ei[k·r−ωt] d3 k (2.56) 3/2 (2π) donde d3 k = dkx dky dkz representa un diferencial de volumen en el espacio de las k′ s (usualmente denominado espacio rec´ıproco). La transformada de Fourier ψ¯ (k) puede ser compleja pero debe ser bien comportada para permitir derivar la soluci´ on dentro de la integral. Por supuesto, las transformadas de Fourier espec´ıficas depender´ an del problema espec´ıfico. Una funci´ on de onda que es superposici´ on de ondas planas como la descrita en (2.56) se denomina un paquete de ondas tridimensional. Por simplicidad, tomaremos el caso unidimensional Z 1 ψ (x, t) = √ ψ¯ (k, t) ei[kx−ωt] dk (2.57) 2π y estudiaremos m´as adelante el caso tridimensional. En primer lugar estudiaremos el perfil del paquete de onda en un instante dado
2.11. ASPECTOS ONDULATORIOS DE UNA PART´ICULA MATERIAL
2.11.2.
139
Perfil instant´ aneo del paquete de onda
Por simplicidad elegimos el instante como t = 0. La Ec. (2.57) se simplifica a Z 1 ψ (x, 0) = √ ψ¯ (k, 0) eikx dk 2π
(2.58)
y su inversa es
Z 1 ψ¯ (k, 0) = √ (2.59) ψ (x, 0) e−ikx dx 2π la forma instant´ anea del paquete estar´ a dada por la dependencia x de ψ (x, 0) definida en (2.58). Trataremos de definir el comportamiento cualitativo de ψ (x, 0) por medio de ejemplos sencillos. Supongamos que ψ (x, t) est´ a dado por una superposici´ on de tres ondas planas eikx (en t = 0), caracterizadas por los n´ umeros de onda ∆k ∆k k0 , k0 − 2 , k0 + 2 con amplitudes g (k0 ), g (k0 ) /2 y g (k0 ) /2 g (k0 ) ik0 x 1 i(k0 − ∆k )x 1 i(k0 + ∆k )x 2 2 ψ (x) = √ e + e + e (2.60) 2 2 2π g (k0 ) ∆k x (2.61) ψ (x) = √ eik0 x 1 + cos 2 2π
Figura 2.5: (a) Partes reales de cada una de on de las tres ondas. La las tres ondas dadas por (2.60). (b) Superposici´ l´ınea punteada es la envolvente dada por 1 + cos ∆x x , que le da forma al paquete de ondas. La l´ınea cont´ınua 2 describe las oscilaciones. La Fig. 2.5 muestra la forma de cada una de estas tres ondas (sus partes reales) y de la superposici´ on. La Ec. (2.61) muestra que |ψ (x)| es m´ aximo cuando x = 0, lo cual se aprecia en la Fig. 2.5 en virtud de que en x = 0
140
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
las tres ondas est´ an en fase y por lo tanto interfieren constructivamente. A medida que nos movemos desde x = 0 (hacia la izquierda o la derecha) las ondas est´ an cada vez m´ as en desfase de modo que |ψ (x)| va disminuyendo, hasta que la interferencia se vuelve totalmente destructiva en ciertos puntos xn (posiciones de los nodos), cuando la diferencia de fase entre eik0 x y ei(k0 ±∆k/2)x es igual a (2n + 1) π, siendo n un entero no negativo. Los nodos xn m´ as cercanos a x = 0 est´ an asociados a una diferencia de fase π ∆k ∆k k0 xn − k0 xn ± xn = π ⇒ ∓ xn = π 2 2 ∆k 2π xn = ∓π ⇒ xn = ∓ 2 ∆k Dado que el paquete es sim´etrico y est´ a centrado en x = 0, el ancho del paquete es ∆x = 2 |xn | ∆x =
4π ∆k
⇒ (∆x) (∆k) = 4π
(2.62)
esto nos muestra que a medida que el ancho ∆k de la funci´ on ψ¯ (k) decrece, el ancho ∆x de la funci´ on |ψ (x)| aumenta, siendo ∆x la distancia entre dos ceros de |ψ (x)|. Similarmente, si el ancho del paquete ∆x disminuye (paquete m´ as localizado), el ancho ∆k de ψ¯ (k) debe aumentar a fin de mantener la relaci´ on (2.62). ik x 0 es mucho mayor a la frecuencia del t´ermino Si asumimos que k0 ≫ ∆k entonces la frecuencia del t´ermino e 1 + cos ∆k x . Por lo tanto, la parte oscilante en x para la Ec. (2.61) est´ a dada por la funci´ on eik0 x y la envolvente 2 (modulaci´ on de la amplitud de oscilaci´ on) est´ a dada por g (k0 ) ∆k |ψ (x)| = √ 1 + cos x 2 2π
esta amplitud de la envolvente o funci´ on moduladora de la amplitud se ilustra como l´ınea punteada en la Fig. 2.5. En este caso, vemos que la envolvente dada por |ψ (x)| es peri´ odica en x de modo que tenemos un tren infinito de paquetes de onda con una serie de nodos y m´ aximos. Este hecho se debe a que la superposici´ on es de un n´ umero finito de ondas planas. Para una superposici´ on cont´ınua de un n´ umero infinito de ondas como el dado en (2.58), este fen´ omeno no ocurre y tendremos en general un solo m´ aximo para el perfil |ψ (x, 0)|. En realidad, lo que esperamos de una onda piloto asociada a una part´ıcula es un solo paquete relativamente “localizado” alrededor del m´ aximo del paquete (regi´ on de mayor probabilidad de localizar a la part´ıcula). Retornemos ahora al caso general de una superposici´ on cont´ınua de la forma (2.58), aqu´ı el fen´ omeno de interferencia es m´ as complejo pero de nuevo tendremos un m´ a ximo en |ψ (x, 0)| cuando las diferentes ondas viajeras interfieran constructivamente. Imaginemos que ψ¯ (k, 0) est´ a dada por una curva cuyo perfil es similar a una campana de Gauss sim´etrica centrada en k = k0 con un pico bien pronunciado en k0 y un ancho ∆k. En realidad, no hay una sola forma de parametrizar este ancho, pero tomaremos por convenci´ on que el ancho lo ¯ (k, 0) en notaci´ definimos a la mitad de la altura del pico. Bajo esta suposici´ o n, escribamos ψ o n polar siendo α (k) el argumento y siendo ψ¯ (k, 0) la longitud del fasor ψ¯ (k, 0) = ψ¯ (k, 0) eiα(k)
(2.63)
que α (k) var´ıa lentamente en el intervalo [k0 − ∆k/2, k0 + ∆k/2] donde la longitud del fasor ahora asumamos ψ¯ (k, 0) es apreciable. Cuando ∆k es suficientemente peque˜ no, podemos expandir a α (k) en las vecindades de k = k0 dα α (k) ≃ α (k0 ) + (k − k0 ) (2.64) dk k=k0
2.11. ASPECTOS ONDULATORIOS DE UNA PART´ICULA MATERIAL reemplazando esta expansi´ on en (2.58) se obtiene Z ∞ Z ∞ 1 1 ikx ¯ ψ¯ (k) eiα(k) eikx dk ψ (x, 0) = √ ψ (k) e dk = √ 2π −∞ 2π −∞ i h Z k0 + ∆k dα 2 1 ψ¯ (k) ei α(k0 )+(k−k0 )[ dk ]k=k0 +kx dk ≃ √ 2π k0 − ∆k 2 h i Z k0 + ∆k dα 2 1 ψ¯ (k) ei α(k0 )+(k−k0 )[ dk ]k=k0 +kx−k0 x+k0 x dk = √ 2π k0 − ∆k 2 h i Z k0 + ∆k i α(k0 )+(k−k0 )[ dα ] 2 1 +(k−k0 )x+k0 x dk k=k0 ¯ √ = ψ (k) e dk 2π k0 − ∆k 2 n o ∆k Z ei[α(k0 )+k0 x] k0 + 2 ¯ i (k−k0) [ dα +x dk ]k=k0 √ ψ (k) e = dk 2π k0 − ∆k 2
141
(2.65)
(2.66)
quedando finalmente
ei[k0 x+α(k0 )] √ ψ (x, 0) ≃ 2π dα x0 ≡ − dk k=k0
Z
k0 + ∆k 2 k0 − ∆k 2
ψ¯ (k) ei(k−k0 )(x−x0 ) dk
(2.67) (2.68)
La expresi´ on (2.67) es u ´til para un an´ alisis cualitativo de las variaciones de |ψ (x, 0)| con x. Partiendo de k = k0
Figura 2.6: Variaciones con respecto a k, de la parte real del integrando en la Ec. (2.67) (a) cuando x es fijo en un valor tal que |x − x0 | > 1/∆k, en tal caso la funci´ on oscila varias veces en el intervalo ∆k. (b) Cuando x es fijo en un valor tal que |x − x0 | < 1/∆k, en tal caso la funci´ on oscila muy poco en tal intervalo y la funci´ on ψ (x, 0) toma valores grandes. Por tanto, el centro del paquete aximo) se de ondas (punto donde |ψ (x, 0)| es m´ ubica en x=x0 . En todo el an´ alisis se ha supuesto que ψ (k) es una funci´ on sim´etrica centrada en k 0 , con un perfil similar a una campana de Gauss. el siguiente valor kb para el cual se ha ejecutado una oscilaci´ on es
(kb − k0 ) (x − x0 ) = 2π ⇒ (kb − k0 ) =
2π (x − x0 )
142
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
De modo que el valor de |x − x0 | nos dice si |kb − k0 | es mayor o menor que ∆k/2 o en otras palabras, si en el intervalo de integraci´ on definido en (2.67) el integrando ha logrado o no completar una oscilaci´ on. Cuando |x − x0 | es grande i.e. cuando |x − x0 | ≫ 2π/∆k, se tiene que (kb − k0 ) =
2π ≪ ∆k (x − x0 )
de modo que una oscilaci´ on en el integrando de (2.67) se realiza en un intervalo mucho menor que el ancho de integraci´ on. En consecuencia, la funci´ on de k que se integra en (2.67) oscila muchas veces dentro del intervalo ∆k y las contribuciones de las sucesivas oscilaciones se cancelan entre s´ı (Fig. 2.6a); por tanto, la integral sobre k se vuelve muy peque˜ na. Es decir que cuando x est´ a fijo en un valor lejano a x0 las fases de las diversas ondas que constituyen a ψ (x, 0) var´ıan muy r´ apidamente en el dominio ∆k, y forman entre ellas una interferencia destructiva. Por otra parte, cuando x ≃ x0 , o en otras palabras cuando |x − x0 | ≪ 1/∆k se tiene que |kb − k0 | ≫ 2π∆k > ∆k la funci´ on que se integra sobre k solo realiza una peque˜ na fracci´ on de la oscilaci´ on a partir de k0 y dado que |k − k0 | < ∆k para un k que est´e en el intervalo de integraci´ on, se tiene que 1 ∆k ∆k |k − k0 | |x − x0 | ≪ ∆k = 1 , k ∈ k0 − , k0 + ∆k 2 2 ψ¯ (k) ei(k−k0 )(x−x0 ) ≃ ψ¯ (k) (2.69) de modo que la exponencial apenas modifica un poco el perfil de ψ¯ (k) (Fig. 2.6b), y en el proceso de integraci´ on la fase se mantiene casi constante, por tanto la interferencia es constructiva y |ψ (x, 0)| es m´ aximo. De otra parte, la Ec. (2.69) se convierte en una igualdad para la posici´ on xM tal que xM = x0 , en cuyo caso no hay oscilaci´ on y la interferencia es completamente constructiva. Por tanto, la posici´ on xM (0) = x0 corresponde al centro del paquete de onda (m´ aximo del m´ odulo del paquete) que de acuerdo con la Ec. (2.68) viene dada por: dα xM (0) = x0 = − (2.70) dk k=k0 alternativamente, se puede ver que (2.70) nos da la posici´ on del centro del paquete teniendo en cuenta que la Ec. (2.58) adquiere su m´ aximo en valor absoluto cuando las ondas de mayor amplitud (aquellas con k cercano a k0 ) interfieren constructivamente. Esto ocurre cuando las fases que dependen de k de estas ondas var´ıan lentamente alrededor de k0 . Para obtener el centro del paquete se impone que la derivada con respecto a k de la fase sea cero para k = k0 , esta fase se puede ver en la segunda igualdad de la Ec. (2.65) y se obtiene d dα =0 (2.71) [kx + α (k)]k=k0 = 0 ⇒ x + dk dk k=k0 vemos entonces que la condici´ on de fase estacionaria (2.71) se reduce a (2.70). Cuando x se aleja de x0 , el valor de |ψ (x, 0)| decrece. El prop´ osito ahora es definir un ancho ∆x dependiendo del decrecimiento de |ψ (x, 0)| alrededor de x0 . N´ otese que este decrecimiento es apreciable si ei(k−k0 )(x−x0 ) oscila ∆k una vez o m´ as cuando k recorre el dominio desde k0 − ∆k 2 hasta k0 + 2 es decir cuando ∆k · |x − x0 | & 2π donde hemos definido el “umbral” para |x − x0 | como el valor para el cual se ejecuta una oscilaci´ on. Si definimos ∆x ≡ |x − x0 | /2π como el ancho t´ıpico del paquete, tenemos ∆k ∆x & 1
(2.72)
2.11. ASPECTOS ONDULATORIOS DE UNA PART´ICULA MATERIAL
143
lo cual nos da una relaci´ on entre los anchos de dos funciones que son transformadas de Fourier una de otra. Observemos de nuevo que no hay una u ´nica manera de definir el ancho ∆x, por ejemplo podemos definir este ancho con dos oscilaciones, con tres etc, entre mayor sea el n´ umero de oscilaciones mayor es el efecto de cancelaci´ on, el ancho ser´ a mayor y estaremos tomando una mayor porci´ o n del a ´ rea bajo la curva. De la misma forma, puedo tomar el ancho ∆k cuando la altura ψ¯ (k) es 1/2, 1/e, 1/3 etc, es decir puedo ensanchar ∆k para tomar una porci´ on m´ as grande del ´ area bajo la curva y tener mejores aproximaciones. En vista de lo anterior, el hecho importante es que este producto tiene una cota inferior, ya que el valor preciso de esta cota depende de la definici´ on de los anchos ∆k y ∆x. Esta es la raz´ on para utilizar el s´ımbolo & en la Ec. (2.72) en lugar de ≥. La relaci´ on (2.72) nos dice adem´ as que no es posible constru´ır paquetes cuyo producto de anchos sea mucho menor que uno, pero en cambio s´ı es posible constru´ır paquetes cuyo producto de anchos sea mucho mayor que uno. N´ otese que este an´ alisis ha sido completamente matem´ atico, k y x pueden ser variables arbitrarias siempre que ψ (x, 0) y ψ¯ (k) sean transformadas de Fourier la una de la otra. No existe ninguna suposici´ on f´ısica en estos argumentos. El presente an´ alisis se utiliza en ondas cl´ asicas asignando a k el n´ umero de onda y a x la variable espacial en una dimensi´ on. La Ec. (2.72) demuestra que a medida que un paquete de ondas se hace m´ as monocrom´ atico (a medida que se reduce ∆k) el ancho ∆x del paquete de onda espacial se hace mayor. En un paquete estrictamente monocrom´ atico ∆k → 0 y por tanto ∆x → ∞, por lo cual las ondas monocrom´ aticas no corresponden a estados f´ısicos. Este mismo principio nos muestra que no existe un tren de ondas electromagn´eticas para el cual se pueda definir la posici´ on y la longitud de onda con infinita precisi´ on al mismo tiempo.
2.11.3.
El principio de incertidumbre de Heisenberg
En nuestro contexto de la mec´ anica cu´ antica, el paquete de onda ψ (x, t) dado por (2.57) representa el estado de una part´ıcula cuya probabilidad en t = 0 de estar fuera del paquete centrado en x0 y de ancho ∆x es pr´ acticamente cero. El resultado (2.72) posee una interesante interpretaci´ on a la luz de la mec´ anica cu´ antica. Por ejemplo, hemos visto que cuando nuestro estado se describe por una sola onda plana del tipo dado en la Ec. (2.52) (que no es estrictamente un estado f´ısico), la probabilidad de estar en cualquier punto del eje x es uniforme, y es la misma para todos los valores de t, de modo que no hay propagaci´ on de la probabilidad. Por otro lado, el ancho ∆x del paquete de onda se puede considerar infinito (la amplitud no se modula), lo cual se traduce en la m´ axima incertidumbre posible en la posici´ on de la part´ıcula (igual probabilidad en todas partes). Por otra parte, esta onda tiene solo umero de onda k0 (onda monocrom´ atica) y de acuerdo con las relaciones de una frecuencia angular ω0 y un solo n´ De Broglie su energ´ıa y su momento est´ an perfectamente definidos E = ~ω0 , p = ~k0 . Esta onda plana pura se puede considerar como un caso particular del paquete de ondas (2.57) con ψ¯ (k) = δ (k − k0 )
;
∆k → 0
donde el hecho de que ∆k → 0 se v´e claramente si vemos a la delta de Dirac como el l´ımite de Gaussianas cada vez m´ as altas y agudas. La relaci´ on ∆k → 0 junto con la Ec. (2.72) nos lleva a que ∆x → ∞ como ya se dijo. A la luz del principio de descomposici´ on espectral este resultado se puede ver de la siguiente forma: A la part´ıcula en t = 0 le hemos asignado una funci´ on de onda ψ (x, 0) = Aeikx y hemos visto que posee un momento bien determinado. Es decir que una medida del momento en t = 0 dar´ a definitivamente el valor p = ~k 8 . De ikx esto se deduce que Ae caracteriza al autoestado correspondiente al autovalor p = ~k. Puesto que existen ondas planas para todos los valores de k, los autovalores de p que se pueden obtener en una medici´ on del momento sobre un estado arbitrario son todos los valores reales. En este caso no hay cuantizaci´ on de los autoresultados, todos los 8
Este punto es quiz´ as el m´ as adecuado para decir que siempre hemos tratado con medidas ideales. Decir que la medida del momento est´ a completamente definida no es experimentalmente cierto. Lo que en realidad se quiere decir es que en este caso no hay una perturbaci´ on fundamental que cambie dr´ asticamente el sistema y por tanto las dem´ as perturbaciones se puede hacer cada vez m´ as peque˜ nas.
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
144
valores del momento son permitidos como en la mec´ anica cl´ asica. Ahora bien, la total determinaci´ on de p viene acompa˜ nada por una completa incertidumbre en x. Volvamos ahora al caso de un paquete como el dado por (2.58). Como ψ (x, 0) es una superposici´ on lineal de autofunciones del momento eikx con coeficientes ψ¯ (k, 0), el principio de descomposici´ on espectral nos conduce a 2 interpretar a ψ¯ (k, 0) dk (con un posible factor de normalizaci´ on) como la probabilidad de encontrar un valor de momento entre p = ~k y p + dp = ~ (k + dk), cuando hacemos una medida en t = 0 del momento de una part´ıcula cuyo estado es descrito por ψ (x, 0) en (2.58). Esta interpretaci´ on es necesaria cuando el autovalor tiene un espectro cont´ınuo ya que en este caso la probabilidad de estar en un punto matem´ a tico espec´ıfico ser´ıa cero 2 ¯ y solo es finita la probabilidad de estar en un intervalo dado. En este caso ψ (k, 0) ser´ıa una densidad de probabilidad (probabilidad por unidad de volumen unidimensional), y no una probabilidad como ocurre en el caso discreto. Ahora bien, dado que para una part´ıcula es m´ as usual hacer medidas de momento y energ´ıa que de frecuencia angular y n´ umero de onda, es m´ as adecuado escribir las expresiones en t´erminos de E y p usando las relaciones de De Broglie Ecs. (2.49)9 . En particular, la Ec. (2.58) se reescribe como Z 1 ψ (x, 0) = √ ψ¯ (p, 0) eipx/~ dp 2π~ dado que las transformadas de Fourier satisfacen la relaci´ on de Bessel parseval (invarianza de la norma) Z ∞ Z ∞ 2 ψ¯ (p, 0) 2 dp ≡ C |ψ (x, 0)| dx = hψ| ψi (0) = −∞
tendremos entonces que
−∞
2 1 1 |ψ (x, 0)|2 dx ; dP¯ (p, 0) = ψ¯ (p, 0) dp C C dP (x, 0) representa la probabilidad de encontrar a la part´ıcula en t = 0 en el intervalo [x, x + dx]. Similarmente, dP¯ (p, 0) es la probabilidad de obtener una medida del momento de la part´ıcula en t = 0 que est´e dentro del intervalo [p, p + dp]. Ahora escribamos la desigualdad (2.72) en t´erminos de E y p usando la relaciones de De Broglie (2.49) dP (x, 0) =
∆x ∆p & ~
(2.73)
para dar una interpretaci´ on f´ısica a (2.73), supongamos que el estado de una part´ıcula est´ a definido por el paquete de onda (2.57). En tal caso, la probabilidad de encontrar la part´ıcula en t = 0 dentro del intervalo [x0 − ∆x/2, acticamente uno. Decimos entonces que ∆x es la incertidumbre en la medida de la posici´ on de x0 + ∆x/2] es pr´ la part´ıcula. Similarmente, si medimos el momento de la part´ıcula en el mismo tiempo (t = 0) tal probabilidad es casi uno dentro del intervalo [p0 − ∆p/2, p0 + ∆p/2]. Es decir que ∆p mide la incertidumbre en la determinaci´ on del momento de la part´ıcula. A la luz de lo anterior la Ec. (2.73) expresa que es imposible medir al mismo tiempo la posici´ on y el momento de la part´ıcula con grado arbitrario de exactitud. Cuando alcanzamos el l´ımite inferior en (2.73) una disminuci´ on en ∆x (es decir un aumento en la exactitud de la medici´ on de la posici´ on) conduce a un aumento en ∆p (es decir un aumento en la incertidumbre de la medida del momento, o equivalentemente una disminuci´ on en la exactitud de tal medida) y viceversa. Este enunciado se conoce como el principio de incertidumbre de Heisenberg. Notemos que el valor del t´ermino de la derecha en (2.73) nos expresa m´ as bien un orden de magnitud que un l´ımite inferior preciso. Es de anotar que si bien hay un an´ alogo cl´ asico del principio de incertidumbre para las ondas, no hay un an´ alogo cl´ asico para las part´ıculas. En realidad hemos visto que el principio de incertidumbre est´ a asociado inicialmente a los par´ ametros de onda, que se conectan a los par´ ametros de part´ıcula por medio de las relaciones de De Broglie, estas a su vez est´ an asociadas a la dualidad onda part´ıcula que es una caracter´ıstica cu´ antica. La peque˜ nez de ~ hace que este principio de incertidumbre no se manifieste en los sistemas macrosc´ opicos. 9
En otras palabras, es m´ as usual medir par´ ametros de materia que par´ ametros de onda.
´ CO 2.12. EL PRINCIPIO DE COMPLEMENTARIEDAD PARA LA DUALIDAD ONDA PART´ICULA Y SU RELACION
2.12.
El principio de complementariedad para la dualidad onda part´ıcula y su relaci´ on con el principio de incertidumbre de Heisenberg
Figura 2.7: Variante del experimento de Young de la doble rendija, para el cual la placa opaca P, puede desplazarse verticalmente. La discusi´ on sobre el experimento de la doble rendija nos ha mostrado que si bien la dualidad onda part´ıcula es necesaria para explicar los resultados, ambas manifestaciones parecen ser mutuamente excluyentes. La perfecta determinaci´ on de las propiedades ondulatorias (patr´ on de interferencia con doble rendija) nos conduce a una total ignorancia sobre la rendija por la cual pasa cada fot´ on (propiedad de “trayectoria” asociada a una part´ıcula). Por otro lado, la perfecta determinaci´ on de la rendija por la cual pasa cada fot´ on (determinaci´ on de sus propiedades de part´ıcula) conduce a la completa destrucci´ on del patr´ on de interferencia (i.e. de sus propiedades ondulatorias). Se dice entonces que los aspectos ondulatorio y material de la part´ıcula son complementarios. Vamos ahora a reconsiderar el experimento de la doble rendija para demostrar la profunda relaci´ on entre el principio de complementariedad y el principio de incertidumbre de Heisenberg. Para ello analizaremos una variante del experimento de la doble rendija ilustrada en la Fig. 2.7. Asumamos que la placa opaca P sobre la cual se perforan las rendijas est´ a montada sobre cojinetes que permiten su desplazamiento vertical. Asumiremos que el foco de los fotones est´ a muy lejos, de modo que podemos suponer que todos los fotones inciden perpendicularmente sobre la placa P. Un fot´ on que golpea la placa de observaci´ on O en el punto M (de coordenada x respecto al origen O), tuvo que sufrir un cambio de momento que fu´e absorbido por P a fin de mantener el momento conservado. N´ otese que si el fot´ on de momento p = hν/c pasa por la rendija F1 , el momento transferido a P es hν p1 = − sin θ1 (2.74) c
146
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
y si pasa por la rendija F2 , tal momento transferido es p2 = −
hν sin θ2 c
(2.75)
Siendo θ1 el ´ angulo de deflexi´ on del fot´ on cuando cruza la rendija F1 e impacta en el punto M . El ´ angulo θ2 se define similarmente con la rendija F2 . Por tanto, el momento transferido a P depende de la trayectoria del fot´ on, puesto que depende de la rendija por la que pase. Enviando los fotones uno por uno podemos construir el patr´ on de interferencia gradualmente sobre la pantalla de observaci´ on. Aparentemente, este dispositivo nos permite construir tal patr´ on de interferencia asociado a la doble rendija al tiempo que permite determinar la rendija por la cual pasa cada fot´ on. A priori pareciera que podemos determinar completamente las caracter´ısticas corpusculares y ondulatorias de los fotones en forma simult´ anea. Sin embargo, las franjas de interferencia no son visibles con este montaje. El error consiste en asumir que solo los fotones poseen un car´ acter cu´ antico. Sin embargo, la placa P aunque es un objeto macrosc´ opico tambi´en posee un car´ acter cu´ antico. Si queremos discriminar por cual rendija pas´ o el fot´ on, la incertidumbre ∆p en la medida del momento vertical de P debe ser suficientemente peque˜ na para determinar la diferencia entre p1 y p2 ∆p ≪ |p2 − p1 | aplicando las relaciones de incertidumbre, la posici´ on de la placa P se puede conocer a lo m´ as dentro de un intervalo de incertidumbre dado por ~ h ∆x & ≫ (2.76) ∆p |p2 − p1 |
si denotamos a la distancia entre las rendijas y d la distancia entre la placa P y la pantalla O, y si asumimos que θ1 y θ2 son peque˜ nos (i.e. a/d ≪ 1 y x/d ≪ 1) obtenemos θ1 ≃ tan θ1 = a |θ2 − θ1 | ≃ d
x − a/2 ; d
θ2 ≃ tan θ2 =
x + a/2 d
los momentos p1 y p2 dados en las Ecs. (2.74, 2.75) nos dan |p2 − p1 | =
hν hν hν a ha |sin θ2 − sin θ1 | ≃ |θ2 − θ1 | ≃ = c c c d λd
siendo λ la longitud de onda asociada al fot´ on. Sustituyendo esta relaci´ on en (2.76) se obtiene ∆x ≫
λd a
(2.77)
pero (λd) /a es precisamente la separaci´ on entre franjas que se espera encontrar en el patr´ on de difracci´ on sobre la pantalla O. Ahora bien, si la posici´ on vertical de las rendijas solo se puede determinar en un intervalo de incertidumbre mayor a la separaci´ on de las franjas, es imposible observar el patr´ on de interferencia. La discusi´ on anterior nos muestra que la construcci´ on de una teor´ıa cu´ antica de la radiaci´ on requiere de la construcci´ on de una teor´ıa cu´ antica de la materia para evitar contradicciones. En el ejemplo anterior, si trabajamos la placa P como un sistema cl´ asico material, invalidamos el principio de complementariedad de los dos aspectos corpuscular y ondulatorio de la luz y por tanto, la teor´ıa cu´ antica de la radiaci´ on. Se puede demostrar que dificultades an´ alogas surgen cuando se considera que solo la materia posee car´ acter cu´ antico. Por tanto, la consistencia del principio de complementariedad requiere que tanto la materia como la radiaci´ on tengan caracter´ısticas cu´ anticas. Otro aspecto que vale la pena discutir, es que en este ejemplo la naturaleza cu´ antica de P es esencial para un adecuado entendimiento del fen´ omeno, a pesar de ser un sistema macrosc´ opico. La raz´ on estriba en que si bien el sistema es macrosc´ opico, las incertidumbres combinadas para el momento y la posici´ on que se requieren en dicho
´ TEMPORAL DE PAQUETES DE ONDAS LIBRE 2.13. EVOLUCION
147
sistema para soslayar el principio de complementariedad, est´ an en un umbral no permitido por las relaciones de incertidumbre. Podemos entonces precisar el principio de complementariedad enunciado por Niels Bohr diciendo que la naturaleza ondulatoria y corpuscular de la radiaci´ on o de las part´ıculas no pueden exhibirse al mismo tiempo en la misma medida. Los conceptos cl´ asicos de onda y part´ıcula son mutuamente excluyentes cuando se utilizan para describir fen´omenos cu´ anticos. Puesto que la existencia de las dos caracter´ısticas de onda y part´ıcula no puede ser observada simult´ aneamente, ´estas no generan conflicto la una con la otra en un mismo experimento. No obstante, ambas son necesarias para la descripci´ on de los fen´ omenos cu´ anticos. Las dos descripciones dan visiones complemetarias de la realidad, no visiones contradictorias. Bohr ilustraba este principio con el ejemplo simple de una moneda que tiene dos caras pero no podemos ver las dos caras simult´ aneamente, el ver una de las caras excluye la posibilidad de ver la otra.
2.13.
Evoluci´ on temporal de paquetes de ondas libre
Asumamos un paquete de ondas como el descrito por (2.56), la forma espec´ıfica del paquete en t = 0 est´ a dada por las condiciones iniciales. La evoluci´ on del paquete estar´ a entonces dictaminada por las relaciones de dispersi´ on que dependen de la interacci´ on de la part´ıcula con el resto del universo. Puesto que no hemos generado una ecuaci´ on din´ amica para la part´ıcula no podemos en general resolver la evoluci´ on temporal de una part´ıcula interactuante, sin embargo la relaci´ on de dispersi´ on (2.54) nos permitir´ a resolver el problema de la evoluci´ on temporal para una part´ıcula libre. En el caso m´ as simple, un paquete unidimensional est´ a constitu´ıdo por una sola onda plana ω ω ψ (x, t) = Aei(kx−ωt) = Aeik(x− k t) = f x − t k su parte real es
h ω i ψ (x, t) = A cos k x − t k
su velocidad de propagaci´ on (velocidad de propagaci´ on del frente de onda i.e. de un punto con fase constante) est´ a dada por la velocidad con que se propaga el m´ aximo correspondiente a xM = 0 en t = 0 (que corresponde a fase total cero). Para cualquier tiempo la posici´ on de este m´ aximo corresponde a fase total cero xM (t) − la velocidad de este m´ aximo es entonces
ω ω t = 0 ⇒ xM (t) = t k k
dxM (t) ω = Vf (k) = dt k
(2.78)
como esta es la velocidad de un punto que define una fase total constante para todo tiempo (fase cero), llamaremos a este t´ermino velocidad de fase de la onda plana, la cual solo depende de x y t por medio de x − ωk t . Es bien sabido que para ondas electromagn´eticas en el vacio Vf es independiente de k e igual a c. Todas las ondas que constituyen el paquete viajan a la misma velocidad de modo que el paquete mantiene su forma. Sin embargo, en un medio dispersivo la velocidad de fase est´ a dada por Vf (k) =
c n (k)
siendo n (k) el ´ındice de refracci´ on relativo entre el vac´ıo y el medio. En este caso cada onda componente viaja a distinta velocidad, lo cual produce un cambio de forma del paquete con el tiempo. A medida que se propaga el paquete se ensancha, fen´ omeno conocido como dispersi´ on. F´ısicamente, esto se debe a que el material responde de forma distinta para cada longitud de onda componente.
148
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
Volviendo a nuestro caso de onda monocrom´ atica cu´ antica, si usamos las Ecs. (2.78, 2.54) vemos que la velocidad de fase est´ a dada por ω ~k2 ~k Vf (k) = = = (2.79) k 2mk 2m de modo que Vf es funci´ on expl´ıcita de k. N´ otese que si us´ aramos la relaci´ on de dispersi´ on dada por la ecuaci´ on de onda, Ec. (2.55) entonces Vf no presentar´ıa dispersi´ on (Vf no depende de k) como ocurre efectivamente con las ondas cl´ asicas libres (como las ondas electromagn´eticas libres). Ahora analizaremos el caso de ondas que son superposici´ on de ondas planas. Veremos a continuaci´ on que cuando las diferentes ondas tienen diferentes velocidades de fase, la velocidad del m´ aximo xM del paquete de onda no es la velocidad de fase promedio dada por ~k0 ω0 = k0 2m como antes, comencemos con el ejemplo simple de la superposici´ on de tres ondas planas similares a las descritas en (2.60) pero ahora con variaci´ on temporal g (k0 ) i(k0 x−ω0 t) 1 i[(k0 − ∆k )x−(ω0 − ∆ω )t] 1 i[(k0 + ∆k )x−(ω0 + ∆ω )t] 2 2 2 2 √ + e (2.80) e + e ψ (x, t) = 2 2 2π g (k0 ) ∆ω ∆k = √ ei(k0 x−ω0 t) 1 + cos x− t 2 2 2π g (k0 ) ik0 x− ωk 0 t ∆k ∆ω 0 ψ (x, t) = √ e 1 + cos x− t (2.81) 2 ∆k 2π umero de onda promedio. puesto que las tres ondas tiene n´ umeros de onda k0 y k0 ± ∆k, es claro que k0 es el n´ Similarmente, ω0 es la frecuencia angular promedio. De la Ec. (2.81) se v´e claramente que el m´ aximo de |ψ (x, t)| que estaba en x = 0 cuando t = 0 est´ a ahora en el punto ∆ω t (2.82) xM (t) = ∆k y no en el punto x = ω0 t/k0 . El origen de este resultado se puede apreciar en la Fig. 2.8, en (a) se representa la
Figura 2.8: Posici´ on de tres m´ aximos consecutivos (1) (2) (3) para cada una de las tres ondas planas de la superposici´ on en la Ec. (2.81). (a) Configuraci´ on de los m´ aximos en t = 0, para el cual hay interferencia constructiva en x = 0, que se da con los m´ aximos rotulados por (2). (b) Configuraci´ on en un instante posterior en el cual la interferencia totalmente constructiva se da a la derecha de x con los m´ aximos (3). posici´ on en t = 0 de tres m´ aximos consecutivos de cada una de las partes reales de las tres ondas. Puesto que los
´ TEMPORAL DE PAQUETES DE ONDAS LIBRE 2.13. EVOLUCION
149
m´ aximos denotados con (2) coinciden en x = 0, hay una interferencia constructiva en este punto lo cual nos da el m´aximo de |ψ (x, t = 0)|. Puesto que la velocidad de fase aumenta con k seg´ un (2.79), tenemos que el m´ aximo (3) de la onda k0 + ∆k termina alcanzando al m´ a ximo de la onda k tambi´ e n denotado por tres. Similarmente 0 2 el m´aximo (3) de k0 alcanzar´ a al m´ aximo de k0 − ∆k alisis detallado muestra que todos 2 denotado por (3). Un an´ coinciden en cierto tiempo t, determinando entonces el m´ aximo xM (t) de |ψ (x, t)| por interferencia constructiva. El c´alculo detallado del punto donde esto ocurre reproduce la Ec. (2.82). Analicemos finalmente el caso en el cual el paquete de ondas es arbitrario y consta de una superposici´ on cont´ınua de ondas planas como en la Ec. (2.57). El corrimiento del centro del paquete se encuentra aplicando de nuevo el m´etodo de fase estacionaria. Comparando la forma de ψ (x, t) con la de ψ (x, 0) Ecs. (2.57, 2.58) vemos que si la transformada de Fourier en (2.57) no depende expl´ıcitamente del tiempo, entonces ψ (x, t) se obtiene ag. 142 se a partir de ψ (x, 0) con la asignaci´ on ψ¯ (k) → ψ¯ (k) e−iω(k)t . Por tanto, el razonamiento dado en la p´ ¯ mantiene v´ alido reemplazando el argumento α (k) de ψ (k) en la Ec. (2.63), por el argumento α (k) → α (k) − ω (k) t
(2.83)
la condici´ on de fase estacionaria (2.71) se escribe ahora de la forma d dα dω (k) [kxM + α (k) − ω (k) t]k=k0 = 0 ⇒ xM + − t =0 dk dk dk k=k0 Y la din´ amica del centro del paquete estar´ a dada por dω dα xM (t) = t− dk k=k0 dk k=k0 que nos reproduce una vez m´ as el resultado (2.82) solo que en este caso ∆ω y ∆k tienden a cero ya que hay un barrido cont´ınuo en estas variables. La velocidad del m´ aximo del paquete de ondas es dxM (t) dω Vg (k0 ) = = dt dk k=k0 conocida como velocidad de grupo del paquete. Con la relaci´ on de dispersi´ on (2.54) para part´ıcula libre y teniendo en cuenta (2.79) tenemos que ~k0 = 2Vf (k0 ) (2.84) Vg (k0 ) = m Notamos entonces dos diferencias importantes entre la onda asociada a la part´ıcula libre cu´ antica y la soluci´ on libre ondulatoria proveniente de la ecuaci´ on de onda. (a) Las ondas electromagn´eticas cl´ asicas libres no presentan dispersi´ on en tanto que la soluci´ on cu´ antica (ondulatoria) de part´ıcula libre si presenta dispersi´on y (b) para las ondas electromagn´eticas libres la velocidad de grupo es menor que la de fase, mientras que para la soluci´ on ondulatoria de part´ıcla libre cu´ antica, la velocidad de grupo es mayor que la velocidad de fase10 . N´ otese que el resultado (2.84) reproduce adecuadamente el l´ımite cl´ asico ya que si ∆x y ∆p son ambos despreciables, podemos hablar de la posici´ on xM (t) y del momento p0 de la part´ıcula. Pero entonces su velocidad debe ser p0 /m seg´ un la mec´ anica cl´ asica, esto es compatible con la Ec. (2.84) obtenida en el marco cu´ antico con p0 = ~k0 , siempre que ∆x y ∆p sean ambos despreciables Vg se puede asociar a la velocidad de la part´ıcula, que es la velocidad del m´ aximo del paquete. Es posible tambi´en estudiar la forma en que evoluciona la forma del paquete. Si por ejemplo ∆p es una constante de movimiento entonces ∆x se incrementa con el tiempo, (dipersi´ on del paquete). 10 N´ otese que el hecho de que la velocidad de grupo sea mayor a la de fase en la Ec. (2.84), no entra en contradicci´ on con la relatividad, puesto que nuestros resultados solo son v´ alidos en un r´egimen no relativista, ya que la relaci´ on de dispersi´ on (2.54) proviene de la ecuaci´ on (2.53), la cual es no relativista.
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
150
2.14.
Caracterizaci´ on de paquetes de onda gaussianos
Estudiaremos perfiles de paquetes de onda ψ (x, 0) para los cuales la transformada de Fourier ψ¯ (k, 0) es gaussiana. Este ejemplo espec´ıfico es de amplio uso en f´ısica y tiene la ventaja de permitir ilustrar los conceptos asociados a paquetes de onda con c´ alculos exactos. Estudiaremos adem´ as la evoluci´ on temporal de estos paquetes.
2.14.1.
Integrales b´ asicas para paquetes gaussianos
El c´ alculo del paquete de onda (y muchos otros c´ alculos relativos a paquetes de onda gaussianos) requiere evaluar una integral del tipo Z ∞ 2 2 I (α, β) = e−α (ξ+β) dξ −∞
donde α y β son n´ umeros complejos. Es necesario que Re α2 > 0 para que la integral converja. El teorema del residuo nos permite encontrar que I (α, β) = I (α, 0)
de modo que la integral no depende de β. Si se satisface la condici´ on |Arg (α)| < π/4 (lo cual siempre es posible 2 si Re α > 0), esta integral se puede escribir como 1 I (1, 0) α
I (α, 0) =
y solo resta calcular I (1, 0), lo cual se puede hacer como una integral doble en el plano XY usando coordenadas polares Z ∞ √ 2 I (1, 0) = e−ξ dξ = π −∞
de lo cual se obtiene I (α, β) =
Z
∞
√ π dξ = α
−α2 (ξ+β)2
e
−∞
2.14.2.
(2.85)
Perfiles de paquetes de onda gaussianos
Consideremos el modelo unidimensional de una part´ıcula libre cuya funci´ on de onda en t = 0 tiene el perfil √ Z ∞ 2 a − a4 (k−k0 )2 ikx ψ (x, 0) = e e dk (2.86) (2π)3/4 −∞ el cual resulta de superponer ondas planas eikx con coeficientes de Fourier de la forma √ 1 ¯ a − a2 (k−k0 )2 √ ψ (k, 0) = e 4 2π (2π)3/4
(2.87)
para calcular ψ (x, 0) es conveniente reescribir la exponencial en (2.86) de modo que los t´erminos en k queden como un cuadrado perfecto a fin de compararlos con (2.85) a2 a2 2ix 2 x2 2 − (k − k0 ) + ikx = − k − k0 − 2 + ik0 x − 2 4 4 a a con lo cual la Ec. (2.86) queda ψ (x, 0) =
√
a
(2π)3/4
2
x ik0 x − a2
e
e
Z
∞
−∞
h i2 2 − a4 k−k0 − 2ix 2
e
a
dk
´ TEMPORAL DE PAQUETES DE ONDA GAUSSIANOS (OPCIONAL) 2.15. EVOLUCION
151
comparando con (2.85) vemos que α = a/2 de modo que √ √ a ik0 x − x22 2 π ψ (x, 0) = e e a a (2π)3/4 1/4 x2 2 ik0 x − a2 ψ (x, 0) = e e πa2
(2.88)
vemos entonces que la transformada de Fourier de un paquete gaussiano es tambi´en gaussiana. El m´ odulo al cuadrado del paquete y de su transformada en t = 0 (que estar´ an relacionados con las densidades de probabilidad asociadas a la posici´ on y momento respectivamente, para una part´ıcula en t = 0) se obtienen de (2.87, 2.88), y son ( 2 ) k−k0 a exp − √ 2 r r 2 2/a) ( − a2 (k−k0 )2 x√ 2x2 2 2 a e − − 2 a/ 2 ψ¯ (k, 0) 2 = a √ √ |ψ (x, 0)|2 = e = e ; = (2.89) πa2 πa2 2π 2π
y la curva asociada a este m´ odulo es una t´ıpica campana de Gauss. El centro del paquete de onda corresponde al 2 m´ aximo de |ψ (x, 0)| y se sit´ ua en x = 0. Esto resultado tambi´en se puede obtener por aplicaci´ on de la Ec. (2.70).
2.14.3.
Relaciones de incertidumbre para paquetes gaussianos 2
2
Al igual que para todo paquete que no posee nodos, el ancho de una funci´ on gaussiana f (x) = e−x /b no puede ser definido en forma un´ıvoca. Sin embargo, es costumbre definir tal ancho de modo que cuando x var´ıa √ entre ±∆x la funci´ on f (x) se haya reducido en un factor de 1/ e, esto conduce a un ancho x 2 b f (x) = exp − → ∆x = √ (2.90) b 2 esta definici´ on tiene la ventaja de coincidir con la definici´ on de la ra´ız de la desviaci´ on media cuadr´ atica, como veremos m´ as adelante. Con esta convenci´ on podemos definir el ancho asociado al cuadrado del paquete de onda 2 2 11 ¯ |ψ (x, 0)| y de su transformada de Fourier ψ (k, 0) en la Ec. (2.89) ∆x =
a 1 ; ∆k = 2 a
⇒ ∆p =
~ a
(2.91)
con lo cual se obtiene
~ (2.92) 2 relaci´ on que es compatible con el principio de incertidumbre. N´ otese adem´ as que el principio de incertidumbre se escribe en general en la forma (∆x) · (∆p) & ~/2. Esto implica que el principio de incertidumbre permite en general, que el producto del ancho de la funci´ on con el ancho de su transformada de Fourier adquiera un valor mayor al l´ımite inferior. Si aceptamos a ~/2 como el l´ımite inferior, vemos que los paquetes de onda gaussianos predicen una igualdad, es decir que los productos de las incertidumbres siempre tienen el menor valor posible. En tal sentido decimos que los paquetes de onda gaussianos son paquetes de “m´ınima incertidumbre”. (∆x) · (∆p) =
2.15.
Evoluci´ on temporal de paquetes de onda gaussianos (opcional)
La Ec. (2.56) junto con la relaci´ on de dispersi´ on (2.54) nos dan la forma del perfil de un paquete de onda asociado a part´ıcula libre, donde el paquete inicial tiene forma arbitraria. Aplicando estas ecuaciones al caso 11
Es m´ as adecuado definir los anchos asociados a las funciones al cuadrado ya que ´estas son las que tienen interpretaci´ on f´ısica directa.
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
152
espec´ıfico en que el paquete inicial posee el perfil gaussiano dado por la Ec. (2.87), se tiene que √ Z ∞ 2 ~k2 a − a4 (k−k0 )2 i[kx−ω(k)t] ψ (x, t) = e e dk ; ω (k) = 2m (2π)3/4 −∞
(2.93)
veremos que el paquete permanece gaussiano para todo tiempo t. Se puede agrupar la parte dependiente de k de los exponentes para formar un cuadrado perfecto, con el fin de comparar (2.93) con (2.85) y obtener h i2 ~k0 2 1/4 iϕ t x − m 2a e ψ (x, t) = eik0 x exp − 2 2i~t 1/4 π 2 2 a + m a4 + 4~m2t ϕ ≡ −θ −
~k02 2~ t t ; tan 2θ = 2m ma2
el m´odulo al cuadrado del paquete (densidad de probabilidad) en el tiempo t est´ a dado por 2 r ~k0 2 2a x − m t 2 1 2 q |ψ (x, t)| = exp − 2 2 πa2 1 + 4~2 t2 a4 + 4~m2t 2 4 m a debemos ahora calcular
Z
∞
−∞
|ψ (x, t)|2 dx
(2.94)
(2.95)
una forma ser´ıa empleando (2.85) para integrar (2.94). No obstante, es m´ as simple observar de la expresi´ on (2.93) que la transformada de Fourier de ψ (x, t) viene dada por ψ¯ (k, t) = e−iω(k)t ψ¯ (k, 0)
(2.96) se v´e entonces que ψ¯ (k, t) = ψ¯ (k, 0) . Por otro lado, es bien conocido del an´ alisis de Fourier, que ψ¯ (k, t) = |ψ (x, t)| (ecuaci´ on de Parseval-Plancherel) para todo tiempo, con lo cual se obtiene |ψ (x, t)| = ψ¯ (k, t) = ψ¯ (k, 0) = |ψ (x, 0)|
por tanto, la norma del paquete es independiente del tiempo y por tanto tambi´en la integral (2.95). Este resultado es importante para la conservaci´ on de la probabilidad y de hecho para la consistencia de la interpretaci´on de |ψ (x, t)|2 como una densidad de probabilidad. Veremos m´ as adelante que esto resulta del hecho de que el Hamiltoniano de la part´ıcula libre es herm´ıtico. Ahora bien, la Ec. (2.94) nos dice que la densidad de probabilidad es gaussiana centrada en xM = V0 t ; V0 ≡
~k0 m
donde V0 es la velocidad del paquete. Esta expresi´ on es consistente con la velocidad de grupo dada por la Ec. (2.84).
2.15.1.
Dispersi´ on del paquete de onda gaussiano (opcional)
Tomando la expresi´ on (2.90) para el ancho ∆x (t) del paquete de onda, y teniendo en cuenta el perfil del paquete Ec. (2.94), tenemos que r a 4~2 t2 ∆x (t) = 1+ 2 4 (2.97) 2 m a
´ TEMPORAL DE PAQUETES DE ONDA GAUSSIANOS (OPCIONAL) 2.15. EVOLUCION
153
Figura 2.9: Dispersi´ on de un paquete de onda Gaussiano libre. El ancho del paquete se reduce a medida que se propaga desde t = −∞ hasta t=0. Posteriormente, el paquete comienza a ensancharce indefinidamente a medida que se propaga. esta ecuaci´ on nos muestra que la evoluci´ on del paquete no consiste simplemente en una propagaci´ on con velocidad V0 . El paquete tambi´en sufre deformaci´ on. Cuando t se incrementa desde −∞ hasta cero, el ancho del paquete decrece y alcanza su valor m´ınimo en t = 0, a partir de entonces el paquete se ensancha indefinidamente (dispersi´ on del paquete de onda). Esta situaci´ on se ilustra en la Fig. 2.9. Adicionalmente, la Ec. (2.94) para el perfil del paquete nos muestra que la altura tambi´en var´ıa, pero de forma opuesta al ancho, de tal manera que la norma de ψ (x, t) permanece constante. Es natural ahora preguntarse por el comportamiento de la forma del “paquete de ondas en el espacio de los momentos (o espacio rec´ıproco)” con el tiempo. Las propiedades de la transformada de Fourier ψ¯ (k, t) son totalmente distintas, vemos por ejemplo que de acuerdo a la Ec. (2.96) se tiene que ψ¯ (k, t) = ψ¯ (k, 0)
de modo que el momento promedio del paquete ~k0 y la dispersi´ on del momento ∆p = ~∆k son constantes en el tiempo. Veremos m´ as adelante que esto es una consecuencia de que el momento lineal es una constante de movimiento para la part´ıcula libre. En virtud de la ausencia de interacci´ on, la distribuci´ on de momentos de una part´ıcula libre no cambia. Adicionalmente, dado que ∆p es constante y que ∆x crece con el valor absoluto del tiempo, es claro que estos ya no son paquetes de m´ınima incertidumbre excepto para t = 0, esto se debe a que el paquete en el espacio rec´ıproco (i.e. la transformada de Fourier del paquete de ondas en el espacio) ya no es puramente gaussiano en t 6= 0, como se puede ver en la Ec. (2.96). Cu´ anticamente, la existencia de una dispersi´ on del momento ∆p = ~∆k significa que la velocidad de la part´ıcula solo se conoce en un intervalo ∆v = ∆p/m y usando la u ´ltima de las Ecs. (2.91), vemos que ∆v = ~/ma. Este hecho posee un interesante an´ alogo cl´ asico: imaginemos un conjunto de part´ıculas cl´ asicas que en t = 0 est´ an localizadas en x = 0 y que tienen una dispersi´ on ∆v = ~/ma de sus velocidades. Es claro que en el tiempo t la dispersi´ on de sus posiciones ser´ a ~ |t| (2.98) ∆xcl = |t| ∆v = ma donde estamos asumiendo que se calcula su dispersi´ on tambi´en para tiempos negativos anteriores a t = 0. La dispersi´ on decrece linealmente para la evoluci´ on temporal desde un t < 0 y crece linealmente con t a partir de t = 0. La Fig. 2.10, muestra una comparaci´ on entre el comportamiento temporal de los anchos cl´ asico ∆xcl y cu´ antico ∆x dados por las Ecs. (2.97, 2.98). Vemos que cuando |t| → ∞ las dos gr´ aficas coinciden, dado que las rectas correspondientes al ancho cl´ asico son las as´ıntotas de la hip´erbola cu´ antica. Por tanto, para |t| muy grande podemos decir que hay un comportamiento cuasi-cl´ asico del ancho cu´ antico ∆x. Sin embargo, cuando |t| → 0, el comportamiento cu´ antico difiere cada vez m´ as del cl´ asico. Esto se debe a que la part´ıcula cu´ antica debe siempre satisfacer el principio de incertidumbre de Heisenberg ∆x ∆p ≥ ~/2 y dado que ∆p es fijo, ´este impone un l´ımite inferior para ∆x que el sistema cl´ asico no tiene que obedecer (efectivamente nuestro sistema cl´ asico no pose´ıa
154
´ FENOMENOLOGICA ´ CAP´ITULO 2. CONSTRUCCION DE LOS POSTULADOS
Figura 2.10: Comparaci´ on entre el comportamiento con el tiempo de un ∆x cu´ antico (hip´erbola) y su an´ alogo cl´ asico ∆xcl (rectas). dispersi´ on en la posici´ on para t = 0 ya que todas las part´ıculas estaban en x = 0). No obstante, este an´ alogo cl´ asico debe tomarse con cuidado. Por ejemplo, en nuestro sistema cl´ asico la dispersi´ on se gener´ o con un conjunto de part´ıculas, en tanto que la dispersi´ on cu´ antica esta asociada a un conjunto de ondas asociadas a UNA SOLA part´ıcula. Vale la pena anotar que aunque hemos analizado la dispersi´ on de un paquete de ondas libres cuya condici´ on inicial consta de componentes gaussianas, la dispersi´ on se presenta para un paquete libre bajo cualquier forma inicial del paquete, y la variaci´ on del ancho del paquete con el tiempo tiene la forma mostrada en la Fig. 2.10. Combinando las Ecs. (2.91, 2.97) vemos que r r ~ 4~2 t2 1 4~2 t2 ∆x · ∆p = 1 + 2 4 ⇒ ∆x · ∆k = 1+ 2 4 (2.99) 2 m a 2 m a ag. 142. Sin para t = 0 el l´ımite inferior est´ a en el mismo orden de magnitud que el dado en la Ec. (2.72)12 P´ embargo, para tiempos grandes en valor absoluto, el l´ımite inferior de (2.99) se aleja mucho de aqu´el que se estim´ o en (2.72). Para entender esta discrepancia, recordemos que de acuerdo con la Ec. (2.64) P´ ag. 140, nuestro tratamiento general asumi´ o que la fase α (k) de la transformada de Fourier se pod´ıa aproximar a una funci´ on lineal dentro del rango ∆k. Despreciar los t´erminos no lineales en la expansi´ on (2.64) equivale a decir que 2 2 d α (k) (∆k) ≪ 2π (2.100) dk2 k=k0 de no ser as´ı la contribuci´ on de segundo orden a α (k) no ser´ a mucho menor a 2π dentro del dominio k0 ± ∆k. En 2 on (2.100) nuestro contexto, puesto que ∆k ≃ 1/a y de la Ec. (2.93) se tiene que α (k) = − ~k /2m t, la condici´ se escribe como ~t ≪ 2π (2.101) a2 m esta condici´ on se cumple en t = 0 y tiempos t ≪ 2πa2 m/~. En contraste, falla para tiempos suficientemente grandes para los cuales el l´ımite inferior en (2.99) difiere sustancialmente de aqu´el en la Ec. (2.72). 12 Recordemos que para encontrar la Ec. (2.72), se asumi´ o que la transformada de Fourier ten´ıa una forma similar (en perfil gen´erico) a una campana de Gauss. Esto naturalmente coincide con nuestro actual tratamiento. Observemos adem´ as que la Ec. (2.72) expresa una desigualdad que muestra la vaguedad del l´ımite inferior.
Cap´ıtulo 3
Ecuaci´ on de Schr¨ odinger y sus propiedades Hemos estudiado la dualidad onda part´ıcula partiendo de los postulados de De Broglie y hemos analizado el comportamiento de la onda asociada a una part´ıcula libre. Sin embargo, si consideramos un sistema de una o m´ as part´ıculas interactuantes ser´ a necesario generar una ecuaci´ on de movimiento que gobierne la din´ amica de la onda asociada. Si bien esta ecuaci´ on de movimiento se postular´ a, existen ciertos argumentos de plausibilidad para su construcci´ on.
3.1.
Plausibilidad de la ecuaci´ on de Schr¨ odinger
Si aceptamos la validez de los postulados de De Broglie, debemos encontrar una ecuaci´ on de movimiento que nos describa la propagaci´ on de las ondas piloto y su relaci´ on con la din´ amica de la part´ıcula, para el caso en que la part´ıcula interact´ ue con su entorno. Por simplicidad asumiremos un caso unidimensional en esta secci´ on. El punto de partida ser´ a entonces las ecuaciones de De Broglie aplicadas a una part´ıcula material λ = h/p ; ν = E/h
(3.1)
ahora bien, a pesar de que las relaciones de De Broglie son consistentes con la teor´ıa de la relatividad (de hecho, fueron inspiradas por las relaciones an´ alogas en los fotones), vamos a plantear una formulaci´ on no relativista, esto con el fin de evitar el problema del manejo de la probabilidad que surge de la posibilidad de creaci´ on y aniquilaci´ on de part´ıculas materiales. Tomaremos entonces la relaci´ on no relativista (corpuscular) entre energ´ıa y momento E=
p2 +V 2m
(3.2)
siendo m = m0 la masa en reposo de la part´ıcula. La Ec. (3.1) nos muestra que un cambio en la definici´ on de energ´ıa (por ejemplo si tom´ aramos la relaci´ on relativista) nos cambiar´ıa el valor de ν. Los experimentos descritos hasta ahora no han explorado la validez de la relaci´ on (3.2), de modo que las predicciones que la ecuaci´ on din´ amica haga sobre una part´ıcula interactuante deben ser corroboradas por los experimentos. Es claro que para una part´ıcula libre, los resultados deben poder obtenerse con cualquier potencial constante (no necesariamente cero) aplicado a la Ec. (3.2). Es f´ acil verificar que un potencial constante predice que la velocidad de grupo de la onda piloto corresponde a p/m y por tanto a la velocidad de la part´ıcula, combinando (3.1) con (3.2) se tiene que E p2 V 1 p ν= = + ; K≡ = h 2mh h λ h teniendo en cuenta que V es constante, tenemos dν =
2p dp dp , dK = 2mh h 155
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
156 Ahora bien, teniendo en cuenta que
k ≡ 2πK ; la velocidad de grupo queda Vg =
ω ≡ 2πν
dω dν p dp h p = = = = vpart´ıcula dk dK mh dp m
y podemos reescribir las relaciones de De Broglie en la forma p = ~k ; E = ~ω
(3.3)
si insertamos estas relaciones en (3.2) obtenenemos la siguiente relaci´ on de Dispersi´ on ~2 k2 + V (x, t) = ~ω 2m
(3.4)
tomaremos como prototipo la ecuaci´ on para la part´ıcula libre con potencial constante. Las consideraciones anteriores nos dicen que la ecuaci´ on de movimiento que genere la funci´ on de onda ψ (x, t) (i.e. la din´ amica de las ondas piloto), debe cumplir las siguientes propiedades 1. Debe ser consistente con las Ecs. (3.1, 3.2). Es decir debe cumplir los postulados de De Broglie y la relaci´ on no relativista entre E y p. 2. Debe ser lineal y homog´enea en ψ (x, t) con el fin de que sea v´ alido el principio de superposici´on que a su vez nos genera los fen´ omenos ondulatorios de interferencia. Esto implica que si ψ1 (x, t) y ψ2 (x, t) son soluciones de la ecuaci´on una combinaci´ on lineal de ellas tambi´en es soluci´ on. 3. En general, consideraremos potenciales que solo dependen de la posici´ on y el tiempo V = V (x, t). Cuando el potencial es constante la part´ıcula es libre y por tanto se deben conservar E y p, lo cual a su vez implica que se conservan λ = 2π/k y ν de acuerdo con las relaciones (3.1). 4. Las soluciones para part´ıcula libre son funcionalmente id´enticas a las soluciones de la ecuaci´ on de onda homog´enea, pero deben cumplir con una relaci´ on de dispersi´ on que sea consistente con la Ec. (3.4) con V constante, en vez de la relaci´ on de dispersi´ on para ondas libres dada por (2.55), lo cual nos dice que la ecuaci´ on de onda no es la ecuaci´ on din´ amica para la funci´ on de onda ψ (r, t). Entonces la ecuaci´ on de movimiento para part´ıcula libre debe tener soluciones en forma de ondas viajeras con n´ umero de onda y frecuencia constantes. 5. Lo anterior nos lleva a postular que funciones de onda de la forma Aei(kx−ωt) son soluciones para part´ıcula libre (i.e. con potencial constante), ya que estas funciones son soluciones de la ecuaci´ on de onda homog´enea que corresponden a ondas viajeras con n´ umero de onda y frecuencia constantes, y que gracias a las relaciones de De Broglie, tambi´en corresponden a momento y energ´ıa conservados. La linealidad y homogeneidad prohibe t´erminos del tipo [ψ (x, t)]2 (no lineales) o t´erminos independientes de ψ (x, t) (t´erminos inhomog´eneos o fuentes). Puesto que la mayor´ıa de ecuaciones din´ amicas de la F´ısica son a lo m´ as de segundo orden, postularemos que los t´erminos lineales son a lo m´ as de segundo orden en el espacio y el tiempo, y posiblemente un t´ermino lineal en ψ (x, t). Parametrizaremos a la ecuaci´ on en la forma siguiente a1
∂ψ (x, t) ∂ 2 ψ (x, t) ∂ψ (x, t) ∂ 2 ψ (x, t) + a2 − b − b + c ψ (x, t) = 0 1 2 ∂x ∂x2 ∂t ∂t2
asumamos que la soluci´ on de part´ıcula libre es ψ (x, t) = Aei(kx−ωt) , adem´ as se debe cumplir la relaci´ on de 2 dispersi´ on (3.4) con V constante. Esta relaci´ on de dispersi´ on contiene un t´ermino proporcional a k que se obtendr´ıa de una segunda derivada espacial de la onda plana, y un t´ermino lineal en ω que se puede extraer de una primera
´ DE SCHRODINGER ¨ 3.1. PLAUSIBILIDAD DE LA ECUACION
157
derivada temporal de la onda plana. La ausencia de un t´ermino lineal en k y de un t´ermino cuadr´ atico en ω sugiere la ausencia de primeras derivadas espaciales y de segundas derivadas temporales. Finalmente, la presencia del potencial en (3.4) sugiere la presencia de un t´ermino lineal en ψ de la forma V ψ. El ansatz para la soluci´ on se reduce a ∂ 2 ψ (x, t) ∂ψ (x, t) a2 + V ψ (x, t) = b1 (3.5) 2 ∂x ∂t ahora debemos ajustar los par´ ametros a2 y b1 de manera que exista una soluci´ on tipo onda plana que reproduzca la relaci´ on de dispersi´ on (3.4). Recordemos que en mec´ anica cl´ asica, el car´ acter complejo de las soluciones de la ecuaci´ on de onda se introduce solo por conveniencia y la soluci´ on F´ısica es la parte real de la soluci´ on compleja. Por este motivo si bien podemos insertar una soluci´ on tipo onda plana en (3.5), es razonable intentar primero usar la soluci´ on real para la ecuaci´ on de onda cl´ asica como prototipo de soluci´ on, insertaremos entonces una funci´ on de onda de la forma ψ (x, t) = cos (kx − ωt) (3.6) teniendo en cuenta que k, ω y V son constantes, se tiene que
∂ψ ∂ 2 ψ (x, t) = −k2 cos (kx − ωt) ; = ω sin (kx − ωt) 2 ∂x ∂t y al insertar estos resultados en (3.5) obtenemos −a2 k2 cos (kx − ωt) + V cos (kx − ωt) = b1 ω sin (kx − ωt) V − a2 k2 cos (kx − ωt) = b1 ω sin (kx − ωt)
pero no es posible ajustar los par´ ametros para que esta relaci´ on sea v´ alida para todo x, t, de modo que la soluci´ on cl´ asica dada por (3.6) no es compatible con la relaci´ on de dispersi´ on de la teor´ıa. A´ un podemos tratar de encontrar una soluci´ on real si agregamos una fase adicional en la forma cos (kx − ωt + δ) que es equivalente a escribir una soluci´ on de la forma ψ (x, t) = cos (kx − ωt) + γ sin (kx − ωt) (3.7) lo cual tambi´en se puede postular observando que en tal caso ambas derivadas tendr´ an senos y cosenos que permitir´ an igualar coeficientes adecuadamente ∂ 2 ψ (x, t) = −k2 cos (kx − ωt) − γk2 sin (kx − ωt) ∂x2
;
∂ψ = ω sin (kx − ωt) − γω cos (kx − ωt) ∂t
que al insertarlos en (3.5) nos da −a2 k2 [cos (kx − ωt) + γ sin (kx − ωt)] + V [cos (kx − ωt) + γ sin (kx − ωt)]
= b1 ω [sin (kx − ωt) − γ cos (kx − ωt)] quedando
−a2 k2 + V + b1 ωγ cos (kx − ωt) + −a2 k2 γ + V γ − b1 ω sin (kx − ωt) = 0
Los coeficientes de seno y coseno deben anularse para que esta relaci´ on sea v´ alida para todo x, t. Tenemos entonces dos ecuaciones con tres inc´ ognitas (a2 , b1 , γ) que junto con la relaci´ on de dispersi´ on (3.4), nos da −a2 k2 + V + b1 ωγ = 0
;
−a2 k2 γ + V γ − b1 ω = 0 ;
~2 k2 + V = ~ω 2m
las dos primeras ecuaciones se pueden reescribir como −a2 k2 + V
= ⇒
−b1 ωγ ; −a2 k2 + V = −γ =
1 γ
⇒ γ 2 = −1
b1 b1 ω ⇒ −b1 ωγ = ω γ γ
(3.8)
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
158 tenemos entonces
√ γ = ± −1 = ±i
sustituyendo en la primera de las Ecs. (3.8) −a2 k2 + V ± iωb1 = 0 ⇒ −a2 k2 + V = ∓iωb1 al comparar esta expresi´ on con la tercera de las Ecs. (3.8) −a2 =
~2 ; ∓ib1 = ~ 2m
tenemos entonces dos soluciones que dependen de la elecci´ on del signo de γ, la elecci´ on m´ as usual es γ = i ; a2 = −
~2 ; b1 = i~ 2m
que al reemplazarlo en (3.5) nos da ~2 ∂ 2 ψ ∂ψ + V ψ = i~ 2 2m ∂x ∂t que se ha derivado para un potencial constante V . Ahora postularemos que la relaci´ on se mantiene v´ alida para un potencial arbitrario de la forma V (x, t). Se obtiene entonces −
−
~2 ∂ 2 ψ ∂ψ + V (x, t) ψ = i~ 2 2m ∂x ∂t
(3.9)
expresi´ on conocida como la ecuaci´ on de Schr¨ odinger. Por supuesto podemos postular su extensi´ on a tres dimensiones como ∂ψ (r, t) ~2 2 − ∇ ψ (r, t) + V (r, t) ψ (r, t) = i~ (3.10) 2m ∂t N´ otese que γ = ±i, lo cual indica que la pretendida soluci´ on real (3.7) nos proporciona inevitablemente una soluci´ on compleja tipo onda plana. Vemos que hay una diferencia con las soluciones de onda cl´ asica que se toman complejas solo por conveniencia. En contraste, para la ecuaci´ on de Schr¨ odinger no pudimos encontrar una soluci´ on real consistente con las relaciones de dispersi´ on para part´ıcula libre, el car´ acter de la soluci´ on es en esencia complejo. Esto se refleja en el factor imaginario que aparece a la derecha de la ecuaci´ on (3.9) de Schr¨ odinger.
3.2.
Ecuaci´ on de Schr¨ odinger para una part´ıcula sometida a un potencial escalar independiente del tiempo: estados estacionarios
Supongamos que una part´ıcula de masa m est´ a sometida a un potencial V (r). La ecuaci´ on de Schr¨ odinger (3.10) se escribe entonces ~2 2 ∂ψ (r, t) − ∇ ψ (r, t) + V (r) ψ (r, t) = i~ (3.11) 2m ∂t plantearemos una separaci´ on de variables para la soluci´ on ψ (r, t) = χ (t) ϕ (r) al introducirlo en la Ec. (3.11) se obtiene −
~2 ∂χ (t) χ (t) ∇2 ϕ (r) + V (r) χ (t) ϕ (r) = i~ϕ (r) 2m ∂t
(3.12)
´ DE SCHRODINGER ¨ 3.2. ECUACION CON POTENCIAL ESCALAR INDEPENDIENTE DEL TIEMPO 159 dividiendo a ambos lados por χ (t) ϕ (r) se escribe −
~2 ∇2 ϕ (r) 1 ∂χ (t) + V (r) = i~ 2m ϕ (r) χ (t) ∂t
el miembro izquierdo solo depende de la posici´ on en tanto que el derecho depende solo del tiempo. Por tanto ambos miembros deben ser iguales a una constante que por comodidad la tomaremos como ~ω, de momento ω es solo una constante a ajustar, aunque es claro que debe tener dimensiones de frecuencia angular. Tenemos entonces que i~
1 ∂χ (t) χ (t) ∂t
= ~ω ⇒
∂χ (t) = −iωχ (t) ∂t
χ (t) = Ae−iωt
(3.13)
y la ecuaci´ on para la parte espacial es − −
~2 ∇2 ϕ (r) + V (r) = ~ω ⇒ 2m ϕ (r)
~2 2 ∇ ϕ (r) + V (r) ϕ (r) = ~ωϕ (r) 2m
(3.14)
combinando las Ecs. (3.12, 3.13), la soluci´ on para la ecuaci´ on de Schr¨ odinger (3.11) es ψ (r, t) = ϕ (r) e−iωt
(3.15)
donde hemos absorbido el factor A en la soluci´ on ϕ (r) de la ecuaci´ on (3.14). N´ otese que la soluci´ on (3.15) nos conduce a una densidad de probabilidad independiente del tiempo, aunque inhomog´enea |ψ (r, t)|2 = |ϕ (r)|2 raz´ on por la cual se conoce como soluci´ on estacionaria de la ecuaci´ on de Schr¨ odinger. Ahora bien, la Ec. (3.15) nos muestra que la constante de integraci´ on ω corresponde efectivamente a la frecuencia angular asociada a la funci´ on de onda estacionaria. N´ otese que en la soluci´ on estacionaria, solo aparece un valor de frecuencia angular ω que a su vez nos conduce a un valor bien definido de la energ´ıa de acuerdo con la relaci´ on de Planck Einstein E = ~ω. En mec´ anica cl´ asica un potencial independiente del tiempo nos lleva a la conservaci´ on de la energ´ıa total. En mec´ anica cu´ antica, lo que podemos decir es que para potenciales independientes del tiempo existen estados de energ´ıa bien determinada. La Ec. (3.14) se puede escribir entonces como ~2 2 − ∇ + V (r) ϕ (r) = Eϕ (r) (3.16) 2m que se puede reescribir como Hϕ (r) = Eϕ (r)
;
H ≡−
~2 2 ∇ + V (r) 2m
(3.17)
siendo H un operador diferencial que es claramente lineal H [λ1 ϕ1 (r) + λ2 ϕ2 (r)] = λ1 Hϕ1 (r) + λ2 Hϕ2 (r) y vemos que (3.17) es una ecuaci´ on de valores propios para el operador H en la cual ϕ (r) son las funciones propias (vectores propios) y las energ´ıas E son los valores propios. Las energ´ıas permitidas para la part´ıcula son entonces los valores propios del operador H. N´ otese que no cualquier soluci´ on ϕ (r) de la ecuaci´ on de Schr¨odinger es una soluci´ on f´ısica, debemos imponer que sea de cuadrado integrable, esta imposici´ on restringir´ a los valores permitidos de energ´ıa y nos llevar´ a a una cuantizaci´ on de esta cantidad.
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
160
A la Ec. (3.17) se le llama usualmente ecuaci´ on de Schr¨ odinger independiente del tiempo, en tanto que a (3.11) se le denomina ecuaci´ on de Schr¨ odinger dependiente del tiempo. La Ec. (3.11) nos da la evoluci´ on de la funci´ on de onda para un estado arbitrario de la part´ıcula, en tanto que la Ec. (3.17) solo nos da los estados estacionarios de ´esta. Dado que tenemos un conjunto de valores permitidos de la energ´ıa (autoresultados o autovalores), vamos a rotular las energ´ıas y las autofunciones de la forma Hϕn,m (r) = En ϕn,m (r) donde tanto n como m pueden simbolizar un ´ındice cont´ınuo o discreto o incluso varios ´ındices. El ´ındice m me indica la posibilidad de degeneraci´ on, es decir de varias autofunciones linealmente independientes que pertenecen al mismo valor propio En . Los estados estacionarios de la part´ıcula son de la forma ψn,m (r, t) = ϕn,m (r) e−iEn t/~ ψn,m (r, t) es una soluci´ on de la ecuaci´ on de Schr¨ odinger Ec. (3.11), y en virtud de la linealidad de esta ecuaci´ on, una superposici´ on de las soluciones estacionarias es tambi´en soluci´ on XX ψ (r, t) = cnm ϕn,m (r) e−iEn t/~ (3.18) n
m
en realidad es usual que se requiera la superposici´ on puesto que soluciones arbitrarias no satisfacen en general las condiciones iniciales y de frontera que pide un problema espec´ıfico. La superposici´ on garantiza que podemos obtener cualquier estado siempre que las funciones ϕnm (r) sean completas como funciones espaciales (las funciones temporales son ondas planas y por tanto completas), esto requiere a su vez que el operador H tenga el car´ acter de observable. Para t = 0 la Ec. (3.18) nos da XX cnm ϕn,m (r) (3.19) ψ (r, 0) = n
m
de modo que si conocemos el estado inicial del sistema (el cual es en principio arbitrario) podemos descomponerlo en la base de las autofunciones ϕn,m de H (siempre que H sea un observable). Para obtener la evoluci´ on temporal −iE n t/~ basta con multiplicar cada t´ermino en (3.19) por e , debe aclararse que cada t´ermino corresponde a una fase diferente y por tanto la superposici´ on ya no corresponde en general a un estado estacionario. Es esencial tener presente que toda esta discusi´ on solo es v´ alida cuando V (r) no es funci´ on expl´ıcita del tiempo, de otro modo no es posible en general tener soluciones con separaci´ on de variables.
3.3.
Propiedades generales de la ecuaci´ on de Schr¨ odinger
Retornaremos ahora a la forma general de la ecuaci´ on de Schr¨ odinger Ec. (3.10) ~2 2 ∂ψ (r, t) − ∇ + V (r, t) ψ (r, t) = i~ 2m ∂t ∂ψ (r, t) H (r, t) ψ (r, t) = i~ ∂t
(3.20)
en la cual el potencial puede depender del espacio y del tiempo. La primera observaci´ on relevante es que el operador H es herm´ıtico. Para ver esto, basta con tener en cuenta que desde el punto de vista de los kets, las funciones de onda son kets escritos en la representaci´ on de coordenadas, y en tal representaci´ on el operador H se puede escribir como (−i~∇) (−i~∇) P2 H= + V (r, t) = + V (r, t) (3.21) 2m 2m
´ DE SCHRODINGER ¨ 3.3. PROPIEDADES GENERALES DE LA ECUACION
161
siendo P el operador definido por las Ecs. (1.188), que en representaci´ on de la base {|ri} est´ a dado por la Ec. (1.191). Ya vimos en la secci´ on 1.43.4 que este operador es Herm´ıtico, y como V (r, t) es una funci´ on real, tambi´en es herm´ıtica1 . En consecuencia H tambi´en es herm´ıtico. N´ otese que esto es indispensable para que el espectro de este operador (la energ´ıa) sea real (ver teorema 1.62). Ahora bien, recordemos que a cada funci´ on de onda en el espacio ̥ le asociamos un ket en el espacio E en la forma ψ (r, t) ↔ |ψ (t)i es conveniente escribir la ecuaci´ on de Schr¨ odinger como una ecuaci´ on din´ amica de los kets (en lugar de la funci´ on de onda), debido a que una ecuaci´ on planteada para el vector abstracto se puede tomar de manera muy sencilla en cualquier representaci´ on. Es f´ acil ver que la Ec. de Schr¨ odinger para kets de la forma i~
d |ψ (t)i = H (t) |ψ (t)i dt
(3.22)
conduce a la Ec. de Schr¨ odinger (3.20) cuando usamos la representaci´ on de la base {|ri}, siempre que H (t) sea el operador (abstracto) que en representaci´ on de la base {|ri} est´e dado por (3.21). Para verlo aplicamos el bra hr| a ambos lados de (3.22) d i~ hr| |ψ (t)i = hr| H (t) |ψ (t)i dt dado que |ψ (t)i no depende de r, la derivada total o parcial en el tiempo coinciden para el ket. Adicionalmente, cuando el ket se transforma en funci´ on de onda la cual es un campo, debe tenerse en cuenta que las coordenadas r en ψ (r, t) son lugares geom´etricos y no variables din´ amicas, por tanto las variables r y t son todas independientes, 2 de modo que d ∂ ∂ |ψ (t)i = i~ hr| |ψ (t)i = hr |ψ (t)i dt ∂t ∂t d ∂ψ (r, t) i~ hr| |ψ (t)i = dt ∂t
i~ hr|
y de la condici´ on establecida para H (t) se tiene que hr| H (t) |ψ (t)i = H (r, t) hr |ψ (t)i = H (r, t) ψ (r, t) con lo cual se reproduce la Ec. de Schr¨ odinger (3.20) en representaci´ on de coordenadas. Veamos las principales propiedades de la ecuaci´ on de Schr¨ odinger.
3.3.1.
Determinismo en las soluciones
Puesto que la ecuaci´ on es de primer orden en el tiempo, dado un estado inicial |ψ (t0 )i el estado |ψ (t)i en un tiempo t subsequente est´ a determinado, esto se debe a que la ecuaci´ on no es invariante ante t → −t (como s´ı ocurre con la ecuaci´ on de onda). No hay indeterminaci´ on en la evoluci´ on del estado del sistema. La indeterminaci´ on se produce es con el proceso de medida de una cantidad F´ısica, en cuyo caso el vector de estado sufre un cambio abrupto y parcialmente impredecible (ya que se puede evaluar una probabilidad para cada cambio abrupto posible). Sin embargo, en el tiempo comprendido entre dos medidas, el vector de estado evoluciona en forma perfectamente determinista seg´ un la Ec. (3.22).
3.3.2.
Principio de superposici´ on
Puesto que la Ec. (3.22) es lineal y homog´enea (por construcci´ on), si |ψ1 (t)i y |ψ2 (t)i son soluciones, tambi´en lo ser´ a |ψ (t)i = λ1 |ψ1 (t)i + λ2 |ψ2 (t)i. Esto implica que si el estado inicial es de la forma |ψ (t0 )i = λ1 |ψ1 (t0 )i + 1
Visto de otro modo el potencial es un operador del tipo V (r, t) I, siendo I la identidad. Si V (r, t) es real, este operador es herm´ıtico. En una teor´ıa cl´ asica de campos, las coordenadas espaciales se convierten en par´ ametros y las coordenadas generalizadas son los campos. Tenemos entonces cuatro par´ ametros: 3 posiciones y el tiempo, siendo la posiciones lugares geom´etricos en la “grilla” del espacio euclidiano. Los cuatro par´ ametros son totalmente independientes unos de otros. 2
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
162
λ2 |ψ2 (t0 )i entonces el estado en un tiempo t posterior ser´ a |ψ (t)i = λ1 |ψ1 (t)i + λ2 |ψ2 (t)i con lo cual tenemos una correspondencia lineal entre |ψ (t0 )i y |ψ (t)i. Por tanto, hay un operador lineal conocido como operador evoluci´ on temporal que conecta a estas dos funciones |ψ (t)i = U (t, t0 ) |ψ (t0 )i
(3.23)
analizaremos este operador m´ as en detalle en la Sec. 7.1.
3.3.3.
Conservaci´ on de la probabilidad
En virtud de la interpretaci´ on de |ψ (r, t)|2 como una densidad de probabilidad es necesario que Z 2 hψ (t)| ψ (t)i = kψk = |ψ (r, t)|2 d3 r = 1 para todo tiempo, i.e. en cualquier instante la part´ıcula debe encontrarse en alg´ un lugar del espacio (excepto cuando hay procesos de creaci´ on y destrucci´ on de part´ıculas que no inclu´ımos en el presente formalismo). Esto significa que la norma de un ket |ψ (t)i debe ser constante en el tiempo. Es necesario por tanto que la ecuaci´ on de Schr¨ odinger mantenga invariante en el tiempo la norma de los vectores, con el fin de dar una interpretaci´ on probabil´ıstica coherente. Para mirar la conservaci´ on de la probabilidad debemos evaluar la derivada total de la norma en el tiempo d d d hψ (t)| ψ (t)i = hψ (t)| |ψ (t)i + hψ (t)| |ψ (t)i (3.24) dt dt dt la derivada temporal del ket se obtiene directamente de la ecuaci´ on de Schr¨ odinger Ec. (3.22) 1 d |ψ (t)i = H (t) |ψ (t)i dt i~
(3.25)
para obtener la derivada temporal del bra, sacamos el herm´ıtico conjugado de dicha ecuaci´ on d 1 1 hψ (t)| = − hψ (t)| H † (t) = − hψ (t)| H (t) dt i~ i~
(3.26)
donde hemos usado la hermiticidad de H. Reemplazando (3.25) y (3.26) en (3.24) se obtiene d 1 1 hψ (t)| ψ (t)i = − hψ (t)| H (t) |ψ (t)i + hψ (t)| H (t) |ψ (t)i = 0 dt i~ i~ esto implica entonces que si normalizamos el estado inicial, el estado en cualquier tiempo continuar´ a normalizado. N´ otese la importancia de la hermiticidad de H para lograr la conservaci´ on de la norma y por tanto, de la probabilidad.
3.3.4.
La ecuaci´ on de continuidad para la probabilidad
Por simplicidad trabajaremos el caso de una sola part´ıcula (sin esp´ın). Asumiremos que la funci´ on de onda ψ (r, t) est´ a normalizada, en tal caso |ψ (r, t)|2 representa la densidad de probabilidad de que la part´ıcula est´e en la posici´ on r en el tiempo t dP (r, t) = ρ (r, t) dV = |ψ (r, t)|2 dV (3.27) tenemos que la probabilidad total nos da PT ≡
Z
ρ (r, t) dV = 1
´ DE SCHRODINGER ¨ 3.3. PROPIEDADES GENERALES DE LA ECUACION
163
para todo tiempo, de modo que PT representa una “carga generalizada” que se conserva. Por supuesto esto no significa que la distribuci´ on de esta “carga” (distribuci´ on de probabilidad), permanezca igual en el tiempo para cada punto r, las variaciones de ρ (r, t) con el tiempo generan una propagaci´ on de la distribuci´ on de carga. En general tanto las variaciones espaciales como temporales de ρ (r, t) generan una corriente de probabilidad, si ρ no es funci´ on del tiempo se genera una corriente estacionaria. Recordemos que el volumen no es necesariamente todo el espacio si existen regiones con probabilidad cero. Lo importante es que no cruce corriente de probabilidad en la superficie que delimita al volumen de integraci´ on, ya que si esto ocurre, habr´ a probabilidad diferente de cero en regiones que en tiempos anteriores eran inaccesibles. Esta situaci´ on es an´ aloga al caso en que ρ (r, t) simbolizaba una densidad de carga el´ectrica a la cual le podemos asociar una densidad de corriente J (r, t). Es bien conocido que la conservaci´ on global de la carga generalizada proviene de una ley de conservaci´ on local que prohibe la creaci´ on espont´ anea de carga generalizada neta. Esto implica que si tomamos un volumen por cuya superficie limitadora cruza corriente de carga generalizada, el flujo neto de carga por la superficie hacia afuera (adentro) debe estar compensado por una disminuci´ on (aumento) en la carga interior al volumen, el enunciado preciso de esta ley local de conservaci´ on es ∂ ρ (r, t) + ∇ · J (r, t) = 0 ∂t
(3.28)
siendo ρ la densidad de carga generalizada y J la densidad de corriente generalizada, esta expresi´ on es conocida como ecuaci´ on de continuidad. Puesto que hemos encontrado la carga conservada (probabilidad total) y definido ya la densidad de probabilidad, debemos encontrar una densidad de corriente de probabilidad que nos d´e una ecuaci´ on de la forma (3.28), en este caso estamos tratando a la probabilidad como un flu´ıdo o medio cont´ınuo. Volveremos a la ecuaci´ on de Schr¨ odinger en representaci´ on de coordenadas dado por (3.10) −
~2 2 ∂ψ (r, t) ∇ ψ (r, t) + V (r, t) ψ (r, t) = i~ 2m ∂t
(3.29)
el potencial V (r, t) debe ser real para que H sea herm´ıtico (lo cual es esencial para la conservaci´ on de la probabilidad como ya vimos). La ecuaci´ on compleja conjugada de la Ec. de Schr¨ odinger es −
~2 2 ∗ ∂ψ ∗ (r, t) ∇ ψ (r, t) + V (r, t) ψ ∗ (r, t) = −i~ 2m ∂t
(3.30)
multiplicamos (3.29) por ψ ∗ (r, t) y (3.30) por −ψ (r, t) y sumamos −
~2 ∗ ∂ψ (r, t) ψ (r, t) ∇2 ψ (r, t) + V (r, t) ψ ∗ (r, t) ψ (r, t) = i~ψ ∗ (r, t) 2m ∂t 2 ∗ ~ ∂ψ (r, t) ψ (r, t) ∇2 ψ ∗ (r, t) − V (r, t) ψ (r, t) ψ ∗ (r, t) = i~ψ (r, t) 2m ∂t
quedando ~2 ∗ 2 ∂ψ ∗ 2 ∗ ∗ ∂ψ − ψ ∇ ψ − ψ∇ ψ = i~ ψ +ψ 2m ∂t ∂t ~ ∂ ∗ − ψ ∗ ∇2 ψ − ψ∇2 ψ ∗ = [ψ ψ] 2mi ∂t
sumando y restando un t´ermino a la izquierda −
~ ∗ 2 ψ ∇ ψ + (∇ψ ∗ ) · (∇ψ) − (∇ψ ∗ ) · (∇ψ) − ψ∇2 ψ ∗ = 2mi ~ − ∇ · [ψ ∗ ∇ψ − ψ∇ψ ∗ ] = 2mi
∂ ∗ [ψ ψ] ∂t ∂ρ ∂t
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
164 quedando finalmente
∂ρ +∇· ∂t
~ ∗ ∗ [ψ ∇ψ − ψ∇ψ ] = 0 2mi
(3.31)
y comparando (3.31) con la ecuaci´ on (3.28) de continuidad se tiene que J=
~ [ψ ∗ ∇ψ − ψ∇ψ ∗ ] 2mi
esta ecuaci´ on se puede reescribir definiendo ~ 1 J = [Z − Z ∗ ] ; Z ≡ ψ ∗ ∇ψ m 2i 1 1 ~Z 1 ~Z ∗ ~Z J = + = Re m 2 i i m i de modo que
1 ~ ∗ ∗ ∗ ~ [ψ ∇ψ − ψ∇ψ ] = Re ψ ∇ψ J (r, t) = 2mi m i
(3.32)
hemos probado entonces la conservaci´ on local de la probabilidad y encontramos la forma expl´ıcita de la densidad de corriente, la cual es real como era de esperarse. Vale la pena calcular la corriente de probabilidad para el caso especial de estados estacionarios de la forma (3.15), en tal caso al reemplazar (3.15) en (3.32) resulta ∗ ∗ o ~ ~ n J = [ψ ∗ ∇ψ − ψ∇ψ ∗ ] = ϕ (r) e−iωt ∇ ϕ (r) e−iωt − ϕ (r) e−iωt ∇ ϕ (r) e−iωt 2mi 2mi ~ ∗ iωt −iωt J = ϕ (r) e e ∇ϕ (r) − ϕ (r) e−iωt eiωt ∇ϕ∗ (r) 2mi quedando finalmente
~ 1 ~ ∗ ∗ ∗ J (r) = {ϕ (r) ∇ϕ (r) − ϕ (r) ∇ϕ (r)} = Re ϕ (r) ∇ϕ (r) 2mi m i
estados estacionarios
(3.33)
comparando, (3.32) con (3.33), vemos que para estados estacionarios, la corriente se puede calcular reemplazando ψ (r, t) por ϕ (r), es decir omitiendo la componente temporal de ψ. Efectivamente, (3.33) corresponde a una corriente estacionaria tal como se usa en mec´ anica cl´ asica, i.e. una corriente que depende de la posici´ on pero que no depende expl´ıcitamente del tiempo.
3.3.5.
Expresi´ on polar de la corriente de probabilidad
Consideremos una funci´ on de onda arbitraria ψ (r), utilizando su descomposici´ on compleja polar tenemos ψ (r) = α (r) eiξ(r) ;
α (r) ≥ 0 ,
0 ≤ ξ (r) < 2π
si sustitu´ımos esta expresi´ on polar en la Ec. (3.32) para la densidad de corriente de probabilidad encontramos que3 h i h io ~ n J (r) = α (r) e−iξ(r) ∇ α (r) eiξ(r) − α (r) eiξ(r) ∇ α (r) e−iξ(r) 2mi o ~ n = α (r) e−iξ(r) eiξ(r) [∇α (r) + iα (r) ∇ξ (r)] − α (r) eiξ(r) e−iξ(r) [∇α (r) − iα (r) ∇ξ (r)] 2mi ~ 2 J (r, t) = α (r, t) ∇ξ (r, t) (3.34) m 3
Por simplicidad hemos omitido la posible dependencia expl´ıcita del tiempo pero esto no altera los resultados.
´ DE LA ECUACION ´ DE SCHRODINGER ¨ 3.4. APLICACION A POTENCIALES DISCONT´INUOS
165
y la densidad de probabilidad est´ a dada por ρ (r, t) = |ψ (r, t)|2 = α2 (r, t)
(3.35)
vemos que ρ (r, t) solo depende del m´ odulo del complejo ψ (r, t), en tanto que J (r, t) depende del m´ odulo y del gradiente de la fase. Por ejemplo, si la fase es constante en el espacio, J (r, t) es cero, aunque la densidad no lo sea4 . Las Ecs. (3.34, 3.35) nos dan a J (r, t) y ρ (r, t) cuando conocemos ψ (r, t), vale preguntarse si inversamente podemos determinar un´ıvocamente a ψ (r, t) con base en el conocimiento de J (r, t) y ρ (r, t). La Ec. (3.35) nos da a ρ (r, t) en funci´ on del m´ odulo de ψ (r, t). Por otro lado, dividiendo las Ecs. (3.34, 3.35) resulta ∇ξ (r, t) = esta ecuaci´ on solo tiene soluci´ on si ∇×
m J (r, t) ~ ρ (r, t)
J (r, t) =0 ρ (r, t)
(3.36)
que tiene un conjunto infinito de soluciones que solo diferen en una constante (o en una funci´ on solo del tiempo), que corresponder´ıa a una fase global irrelevante en ψ (r, t). Por tanto, si conocemos a ρ (r, t) y J (r, t) entonces ψ (r, t) est´ a bien especificada siempre y cuando se satisfaga la condici´ on (3.36). Si dicha condici´ on no se satisface, no existe una funci´ on de onda asociada a ρ (r, t) y J (r, t) incluso si ´estas cumplen con la ecuaci´ on de continuidad.
3.4.
Aplicaci´ on de la ecuaci´ on de Schr¨ odinger a potenciales discont´ınuos
Hemos visto que los efectos cu´ anticos no son evidentes cuando se considera a h como muy peque˜ na. En particular, si la longitud de onda λ = h/p asociada a la part´ıcula es mucho menor que todas las dem´ as longitudes involucradas en el problema, la naturaleza ondulatoria de la materia quedar´ a apantallada y el comportamiento de la part´ıcula ser´a esencialmente cl´ asico. Esto es an´ alogo a lo que ocurre entre la ´ optica geom´etrica y la ´ optica ondulatoria. Cuando la longitud de la onda es mucho menor que las dem´ as longitudes involucradas en el problema, la ´ optica geom´etrica nos predice muy bien los fen´ omenos o´pticos, el comportamiento de los rayos es esencialmente corpuscular. Cuando esto no se cumple, los aspectos ondulatorios de la luz se vuelven importantes para una adecuada descripci´ on de los fen´ omenos. De la misma forma, cuando un potencial act´ ua sobre una part´ıcula, los efectos cu´ anticos debidos a esta interacci´ on solo ser´ an significativos si el potencial var´ıa significativamente sobre una distancia menor a la longitud de onda de DeBroglie asociada a la part´ıcula. Es por esta raz´ on que estudiaremos potenciales discont´ınuos en donde la variaci´ on ser´ a finita para una distancia b´ asicamente cero (es decir menor que cualquier longitud de onda). Es claro que esto constituye una idealizaci´ on ya que los potenciales f´ısicos deben ser cont´ınuos si bien pueden exhibir una enorme pendiente. Este l´ımite solo corresponder´ a aproximadamente a la realidad si la distancia δx en que ocurre esta fuerte variaci´ on, es mucho menor que la longitud de onda de De Broglie asociada a la part´ıcula y mucho menor que cualquier otra longitud t´ıpica del problema. Estos potenciales se podr´ an definir adecuadamente a trav´es de la funci´ on paso definida por 0 si x < x0 θ (x − x0 ) = 1 si x > x0
3.5.
Potenciales rectangulares, an´ alogo ´ optico
Definamos un potencial de la forma 4
Esto es una consecuencia m´ as del car´ acter intr´ınsecamente complejo de la funci´ on de onda, pues la fase tiene un claro contenido f´ısico.
166
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES V0 si −∞ < x < x0 V (x) = V1 si x0 < x < x1 V2 si x1 < x < ∞
;
V1 < V2 < V0
(3.37)
la fuerza F (x) = −dV (x) /dx ser´ıa del tipo
F (x) = F0 δ (x − x0 ) − F1 δ (x − x1 ) En primer lugar las predicciones de la mec´ anica cl´ asica son inmediatas, por ejemplo si V (x) es una energ´ıa potencial gravitacional, el perfil del potencial representa el perfil de la superficie sobre la cual se mueve la part´ıcula, los valores de x para los cuales E < V estar´ an prohibidos. En las regiones de potencial constante la velocidad de la part´ıcula es constante ya que es libre, solo en las discontinuidades experimenta una fuerza y si pasa a la otra regi´ on (si E > V ) su energ´ıa cin´etica se ver´ a aumentada (disminu´ıda) si pasa a una zona de menor (mayor) potencial. Como el potencial no depende del tiempo podemos encontrar soluciones estacionarias para la ecuaci´ on de Schr¨ odinger. En la regi´ on de potencial constante V , la ecuaci´ on de Schr¨ odinger independiente del tiempo nos da ~2 d2 + V ϕ (x) = Eϕ (x) − 2m dx2 2 d 2m + 2 (E − V ) ϕ (x) = 0 (3.38) dx2 ~ escrita en esta forma la ecuaci´ on tiene un interesante an´ alogo ´ optico. Consideremos un medio transparente de ´ındice de refracci´ on n independiente de la posici´ on y el tiempo. En tal medio puede haber ondas electromagn´eticas con campo el´ectrico independiente de y y z E (r, t) = uE (x) e−iΩt
(3.39)
siendo u un vector unitario perpendicular al eje x, teniendo en cuenta que E satisface la ecuaci´ on de onda y las ecuaciones de Maxwell, resulta 2 d n2 Ω2 + E (x) = 0 (3.40) dx2 c2 las Ecs. (3.38) y (3.40) son id´enticas si hacemos la asignaci´ on 2m n2 Ω2 (E − V ) = 2 2 ~ c
(3.41)
adicionalmente, en los lugares en donde V (y por tanto n) son discont´ınuos las condiciones de frontera para ϕ (x) y E (x) son las mismas: las soluciones y sus primeras derivadas deben permanecer cont´ınuas (lo veremos m´ as adelante para las ϕ (x)). Esta analog´ıa permite asociar al problema de una part´ıcula en un potencial del tipo (3.37) un problema ´ optico asociado a la propagaci´ on de una onda electromagn´etica de frecuencia angular Ω en un medio cuyo ´ındice de refracci´ on n tiene discontinuidades del mismo tipo. En la Ec. (3.41) podemos despejar para n (Ω) y obtener 1 p n (Ω) = 2mc2 (E − V ) (3.42) ~Ω n´ otese que para la onda electromagn´etica, la regi´ on con E > V corresponde a un medio transparente con ´ındice de refracci´ on real y la onda es de la forma eikx . Por otro lado, cuando E < V corresponde a un medio con un ´ındice de refracci´ on imaginario de modo que n2 < 0 y al reemplazar esto en (3.40) se obtiene una soluci´ on de la −ρx que es del tipo de onda evanescente. forma e Debe tenerse en cuenta que si bien obtendremos un comportamiento funcional an´ alogo al ´ optico, la interpretaci´ on probabil´ıstica es muy diferente a la interpretaci´ on cl´ asica para onda electromagn´etica.
´ ´ 3.5. POTENCIALES RECTANGULARES, ANALOGO OPTICO
3.5.1.
167
Estrategia de soluci´ on para potenciales acotados con discontinuidades de salto
Veamos ahora la estrategia espec´ıfica de soluci´ on para los estados estacionarios de la part´ıcula sometidas a potenciales discont´ınuos. En las regiones de energ´ıa potencial constante usamos la Ec. (3.38) 2 2m d + (E − V ) ϕ (x) = 0 (3.43) dx2 ~2 es u ´til distinguir tres casos (a) E > V , introduzcamos por conveniencia una constante positiva k definida por E−V ≡ al reemplazar en (3.43) queda
~2 k2 2m
d2 2 + k ϕ (x) = 0 dx2
(3.44)
(3.45)
que es la ecuaci´ on de un oscilador arm´ onico y la soluci´ on de la Ec. (3.45) se puede escribir como ϕ (x) = Aeikx + A′ e−ikx
(3.46)
donde A y A′ son complejos constantes. (b) E < V , esta condici´ on corresponde a regiones del espacio que est´ an cl´ asicamente prohibidas. En este caso introducimos la constante positiva ρ dada por V −E ≡ y la Ec. (3.43) queda
~2 ρ2 2m
d2 2 − ρ ϕ (x) = 0 dx2
(3.47)
(3.48)
con soluci´ on ϕ (x) = Beρx + B ′ e−ρx
(3.49)
siendo B y B ′ constantes complejas. (c) E = V , en este caso d2 ϕ (x) = 0 ⇒ ϕ (x) = Cx + C ′ dx2 Ahora veamos el comportamiento de las soluciones en la discontinuidad. La primera tentaci´ on es pensar que la funci´ on de onda debe ser discont´ınua en un punto donde el potencial lo sea, veremos sin embargo que tanto ϕ (x) como dϕ (x) /dx deben ser cont´ınuas y solo es la segunda derivada d2 ϕ (x) /dx2 la que es discont´ınua en el punto. Para ver esto, recordemos que un potencial con una discontinuidad de salto en x1 representa en f´ısica el l´ımite cuando ε → 0 de un potencial Vε (x) que es igual a V (x) fuera del intervalo [x1 − ε, x1 + ε], pero que var´ıa de forma cont´ınua en dicho intervalo. Consideremos la ecuaci´ on d2 2m ϕε (x) + 2 [E − Vε (x)] ϕε (x) = 0 2 dx ~
(3.50)
asumimos que Vε (x) est´ a acotado en el intervalo [x1 − ε, x1 + ε], y que esta cota no depende del par´ ametro ε. Esto se cumple en la mayor´ıa de los casos, ya que usualmente Vε estar´ a definido dentro de los valores [V0 , V1 ] que on ϕε (x) que para se tienen en la discontinuidad de salto a la izquierda y la derecha de x1 . Escogemos una soluci´ x < x1 − ε y para x > x1 + ε coincida con una soluci´ on dada de la Ec. (3.43). La idea es demostrar que cuando ε → 0 entonces ϕε (x) tiende a una funci´ on ϕ (x) cont´ınua y diferenciable a primer orden en x1 . Es posible probar
168
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
a trav´es de las propiedades de la ecuaci´ on diferencial (3.43) que ϕε (x) permanece acotada para cualquier valor de ε con una cota independiente de ε, en la vecindad de x = x1 . Esto f´ısicamente implica que la densidad de probabilidad permanece finita. Integrando la Ec. (3.50) en el intervalo [x1 − η, x1 + η] resulta Z Z x1 +η d d 2m x1 +η ϕε (x) dx + 2 [E − Vε (x)] ϕε (x) dx = 0 dx dx ~ x1 −η x1 −η dϕε (x1 + η) dϕε (x1 − η) 2m − = 2 dx dx ~
Z
x1 +η
x1 −η
[Vε (x) − E] ϕε (x) dx
(3.51)
y dado que Vε (x) y ϕε (x) permanecen acotados con cotas independientes de ε, la integral a la derecha de la Ec. (3.51) tiende a cero cuando η tiende a cero. Por lo tanto dϕε (x1 + η) dϕε (x1 − η) l´ım − =0 η→0 dx dx por tanto, en este l´ımite, dϕ/dx es cont´ınua en x = x1 y por tanto tambi´en ϕ (x) ya que derivabilidad implica continuidad. Por otro lado, d2 ϕ/dx2 es discont´ınua en x = x1 puesto que en la Ec. (3.43) vemos que 2 d ϕ (x1 + η) 2m l´ım + [E − V (x + η)] ϕ (x + η) = 0 1 1 dx2 ~2 η→0+ 2 d ϕ (x1 + η) 2m l´ım = l´ım 2 {[V (x1 + η) − E] ϕ (x1 + η)} 2 dx η→0+ η→0+ ~ 2 d ϕ (x1 + η) 2m l´ım = 2 {[V1 − E] ϕ (x1 )} 2 + dx ~ η→0 siendo V1 el valor del potencial a la derecha de x1 , similarmente 2 d ϕ (x1 + η) 2m l´ım = 2 {[V0 − E] ϕ (x1 )} 2 dx ~ η→0− siendo V0 el valor del potencial a la izquierda de x1 . Tenemos entonces que en x1 la segunda derivada presenta un salto dado por 2 2 d ϕ (x1 + η) d ϕ (x1 + η) 2m l´ım − l´ım = 2 (V1 − V0 ) ϕ (x1 ) 2 2 + − dx dx ~ η→0 η→0 esto es una discontinuidad de salto para la segunda derivada ya que V1 6= V0 . N´ otese sin embargo, que la segunda derivada permanece acotada. Es importante resaltar la importancia de que Vε (x) permanezca acotado. Por ejemplo, si V (x) = aδ (x) tenemos una funci´ on cuya integral permanece finita pero que no es acotada. En tal caso, ϕ (x) permanece cont´ınua pero no la primera derivada. Por tanto, para encontrar la soluci´ on de los estados estacionarios cuando el potencial es cont´ınuo a trozos con discontinuidades de salto finito, calculamos primero las soluciones para las regiones en donde el potencial es constante (con E > V ´ o E < V seg´ un el caso), y hacemos el “empalme” en los puntos donde hay discontinuidades exigiendo la continuidad de la soluci´ on y de su primera derivada.
3.5.2.
Expresi´ on para la corriente en regiones de potencial constante
Por simplicidad consideraremos un problema unidimensional de una part´ıcula colocada en un potencial constante V0 . Aunque este caso corresponde a part´ıcula libre, resulta interesante obtener la corriente en t´erminos de on. V0 ya que despu´es consideraremos la posibilidad de regiones con potencial constante pero diferente en cada regi´ Como la corriente (3.33) depende de la soluci´ on para la funci´ on de onda estacionaria debemos considerar varios casos seg´ un la secci´ on 3.5.1
´ ´ 3.5. POTENCIALES RECTANGULARES, ANALOGO OPTICO
169
(a) E > V0 , en tal caso la soluci´ on estacionaria viene dada por la Ec. (3.46) ϕ (x) = Aeikx + A′ e−ikx
(3.52)
donde hemos usado la definici´ on (3.44) ~2 k2 2m y sustituyendo (3.52) en la expresi´ on (3.33) para la corriente E − V0 ≡
Jx = Jx = Jx = Jx =
~ [ϕ∗ ∂x ϕ − ϕ∂x ϕ∗ ] 2mi i ~ h ∗ −ikx A e + A′∗ eikx ∂x Aeikx + A′ e−ikx − Aeikx + A′ e−ikx ∂x A∗ e−ikx + A′∗ eikx 2mi i ~ h ∗ −ikx A e + A′∗ eikx ikAeikx − ikA′ e−ikx − Aeikx + A′ e−ikx −ikA∗ e−ikx + ikA′∗ eikx 2mi ~k h ∗ −ikx A e + A′∗ eikx Aeikx − A∗ e−ikx + A′∗ eikx A′ e−ikx 2m i
+ Aeikx + A′ e−ikx A∗ e−ikx − Aeikx + A′ e−ikx A′∗ eikx i ~k h ∗ Jx = A A + A′∗ Ae2ikx − A∗ A′ e−2ikx − A′∗ A′ + AA∗ + A′ A∗ e−2ikx − AA′∗ e2ikx − A′ A′∗ 2m 2 i ~k h Jx = 2 |A|2 + A′∗ Ae2ikx − AA′∗ e2ikx − A∗ A′ e−2ikx + A′ A∗ e−2ikx − 2 A′ 2m ~k h 2 ′ 2 i Jx = |A| − A (3.53) m el signo relativo se puede entender teniendo en cuenta que la funci´ on de onda (3.52) representa dos ondas con p momentos opuestos p = ±~k con densidades de probabilidad |A|2 y |A′ |2 , adem´ as ~k m = m = vg nos dice que Jx es de la forma ρvg como era de esperarse. (b) Cuando E < V0 la soluci´ on est´ a dada por las Ecs. (3.47, 3.49) ϕ (x) = Beρx + B ′ e−ρx ~2 ρ2 V0 − E ≡ 2m sustituyendo (3.54) en (3.33) nos da Jx = Jx = Jx = Jx =
Jx = Jx = Jx =
~ [ϕ∗ ∂x ϕ − ϕ∂x ϕ∗ ] 2mi ~ ∗ ρx B e + B ′∗ e−ρx ∂x Beρx + B ′ e−ρx − Beρx + B ′ e−ρx ∂x B ∗ eρx + B ′∗ e−ρx 2mi ~ ∗ ρx B e + B ′∗ e−ρx ρBeρx − ρB ′ e−ρx − Beρx + B ′ e−ρx ρB ∗ eρx − ρB ′∗ e−ρx 2mi ~ρ ∗ ρx B e + B ′∗ e−ρx Beρx − B ∗ eρx + B ′∗ e−ρx B ′ e−ρx 2mi − Beρx + B ′ e−ρx B ∗ eρx + Beρx + B ′ e−ρx B ′∗ e−ρx ~ρ ∗ 2ρx B Be + B ′∗ B − B ∗ B ′ − B ′∗ B ′ e−2ρx − BB ∗ e2ρx − B ′ B ∗ + BB ′∗ + B ′ B ′∗ e−2ρx 2mi ~ρ ∗ 2ρx B Be − BB ∗ e2ρx + 2B ′∗ B − 2B ∗ B ′ − B ′∗ B ′ e−2ρx + B ′ B ′∗ e−2ρx 2mi ~ρ ′∗ 2B B − 2B ∗ B ′ 2mi
(3.54) (3.55)
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
170
~ρ ~ρ BB ′∗ − B ∗ B ′ = Im BB ′∗ (3.56) 2mi m vemos que es necesario que en la funci´ on de onda (3.54) ambos coeficientes sean no nulos para que la corriente de probabilidad sea diferente de cero. Jx =
3.6.
El potencial escal´ on
Figura 3.1: Perfil de un potencial escal´ on con discontinuidad en x = 0 y altura V0 . Definamos un potencial en la forma V (x) = V0 θ (x) =
0 si x < 0 (Regi´ on I) V0 si x > 0 (Regi´ on II)
cuyo perfil se ilustra en la Fig. 3.1. Asumiremos que la part´ıcula viene desde x = −∞ en t = −∞ de modo que inicialmente solo hay una onda viajera que se propaga hacia la derecha. Distinguiremos dos casos
3.6.1.
E > V0 , reflexi´ on parcial
Como la energ´ıa es mayor que el potencial en ambas regiones, la Ec. (3.45) y la definici´ on (3.44) son v´ alidas para las dos regiones I y II r 2 d 2mE 2 + k1 ϕ (x) = 0 ; k1 ≡ (regi´ on I) (3.57) dx2 ~2 r 2 d 2m (E − V0 ) 2 + k2 ϕ (x) = 0 ; k2 ≡ (regi´ on II) (3.58) dx2 ~2 as´ı mismo las soluciones en las dos regiones son de la forma (3.46) ϕI (x) = A1 eik1 x + A′1 e−ik1 x ; ϕII (x) = A2 eik2 x + A′2 e−ik2 x dϕI (x) dϕII (x) = ik1 A1 eik1 x − A′1 e−ik1 x ; = ik2 A2 eik2 x − A′2 e−ik2 x dx dx
(3.59) (3.60)
y puesto que la ecuaci´ on (3.43) es homog´enea, si ϕ es soluci´ on tambi´en lo ser´ a ϕ/A, siendo A una constante. Esto implica que solo podemos determinar los cocientes entre las amplitudes pero no todas las amplitudes. Ahora bien,
´ 3.6. EL POTENCIAL ESCALON
171
puesto que la amplitud de entrada es la de la onda incidente, es decir la de la onda que viaja hacia la derecha en la regi´ on I, tenemos que A1 es el par´ ametro de entrada y todos los dem´ as deben compararse con ´el. Por tanto determinaremos los cocientes A′1 A2 A′2 , , . A1 A1 A1 Veamos la informaci´ on que nos dan las condiciones de empalme, la continuidad de la funci´ on en x = 0 nos da l´ım ϕ (x) =
x→0−
l´ım ϕ (x) ⇒ ϕI (x = 0) = ϕII (x = 0)
x→0+
A1 + A′1 = A2 + A′2
(3.61)
y la continuidad de la primera derivada en x = 0 nos da dϕ (x) dϕ (x) dϕI (x = 0) dϕII (x = 0) = l´ım ⇒ = + dx dx dx dx x→0 ′ ′ A1 − A1 = k2 A2 − A2
l´ım
x→0−
k1
(3.62)
como solo tenemos dos ecuaciones (3.61) y (3.62) para los tres cocientes, debemos fijar una amplitud para poder determinar los cocientes. Para ello tengamos en cuenta que cuando la funci´ on de onda penetra la regi´ on II vuelve a ser una funci´ on de onda libre (potencial constante) y ya hemos visto que la funci´ on de onda libre es una onda viajera en una sola direcci´ on, de modo que no es de esperarse que surja una onda reflejada en el interior de la regi´ on II (solo en el l´ımite entre I y II donde s´ı hay interacci´ on). En consecuencia, no habr´ a onda reflejada en la regi´ on II, por lo cual seg´ un la Ec. (3.59) vemos que A′2 = 0
(3.63)
n´ otese que esto est´ a relacionado con el hecho de que hayamos tomado el caso de una part´ıcula incidente que proviene de x = −∞ (condiciones iniciales)5 . Las Ecs. (3.61, 3.62) se simplifican a A1 + A′1 = A2 ; k1 A1 − A′1 = k2 A2 (3.64) ′ ′ A1 + A1 A2 k1 (A1 − A1 ) A2 = ; = k2 A1 A1 A A1 1 ′ A′1 A2 k1 A1 A2 1+ = ; 1− = (3.65) A1 A1 k2 A1 A1 igualando las dos Ecs. (3.65) A′ 1+ 1 A1 A′1 A1
= =
k1 A′1 k1 k1 A′1 k2 − k1 k2 + k1 A′1 1− ⇒1− =− 1+ ⇒ =− k2 A1 k2 k2 A1 k2 k2 A1 k1 − k2 k1 + k2
y reemplazando en la primera de las Ecs. (3.65) 1+
k1 − k2 A2 2k1 A2 = ⇒ = k1 + k2 A1 k1 + k2 A1
tenemos entonces que las condiciones iniciales y de empalme nos llevan a A′2 = 0 ; 5
A′1 k1 − k2 A2 2k1 = >0 ; = >0 A1 k1 + k2 A1 k1 + k2
(3.66)
Si la part´ıcula proviniera de x = +∞ y viajara hacia la izquierda, esperar´ıamos onda incidente y reflejada en la regi´ on II y solo onda transmitida en la regi´ on I.
172
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
donde el hecho de que el primer cociente es positivo proviene de las expresiones para k1 y k2 Ecs. (3.57, 3.58). Ahora bien, para E > V0 , la funci´ on ϕI (x) en la Ec. (3.59) representa dos ondas con momentos opuestos, es decir propag´ andose en direcciones opuestas. La onda proporcional a A1 se propaga de izquierda a derecha de modo que representa una part´ıcula incidente (p = ~k1 ), la onda proporcional a A′1 tiene momento p = −~k1 por lo cual representa una part´ıcula reflejada. Puesto que A′2 = 0 tenemos que ϕII (x) en la Ec. (3.59) representa solo una onda que corresponde a una part´ıcula transmitida. Es natural entonces preguntarse por la probabilidad de que una part´ıcula que incide desde x = −∞ pase el escal´ on de potencial o rebote en ´el (que en t´erminos cu´ anticos es la probabilidad de detectar a la part´ıcula en las regiones II y I respectivamente). A tales cantidades las llamaremos coeficientes de transmisi´ on T y de reflexi´ on R respectivamente. Para calcular estas cantidades debemos calcular primero la corriente asociada a cada regi´ on de potencial constante. Para el caso E > V0 esta corriente viene dada por las Ecs. (3.52, 3.53), que aplicadas a las soluciones (3.59) y con la condici´ on A′2 = 0 Ec. (3.63) nos da 2 i ~k1 h (3.67) JI (x) = |A1 |2 − A′1 m ~k2 JII (x) = |A2 |2 (3.68) m JI es la superposici´ on entre la corriente incidente y la corriente reflejada, en tanto que JII es la corriente transmitida, por lo tanto JI (x) = Jinc + Jref l ; Jinc = JII (x) = Jtr =
~k2 |A2 |2 m
~k1 ~k1 ′ 2 |A1 |2 ; Jref l = − A1 m m
Ahora bien, la corriente incidente Jinc se divide en dos t´erminos cuando incide sobre la discontinuidad: la corriente reflejada y la transmitida Jinc = Jtr + Jref l El coeficiente de reflexi´ on del escal´ on es entonces el cociente entre la corriente reflejada sobre la corriente incidente Jref l A′1 2 = R= (3.69) Jinc A1 y el coeficiente de transmisi´ on es el cociente entre la corriente transmitida sobre la corriente incidente Jtr k2 A2 2 T = = Jinc k1 A1
(3.70)
podemos escribir R y T en t´erminos de k1 y k2 . Para hacerlo con R reemplazamos (3.66) en (3.69) ′ 2 A1 k1 − k2 2 (k1 − k2 )2 (k1 + k2 )2 − 4k1 k2 R = = = = A1 k1 + k2 (k1 + k2 )2 (k1 + k2 )2 4k1 k2 R = 1− (k1 + k2 )2 para el caso de T , reemplazamos (3.66) en (3.70) k2 A2 2 k2 2k1 2 k2 4k12 4k1 k2 T = = = = 2 k1 A1 k1 k1 + k2 k1 (k1 + k2 ) (k1 + k2 )2 los coeficientes R y T quedan finalmente
R =1−
4k1 k2 4k1 k2 2 , T = (k1 + k2 ) (k1 + k2 )2
(3.71)
´ 3.6. EL POTENCIAL ESCALON
173
ahora bien, en un experimento concreto es claro que la part´ıcula debe reflejarse o transmitirse, y esto se traduce en que necesariamente R+T =1 lo cual es consistente con las Ecs. (3.71). Es de enfatizar que contrario a las predicciones de la mec´ anica cl´ asica, tenemos una probabilidad diferente de cero de que la part´ıcula se devuelva. Ahora estamos preparados para la analog´ıa ´ optica: De las Ecs. (3.42) vemos que un escal´ on de potencial con on I) y V = V0 < E para x > x1 (regi´ on II), corresponde a una onda electromagn´etica V = 0 para x < x1 (regi´ que se propaga de izquierda a derecha desde una regi´ on I de ´ındice real n1 dado por n1 =
c √ 2mE ~Ω
hacia una regi´ on II (separada de la regi´ on I por el punto x = x1 ) de ´ındice de refracci´ on real n2 n2 =
c p 2m (E − V0 ) ~Ω
on I podr´ıa ser vidrio y la regi´ on II podria de modo que tenemos una interfase plana en x = x1 con n1 > n2 (la regi´ ser aire o el vac´ıo). Ambos medios son transparentes. En este caso la onda incidente (con direcci´ on de propagaci´ on normal a la interfase) se parte en una onda transmitida (o refractada) y una onda reflejada. Ahora bien, las Ecs. (3.66) muestran que los cocientes A′1 /A1 y A2 /A1 son reales positivos, i.e. A′1 y A2 tienen la misma fase que A1 6 . F´ısicamente, esto significa que no hay corrimiento de fase en la onda reflejada ni en la transmitida, con respecto a la onda incidente. Por tanto, la part´ıcula cu´ antica no es retardada por su reflexi´ on o transmisi´ on. Es interesante ver lo que ocurre en el l´ımite cuando E ≫ V0 . De las definiciones de k1 y k2 en las Ecs. (3.57, 3.58), junto con las Ecs. (3.71) es f´ acil ver que q q √ p 2m(E−V0 ) 2mE 4 2 2 E (E − V ) 8m ~ ~ 0 4k1 k2 T = = q 2 = √ 2 q p (k1 + k2 )2 2m(E−V0 ) 2mE 2mE + 2m (E − V ) 0 + ~2 ~2 h√ i hp i hp i 4 E(E−V0 ) 8m E (E − V0 ) 4 E (E − V0 ) T = h√ = i h i2 = √ √E √ 2 2 √ √ √ [( E+ E−V0 )] 2m E + E − V0 E + E − V0 E q q 4 1 − VE0 4 1 − VE0 4 T = √ √ =1 2 = 2 ≈ q [1 + 1]2 ( E+√ E−V0 ) V0 1+ 1− E E por tanto si E ≫ V0 entonces R ∼ =0yT ∼ = 1, de modo que para energ´ıas suficientemente grandes comparadas con la altura del potencial, la part´ıcula saltar´ a el escal´ on pr´ acticamente con toda certeza. La diferencia en la interpretaci´ on en ´ optica y en cu´ antica se puede apreciar con el proceso de medici´ on. Si justo despu´es de que la onda incidente se parte en dos, colocamos dos detectores en la regiones I y II, en un experimento ´ optico los dos aparatos detectar´ an una onda cada una con intensidad menor a la incidente (siendo la suma de las dos intensidades la intensidad incidente). En un experimento cu´ antico solo uno de los detectores detectar´ a una part´ıcula, pero si repetimos el experimento muchas veces, la part´ıcula ser´ a detectada en uno u otro detector en cada experimento, en una proporci´ on dada por el patr´ on de probabilidad. Para el cociente de dos amplitudes complejas podemos escribir tales cocientes en forma polar i.e A1 /A2 = |A1 | eiδ1 / |A2 | eiδ2 . De modo que si el cociente es positivo entonces δ1 = δ2 , si el cociente es negativo hay una diferencia de fase π y si el cociente es complejo hay una diferencia de fase arbitraria diferente a cero y π. 6
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
174
3.6.2.
E < V0 ; reflexi´ on total
Asumiendo E ≥ 0 se tiene que en la regi´ on I son v´ alidas la Ec. (3.45) y la definici´ on (3.44), en tanto que en la regi´ on II son v´ alidas la Ec. (3.48) y la definici´ on (3.47) r 2 d 2mE 2 + k1 ϕ (x) = 0 ; k1 ≡ (regi´ on I) (3.72) dx2 ~2 r 2 d 2m (V0 − E) 2 − ρ2 ϕ (x) = 0 ; ρ2 ≡ (regi´ on II) (3.73) dx2 ~2 De modo que la soluci´ on en la regi´ on I es del tipo arm´ onico Ec. (3.46) y en la regi´ on II es del tipo exponencial Ec. (3.49) ϕI dϕI dx
= A1 eik1 x + A′1 e−ik1 x ; ϕII (x) = B2 eρ2 x + B2′ e−ρ2 x dϕII = ik1 A1 eik1 x − A′1 e−ik1 x ; = ρ2 B2 eρ2 x − B2′ e−ρ2 x dx
(3.74) (3.75)
para que la soluci´ on se mantenga acotada cuando x → +∞ es necesario que7 B2 = 0
(3.76)
y las condiciones de empalme nos dan dϕ (x) dϕ (x) = l´ım ⇒ + dx dx x→0 dϕI dϕII ϕI (x = 0) = ϕII (x = 0) ; (x = 0) = (x = 0) dx dx l´ım ϕ (x) =
x→0−
l´ım ϕ (x)
x→0+
;
l´ım
x→0−
(3.77)
y reemplazando (3.74, 3.75, 3.76) en (3.77) resulta A1 + A′1 = B2′ ; ik1 A1 − A′1 = −ρ2 B2′
(3.78)
Debido a la nulidad de B2 , podremos encontrar todos los cocientes de la forma A′1 /A1 y B2′ /A1 sin ninguna suposici´ on adicional. Dividiendo las Ecs. (3.78) por A1 queda A′ B2′ A′ B′ 1+ 1 = ; ik1 1 − 1 = −ρ2 2 A1 A1 A1 A1 ′ ′ ′ A B2 ik1 A B′ 1+ 1 = ; − 1− 1 = 2 (3.79) A1 A1 ρ2 A1 A1 igualando estas ecuaciones A′ 1+ 1 A1 ik1 A′1 1− ρ2 A1 A′ (iρ2 + k1 ) 1 A1
A′1 A′ ik1 ik1 A′1 ik1 = − 1− ⇒ 1− =− −1 ρ2 A1 A1 ρ2 A1 ρ2 ik1 A′ = − + 1 ⇒ (ρ2 − ik1 ) 1 = −ik1 − ρ2 ρ2 A1 ′ A1 k1 − iρ2 = k1 − iρ2 ; = A1 k1 + iρ2
y reemplazando este cociente en la primera de las Ecs. (3.79) 1+ 7
k1 − iρ2 B′ B′ 2k1 = 2 ⇒ 2 = k1 + iρ2 A1 A1 k1 + iρ2
En x → −∞ la soluci´ on es oscilante ya que estamos en la regi´ on I. Por lo tanto, no hay problemas de divergencia.
´ 3.6. EL POTENCIAL ESCALON
175
tenemos que los cocientes est´ an dados por k1 − iρ2 B2′ 2k1 A′1 = ; = A1 k1 + iρ2 A1 k1 + iρ2
(3.80)
Las expresiones finales para ϕI (x) y ϕII (x) est´ an dadas por las Ecs. (3.74, 3.75, 3.76) ϕI dϕI dx
= A1 eik1 x + A′1 e−ik1 x ; ϕII (x) = B2′ e−ρ2 x dϕII (x) = ik1 A1 eik1 x − A′1 e−ik1 x ; = −ρ2 B2′ e−ρ2 x dx
(3.81) (3.82)
reemplazando la primera de las Ecs. (3.81) en (3.53) JI =
2 i ~k h |A1 |2 − A′1 m
Por otro lado, usando la segunda de las Ecs. (3.81) en la Ec. (3.56) y teniendo en cuenta que en la Ec. (3.56) los dos coeficientes deben ser no nulos para que exista corriente, se tiene que JII = 0 de modo que el flujo transmitido es cero. En el an´ alogo ´ optico, cuando E < V0 el ´ındice n2 correspondiente a la regi´ on II (x > x1 ) se vuelve puramente imaginario y la onda se refleja completamente. Sin embargo, la onda evanescente para la regi´ on II muestra que una fracci´ on de la intensidad de la onda cruza la frontera (onda sobreamortiguada i.e. sin oscilaci´ on). Similarmente en el caso cu´ antico la part´ıcula es siempre reflejada (reflexi´ on total) pero hay una probabilidad diferente de cero de que la part´ıcula pase a la regi´ on II8 , esto difiere sin embargo del comportamiento cl´ asico de una part´ıcula para la cual esta regi´ on estar´ıa estrictamente prohibida. No obstante, en el caso cu´ antico, esta probabilidad disminuye con x exponencialmente de modo que se vuelve despreciable cuando x es mayor a la “longitud de penetraci´ on” 1/ρ2 de la onda evanescente. Adicionalmente, las Ecs. (3.80) nos dicen que el coeficiente A′1 /A1 es complejo de modo que hay cierto corrimiento de fase en la reflexi´ on que f´ısicamente se debe a que la part´ıcula es retardada cuando penetra la regi´ on II. Este fen´ omeno es parcialmente an´ alogo al efecto piel de penetraci´ on de una onda en un metal, aunque en el efecto piel hay una parte oscilante y una de amortiguamiento (subamortiguamiento), en tanto que en el caso presente solo hay t´ermino amortiguado (sobreamortiguamiento)9 . Surge una aparente paradoja teniendo en cuenta que en la regi´ on II, la corriente de probabilidad es cero en tanto que la probabilidad de que la part´ıcula est´e en esta regi´ on es no nula. Un an´ alisis mas detallado del paquete de onda incidente muestra que parte del paquete de onda incidente entra en la regi´ on II cl´ asicamente prohibida para la part´ıcula y se refleja despu´es de haber penetrado, esta onda reflejada desde la regi´on II interfiere destructivamente con la onda incidente que est´ a penetrando de modo que se anula la corriente en la regi´ on II. Vale decir que esta interferencia perfectamente destructiva solo aparece en el caso unidimensional. Un an´ alisis del caso bidimensional muestra que efectivamente aparece una corriente no nula en la regi´ on II cuando la incidencia es obl´ıcua. Es interesante analizar el caso en el cual V0 → ∞, de la definici´ on para ρ2 en (3.73) vemos que ρ2 → ∞ de ′ modo que la segunda de las Ecs. (3.80) nos da B2 → 0, y usando esto en la primera de las Ecs. (3.80) se obtiene A′1 /A1 → −1 es decir A′1 → −A1 ; B2′ → 0 (3.83) 8
Hablamos de reflexi´ on total en el sentido de que solo las funciones de onda incidente y reflejada oscilan. La onda transmitida est´ a en cambio sobreamortiguada. 9 Esta diferencia se debe a que en el efecto piel el n´ umero de onda es un complejo cuya parte real da cuenta de la oscilaci´ on y cuya parte imaginaria da cuenta del amortiguamiento. En nuestro caso en cambio, el n´ umero de onda es imaginario puro.
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
176
y la segunda de las Ecs. (3.81) muestra que en la regi´ on II la funci´ on de onda tiende a cero, as´ı como el rango de 10 penetraci´ on 1/ρ2 de ´esta . Aplicando los l´ımites (3.83) a las Ecs. (3.81) l´ım ϕ (x) = ϕI (0) = A1 + A′1 → 0 ,
x→0−
l´ım ϕ (x) = ϕII (0) = B2′ → 0
x→0+
(3.84)
la funci´ on de onda ϕ (x) se va para cero en x = x1 de manera que se mantiene cont´ınua en el punto de discontinuidad del potencial. Veamos ahora los l´ımites laterales en la derivadas, Ecs. (3.82) dϕ (x) − dx x→0 dϕ (x) l´ım dx x→0+ l´ım
dϕI (0) = ik1 A1 − A′1 → 2ik1 A1 dx dϕII (x) = l´ım = − l´ım ρ2 B2′ e−ρ2 x + dx x→0 x→0+ =
usando la segunda de las Ecs. (3.79) se obtiene −ρ2 x dϕ (x) ik1 ′ l´ım = − l´ım ρ2 − A1 − A1 e = 2ik1 A1 l´ım e−ρ2 x dx ρ2 x→0+ x→0+ x→0+
(3.85)
el valor de este l´ımite depender´ a del crecimiento comparativo entre ρ2 y x. Por ejemplo si suponemos que el potencial V0 crece como x−3 tenemos que ρ2 →
r
2m V0 → ~2
r
2m −3/2 x ≡ kx−3/2 ~2
con lo cual la Ec. (3.85) queda l´ım
x→0+
dϕ (x) −1/2 = 2ik1 A1 l´ım e−ρ2 x = 2ik1 A1 l´ım e−kx =0 + + dx x→0 x→0
Vemos entonces que la derivada puede cambiar abruptamente del valor 2ikA1 a cero, en cuyo caso no ser´ıa cont´ınua. Esto se debe a que el potencial no es acotado (requisito para la validez del desarrollo en la secci´ on 3.5.1) de modo que la integral en la Ec. (3.51) no necesariamente tiende a cero cuando η → 0.
3.7.
Barrera de potencial
La barrera de potencial se describe a trav´es de la siguiente expresi´ on 0 V (x) = V >0 0 0
si si si
x < 0 (regi´ on I) 0 < x < L (regi´ on II) L < x (regi´ on III)
Para E > V0 veremos que la transmisi´ on es total para ciertos valores del ancho de la barrera, fen´ omeno conocido como resonancia en la transmisi´ on. Tambi´en hay ciertos anchos espec´ıficos de la barrera para los cuales la reflexi´ on es maxima, aunque la transmisi´ on nunca se anula completamente. Para E < V0 , una part´ıcula cl´ asica debe rebotar. Si el ancho de la barrera no es mucho mayor que la longitud de penetraci´ on 1/ρ de la onda evanescente, veremos que parte de la onda incidente se transmite a la regi´ on III. En consecuencia, incluso para E < V0 la probabilidad de que la part´ıcula cruce la barrera es diferente de cero. Este hecho se conoce como efecto t´ unel. 10
En otras palabras, el escal´ on se vuelve un obst´ aculo totalmente r´ıgido, como era de esperarse.
3.7. BARRERA DE POTENCIAL
177
Figura 3.2: Perfil de una barrera de potencial de altura V0 , con discontinuidades en x = 0 y x = L.
3.7.1.
E > V0 , resonancias
En el an´ alogo ´optico tenemos una capa transparente de ancho L (en 0 < x < L) con ´ındice de refracci´ on real n2 rodeado de un medio transparente (en x < 0 y x > L) de ´ındice de refracci´ on real n1 > n2 . Como la energ´ıa es mayor que el potencial, la Ec. (3.45) y la definici´ on (3.44) son v´ alidas para las tres regiones r 2 2mE d + k12 ϕ (x) = 0 ; k1 ≡ (regi´ on I) (3.86) 2 dx ~2 r 2 d 2m (E − V0 ) 2 + k2 ϕ (x) = 0 ; k2 ≡ (regi´ on II) (3.87) 2 dx ~2 r 2 d 2mE 2 + k3 ϕ (x) = 0 ; k3 = k1 ≡ (regi´ on III) (3.88) 2 dx ~2 as´ı mismo las soluciones en las tres regiones son de la forma (3.46) ϕI (x) = A1 eik1 x + A′1 e−ik1 x ; ϕII (x) = A2 eik2 x + A′2 e−ik2 x ; ϕIII (x) = A3 eik1 x + A′3 e−ik1 x (3.89) dϕI (x) dϕII (x) = ik1 A1 eik1 x − A′1 e−ik1 x ; = ik2 A2 eik2 x − A′2 e−ik2 x dx dx dϕIII (x) = ik1 A3 eik1 x − A′3 e−ik1 x (3.90) dx donde hemos usado la segunda de las Ecs. (3.88). Como antes se tiene que A′3 = 0
(3.91)
ya que asumimos una onda incidente desde x → −∞ y no es de esperarse una onda reflejada desde el interior de la regi´ on III. Usando (3.91), las condiciones de empalme aplicadas a las Ecs. (3.89) en x = 0 y en x = L quedan l´ım ϕ (x) =
x→0+
l´ım ϕ (x) =
x→L+
dϕ (x) dx dϕ (x) l´ım dx x→L+ l´ım
x→0+
l´ım ϕ (x) ⇒ ϕI (0) = ϕII (0)
x→0−
l´ım ϕ (x) ⇒ ϕII (L) = ϕIII (L)
x→L−
⇒ A1 + A′1 = A2 + A′2 ⇒ A2 eik2 L + A′2 e−ik2 L = A3 eik1 L
dϕ (x) dϕI (0) dϕII (0) ⇒ = ⇒ k1 A1 − A′1 = k2 A2 − A′2 dx dx dx dϕ (x) dϕII (L) dϕIII (L) = l´ım ⇒ = ⇒ k2 A2 eik2 L − A′2 e−ik2 L = k1 A3 eik1 L dx dx dx x→L− =
l´ım
x→0−
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
178
una vez m´ as podemos determinar los cocientes A′1 /A1 , A2 /A1 , A′2 /A1 , A3 /A1 . Es decir, normalizados con respecto a la amplitud de la onda incidente. Con respecto a estos cocientes las ecuaciones quedan A′1 = A1 A′ 1− 1 = A1 1+
A2 A′2 A2 ik2 L A′2 −ik2 L + ; e + e = A1 A1 A1 A1 k2 A2 A′2 k2 A2 ik2 L − ; e − k1 A1 A1 k1 A1
A3 ik1 L e A1 A′2 −ik2 L A3 ik1 L e = e A1 A1
despejando A′1 /A1 en la primera de las Ecs. (3.92) y en la primera de las Ecs. (3.93) e igualando resulta k2 A2 A′2 A2 k2 A′2 k2 A2 A′2 + −1 = 1− − ⇒ 1+ + 1− =2 A1 A1 k1 A1 A1 A1 k1 A1 k1 A2 A′ A′2 2k1 A2 (k1 + k2 ) (k1 + k2 ) + 2 (k1 − k2 ) = 2k1 ⇒ = − A1 A1 A1 (k1 − k2 ) A1 (k1 − k2 ) igualando la segunda de las Ecs. (3.92) con la segunda de las Ecs. (3.93), resulta A2 ik2 L A′2 −ik2 L k2 A2 ik2 L A′2 −ik2 L A′2 −ik2 L k2 A2 ik2 L k2 e + e = e − e ⇒ e 1+ = e −1 A1 A1 k1 A1 A1 A1 k1 A1 k1 reemplazando (3.94) en (3.95) queda A2 (k1 + k2 ) −ik2 L k1 + k2 A2 ik2 L k2 − k1 2k1 − e = e (k1 − k2 ) A1 (k1 − k2 ) k1 A1 k1 A2 A2 2k1 (k1 + k2 ) − (k1 + k2 )2 e−ik2 L = − eik2 L (k1 − k2 )2 A1 A1 i A2 h (k1 + k2 )2 e−ik2 L − (k1 − k2 )2 eik2 L = 2k1 (k1 + k2 ) e−ik2 L A1
(3.92) (3.93)
(3.94)
(3.95)
(3.96)
reescribamos el t´ermino en par´entesis cuadrados en la Ec. (3.96) (k1 + k2 )2 e−ik2 L − (k1 − k2 )2 eik2 L = k12 + 2k1 k2 + k22 e−ik2 L − k12 − 2k1 k2 + k22 eik2 L = −k12 eik2 L − e−ik2 L + 2k1 k2 eik2 L + e−ik2 L − k22 eik2 L − e−ik2 L (k1 + k2 )2 e−ik2 L − (k1 − k2 )2 eik2 L
con lo cual la Ec. (3.96) queda
= −2ik12 sin k2 L + 4k1 k2 cos k2 L − 2ik22 sin k2 L = −2i k12 + k22 sin k2 L + 4k1 k2 cos k2 L
A2 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L = k1 (k1 + k2 ) e−ik2 L A1 A2 k1 (k1 + k2 ) e−ik2 L = A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
reemplazando (3.97) en la Ec. (3.94) resulta A′2 A1
= =
A′2 A1
= ≡
2k1 A2 (k1 + k2 ) 2k1 k1 (k1 + k2 ) e−ik2 L (k + k2 ) 1 − = − 2 2 (k1 − k2 ) A1 (k1 − k2 ) (k1 − k2 ) −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L (k1 − k2 ) 2 2 2k1 −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L − k1 (k1 + k2 )2 e−ik2 L −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L (k1 − k2 ) −2i k12 + k22 sin k2 L + 4k1 k2 cos k2 L − k12 + k22 + 2k1 k2 e−ik2 L k1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L (k1 − k2 ) Z k1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L (k1 − k2 )
(3.97)
3.7. BARRERA DE POTENCIAL
179
la cantidad Z se eval´ ua como Z ≡ −2i k12 + k22 sin k2 L + 4k1 k2 cos k2 L − k12 + k22 + 2k1 k2 e−ik2 L h i h i h i = −k12 2i sin k2 L + e−ik2 L − k22 2i sin k2 L + e−ik2 L + 2k1 k2 2 cos k2 L − e−ik2 L i h i h = − k12 + k22 2i sin k2 L + e−ik2 L + 2k1 k2 eik2 L + e−ik2 L − e−ik2 L i h ik2 L = − k12 + k22 e − e−ik2 L + e−ik2 L + 2k1 k2 eik2 L = − k12 + k22 eik2 L + 2k1 k2 eik2 L = − k12 + k22 − 2k1 k2 eik2 L Z = − (k1 − k2 )2 eik2 L
con lo cual el cociente A′2 /A1 queda finalmente A′2 k1 (k1 − k2 ) eik2 L = − A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
(3.98)
despejando A′1 /A1 en la primera de las Ecs. (3.92) y reemplazando las Ecs. (3.97, 3.98) en la ecuaci´ on resultante se obtiene A′1 A1
= = =
A2 A′2 k1 (k1 + k2 ) e−ik2 L k1 (k1 − k2 ) eik2 L −1 + −1= − A1 A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L −k12 eik2 L − e−ik2 L + k1 k2 eik2 L + e−ik2 L −2ik12 sin k2 L + 2k1 k2 cos k2 L −1 − 1 = −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L −2ik12 sin k2 L + 2k1 k2 cos k2 L − −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L A′1 A1
=
A′1 A1
=
−2ik12 sin k2 L + 2k1 k2 cos k2 L + i k12 + k22 sin k2 L − 2k1 k2 cos k2 L −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L i k22 − k12 sin k2 L M ≡ 2 2 N −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L
(3.99)
reemplazando las Ecs. (3.97, 3.98) en la segunda de las Ecs. (3.92) resulta A3 ik1 L e = A1 A3 ik1 L e = A1 A3 ik1 L e = A1
A2 ik2 L A′2 −ik2 L e + e A1 A1 k1 (k1 + k2 ) e−ik2 L k1 (k1 − k2 ) eik2 L ik2 L e−ik2 L e − −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L k1 (k1 + k2 ) − k1 (k1 − k2 ) 2k1 k2 = 2 2 2 2 −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L A3 2k1 k2 e−ik1 L P ≡ = 2 2 A1 N −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L
ahora calculamos los coeficientes de reflexi´ on y transmisi´ on por medio de las Ecs. (3.99) 2 Jref l A′1 2 M M ∗ k22 − k12 sin2 k2 L |M |2 R = = = = = Jinc A1 N N∗ |N |2 |N |2 2 2 2 Jtrans A3 2 = = |P | = 4k1 k2 T = 2 Jinc A1 |N | |N |2
(3.100)
(3.101) (3.102)
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
180
calculamos ahora la magnitud al cuadrado del denominador N |N |2 = N N ∗ = 2k1 k2 cos k2 L − i k12 + k22 sin k2 L 2k1 k2 cos k2 L + i k12 + k22 sin k2 L 2 = 4k12 k22 cos2 k2 L + k12 + k22 sin2 k2 L = 4k12 k22 1 − sin2 k2 L + k14 + k24 + 2k12 k22 sin2 k2 L = 4k12 k22 + k14 + k24 − 2k12 k22 sin2 k2 L 2 |N |2 = 4k12 k22 + k22 − k12 sin2 k2 L (3.103) reemplazando (3.103) en las Ecs.(3.101, 3.102), los coeficientes de reflexi´ on y transmisi´ on quedan ′ 2 2 − k 2 2 sin2 k L A1 k 2 2 1 R = = 2 2 2 2 2 2 A1 4k1 k2 + k2 − k1 sin k2 L 2 A3 4k12 k22 T = = 2 A1 4k12 k22 + k22 − k12 sin2 k2 L
(3.104) (3.105)
se v´e inmediatamente que R + T = 1. Es m´ as u ´til escribir a R y T en t´erminos de cantidades F´ısicas m´ as directas como E y V0 . Para ello reemplazamos las expresiones (3.86, 3.87) en la Ec. (3.105) h 2m(E−V0 ) i 2mE 2 2 4 2 ~ ~2 4k1 k2 √ T = = h i h i 2 2m(E−V0 ) 2m(E−V0 ) 2m(E−V0 ) 2 4k12 k22 + k22 − k12 sin2 k2 L 2mE 2mE 2 4 ~2 sin L + ~2 − ~ ~2 ~2 =
4E (E − V0 ) 2
2
4E (E − V0 ) + [E − (E − V0 )] sin T
=
√
4E (E − V0 ) √ 2m(E−V0 ) 2 2 4E (E − V0 ) + V0 sin L ~
2m(E−V0 ) L ~
(3.106)
si hacemos una gr´ afica de T contra L con valores fijos de E, V0 y m (ver Fig 3.3), y tenemos en cuenta que sin2 x es peri´ odica en x con periodo π, entonces T es peri´ odica en L con periodo ∆L =
π π~ =p k2 2m (E − V0 )
(3.107)
El m´ınimo de T se obtiene cuando el seno al cuadrado adquiere el valor 1 y el m´ aximo se obtiene cuando el seno al cuadrado adquiere el valor cero. Es claro entonces que Tm´ın =
4E (E − V0 ) > 0 ; Tm´ax = 1 4E (E − V0 ) + V02
(3.108)
vemos que se obtienen valores de L para los cuales la transmisi´ on es total (T = 1), lo cual ocurre cuando Ln = n∆L = nπ/k2 o equivalentemente Ln =
nπ nπ~ =p k2 2m (E − V0 )
(3.109)
decimos entonces que se obtienen resonancias en la transmisi´ on para estos valores de Ln , los cuales corresponden a m´ ultiplos enteros de la semilongitud de onda de la part´ıcula en la regi´ on II11 . Estos hechos se ilustran en la Fig. 11
El hecho de que sean m´ ultiplos enteros de semilongitudes de onda (y no de las longitudes de onda) proviene del hecho de que la Ec. (3.106), depende de sin2 x cuyo periodo π es la mitad del periodo de la funci´ on sin x.
3.7. BARRERA DE POTENCIAL
181
Figura 3.3: Gr´ afica de T vs L, con E, V0 y m fijos, para una barrera de potencial como la indicada en la Fig. 3.2 con la condici´ on E > V0 .
3.3. Este es el an´ alogo cu´ antico de la transmisi´ on en un interfer´ ometro de Fabry-Perot en ´ optica, en el cual tambi´en se observan estas resonancias en la transmisi´ on. Cuando E > V0 , se tiene que la reflexi´ on de la part´ıcula en cada discontinuidad del potencial (i.e. en x = 0, L) ocurre sin corrimiento de fase de la funci´ on de onda cuando L = Ln . Por esta raz´ on, la condici´ on de resonancia k2 L = nπ coincide con los valores de L para los cuales pueden existir ondas estacionarias en la regi´ on II. Por otro lado, cuando L 6= Ln surge un corrimiento de fase en las reflexiones que genera interferencia destructiva, la cual se maximiza lejos de la resonancia, es decir cuando L = (n + 1/2) π, como se aprecia en la Fig. 3.3 esto genera el valor m´ınimo de T . N´ otese que en L = (n + 1/2) π tendr´ıamos una resonancia en la reflexi´ on, pero la reflexi´ on no es total ya que la transmisi´ on nunca es nula12 . Un estudio del comportamiento del paquete de onda en una barrera de potencial con E > V0 muestra que cuando se cumple la condici´ on de resonancia, el paquete de onda pasa un tiempo relativamente grande en la regi´ on II. En mec´ anica cu´ antica esto se denomina resonancia en el scattering, ya que en un problema de dispersi´ on por este tipo de potencial el paquete de onda estar´ıa pasando un tiempo relativamente largo en la regi´ on de colisi´ on (que ser´ıa la regi´ on II).
3.7.2.
Caso E < V0 : Efecto t´ unel
En el an´ alogo ´optico, tenemos una capa de ancho L con ´ındice de refracci´ on imaginario (regi´ on II) rodeado de un medio transparente (regiones I y III). En este caso las regiones I y III poseen ondas oscilantes en tanto que la
12 Naturalmente, la condici´ on de resonancia en la transmisi´ on Ec. (3.109) puede interpretarse para L fijo como los valores k2n de n´ umero de onda que producen dicha resonancia. Si asumimos por ejemplo que L, V0 y m son fijos, lo que estamos obteniendo son las energ´ıas de resonancia En , que implicar´ an unas frecuencias de resonancia En = hνn .
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
182
regi´ on II corresponde a ondas evanescentes 2 d 2 + k1 ϕ (x) dx2 2 d 2 − ρ2 ϕ (x) dx2 2 d 2 + k3 ϕ (x) dx2
lo cual se escribe como r 2mE = 0 ; k1 ≡ (regi´ on I) ~2 r 2m (V0 − E) = 0 ; ρ2 ≡ (regi´ on II) ~2 r 2mE = 0 ; k3 = k1 ≡ (regi´ on III) ~2
(3.110) (3.111) (3.112)
comparando las Ecs. (3.110, 3.111, 3.112) con las Ecs. (3.86, 3.87, 3.88), vemos que podemos utilizar las soluciones anteriores reemplazando k2 por −iρ2 con lo cual se obtiene 2 A3 4E (V0 − E) √ ; R=1−T T = = (3.113) A1 2m(V0 −E) 2 2 4E (V0 − E) + V0 sinh L ~
para una part´ıcula cl´ asica que en t → −∞ est´ a en x → −∞, es decir en la regi´ on I, las regiones II y III est´ an prohibidas. Contrario a las predicciones para una part´ıcula cl´ asica, vemos que en el caso cu´ antico las probabilidades en las regiones II y III son distintas de cero. En particular esto implica una probabilidad diferente de cero de que la part´ıcula cruce la barrera de potencial, fen´ omeno conocido como efecto t´ unel. En la regi´ on II el comportamiento es de onda evanescente de rango 1/ρ2 . Cuando L . 1/ρ2 la part´ıcula tiene una probabilidad considerable de cruzar la barrera por efecto t´ unel. Este efecto tiene muchas aplicaciones en F´ısica tales como el efecto Josephson, la inversi´ on de la mol´ecula de amonio, el diodo t´ unel etc. Es natural entonces comparar la longitud o rango de penetraci´ on 1/ρ2 de la onda evanescente, con el ancho L de la barrera. Si el ancho de la barrera es mucho mayor que el rango de la onda evanescente tenemos que on queda L ≫ 1/ρ2 de modo que ρ2 L ≫ 1, usando la Ec. (3.111) esta condici´ r ex 2m (V0 − E) ρ2 L = L ≫ 1 ; sinh x ≃ ; x≫1 ~2 2 con estas aproximaciones, la Ec. (3.113) queda 2 A3 4E (V0 − E) 4E (V0 − E) 16E (V0 − E) −2ρ2 L T = ≃ = e ρ L 2 ≃ 2ρ2 L e 2 A1 V02 V0 4 4E (V0 − E) + V02 e 22 E E T ≃ 16 1− e−2ρ2 L ≪ 1 V0 V0
(3.114)
en tal caso la atenuaci´ on es muy fuerte y la probabilidad de transmisi´ on muy baja. Para tener una idea de los ´ ordenes de magnitud del efecto, pensemos en un electr´ on con energ´ıa E = o
1eV (electr´ on-voltio) que cruzar´ a una barrera de potencial V0 = 2eV, de ancho L = 1A. Usando V0 = 2E = 2eV as´ı como los valores de la masa del electr´ on y de la constante de Planck en la Ec. (3.111), vemos que el rango o
1/ρ2 ≃ 1,96A, es decir del orden de magnitud de la ancho de la barrera, por lo cual se espera una probabilidad considerable de que el electr´ on cruce la barrera, evaluando esta probabilidad con la Ec. (3.113) se obtiene T ≃ 0,78 un resultado muy diferente al cl´ asico ya que en este caso es de hecho m´ as probable la transmisi´ on que la reflexi´ on. Si reemplazamos al electr´ on por un prot´ on solo hay que cambiar la masa asociada (unas 1840 veces la del o
electr´ on), permaneciendo iguales los dem´ as datos. En tal caso el rango es 1/ρ2 ≃ 4,6 × 10−2 A de modo que la barrera es mucho m´ as ancha que el rango de la onda evanescente. Usando la Ec. (3.113) o la Ec. (3.114) tenemos on se debe a la gran sensibilidad de la exponencial que T ≃ 4×10−19 . Esta tremenda diferencia con respecto al electr´ decreciente en la Ec. (3.114) con la masa, o del seno hiperb´ olico en (3.113) con la masa. Esto tambi´en explica porqu´e el efecto t´ unel no es observable en sistemas macrosc´ opicos.
3.8. POZO DE POTENCIAL
3.8.
Pozo de potencial
El pozo de potencial se describe con el perfil 0 V (x) = −V0 < 0 0
3.8.1.
183
si si si
x < x1 (regi´ on I) x1 < x < x2 (regi´ on II) x2 < x (regi´ on III)
Part´ıcula con energ´ıa −V0 < E < 0
Figura 3.4: Perfil de un pozo de potencial de profundidad V0 , con discontinuidades en x = −a/2 y x = a/2. Para esta situaci´ on, definiremos el pozo de potencial en la forma (ver Fig. 3.4) si x < − a2 (regi´ on I) 0 a a V (x) = −V0 < 0 si − 2 < x < 2 (regi´ on II) 0 si a2 < x (regi´ on III)
donde hemos elegido colocar el origen de tal modo que V (x) = V (−x). Una part´ıcula cl´ asica en un pozo de potencial como ´este, y con energ´ıa E negativa (pero mayor que −V0 ) solo puede oscilar entre −a/2 y a/2 con energ´ıa cin´etica Ek = E + V0 . En el an´ alogo ´ optico, para la situaci´ on
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
184
−V0 < E < 0 los ´ındices de refracci´ on n1 y n3 en las regiones I y III son imaginarios, en tanto que n2 es real. Esto es equivalente a una capa de aire de ancho “a” entre dos medios reflectivos. Las diferentes ondas que se reflejan sucesivamente en x = −a/2 y x = a/2 se destruyen unas a otras excepto para ciertas frecuencias muy espec´ıficas (modos normales) que permiten la formaci´ on de ondas estacionarias. Desde el punto de vista cu´ antico, esto significa que las energ´ıas negativas de la part´ıcula est´ an cuantizadas. En contraste, para la part´ıcula cl´ asica todos los valores de energ´ıa entre −V0 y cero son posibles. Vale la pena mencionar que los valores permitidos de la longitud de onda (y por tanto de la energ´ıa) no est´ an dados por la bien conocida condici´ on a = kλ2 /2, ya que existen ondas evanescentes que generan un corrimiento de fase en los puntos de reflexi´ on x = −a/2 y x = a/2. En las regiones I, II y III las soluciones de la ecuaci´ on de Schr¨ odinger independiente del tiempo son r 2mE ϕI (x) = B1 eρx + B1′ e−ρx ; ρ = − 2 > 0 (3.115) ~ r 2m (E + V0 ) >0 (3.116) ϕII (x) = A2 eikx + A′2 e−ikx ; k = 2 ~ r 2mE ρx ′ −ρx ϕIII (x) = B3 e + B3 e ; ρ= − 2 >0 (3.117) ~ asumiremos de nuevo la condici´ on inicial de que la onda viaja inicialmente desde la regi´ on I. A fin de que estas funciones sean acotadas en la regi´ on I (x → −∞) y en la regi´ on III (x → ∞) se requiere que B1′ = B3 = 0
(3.118)
con lo cual las ecuaciones se simplifican a ϕI (x) = B1 eρx
; ϕII (x) = A2 eikx + A′2 e−ikx
; ϕIII (x) = B3′ e−ρx
(3.119)
las condiciones de empalme resultan a a dϕI − a2 dϕII − a2 ϕI − = ϕII − ; = 2 2 dx dx a a dϕII a2 dϕIII a2 ϕII = ϕIII ; = 2 2 dx dx
estas condiciones aplicadas sobre las Ecs. (3.119) nos dan B1 e−ρ 2
a
= A2 e−ik 2 + A′2 eik 2
a
= A2 eik 2 + A′2 e−ik 2
B3′ e−ρ 2
a
a
a
a
;
a a a ρB1 e−ρ 2 = ik A2 e−ik 2 − A′2 eik 2 a a a ; −ρB3′ e−ρ 2 = ik A2 eik 2 − A′2 e−ik 2
(3.120)
en este caso la amplitud incidente es B1 (aunque de una onda evanescente) y por tanto los cocientes se normalizan con esta cantidad. Las Ecs. (3.120) quedan A2 (ρ−ik) a A′2 (ρ+ik) a ik A2 (ρ−ik) a A′2 (ρ+ik) a 2 + 2 2 − 2 1 = e e ; 1= e e (3.121) B1 B1 ρ B1 B1 B3′ A2 (ρ+ik) a A′2 (ρ−ik) a B3′ ik A′2 (ρ−ik) a A2 (ρ+ik) a 2 2 2 2 = e + e ; = e − e (3.122) B1 B1 B1 B1 ρ B1 B1 de la primera de las ecuaciones (3.121) tenemos −
A′2 (ρ+ik) a A2 (ρ−ik) a 2 = 2 − 1 e e B1 B1
(3.123)
3.8. POZO DE POTENCIAL
185
y reemplazando esta cantidad en la segunda de las ecuaciones (3.121) se obtiene a a ik A2 (ρ−ik) a A2 (ρ−ik) a ρ A2 1ρ A2 2 + 2 − 1 ⇒ 1 = e e = 2 e(ρ−ik) 2 − 1 ⇒ + 1 e(−ρ+ik) 2 = ρ B1 B1 ik B1 2 ik B1 a ρ + ik A2 = e(−ρ+ik) 2 (3.124) B1 2ik reemplazando (3.124) en (3.123) tenemos a a A′2 (ρ+ik) a ρ + ik (−ρ+ik) 2 2 − e e = e(ρ−ik) 2 − 1 ⇒ B1 2ik ′ a A2 ρ − ik = − e−(ρ+ik) 2 B1 2ik
A′2 =− B1
ρ + ik 2ik
a − 1 e−(ρ+ik) 2 (3.125)
reemplazando (3.124, 3.125) en la primera Ec. (3.122) tenemos a a a a ρ + ik ρ − ik ρ + ik ρ − ik B3′ = e(−ρ+ik) 2 e(ρ+ik) 2 − e−(ρ+ik) 2 e(ρ−ik) 2 = eika − e−ika B1 2ik 2ik 2ik 2ik 1h i ρ ika = e − e−ika + eika + e−ika 2ik 2 B3′ ρ = sin ka + cos ka (3.126) B1 k igualando las Ecs. (3.122) y usando las expresiones (3.124, 3.125), obtenemos A2 (ρ+ik) a A′2 (ρ−ik) a ik A′2 (ρ−ik) a A2 (ρ+ik) a 2 + 2 = 2 − 2 ⇒ e e e e B1 B1 ρ B1 B1
ρ + ik 2ik
(−ρ+ik) a2
e
(ρ+ik) a2
e
ρ + ik 2ik
a ρ − ik −(ρ+ik) a2 + − e e(ρ−ik) 2 2ik
ika
e
−
ρ − ik 2ik
e−ika =
(ρ + ik) eika − (ρ − ik) e−ika =
ρ + ik 2ik
ika
e
−
ρ − ik 2ik
e−ika =
(ρ + ik) eika − (ρ − ik) e−ika =
(ρ − ik)2 (ρ + ik)2
=
o −ik n (ρ − ik) e−ika + (ρ + ik) eika 2ikρ o −ik n (ρ − ik) e−ika + (ρ + ik) eika ρ o −ik n (ρ − ik) e−ika + (ρ + ik) eika 2ikρ o −ik n (ρ − ik) e−ika + (ρ + ik) eika ρ
dividiendo ambos miembros por ρ + ik resulta (ρ − ik) −ika −ik (ρ − ik) −ika ika ika e − e = e +e (ρ + ik) ρ (ρ + ik) (ρ − ik) ρ − ik 2ika ρ + ik e = ρ (ρ + ik) ρ e2ika =
a ρ − ik −(ρ+ik) a2 − e e(ρ−ik) 2 2ik ρ + ik (−ρ+ik) a2 (ρ+ik) a2 − e e 2ik ik ρ
ika
⇒ e
ik (ρ − ik) −ika ik 1+ = e 1− ρ (ρ + ik) ρ
(3.127)
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
186
vale la pena discutir la estrategia de soluci´ on antes de seguir adelante. A priori podr´ıa pensarse que las Ecs. (3.120) nos pueden dar soluci´ on para todas las amplitudes B1 , A2 , A′2 y B3 , puesto que tenemos cuatro ecuaciones. Sin embargo, no es l´ ogico f´ısicamente que la amplitud de entrada B1 pueda ser determinada por las condiciones de empalme ya que esta amplitud tiene relaci´ on con las condiciones iniciales, las cuales puedo acomodar en principio arbitrariamente. Por esta raz´ on la estrategia de soluci´ on se interpreta diciendo que las cuatro ecuaciones (3.120) nos brindan soluciones para los tres cocientes A2 /B1 , A′2 /B1 , B3′ /B1 mas una ligadura entre las cantidades ρ y k dada por la Ec. (3.127). Por otro lado, las Ecs. (3.115, 3.116) nos muestran que ρ y k est´ an relacionadas con la energ´ıa E de la part´ıcula. Esto implica que la ligadura (3.127) solo se satisface para ciertos valores de la energ´ıa. Por tanto, al imponer el acotamiento de ϕ (x) hemos llegado a una cuantizaci´ on de la energ´ıa. Esto se puede ver teniendo en cuenta que la ligadura (3.127) provino del hecho de que el sistema de cuatro ecuaciones (3.121, 3.122) est´ a sobredeterminado ′ ′ para el conjunto de tres cocientes A2 /B1 , A2 /B1 , B3 /B1 ; pero esto a su vez ocurre debido a la eliminaci´ on de las amplitudes Ec. (3.118) que se realiz´ o para mantener acotada la soluci´ on. En resumen, para un pozo de potencial como el de la Fig. 3.4 de profundidad V0 y de ancho a, la funci´ on de onda (acotada) en las tres regiones en que el potencial divide al espacio vienen dadas por ϕI (x) = B1 eρx ; ϕII (x) = A2 eikx + A′2 e−ikx ; ϕIII (x) = B3′ e−ρx r r 2mE 2m (E + V0 ) ρ = − 2 >0 ; k= >0 2 ~ ~ a a A2 ρ + ik A′2 ρ − ik B3′ ρ = =− = sin ka + cos ka e(−ρ+ik) 2 ; e−(ρ+ik) 2 ; B1 2ik B1 2ik B1 k e2ika =
(ρ − ik)2 (ρ + ik)2
(3.128) (3.129) (3.130) (3.131)
donde hemos supuesto que la part´ıcula incide desde la regi´ on I. Caso 1 para energ´ıa negativa La ligadura (3.131) nos conduce a dos situaciones posibles I) ρ − ik = −eika ρ + ik
(3.132)
reescribimos esta relaci´ on en la forma (ρ/k) − i (ρ/k) + i ρ k quedando finalmente
ρ i h i ρ ρh −i=− + i eika ⇒ 1 + eika = i 1 − eika k k k ika (e −1) e−ika/2 eika − 1 eika/2 − e−ika/2 /2i sin ka i 2 2 = = −ika/2 = −ika/2 i (1 + eika ) e + eika/2 /2 cos ka (1 + eika ) e 2
= −eika =
⇒
2
ρ = tan k
(3.133)
r
(3.134)
ka 2
definimos la magnitud del complejo ρ + ik en la forma k0 ≡
p
k2 + ρ2 =
2mV0 ~2
3.8. POZO DE POTENCIAL
187
donde hemos tenido en cuenta las Ecs. (3.129). Usando identidades trigonom´etricas y las Ecs. (3.133, 3.134), tenemos que 1 cos2 1 cos2
ka
= 1 + tan2
2
ka 2
=
k0 k
ka ρ2 k2 + ρ2 =1+ 2 = 2 k k2
2
(3.135)
de modo que la Ec. (3.132) es equivalente a las Ecs. (3.133, 3.135) que se pueden sintentizar en las ecuaciones ka cos ka = k >0 (3.136) ; tan 2 k0 2
Donde hemos tenido en cuenta que la Ec. (3.135) proviene de la Ec. (3.133), pero sustituyendo una tangente al
Figura 3.5: Soluci´ on gr´ afica de las Ecs. (3.136, 3.142). La intersecci´ on de la l´ınea recta con las l´ıneas punteadas cosenoidales nos dan los puntos denotados por P , correspondientes a soluciones de las Ecs. (3.136) y asociados a funciones de onda pares. La intersecci´ on de la recta con las l´ıneas punteadas del arco senoidal nos dan los puntos denotados por I, correspondientes a soluciones de las Ecs. (3.142) y asociados a funciones de onda impares. cuadrado con lo cual se pierde la informaci´ on del signo de esta tangente al llegar a la Ec. (3.135). y la parte derecha La primera de las Ecs. (3.136) se puede solucionar graficando la parte izquierda y = cos ka 2 y = k/k0 y encontrando la intersecci´ on entre las dos gr´ aficas. Es decir graficamos los arcos cosenoidales (arcos del coseno con nodos en (2q + 1) π/a de la Fig. 3.5 con q entero no negativo) y la l´ınea recta de pendiente 1/k0 para obtener tal intersecci´ on. Ahora bien, las franjas ascendentes del coseno (l´ıneas cont´ınuas del arco cosenoidal en la Fig. 3.5) violan la condici´ on dada por la segunda ecuaci´ on (3.136), en tanto que las franjas descendentes (l´ıneas punteadas del arco cosenoidal en la Fig. 3.5) satisfacen tal condici´ on13 . Los puntos de intersecci´ on de la recta con las l´ıneas punteadas del coseno se denotan en la Fig. 3.5 con la letra P , y sus componentes x nos dan los valores kn que cuantizan al n´ umero de onda y por tanto a la energ´ıa, la cual viene dada por la ecuaci´ on (3.129) kn = 13
r
2m (En + V0 ) ~2
(3.137)
Por ejemplo en la franja 0 ≤ k ≤ π/a es claro que tan (ka/2) > 0, en tanto que en la franja π/a < k < 2π/a se tiene que tan (ka/2) ≤ 0, y as´ı sucesivamente.
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
188
Por otro lado, dividiendo las dos primeras Ecs. (3.130) se obtiene a ρ−ik a ′ e−(ρ+ik) 2 − 2ik A2 (ρ − ik) e−ik 2 (ρ − ik) −ika = =− =− e ik a2 ρ+ik (−ρ+ik) a2 A2 (ρ + ik) (ρ + ik) e e 2ik
y utilizando la Ec. (3.132) resulta
A′2 =1 A2 si reemplazamos la Ec. (3.133) (la cual es equivalente a la Ec. 3.132) en la tercera de las Ecs. (3.130) y definiendo x ≡ ka/2 obtenemos B3′ ρ ka sin ka + cos ka = tan sin ka + cos ka = tan x sin 2x + cos 2x = B1 k 2 sin x = tan x (2 sin x cos x) + 1 − 2 sin2 x = 2 sin x cos x + 1 − 2 sin2 x cos x B3′ = 1 B1 En conclusi´ on la Ec. (3.132) que define el caso 1 de nuestro an´ alisis, conduce a las relaciones A′2 = A2 ; B3′ = B1
(3.138)
y al reemplazar estas relaciones en la Ecs. (3.128) esto nos da ϕI (x) = B1 eρx
; ϕII (x) = 2A2 cos kx
; ϕIII (x) = B1 e−ρx
(3.139)
para −a/2 ≤ x ≤ a/2 (regi´ on II), es claro que −x tambi´en pertenece a la regi´ on II. Si x pertenece a la regi´ on I (x ≤ −a/2) entonces −x pertenece a la regi´ on III (−x ≥ a/2). Similarmente, si x est´ a en la regi´ on III entonces −x est´ a en la regi´ on I. Vemos adem´ as que la Ec. (3.139) nos dice que ϕI (x) = B1 eρx = ϕIII (−x)
; ϕII (x) = ϕII (−x)
lo cual nos lleva a la conclusi´ on de que en el caso 1 caracterizado por la Ec. (3.132), la funci´ on de onda es par en todas las regiones i.e. ϕ (−x) = ϕ (x) ; x ∈ (−∞, ∞) (3.140) Caso 2 para energ´ıa negativa La Ec. (3.131), tiene dos soluciones, la primera corresponde a la Ec. (3.132) y la segunda vendr´ a dada por ρ − ik = eika ρ + ik un c´ alculo an´ alogo nos lleva a que los n´ umeros de onda permitidos est´ an dados por sin ka = k ; tan ka < 0 2 k0 2
(3.141)
(3.142)
la Fig. 3.5 muestra la intersecci´ on entre la recta de pendiente 1/k0 y los arcos senoidales (arcos del seno con nodos en k = 2qπ/a siendo q entero no negativo). La intersecci´ on entre la recta y la parte punteada (descendente) de los arcos senoidales, nos da los puntos denotados por I en la Fig. 3.5, cuya abcisa nos da el valor cuantizado de otese que los niveles encontrados se kn , con el cual se encuentra la energ´ıa cuantizada usando la Ec. (3.137). N´ encuentran entre los niveles hallados para el primer caso. Puede similarmente demostrarse que la funci´ on de onda asociada es impar ϕ (x) = −ϕ (−x) ; x ∈ (−∞, ∞) (3.143) Puede observarse adem´ as que el hecho de que el potecial sea par V (x) = V (−x), es lo que genera la existencia de soluciones pares e impares en los casos 1 y 2 Ecs. (3.140, 3.143).
3.8. POZO DE POTENCIAL
189
Relaci´ on entre k0 y los estados acotados Obs´ervese que si
π a La Fig. 3.5 nos muestra que solo existe un estado acotado para la part´ıcula y dicho estado se asocia con una funci´on de onda par. En otras palabras, la recta tiene una pendiente muy alta de modo que cruza la recta horizontal (m´ aximo de los sinusoides) antes de llegar al primer nodo de la funci´ on cosenoidal (de modo que solo cruza una vez la l´ınea punteada del coseno) y antes de llegar al primer m´ aximo de la funci´ on senoidal (de modo que no cruza la l´ınea punteada del seno). Un an´ alisis similar nos muestra que cuando tenemos 0 ≤ k0 ≤
π 2π ≤ k0 ≤ a a aparecen solo dos estados uno par y otro impar. Generalizando, si se cumple la condici´ on 2pπ (2p + 1) π 1 3 5 ≤ k0 ≤ ; p = 0, , 1, , 2, , . . . (3.144) a a 2 2 2 on parte entera de p que se define como aparecen [p + 1] estados pares y p + 12 estados impares, siendo [p] la funci´ [p] ≡ k
tal que : k es entero con k ≤ p < k + 1
Para el ejemplo de la figura 3.5 tenemos que 4π/a umero de estados pares < k0 < 5π/a, de modo que p = 2. El n´ es [2 + 1] = 3, el n´ umero de estados impares es 2 + 12 = 2. Es u ´til escribir la condici´ on (3.144), en t´erminos de par´ ametros m´ as f´ısicos. De la definici´ on (3.134) podemos escribir la condici´on (3.144) en la forma r 2pπ 2mV0 (2p + 1) π 2pπ 2 2mV0 (2p + 1) π 2 ≤ ≤ ⇒ ≤ ≤ a ~2 a a ~2 a 2 2 2 2 π ~ π ~ (2p)2 ≤ V0 ≤ (2p + 1)2 2 2ma 2ma2 π 2 ~2 1 3 5 (2p)2 V1 ≤ V0 ≤ (2p + 1)2 V1 ; V1 ≡ ; p = 0, , 1, , 2, , . . . (3.145) 2 2ma 2 2 2 La Ec. (3.145), nos sugiere definir a V1 como un potencial umbral. Por ejemplo si p = 0 tenemos que 0 ≤ V0 ≤ V1 conduce a un estado par y ning´ un estado impar. Si p = 1/2, la condici´ on queda V1 ≤ V0 ≤ 4V1 que conduce a una funci´on par y otra impar y as´ı sucesivamente. Si V0 ≫ V1 (de modo que p ≫ 1) entonces la pendiente de la recta 1/k0 es muy peque˜ na y los primeros n´ umeros de onda pr´ acticamente coinciden con los nodos de los arcos senoidal y cosenoidal. Es decir, para los n´ umeros de onda m´ as bajos tenemos que nπ k≃ ; para n entero y n ≪ p a y aplicando la Ec. (3.137), la energ´ıa queda E≃
n2 π 2 ~2 − V0 ; 2ma2
para n entero y n ≪ p
(3.146)
Pozo de potencial con profundidad infinita Asumiremos que V (x) es cero fuera del intervalo 0 < x < a, e infinito negativo −V0 → −∞ en dicho intervalo. Supondremos sin embargo que E + V0 ≡ ∆E > 0 en 0 < x < a y que ∆E es finito, a fin de que la part´ıcula posea energ´ıa cin´etica finita. La discusi´ on es totalmente an´ aloga a la realizada en la secci´ on 3.6.2, P´ ag. 175 para
190
´ DE SCHRODINGER ¨ CAP´ITULO 3. ECUACION Y SUS PROPIEDADES
escal´on de potencial infinito. Seg´ un esta discusi´ on, al penetrar en la barrera la onda es evanescente con longitud de penetraci´ on que tiende a cero, en el l´ımite podemos entonces considerar que la funci´ on decae a cero inmediatamente, es decir la funci´ on de onda se anula en las discontinuidades de salto infinito. Esto es consistente con las ecuaciones que se obtienen en este l´ımite para el empalme, como se aprecia en las Ecs. (3.83, 3.84). Adicionalmente, la Ec. (3.84) tambi´en nos muestra que la funci´ on de onda debe seguir siendo continua en los empalmes, con lo cual la funci´on de onda en nuestro caso debe ser nula fuera del intervalo [0, a]. No obstante, vimos que en general la primera derivada ya no es cont´ınua, debido a que tenemos un potencial no acotado. Como E + V0 ≡ ∆E es positivo y finito, la soluci´ on de la ecuaci´ on de onda est´ a dada por r 2m ∆E ikx ′ −ikx ϕ (x) = Ae + A e para 0 ≤ x ≤ a ; k ≡ (3.147) ~2 poniendo la condici´ on de nulidad de la funci´on de onda en el extremo x = 0 tenemos que ϕ (0) = 0 = A + A′ ⇒ A = −A′ ⇒ ϕ (x) = A eikx − e−ikx = 2iA sin kx
(3.148)
usando nulidad de la funci´ on de onda (3.148) en el extremo x = a tenemos ϕ (a) = 2iA sin ka = 0 con lo cual ka = nπ o equivalentemente kn =
nπ ; n entero positivo a
(3.149)
on queda n es positivo ya que se asume k positivo en la Ec. (3.147)14 . La funci´ ϕ (x) = 2iA sin
nπ x a
la constante 2iA la elegimos como positiva (fase cero) de modo que normalice a la funci´ on de onda. Con esto se tiene finalmente r nπx 2 ϕn (x) = sin a a con energ´ıas n2 π 2 ~2 (3.150) ∆En = 2ma2 en este caso la cuantizaci´ on de la energ´ıa es mucho m´ as simple de demostrar. N´ otese que la Ec. (3.149), nos dice que la condici´ on para el estado estacionario es tal que el ancho a del potencial debe contener un n´ umero entero de semilongitudes de onda π/k. Este es el an´ alogo a la formaci´ on de ondas estacionarias con extremo fijo en ´ optica. Vemos que la condici´ on de extremo fijo (nulidad de la funci´ on de onda en los extremos) solo se da para pozos infinitamente profundos. Si el pozo tiene profundidad finita, el extremo no es totalmente fijo, lo cual se traduce en la penetraci´ on de una onda evanescente (pero no nula) en las regiones fuera del pozo. Si bien no hay pozos infinitos, en la pr´ actica pozos muy profundos poseen el comportamiento aqu´ı descrito. Pero ¿que es un pozo muy profundo?. La respuesta est´ a en el potencial umbral V1 definido en la Ec. (3.145). Efectivamente, vimos que cuando V0 ≫ V1 los estados m´ as bajos se comportan como los de un pozo infinito como se v´e al comparar las Ecs. (3.146, 3.150). Debe tenerse en cuenta sin embargo, que a´ un cuando V0 sea mucho mayor que V1 siempre habr´ a estados excitados que se desv´ıen significativamente del comportamiento aqu´ı descrito, vale decir cuando la aproximaci´ on n ≪ p ya no sea v´ alida, como se v´e en la Ec. (3.146). 14
Si tom´ aramos la ra´ız negativa en la Ec. (3.147) tendr´ıamos la misma soluci´ on de la funci´ on de onda.
3.8. POZO DE POTENCIAL
3.8.2.
191
Part´ıcula con energ´ıa E > 0
En esta situaci´ on, definiremos el origen de modo 0 V (x) = −V0 < 0 0
que si si si
x < 0 (regi´ on I) 0 < x < L (regi´ on II) L < x (regi´ on III)
con el fin de poder comparar con los resultados de la secci´ on 3.7.1. Cuando la part´ıcula cl´ asica tiene energ´ıa positiva y viene desde −∞, viaja con energ´ıa cin´etica constante Ek = E hasta x = 0, donde experimenta un aumento abrupto en su energ´ıa cin´etica a Ek = E + V0 , y luego una desaceleraci´ on similar en x = L, continuando hacia la derecha con energ´ıa cin´etica constante Ek = E. Para E > 0, en el an´ alogo ´ optico todos los ´ındices de refracci´ on son reales n1 = n3 =
c 1√ c 1p 2mE ; n2 = 2m (E + V0 ) Ω~ Ω~
y los resultados se pueden extraer de la Sec. 3.7.1, con la asignaci´ on V0 → −V0 . Puesto que n2 es mayor que n1 y n3 la situaci´ on ´ optica es an´ aloga a tener una capa de vidrio en medio del aire15 . Para obtener la onda reflejada para x < 0, o la onda transmitida para x > L, es necesario superponer un n´ umero infinito de ondas que surgen de la reflexi´ on sucesiva entre x = 0 y x = L (interfer´ ometro m´ ultiple an´ alogo a un Fabry-P´erot). Se encuentra que para ciertas frecuencias incidentes la onda es completamente transmitida (asumiendo que L, V0 y m son fijos). En el caso cu´ antico, la part´ıcula tiene cierta probabilidad de ser reflejada, pero existen ciertos valores llamados energ´ıas resonantes para los cuales la probabilidad de transmisi´ on es 1 y por tanto la probabilidad de reflexi´ on es cero.
15
En la Sec. 3.7.1, la situaci´ on ´ optica era la de una capa de aire rodeada de vidrio.
Cap´ıtulo 4
Enunciado matem´ atico de los postulados de la mec´ anica cu´ antica 4.1.
Los fen´ omenos cl´ asicos
En mec´ anica cl´ asica, un sistema discreto de part´ıculas se describe a trav´es de un conjunto de coordenadas generalizadas qi (t) y de velocidades generalizadas q˙i (t), y podemos utilizar por ejemplo el Lagragiano L = L (qi , q˙i , t) como el generador de las ecuaciones de movimiento del conjunto {qi (t) , q˙i (t)}. Las qi′ s deben ser independientes en el sentido de que debe ser posible mover una sola de estas coordenadas sin violar las ligaduras impuestas sobre el sistema. De esta forma, para un p´endulo simple con el origen ubicado en el pivote, la u ´nica coordenada generalizada es θ puesto que la distancia r de la lenteja es fija, de modo que no es posible mover el valor de r sin violar la ligadura de distancia constante al origen. Por esta raz´ on el n´ umero de coordenadas generalizadas n del sistema no es en general igual a 3N , siendo N el n´ umero de part´ıculas. No obstante, las ligaduras son usualmente manifestaciones macrosc´ opicas de fuerzas microsc´ opicas, por ejemplo la tensi´ on de la cuerda del p´endulo es el resultado de las fuerzas que generan los enlaces moleculares de la cuerda. Por esta raz´ on, en el mundo microsc´ opico el concepto de ligadura b´ asicamente desaparece y los sistemas de part´ıculas se tratan en general como sistemas no ligados por las interacciones. Por tanto, el n´ umero de grados de libertad de posici´ on ser´ a usualmente n = 3N . A menudo resulta m´ as ventajoso utilizar en lugar del conjunto {qi , q˙i } un nuevo conjunto {qi , pi } donde las variables pi est´ an dadas por ∂L (q, q, ˙ t) pi ≡ ∂ q˙i y pi se denomina el momento can´ onicamente conjugado a la variable qi . Si definimos la transformada de Legendre del Lagrangiano en la forma X H≡ pi q˙i − L (qi , q˙i , t) i
a esta cantidad cuando se escribe enteramente en t´erminos del conjunto {qi , pi }, la llamamos el Hamiltoniano del sistema y act´ ua como generador de ecuaciones de movimiento para el sistema {qi , pi }, a trav´es de las llamadas ecuaciones de Hamilton ∂H ∂H q˙i = ; p˙ i = − (4.1) ∂pi ∂qi La resoluci´ on de estas ecuaciones nos genera el comportamiento de qi y pi como funci´ on del tiempo y por tanto toda la informaci´on f´ısica del sistema. El Hamiltoniano es una funci´ on que puede variar tanto funcional como num´ericamente cuando se hace un cambio en el sistema coordenado. El uso directo de las ecuaciones de Hamilton permite demostrar que dH ∂H = (4.2) dt ∂t 192
´ ´ 4.1. LOS FENOMENOS CLASICOS
193
En consecuencia, si para un sistema coordenado dado el Hamiltoniano no es funci´ on expl´ıcita del tiempo, esta cantidad ser´ a una constante de movimiento. Adicionalmente, la Ec. (4.1) nos dice que si una cierta coordenada generalizada qi no aparece en el Hamiltoniano, pero s´ı aparece su momento conjugado pi , se tiene que este momento conjugado ser´ a una constante de movimiento. Por otro lado, para muchos casos de inter´es el Hamiltoniano corresponde a la energ´ıa total del sistema, para que el Hamiltoniano sea la energ´ıa del sistema se deben cumplir los siguientes requisitos (como condiciones de suficiencia): (a) El lagrangiano asociado debe poder descomponerse en la forma L (q, q, ˙ t) = L0 (q, t) + L1 (q, q, ˙ t) + L2 (q, q, ˙ t) siendo Li con i = 0, 1, 2 una funci´ on homog´enea de grados 0, 1 y 2 en las variables q˙i . (b) La transformaci´ on que lleva de las coordenadas cartesianas a las coordenadas generalizadas ri = ri (q1 , ..., qn ) no debe depender expl´ıcitamente del tiempo, y (c) el potencial asociado solo debe ser funci´ on de las coordenadas y el tiempo. Para los sistemas microsc´ opicos estas condiciones se cumplen en casi todos los casos de inter´es. Vale decir que la condici´ on (c) es violada por los potenciales asociados a las interacciones electromagn´eticas para las cuales el potencial depende tambi´en de las q˙i . No obstante, se puede demostrar que a´ un con la violaci´ on de esta condici´ on, el Hamiltoniano sigue siendo la energ´ıa del sistema para el caso especial de interacciones electromagn´eticas. N´ otese que esto tiene que ver con el hecho de que estas son condiciones de suficiencia pero no de necesidad. En virtud de la discusi´ on anterior, asumiremos para nuestros prop´ ositos que el Hamiltoniano corresponde num´ericamente a la energ´ıa total del sistema. De particular importancia ser´ a el Hamiltoniano asociado a una part´ıcula no relativista, no ligada y sometida a un potencial que no depende de las velocidades generalizadas. En este caso el Hamiltoniano corresponde a la energ´ıa total de la part´ıcula y se podr´ a escribir en la forma H=
p2 + V (r, t) 2m
si usamos como coordenadas generalizadas las coordenadas cartesianas de la part´ıcula, se tendr´ a que el momento lineal pi ser´ a el momento can´ onicamente conjugado a la variable xi con i = 1, 2, 3. Si aplicamos las ecuaciones de Hamilton a este Hamiltoniano, las ecuaciones de movimiento quedan x˙ i =
pi ∂V ; p˙ i = − m ∂xi
que coinciden con las leyes Newtonianas b´ asicas. Por otro lado, existen en la mec´ anica cl´ asica los fen´ omenos ondulatorios, estos aparecen de manera natural como excitaciones o perturbaciones colectivas de un sistema de part´ıculas, como es el caso de las cuerdas vibrantes o las olas en el agua, estos fen´ omenos colectivos se pueden entender a la luz de las leyes de Newton pero no se presentan fen´ omenos ondulatorios cl´ asicos para una sola part´ıcula. M´ as bien se trata de una perturbaci´ on que se transmite de una part´ıcula a otra generando propiedades de propagaci´ on. Por otro lado, existen fen´ omenos ondulatorios (electromagn´eticos) que no est´ an asociados cl´ asicamente a part´ıculas y que no est´an regidos por las leyes de Newton sino por las denominadas ecuaciones de Maxwell. Podemos entonces por un lado hablar de materia (regida por la mec´ anica Newtoniana) que genera los fen´ omenos corpusculares y las ondas mec´ anicas, y la radiaci´ on (regida por las ecuaciones de Maxwell, que genera fen´ omenos ondulatorios que cl´ asicamente no est´ an asociados a la materia). De otra parte, podemos hablar de fen´ omenos corpusculares generados por las part´ıculas individuales y fen´ omenos ondulatorios generados por los campos electromagn´eticos o por perturbaciones colectivas en la materia. En todo caso, salvo por la ley de Lorentz que nos da la interacci´ on de la radiaci´ on con la materia, estos dos tipos de entes f´ısicos radiaci´ on y materia son completamente distintos en mec´ anica cl´ asica y se rigen por leyes muy distintas. Por otro lado, una part´ıcula individual no puede generar fen´ omenos ondulatorios de modo que el comportamiento corpuscular est´ a bien diferenciado del comportamiento ondulatorio. De la anterior discusi´ on podemos inferir las principales caracter´ısticas de los sistemas cl´ asicos
194
´ CAP´ITULO 4. ENUNCIADO MATEMATICO DE LOS POSTULADOS
(1) El estado de un sistema en un tiempo t queda totalmente especificado por el valor de sus coordenadas y momentos conjugados en tal tiempo. Esto equivale a conocer sus posiciones, masas y velocidades en dicho instante. (2) Al especificar el estado del sistema en cierto tiempo, cualquier cantidad f´ısica tiene un valor u ´nico que se reflejar´ a en el proceso de medida (con ciertas incertidumbres de ´ındole experimental). (3) Las ecuaciones de Hamilton son un posible conjunto de ecuaciones de movimiento. De ellas se observa que dados los valores de qi (t0 ) , pi (t0 ) para un tiempo inicial t0 , la evoluci´ on de qi , pi es u ´nica de modo que los valores qi (t) , pi (t), est´ an completamtne determinados para todo tiempo. En consecuencia el estado del sistema se conoce completamente para cualquier tiempo t ≥ t0 si lo conocemos para t0 . Esto a su vez implica que cualquier cantidad f´ısica evoluciona de manera u ´nica y su valor al ser medido ser´ au ´nico en cualquier instante. (4) En principio todos valores reales de qi , pi son posibles de obtener en un sistema mec´ anico (al menos dentro de ciertos intervalos). Por tanto un observable F (qi , pi ) tambi´en posee valores en un espectro cont´ınuo al menos dentro de cierto intervalo. Adem´ as en el proceso de medici´ on estos ser´ an tambi´en los valores accesibles de las cantidades f´ısicas. (5) Las ecuaciones de Maxwell nos dan cuenta de la radiaci´ on a trav´es de grados de libertad cont´ınuos caracterizados por los campos el´ectricos y magn´eticos. La evoluci´ on de estas ecuaciones es u ´nica para condiciones iniciales y de frontera adecuadas, junto con el conocimiento de la distribuci´ on de cargas y corrientes. Al igual que en la mec´ anica cl´asica del discreto la evoluci´ on temporal de los observables es determinista as´ı como el valor de las medidas que se efect´ uen. Similarmente, el espectro posible de valores para los observables es cont´ınuo.
4.2.
Los fen´ omenos cu´ anticos
La exposici´ on sistem´ atica de los sistemas microsc´ opicos descritos anteriormente nos ha llevado a encontrar fen´ omenos que difieren radicalmente de los fen´ omenos cl´ asicos, veamos los m´ as importantes (1) Existen ciertas cantidades f´ısicas tales como la energ´ıa, el momento angular etc. que bajo ciertas condiciones solo nos arrojan medidas discretas. Este fen´ omeno de cuantizaci´ on de las medidas accesibles aparece en escenarios tan diversos como la radiaci´ on del cuerpo negro, el efecto fotoel´ectrico y la medici´ on de los espectros at´ omicos. (2) Tanto la materia como la radiaci´ on presentan fen´ omenos de dualidad onda part´ıcula. Pueden dispersarse como part´ıculas pero tambi´en interferir y difractarse como las ondas. (3) La repetici´on sistem´ atica de ciertos experimentos bajo las mismas condiciones iniciales, nos lleva a que la medida de los observables no es reproducible. Sin embargo, cuando muchos experimentos id´enticos son realizados, aparece un patr´ on reproducible relativo a la distribuci´ on con que se obtienen las diferentes medidas. Estos nos lleva a la idea de que existe un patr´ on de probabilidad para obtener cada uno de los resultados accesibles (que en general pueden o no estar cuantizados). (4) La distribuci´ on de probabilidad est´ a asociada con el car´ acter ondulatorio de los sistemas. (5) En un proceso de medida se evidencia solo uno de los aspectos (ondulatorio o corpuscular) de la naturaleza cu´ antica, como una moneda que posee dos caras pero solo nos muestra una a la vez (principio de complementariedad). (6) La cuantizaci´ on de los observables nos conduce a pensar que los estados asociados a estos observables tambi´en est´ an cuantizados (autoestados del sistema). El principio de superposici´ on que poseen las ondas sugiere pensar que el estado del sistema en un tiempo t es la superposici´ on de todos los autoestados, en donde cada autoestado contribuye con cierto peso. (7) El proceso de medida nos cambia el estado del sistema de manera dr´ astica: justo antes de la medida el estado del sistema es la superposici´ on de todos los autoestados, justo despu´es de la medida el sistema queda preparado en una superposici´ on que solo incluye a los autoestados asociados con el autovalor obtenido. (8) Lo anterior nos induce a pensar que existe una perturbaci´ on fundamental que no puede ser minimizada, y que es inherente al proceso de medici´ on e independiente de la resoluci´ on del aparato de medida. (9) La probabilidad de obtener un autovalor est´ a relacionada con los coeficientes asociados a sus autoestados. Lo anterior es confirmado por la repetici´ on sucesiva de los experimentos. N´ otese que esto adem´ as implica que la forma en que actuar´ a la perturbaci´ on fundamental no se puede predecir con certeza.
4.3. ESTABLECIMIENTO DE LOS POSTULADOS
195
(10) Como corolario se obtiene que si vuelvo a hacer una medida del mismo observable justo despu´es de la primera medici´ on, el autovalor se reproduce con total certeza. Lo anterior es confirmado por los hechos experimentales. (11) La distribuci´ on de probabilidad para la materia evoluciona de manera determinista, siendo la ecuaci´ on de Schr¨ odinger un buen prospecto como generador de esta evoluci´ on, al menos en el r´egimen no relativista. (12) La funci´ on de onda (soluci´ on de la ecuaci´ on de Schr¨ odinger) que describe la distribuci´ on de probabilidad debe ser de cuadrado integrable para poder mantener la conservaci´ on de la probabilidad. (13) Para una part´ıcula el estado cl´ asico en un tiempo t se caracteriza por seis cantidades (3 posiciones y tres momentos) en tanto que para una part´ıcula cu´ antica est´ a caracterizada por un n´ umero infinito de cantidades: los valores de ψ (r, t) para cada posici´ on r. En s´ıntesis, los postulados deben dar cuenta de las caracter´ısticas arriba citadas.
4.3. 4.3.1.
Establecimiento de los postulados Descripci´ on de los estados y las cantidades f´ısicas
Hemos visto que el estado de una part´ıcula se caracteriza por la funci´ on de onda ψ (r, t) que es una funci´ on de cuadrado integrable. Adicionalmente, vimos que a cada funci´ on de onda en el espacio ̥ le corresponde un ket |ψi en el espacio de estados Er . Donde la relaci´ on entre ambos viene dada por |ψ (t)i → hr |ψ (t)i = ψ (r, t). Esta relaci´ on nos muestra a la funci´ on de onda como una representaci´ on del ket |ψ (t)i en la base {|ri}. Adem´ as, la representaci´ on por kets posee la flexibilidad de ser expresada en cualquier base. Generalizaremos este enunciado de una part´ıcula al caso de un sistema f´ısico arbitrario Primer postulado: El estado de un sistema f´ısico en un tiempo t0 est´ a especificado por un ket |ψ (t0 )i ∈ E. Siendo E un subespacio de un espacio de Hilbert H, donde H es isomorfo e isom´etrico al espacio L2 de las funciones cuadr´ aticamente integrables en un volumen dado. Al ser E un espacio vectorial, una combinaci´ on lineal de estados es tambi´en un estado, lo cual implica un principio de superposici´ on. M´ as adelante veremos las implicaciones f´ısicas de este principio de superposici´ on. De otra parte, observamos que la ecuaci´ on de Schr¨ odinger independiente del tiempo nos lleva a una ecuaci´ on de valores propios H |ψi = E |ψi donde el operador H est´ a definido por
P2 + V (r) 2m siendo P el operador cuyos valores propios corresponden al momento de la part´ıcula. Este operador H tiene como valores propios los valores accesibles de energ´ıa del sistema. En forma similar vimos que al menos para part´ıcula libre los operadores R y P tiene como valores propios los valores accesibles (cont´ınuos) de posici´on y momento. Vale adem´ as decir que H, R y P son todos observables. La generalizaci´ on de estos hechos nos lleva al segundo y tercer postulado Segundo postulado: Toda cantidad f´ısica medible A, est´ a descrita por un operador A que act´ ua sobre el espacio vectorial E. Dicho operador es un observable, i.e. un operador herm´ıtico cuyo espectro de autoestados es completo. M´ as adelante veremos que la caracter´ıstica de observable es esencial. N´ otese que en la mec´ anica cu´ antica los estados est´ an representados por vectores y las cantidades F´ısicas por operadores. Tercer postulado: El u ´nico resultado posible en una medici´ on de una cantidad f´ısica A es uno de los autovalores del correspondiente observable A. Por supuesto, toda medida experimental debe ser un n´ umero real. El car´ acter herm´ıtico de A nos garantiza que una medida de A nos dar´ a un valor real, ya que todo valor propio de A es real. Adicionalmente, dado que el problema de valores propios conduce en muchas circunstancias a valores propios discretos, es de esperarse que este postulado nos de cuenta de la naturaleza cu´ antica de algunas cantidades f´ısicas. H=
196
4.3.2.
´ CAP´ITULO 4. ENUNCIADO MATEMATICO DE LOS POSTULADOS
El proceso de medici´ on y la distribuci´ on de probabilidad
Cuando analizamos el experimento de fotones polarizados (secci´ on 2.9), nos topamos con el principio de descomposici´ on espectral, al cual le daremos un car´ acter m´ as general en la presente secci´ on. Consideremos que un sistema est´ a caracterizado en el tiempo t, por el ket |ψ (t)i (de acuerdo con el primer postulado) el cual asumiremos como normalizado a 1 hψ |ψi = 1 sabemos que si queremos medir una cantidad f´ısica A asociada a un observable A no podemos hacer una predicci´ on del resultado con toda certeza sino solo una predicci´ on de la probabilidad de obtener un valor dado accesible, es decir un autovalor dado de A. Asumamos por ahora que el espectro de A es totalmente discreto y no degenerado, en tal caso a cada valor propio an le corresponde un u ´nico vector propio normalizado |un i (excepto por una fase constante). La ecuaci´ on de valores propios de A es A |un i = an |un i y dado que A es un observable, los vectores propios {|un i} forman una base ortonormal en E. El vector de estado |ψi se puede entonces expandir en esta base |ψi =
X n
cn |un i
y postularemos siguiendo el principio de descomposici´ on espectral (secci´ on 2.9 Ecs. 2.46, 2.47, 2.48), que la probabilidad de obtener el valor propio ak est´ a dada por P (ak ) = |ck |2 = |huk |ψi|2 ¿Que ocurre si el autovalor es degenerado?, en este caso varios vectores ortonormales corresponden a este valor propio A uin = an uin ; i = 1, ..., gn dado que A es observable, el conjunto uin forma una base de modo que podemos expandir el estado |ψi en dicha base gn XX |ψi = cin uin (4.3) n
i=1
en este caso la probabilidad P (ak ) debe involucrar a todos los coeficientes asociados a los estados propios con valor propio ak gk gk X i 2 X i hu |ψi 2 P (ak ) = ck = k i=1
i=1
con lo cual estableceremos el cuarto postulado para espectros discretos Cuarto postulado (caso de espectro discreto): Cuando se mide una cantidad f´ısica A sobre un sistema que est´ a en el estado normalizado |ψi, la probabilidad P (ak ) de obtener el autovalor ak correspondiente al observable A es gk X i hu |ψi 2 P (ak ) = (4.4) k i=1
siendo gk el grado de degeneraci´ on de ak y uik i = 1, ..., gk un conjunto ortonormal de vectores que forman una base en el autosubespacio Ek generado por el valor propio ak del observable A. Naturalmente, cuando ak no es degenerado, entonces gk = 1 y la suma solo contiene un t´ermino, siendo el autoespacio Ek de una dimensi´ on.
4.3. ESTABLECIMIENTO DE LOS POSTULADOS
197
N´ otese que para que alculo de la probabilidad no dependa ieste postulado tenga sentido, es necesario que el c´ de la base espec´ıfica uk que se use. Esto se puede ver f´ acilmente considerando la descomposici´ on de E como suma directa de los autoespacios Ek E = E1 ⊕ E2 ⊕ . . . ⊕ Ek ⊕ . . . (4.5) n´ otese que para poder hacer esta descomposici´ on, es necesario que el operador sea un observable (extensi´ on del teorema espectral a dimensi´ on infinita). Si retomamos la Ec. (4.3) y la reescribimos adecuadamente resulta |ψi = y es claro que
g1 X i=1
ci1 ui1
+
g2 X i=1
|ψm i ≡ de modo que
ci2 ui2
gm X i=1
+ ... +
gk X i=1
cik uik + . . .
cim uim ∈ Em
|ψi = |ψ1 i + |ψ2 i + . . . + |ψk i + . . .
;
(4.6)
|ψm i ∈ Em
(4.7)
Por otro lado, en virtud de la descomposici´ on (4.5), existe una u ´nica expansi´ on de |ψi en vectores de cada autoespacio. En otras palabras, cada |ψm i en la expansi´ on es u ´nico. En t´erminos de proyectores tenemos que |ψi = (P1 + P2 + . . . + Pk + . . .) |ψi = P1 |ψi + P2 |ψi + . . . + Pk |ψi + . . .
Pm |ψi = |ψm i ∈ Em
en notaci´ on de Dirac el proyector Pm se escribe Pm =
gm X i i um um i=1
como se puede verificar al operar sobre |ψi
gm gm X X i i Pm |ψi = um um ψi = cim uim = |ψm i ∈ Em i=1
la probabilidad es
i=1
gk gk gk X i 2 X i 2 X P (ak ) = ck = huk |ψi = hψ uik huik |ψi i=1
i=1
i=1
P (ak ) = hψ| Pk |ψi
(4.8)
y usando la idempotencia y hermiticidad de Pk se tiene que P (ak ) = hψ| Pk Pk |ψi = hψ| Pk† (Pk |ψi) P (ak ) = hψk | ψk i = k|ψk ik2
pero dado que |ψk i es u ´nico y su norma es independiente de la base en que se calcule, vemos que esta probabilidad es independiente de la base como se esperaba. La Ec. (4.8) es una forma alternativa de calcular esta probabilidad. Veamos el caso de un espectro cont´ınuo no degenerado. La ecuaci´ on de valores propios de A es A |vα i = α |vα i
´ CAP´ITULO 4. ENUNCIADO MATEMATICO DE LOS POSTULADOS
198
siendo α un ´ındice cont´ınuo y siendo |vα i ortonormal en el sentido extendido. Siendo A un observable (tambi´en en el sentido extendido), podemos expandir el ket |ψi en t´erminos de los autoestados de A Z |ψi = dα c (α) |vα i puesto que el conjunto de medidas accesibles de A es cont´ınuo, debemos definir una densidad de probabilidad, tal como lo hicimos con la funci´ on de onda ψ (r, t) y su transformada de Fourier ψ¯ (p, t). En el caso de estas funciones la probabilidad de encontrar a la part´ıcula en un volumen d3 r o dentro de un intervalo tridimensional de momento d3 p est´ an dados por dP (r) = |ψ (r, t)|2 d3 r = |hr |ψi|2 d3 r ; R |ri = r |ri 2 dP¯ (p) = ψ¯ (p, t) d3 p = |hp |ψi|2 d3 p ; P |pi = p |pi
la extrapolaci´ on natural para un espectro cont´ınuo arbitrario es
dP (α) = ρ (α) dα ; ρ (α) = |hvα |ψi|2 siendo dP (α) la probabilidad de obtener un valor dentro del intervalo entre α y α + dα. Naturalmente, α puede estar indicando varios ´ındices cont´ınuos. Cuarto postulado (caso cont´ınuo no degenerado): Cuando se mide la cantidad f´ısica A sobre un sistema que est´ a en el estado normalizado |ψi, la probabilidad de obtener un valor dentro del intervalo entre α y α + dα est´ a dada por dP (α) = |hvα |ψi|2 dα ≡ ρ (α) dα (4.9) siendo |vα i el autovector correspondiente al autovalor α del observable A asociado a la cantidad F´ısica A. A la cantidad ρ (α) la llamamos la densidad de probabilidad asociada al autovalor α. N´ otese que tanto en el cont´ınuo como en el discreto, la probabilidad de obtener cualquier valor accesible es igual a la unidad como debe ser ! X X X P (ak ) = hψ| Pk |ψi = hψ| Pk |ψi = hψ| I |ψi = hψ |ψi = 1 k
o alternativamente
k
k
X k
gk XX i 2 c = hψ |ψi = 1 P (ak ) = k k
i=1
en el caso cont´ınuo Z b Z b Z b Z b 2 dP (α) = |hvα |ψi| dα = hψ |vα i hvα |ψi dα = hψ| |vα i hvα | dα |ψi = hψ| I |ψi = 1 a
a
a
a
siendo [a, b] el intervalo en donde se define la variable cont´ınua α. Por supuesto, si la funci´ on es de cuadrado integrable pero no est´ a normalizada, estas probabilidades se pueden calcular normalizando a |ψi
y para el discreto y el cont´ınuo se obtiene
′ ψ = p 1 |ψi hψ |ψi
gk X i ′ 2 hu ψ = P (ak ) = k i=1
g
k i 1 X hu |ψi 2 k hψ |ψi
i=1
1 dP (α) = ρ (α) dα = |c (α)|2 dα hψ |ψi
4.3. ESTABLECIMIENTO DE LOS POSTULADOS
199
es importante enfatizar que el car´ acter de observable de A es vital para la construcci´ on del cuarto postulado, ya que ´este depende de que un estado (arbitrario) pueda expandirse en t´erminos de los autovectores de A. Si el espectro cont´ınuo es degenerado podemos escribir E E A vαβ = α vαβ
β ∈ [c, d]
y la densidad de probabilidad asociada a α se obtiene sumando sobre todos los vectores propios con valor propio α Z d Z d 2 2 β β dP (α) = ρ (α) = hvα |ψi dβ ; hvα |ψi dβ dα c
c
la extensi´ on a casos en donde parte del espectro es cont´ınuo y parte discreto es relativamente simple y ser´ a ilustrada posteriormente con ejemplos.
4.3.3.
Relevancia f´ısica de las fases en mec´ anica cu´ antica
Consideremos dos kets |ψi y |ψ ′ i relacionados en la forma
′ ψ = eiθ |ψi
siendo θ un n´ umero real. Es f´ acil ver que los dos vectores poseen la misma norma y que la probabilidad predicha para una medici´ on arbitraria es la misma para ambos kets. hψ ′ ψ ′ = hψ| e−iθ eiθ |ψi = hψ |ψi i ′ 2 iθ i i hu |ψ i e hu |ψi 2 hu |ψi 2 k k k = = hψ ′ |ψ ′ i hψ |ψi hψ |ψi a´ un m´ as, los kets relacionados en la forma
′′ ψ = αeiθ |ψi
tambi´en contienen la misma informaci´ on f´ısica, ya que estrictamente los observables solo se calculan con kets normalizados. En consecuencia, dos kets linealmente dependientes representan el mismo estado del sistema f´ısico. Este resultado debe interpretarse con cuidado. Por ejemplo, sea el estado |ψi = λ1 |ψ1 i + λ2 |ψ2 i donde λ1 y λ2 son complejos. De lo anterior, sabemos que eiθ1 |ψ1 i representa al mismo estado que |ψ1 i y que eiθ2 |ψ2 i representa al mismo estado que |ψ2 i, no obstante el estado |ϕi = λ1 eiθ1 |ψ1 i + λ2 eiθ2 |ψ2 i no representa el mismo estado f´ısico que |ψi, ya que la diferencia de fase θ2 − θ1 dar´ a lugar a fen´ omenos de interferencia, volveremos sobre esto m´ as adelante. Por el momento mencionaremos que los dos estados describir´ an la misma f´ısica solo si θ1 = θ2 + 2nπ, siendo n un entero. Pues en tal caso eiθ1 = eiθ2 y resulta |ϕi = eiθ1 [λ1 |ψ1 i + λ2 |ψ2 i] = eiθ1 |ψi de modo que un factor de fase global no afecta las predicciones f´ısicas, pero las fases relativas de los coeficientes de una expansi´ on son significativas.
´ CAP´ITULO 4. ENUNCIADO MATEMATICO DE LOS POSTULADOS
200
4.3.4.
El proceso de medida y la reducci´ on del paquete de onda
Hasta el momento hemos hablado del valor experimental obtenido en la medici´ on pero no del estado del sistema una vez que la medici´ on se ha efectuado. En el experimento de polarizaci´ on de fotones vimos que justo despu´es de que la medida es realizada, el sistema queda preparado en el autoestado asociado al autovalor que se obtuvo en la medici´ on. Vamos ahora a generalizar este proceso conocido como reducci´ on del paquete de onda. Supongamos que queremos medir una cantidad f´ısica A asociada a un observable A en un tiempo dado t. Si |ψi representa el estado del sistema justo antes de la medici´ on, el cuarto postulado nos permite obtener la probabilidad para cada autovalor posible en la medici´ on. Sin embargo, una vez que la medida es efectuada solo uno de los posibles autovalores es obtenido. Por tanto, justo despu´es de la medici´ on, ya no podemos hablar de la probabilidad de obtener un autovalor, pues ya sabemos cual de ellos se obtuvo, de manera que poseemos una informaci´ on adicional y es comprensible que el estado del sistema ya no sea |ψi ya que justo despu´es de la medici´ on el estado debe incorporar la informaci´ on del autovalor espec´ıfico que se obtuvo. Por tanto, es de esperarse que el estado |ψk i justo despu´es de la medida sea la componente de |ψi asociada con el autoestado ak . Tendremos entonces que cuando se ejecuta una medida con resultado ak , el estado tendr´ a un cambio abrupto desde |ψi (justo antes de la medici´ on) hasta |ψk i pero normalizado (justo despu´es de la medici´ on). 1
(a )
k |ψi −→ p
hψk |ψk i
|ψk i = p
Pk |ψi
hψ| Pk |ψi
Es importante decir que la normalizaci´ on es necesaria ya despu´es de la medici´ on |ψk i describe todo el estado del sistema y no solo una componente de tal estado como antes de la medici´ on. Recordando las expansiones (4.3, 4.7) y la expresi´ on (4.6) para la componente |ψk i de |ψi sobre el autoespacio Ek , se tiene |ψi =
gn XX n
i=1
(ak )
cin uin
|ψi −→ qP gk
1
m=1
2 cm k
gk X i=1
cik uik
Quinto postulado: Si la medida de la cantidad f´ısica A sobre el sistema en el estado |ψi, nos da el valor propio ak , el estado del sistema inmediatamente despu´es de la medida est´ a dado por la proyecci´ on normalizada de |ψi sobre el autoespacio Ek asociado con ak (ak )
|ψi −→ p
gk X Pk |ψi 1 1 =p |ψk i = qP cik uik gk hψ| Pk |ψi hψk |ψk i m 2 i=1 m=1 ck
(4.10)
el estado del sistema inmediatamente despu´es de la medici´ on es entonces un autovector de A con autovalor ak . Pero no un autovector cualquiera de Ek , sino la componente sobre este autoespacio del estado |ψi que se ten´ıa antes de la medici´on. Cuando hay ausencia de degeneraci´ on gk = 1 y se tiene que el estado despu´es de la medici´ on es (ak )
|ψi −→ q
1 |ck |2
ck |uk i =
1 |ck | eiα |uk i |ck | (ak )
|ψi −→ eiα |uk i
el cual es f´ısicamente id´entico a |uk i. Efectivamente en este caso salvo por una constante de proporcionalidad, el autovector asociado a ak es u ´nico. Este postulado nos da cuenta de los cambios abruptos en el estado, o perturbaciones fundamentales que se aprecian en diversos experimentos.
4.3. ESTABLECIMIENTO DE LOS POSTULADOS
201
Por otra parte, la combinaci´ on del cuarto y el quinto postulado nos dice que si el estado de un sistema f´ısico coincide con un autovector |ψk i de un observable A asociado a un autovalor ak , entonces la medici´ on del observable A nos dar´ a con toda certeza el valor propio ak y el estado permanecer´ a intacto. Estas son las caracter´ısticas con las cuales hemos definido a los autoresultados y a los autoestados del sistema con respecto al observable A, de modo que los autoresultados y autoestados del sistema asociados con un observable A corresponden a sus valores propios y kets propios1 .
4.3.5.
Evoluci´ on f´ısica de los sistemas cu´ anticos
Ya hemos usado argumentos de plausibilidad para suponer que la ecuaci´ on de Schr¨ odinger es la ecuaci´ on que gobierna la evoluci´ on temporal de los estados correspondientes a un sistema de una part´ıcula cu´ antica no relativista. Postularemos que esta misma ecuaci´ on gobierna la evoluci´ on temporal de todos los sistemas cu´ anticos no relativistas Sexto postulado: La evoluci´ on temporal de un vector de estado |ψ (t)i est´ a regida por la ecuaci´ on de Schr¨ odinger d i~ |ψ (t)i = H (t) |ψ (t)i dt donde H (t) es el observable asociado con la energ´ıa total del sistema. H (t) se conoce como el operador Hamiltoniano del sistema y se obtiene del Hamiltoniano cl´ asico por medio de ciertas reglas de cuantizaci´ on. Antes de explicar las reglas de cuantizaci´ on, discutiremos un aspecto importante de la evoluci´ on temporal que resulta de la combinaci´ on del quinto y sexto postulados. La ecuaci´ on de Schr¨ odinger me dar´ a la evoluci´ on del estado del sistema desde un tiempo inicial t0 hasta un tiempo final t2 , siempre que en este intervalo no se realice ninguna medida. Asumamos por el contrario, que se realiza la medida de una cantidad A asociada a un on de observable A, en el tiempo t1 con t0 < t1 < t2 , y que el resultado es el valor propio ak . En tal caso, la ecuaci´ Schr¨ odinger me permitir´ a calcular la evoluci´ on del estado desde su valor en t0 dado por |ψ (t0 )i hasta el valor que adquiere en t1 (justo antes de la medida) dado por |ψ (t1 )i, como en ese instante se realiza una medida el sistema tendr´ a un cambio discont´ınuo de estado de modo que en t1 (pero justo despu´es de la medida) el sistema queda en el estado |ψk |−1 |ψk i, por tanto la evoluci´on temporal del sistema para tiempos posteriores a t1 deber´ a tomar este valor como condici´ on inicial |ψ ′ (t1 )i = |ψk |−1 |ψk i para obtener su evoluci´ on hasta cualquier valor posterior del tiempo digamos t2 , siempre que no se haga otra medida entre t1 y t2 . En general, cada medida obligar´ a a una “recalibraci´ on” de las condiciones iniciales (tomando como tiempo inicial el tiempo en que se realiza cada medida), para calcular la evoluci´ on temporal del estado. Volvamos ahora a las condiciones de cuantizaci´ on
4.3.6.
Reglas de cuantizaci´ on
Hemos visto que el Hamiltoniano cl´ asico tiene asociado un operador cuyos valores propios son las energ´ıas accesibles del sistema. Conocemos la forma de este operador para la representaci´ on en la base {|ri}, y vemos que a partir del Hamiltoniano cl´ asico H (r, p, t) el operador Hamiltoniano queda en la forma p2 P2 ~2 2 + V (r) → + V (R) = − ∇ + V (r) 2m 2m 2m H (r, p, t) → H (R, P, t) siendo P y R los operadores de momento y posici´ on definidos en la secci´ on 1.43.4. En lo anterior hemos usado el hecho de que en la representaci´ on de la base {|ri}, el operador P est´ a representado por el operador diferencial −i~∇, y el operador R est´ a representado por la multiplicaci´ on por el valor de posici´ on R → r (ver Ecs. 1.186, 1.191). 1
N´ otese que si cambiamos de observable los autoestados y autoresultados (kets y valores propios), se redefinen completamente ya que estos conceptos est´ an ligados al sistema f´ısico junto con el aparato de medida.
´ CAP´ITULO 4. ENUNCIADO MATEMATICO DE LOS POSTULADOS
202
Nuevamente, extenderemos este algoritmo a la construcci´ on de un operador A asociado a una cantidad f´ısica A que est´ a definida en la mec´ anica cl´ asica. Consideremos una part´ıcula sin esp´ın sujeta a un potencial escalar, estableceremos la siguiente regla de cuantizaci´ on A la posici´ on r (x, y, z) de la part´ıcula se le asocia el observable R (x, y, z). Al momento p (px , py , pz ) de la part´ıcula se le asocia el observable P (px , py , pz ). Recordemos que las componentes de los operadores R y P satisfacen las relaciones can´ onicas de commutaci´ on [Ri , Rj ] = [Pi , Pj ] = 0 ;
[Ri , Pj ] = − [Pj , Ri ] = i~δij
(4.11)
por tanto, dado que una cantidad f´ısica cl´ asica A se puede escribir en t´erminos de r, p, t i.e. A (r, p, t), el correspondiente observable A se obtendr´ a reemplazando las variables din´ amicas r, p en la expresi´ on A (r, p, t) por los observables R y P A (t) = A (R, P, t) sin embargo, este algoritmo puede generar algunas ambig¨ uedades e inconsistencias. Asumamos por ejemplo que en la cantidad f´ısica A (r, p, t) aparece un t´ermino de la forma r · p = xpx + ypy + zpz en mec´ anica cl´ asica, el producto r · p es conmutativo, de modo que tambi´en podemos escribirlo como p · r = px x + py y + pz z pero en el proceso de cuantizaci´ on, ambos t´erminos conducen a operadores diferentes ya que R y P no conmutan R · P 6= P · R adicionalmente, ninguno de estos operadores es Herm´ıtico2 (R · P)† = (XPx + Y Py + ZPz )† = Px† X † + Py† Y † + Pz† Z † = Px X + Py Y + Pz Z = P · R la segunda de las Ecs. (1.43) nos sugiere la forma de generar un operador herm´ıtico con este producto Z ≡ Z ≡
R·P+P·R P · R + (P · R)† R · P + (R · P)† = = ⇒ 2 2 2 R·P+P·R 2
esta forma adem´ as de ser herm´ıtica, es sim´etrica con respecto a R·P y P · R es decir con respecto a la cuantizaci´ on de cualquiera de los dos operadores. De modo que debemos a˜ nadir una regla de simetrizaci´ on de los operadores que incluya operadores m´ as complejos que R · P Regla de cuantizaci´ on y simetrizaci´ on: El observable A que describe a una cantidad f´ısica definida cl´ asicamente por A (r, p, t), se obtiene reemplazando para A a las variables din´ amicas r, p (can´ onicamente conjugadas) por los observables R, P, en una forma adecuadamente simetrizada. M´ as adelante veremos sin embargo, que ciertos observables A en mec´ anica cu´ antica no provienen de una cantidad f´ısica A definida cl´ asicamente, sino que surgen directamente como observables cu´ anticos, este es el caso del esp´ın de la part´ıcula. Es importante enfatizar que las reglas de cuantizaci´ on y las propiedades de commutaci´ on establecidas en esta secci´ on solo son v´ alidas para las coordenadas cartesianas. Si bien es posible extenderlas a otros tipos de coordenadas, no adquirir´ an formas tan simples. Veamos algunos ejemplos del uso de las reglas de cuantizaci´ on. 2
Recordemos que el producto de operadores herm´ıticos no es en general herm´ıtico (ver teorema 1.34).
4.3. ESTABLECIMIENTO DE LOS POSTULADOS
203
(a) El caso m´ as simple es el de una part´ıcula de masa m, bajo una interacci´ on que se puede describir por un potencial que solo depende de la posici´ on y el tiempo, el Hamiltoniano cl´ asico en coordenadas cartesianas vendr´ a dado por p2 dr H (r, p) = + V (r) ; p = m = mv 2m dt la regla de cuantizaci´ on no presenta dificultades ya que no es necesaria ninguna simetrizaci´ on puesto que R y P nunca se acoplan, de modo que no aparecen productos de operadores que no conmutan. El Hamiltoniano como observable queda P2 H (R, P) = + V (R) 2m en este caso particular en virtud del sexto postulado la ecuaci´ on de Schr¨ odinger queda 2 d P i~ |ψ (t)i = + V (R) |ψ (t)i dt 2m (b) Veamos ahora el Hamiltoniano de una part´ıcula sometida a una interacci´ on electromagn´etica, en tal caso el Hamiltoniano cl´ asico se escribe en la forma H (r, p) =
1 [p − qA (r, t)]2 + qφ (r, t) 2m
(4.12)
siendo A (r, t) , φ (r, t) los potenciales vectorial y escalar, p es el momento can´ onicamente conjugado a r y est´ a dado por dr p = m + qA (R, t) = mv + qA (R, t) dt n´ otese que el momento p can´ onicamente conjugado a r, no es el momento lineal de la part´ıcula, esto se debe a que para una part´ıcula en un campo electromagn´etico, el potencial generalizado asociado depende de la velocidad generalizada y no solo de la posici´ on. De nuevo la cuantizaci´ on es sencilla puesto que no hay operadores para simetrizar, el Hamiltoniano como observable queda H (R, P) =
1 [P − qA (R, t)]2 + V (R, t) ; 2m
V (R, t) ≡ qφ (R, t)
y la ecuaci´ on de Schr¨ odinger resulta i~
d |ψ (t)i = dt
1 [P − qA (R, t)]2 + V (R, t) |ψ (t)i 2m
habiamos mencionado antes que a pesar de que el potencial generalizado depende de la velocidad, el Hamiltoniano contin´ ua siendo la energ´ıa del sistema, esto se puede ver teniendo en cuenta que el momento lineal de la part´ıcula que denotaremos por p~ est´ a relacionado con el momento conjugado a la variable r en la forma p~ = p − qA de modo que el Hamiltoniano cl´ asico queda H=
~2 p + V (r, t) 2m
el primer t´ermino es la energ´ıa cin´etica y el segundo es la componente del potencial que genera trabajo. La clave est´ a en el hecho de que el campo magn´etico (que es el que introduce el potencial dependiente de la velocidad) no realiza trabajo. Este ejemplo tambi´en nos sirve para realizar una aclaraci´ on importante, en la regla de cuantizaci´ on es el momento p can´ onicamente conjugado a r, y no el momento lineal ~ p el que debe reemplazarse por el operador
204
´ CAP´ITULO 4. ENUNCIADO MATEMATICO DE LOS POSTULADOS
P. Si recordamos que dos variables xi , pi can´ onicamente conjugadas cl´ asicamente son tales que sus corchetes de Poisson cumplen la relaci´ on [xi , xj ]pois = [pi , pj ]pois = 0 ; [xi , pj ]pois = − [pj , xi ]pois = δij
(4.13)
diremos que las cantidades que cl´ asicamente cumplen las relaciones can´ onicas (4.13) con corchetes de Poisson, pasar´ an en el proceso de cuantizaci´ on a cumplir las relaciones can´ onicas (4.11) con conmutadores. N´ otese adem´ as que las propiedades fundamentales de los conmutadores (1.37-1.42) tambi´en las cumplen los corchetes de Poisson y con ambas se podr´ a generar un ´ algebra de Lie.
Cap´ıtulo 5
Consecuencias de los postulados sobre los observables y sus medidas Ya hemos estudiado los kets de posici´ on |ri y los kets de momento |pi as´ı como los operadores de posici´ on y momento R y P. Por simplicidad usaremos el caso unidimensional, las ecuaciones de valores propios para X, Px son X |xi = x |xi ; Px |px i = px |px i estos operadores tienen un espectro cont´ınuo lo cual coincide con el hecho experimental de que todos los valores reales son posibles para las posiciones y momentos de la part´ıcula. Si utilizamos el cuarto postulado podemos calcular la probabilidad de obtener una posici´ on dentro del intervalo entre x y x + dx o la probabilidad de obtener un momento en el intervalo entre px y px + dpx . 2 dP (x) = |hx |ψi|2 dx = |ψ (x)|2 dx ; dP¯ (p) = |hp |ψi|2 dp = ψ¯ (p) dp de hecho estas expresiones fueron usadas para establecer el cuarto postulado. No obstante, es de particular inter´es la interpretaci´ on a la luz de este postulado del caso en el que el estado del sistema est´ a descrito justamente por ′ ′ |x i o |p i, en tal caso estas probabilidades quedan 2 2 2 2 dP (x) = hx x′ dx = δ x − x′ dx ; dP¯ (p) = hp p′ dp = δ p − p′ dp
si integramos estas probabilidades entre x′ − ε y x′ + ε o entre p′ − ε y p′ + ε respectivamente, tenemos que la probabilidad da la unidad sin importar el tama˜ no de ε, si por el contrario calculamos la integral en cualquier volumen que excluya al punto x′ o p′ esta integral da cero. Por tanto |x′ i describe un estado en donde la part´ıcula est´ a en un punto bien definido del espacio y |p′ i describe una part´ıcula con momento espec´ıfico p′ . Para el estado ′ |x i la medida de posici´ on es totalmente predecible y para el estado |p′ i es totalmente predecible la medida del momento. N´ otese que para el estado |x′ i la densidad de probabilidad asociada a la posici´ on diverge en el punto ′ x y se anula en los dem´ as, esto est´ a relacionado con el hecho de que este no es un estado f´ısicamente realizable, ya que no es de cuadrado integrable1 . Similar discusi´ on ocurre para el estado |p′ i para el cual la densidad de probabilidad asociada al momento diverge en el punto p′ y se anula en los dem´ as. El estado |x′ i se puede calcular en las bases {|xi} y {|pi} ′ ′ e−ipx′ /~ ′ ′ x (x) = hx x = δ x − x ; x ¯ (p) = hp x = √ 2π~ ′
si calculamos la probabilidad de que al medir el momento lineal de la part´ıcula en el estado |x′ i se encuentre un valor entre p y p + dp, obtenemos ′ 2 dp dP (p) = x ¯ (p) dp = 2π~ 1
En mec´ anica cl´ asica el fen´ omeno es similar. Una part´ıcula puntual (localizada en r′ ) corresponde a un sistema f´ısico de densidad infinita de masa ρ (r) = mδ (r − r′ ). Por tanto, este es un estado cl´ asico impropio.
205
206
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
es decir, una probabilidad uniforme. Nuevamente, la probabilidad diverge por ser un estado impropio. Sin embargo, es interesante ver que el colapso de la funci´ on de onda en un punto del espacio (es decir la certeza total de tener una posici´ on descrita por el estado |x′ i) lleva a la incertidumbre total en el momento, como ya se discuti´ o para el principio de incertidumbre de Heisenberg. Un an´ alisis similar se puede hacer para el estado impropio |p′ i. Como X, P tienen como valores propios las posiciones y momentos de estos estados colapsados, tiene sentido que la regla de cuantizaci´ on reemplace x por X y p por P . Vale la pena mencionar que para interpretar adecuadamente una funci´ on de onda, es esencial conocer la base en la que est´ a escrita. A manera de ejemplo, obs´ervese que el ket |xi corresponde a una part´ıcula perfectamente localizada en x y con incertidumbre total del momento, en tanto que el ket |−pi corresponde a una part´ıcula con momento perfectamente definido −p y con total incertidumbre en la posici´ on. Ahora veamos como se escribe |xi en la base {|pi} y como se escribe |−pi en la base {|xi} e−ipx/~ x ¯ (p) = hp |xi = √ 2π~
;
e−ipx/~ −p (x) = hx |−pi = √ 2π~
n´ otese que dos estados totalmente distintos pueden ser descritos con la misma forma funcional si ambos est´ an escritos en bases diferentes. Una onda plana en la base {|pi} corresponde a una part´ıcula bien localizada, en tanto que la misma onda plana en la base {|xi} est´ a asociada a una part´ıcula con momento bien definido. Como ya se mencion´ o, en algunos casos la ecuaci´ on de valores propios (establecida en el tercer postulado) conduce a un espectro discreto y en otros casos a un espectro cont´ınuo, lo cual nos generar´ a la discretizaci´ on de ciertas cantidades f´ısicas. Lo interesante es que tanto para los casos discretos como para los cont´ınuos hay una excelente concordancia con los experimentos. Los postulados cuatro y cinco plantean ciertos problemas fundamentales inherentes al proceso de medida. Por ejemplo, la existencia de una perturbaci´ on fundamental implica que el sistema no se puede considerar independientemente al aparato de medida, en realidad el conjunto sistema f´ısico-aparato de medida deben considerarse como un todo. El punto es que el proceso de observaci´ on requiere de una interacci´ on entre el sistema y el aparato. Adem´ as el aparato de medida (para un sistema f´ısico dado) define tanto los autoresultados como los autoestados que se pueden obtener en el proceso de medici´ on, como se discuti´ o en la secci´ on 2.9, p´ agina 135 sobre la medici´ on de fotones polarizados. Esto conlleva a preguntas delicadas sobre el proceso de medida que no discutiremos aqu´ı. N´ otese que de acuerdo con los postulados cuarto y quinto, la indeterminaci´ on en el proceso de medida indica por un lado la existencia de la perturbaci´ on fundamental pero tambi´en la no determinaci´ on de su comportamiento espec´ıfico, ya que a partir del estado antes de la medida (que se puede obtener en forma totalmente determinista), la medida nos lleva a un cambio abrupto que no se puede determinar con certeza. Puesto que la ecuaci´ on de Schr¨ odinger es totalmente determinista, la generaci´ on de la perturbaci´ on fundamental y de la indeterminaci´ on son inherentes al proceso de medida. En lo que sigue consideraremos solo medidas ideales. Esto significa que se asume que el aparato de medida es perfecto, de modo que solo se generan las perturbaciones e incertidumbres inherentes a las leyes cu´ anticas. En la realidad, los aparatos son imperfectos y por tanto presentan una incertidumbre experimental que afecta de manera adicional a la medida. Por ejemplo, un analizador deja pasar ondas polarizadas no solo en una direcci´ on fija sino en cierto intervalo alrededor de esta direcci´ on. Sin embargo, a diferencia de las incertidumbres y perturbaciones cu´ anticas, estas incertidumbres y perturbaciones experimentales pueden disminu´ırse indefinidamente (al menos en principio) para acercarse cada vez m´ as al l´ımite ideal.
5.1. 5.1.1.
Consideraciones estad´ısticas Valor medio de un observable para un sistema en un estado dado
Para verificar el cuarto postulado, es necesario preparar un sistema en un estado bien definido y repetir el experimento muchas veces, donde para cada experimento tenemos un sistema id´entico con el mismo estado inicial. Estrictamente, las predicciones solo se reproducir´ an en el l´ımite cuando N (n´ umero de reproducciones del
5.1. CONSIDERACIONES ESTAD´ISTICAS
207
experimento o n´ umero de eventos) tiende a infinito. En la pr´ actica N es finito y por tanto deben usarse t´ecnicas estad´ısticas para interpretar los resultados. De aqu´ı en adelante denominaremos observable tanto a la cantidad f´ısica como al operador cu´ antico asociado. Definiremos el valor esperado (o valor medio) de un observable, como el promedio de los resultados obtenidos cuando se realiza un gran n´ umero de mediciones N de dicho observable, para sistemas id´enticos que se preparan en un estado espec´ıfico |ψi. Denotaremos al valor esperado del observable A para el sistema en el estado |ψi en la on se simplificar´ a en la forma hAi. forma hAi|ψi o cuando se sobreentienda cual es el estado, la notaci´ La idea es poder predecir el valor esperado con base en los postulados. Comencemos primero con el caso de espectro discreto. Si se realizan N experimentos para id´enticos sistemas cada uno en el estado |ψi y se obtiene el autovalor an para el observable A un n´ umero N (an ) de veces, la probabilidad de obtener dicho autovalor se define como N (an ) P (an ) ≡ l´ım (5.1) N →∞ N y es claro que
X n
N (an ) = N
el valor medio es simplemente la suma de todas las medidas obtenidas dividida por el n´ umero N de medidas. Por supuesto, cuando un n´ umero N (an ) de medidas han dado el mismo resultado an , la suma con que contribuyen estos eventos se escribe simplemente como an N (an ) y se suma sobre los resultados diferentes obtenidos hAi|ψi =
1 X an N (an ) N n
a N (an ) se le conoce como la frecuencia del evento. Si tomamos el l´ımite cuando N → ∞ y usamos la definici´ on (5.1) de probabilidad se tiene que X hAi|ψi = an P (an ) n
y usando la Ec. (4.4) que proviene del cuarto postulado, se obtiene hAi|ψi =
X n
gn gn X i 2 X X an hψ un = an hψ uin huin |ψi i=1
n
i=1
donde uin son los vectores propios (ortonormalizados) de A asociados al valor propio an A uin = an uin
de modo que hAi|ψi = hAi|ψi
gn XX n
i=1
gn XX i i hψ| an un hun |ψi = hψ| A uin huin |ψi n
i=1
" # " # gn XX X i i un un |ψi = hψ| A = hψ| A Pn |ψi = hψ| AI |ψi n
n
i=1
donde hemos usado la relaci´ on de completez para el discreto Ec. (1.170), n´ otese que el uso de la completez requiere una vez m´ as que A sea un observable. Finalmente, la expresi´ on para el valor esperado queda hAi|ψi = hψ| A |ψi
(5.2)
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
208
para el caso del espectro cont´ınuo no degenerado, el argumento es similar. Consideremos N experimentos id´enticos y denominemos dN (α) el n´ umero de experimentos cuyo resultado est´e inclu´ıdo entre α y α + dα, la probabilidad la definimos similarmente como dN (α) dP (α) = l´ım N →∞ N el valor medio o esperado se escribe como Z Z 1 hAi|ψi = l´ım α dN (α) = α dP (α) N →∞ N usando de nuevo el cuarto postulado (para espectro cont´ınuo), sustitu´ımos dP (α) por su valor en la Ec. (4.9) Z Z 2 hAi|ψi = α |hψ |vα i| dα = α hψ |vα i hvα |ψi dα y dado que A |vα i = α |vα i se obtiene
Z hψ| α |vα i hvα |ψi dα = hψ| A |vα i hvα |ψi dα Z = hψ| A |vα i hvα | dα |ψi = hψ| AI |ψi = hψ| A |ψi
hAi|ψi = hAi|ψi
Z
donde hemos usado la relaci´ on de completez para el cont´ınuo Ec. (1.170). Por tanto, se obtiene de nuevo la Ec. (5.2). Es importante aclarar que hAi|ψi es un promedio realizado sobre un conjunto de mediciones id´enticas, y no debe confundirse con los promedios temporales que se utilizan con frecuencia en f´ısica para estados que dependen del tiempo. Si el ket no est´ a normalizado, la Ec. (5.2) se debe convertir en hAi|ψi =
5.1.2.
hψ| A |ψi hψ |ψi
Valor esperado para los observables X, P
Para realizar el c´ alculo del valor esperado de un observable debemos recurrir a una representaci´ on espec´ıfica. on {|ri} Calculemos hXi|ψi usando la representaci´ Z Z 3 hXi|ψi = hψ| X |ψi = d r hψ |ri hr| X |ψi = d3 r ψ ∗ (r) xhr |ψi Z hXi|ψi = d3 r ψ ∗ (r) x ψ (r) (5.3) calculando hP i|ψi usando la representaci´ on {|pi} se obtiene Z hPx i|ψi = d3 p ψ¯∗ (p) px ψ¯ (p) si por ejemplo se calcula hP i|ψi usando la representaci´ on {|ri} se tiene Z Z ~ 3 3 ∗ hPx i|ψi = hψ| Px |ψi = d r hψ |ri hr| Px |ψi = d r ψ (r) ∂x hr |ψi i Z ~ hPx i|ψi = d3 r ψ ∗ (r) ∂x ψ (r) i
(5.4)
(5.5)
5.1. CONSIDERACIONES ESTAD´ISTICAS
5.1.3.
209
Valor esperado para el commutador de dos observables
Es f´ acil ver que el commutador de dos operadores herm´ıticos es antiherm´ıtico [A, B]† = (AB − BA)† = BA − AB = − [A, B] esto significa que podemos escribir el commutador entre dos operadores herm´ıticos como [A, B] = iC ; C = C † siendo C un operador herm´ıtico, los valores propios de iC son puramente imaginarios al igual que su valor esperado con respecto a cualquier estado |ψi. Podemos escribir entonces h[A, B]i = iM siendo M un n´ umero real. Vemos que si A y B son observables, su commutador no es un observable ya que no es herm´ıtico.
5.1.4.
La desviaci´ on media cuadr´ atica
Si bien el valor medio o esperado hAi nos da el orden de magnitud de los resultados esperados al medir la cantidad f´ısica A, es tambi´en estad´ısticamente importante conocer la dispersi´ on que presentan los datos cuando se realizan una gran cantidad de medidas. Asumamos que el espectro de A es cont´ınuo. Si hacemos una gr´ afica de ρ (α) vs α, el valor esperado hAi ser´ a la abscisa del “centro de gravedad” del ´ area bajo la curva, n´ otese adem´ as que aximo, si esta curva no es sim´etrica alrededor de hAi entonces el valor αm para el cual ρ (αm ) adquiere su valor m´ no necesariamente coincide con hAi. De hecho, puede existir m´ as de un m´ aximo local. La gr´ afica de ρ (α) vs α suele ser asint´ otica, es decir tiende a cero para α → ±∞, pero usualmente no es igual a cero para ning´ un α real. Esto implica que estrictamente hay en la mayor´ıa de los casos una probabilidad diferente de cero de encontrar cualquier valor real de α. Sin embargo, es usual definir un ancho δA centrado en hAi en el cual est´e la mayor parte del ´ area bajo la curva, es decir existe una probabilidad cercana a la unidad de que la medida de α arroje un valor entre hAi − δA/2 y hAi + δA/2. La cantidad δA caracteriza el ancho de la curva de modo que a menor δA, tenemos que los resultados estar´ an m´ as concentrados alrededor de hAi, lo cual indica una menor dispersi´ on de las medidas. Veremos ahora como encontrar una cantidad que caracterice la dispersi´ on de las medidas. A priori uno podr´ıa pensar en tomar la diferencia entre cada valor αi obtenido y hAi, (a esta diferencia la llamamos la desviaci´ on del dato αi ), para luego promediar estas desviaciones. Este m´etodo sin embargo, no es adecuado ya que el promedio de las desviaciones es siempre cero tanto en el cont´ınuo como en el discreto D (αi ) ≡ hAi − αi ; hD (A)i = hD (A)i =
1 1 N hAi − N N
N X i=1
N N 1 X 1 X D (αi ) = [hAi − αi ] ⇒ N N i=1
αi = hAi −
i=1
1 N
n X k=1
nk αk = hAi − hAi = 0
umero de datos con el mismo donde el promedio de A se reescribi´ o multiplicando αk por su frecuencia nk (n´ resultado) y sumando sobre los datos diferentes (k = 1, .., n). Similarmente en el cont´ınuo Z α1 1 hD (A)i = hhAi − αi = hAi − ρ (α) α dα α1 − α0 α0 hD (A)i = hAi − hAi = 0 donde el ρ (α) dα es la frecuencia diferencial en el cont´ınuo (densidad multiplicada por el diferencial de volumen). La anulaci´ on de la desviaci´ on promedio tiene que ver con la definici´ on misma de valor promedio o esperado, en el
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
210
cual las desviaciones negativas se compensan con las positivas. Para evitar este fen´ omeno de cancelaci´ on, podemos definir las desviaciones cuadr´ aticas en la forma D E (∆A)2 ≡ (A − hAi)2 y definimos entonces la ra´ız de la desviaci´ on media cuadr´ atica como rD E (A − hAi)2 ∆A =
(5.6)
y usando la expresi´ on para el valor medio o esperado dada por la Ec. (5.2) obtenemos q ∆A = hψ| (A − hAi)2 |ψi
la desviaci´ on media cuadr´ atica se puede reescribir en la forma D E Dh iE (A − hAi)2 = A2 − 2A hAi + hAi2 = A2 − 2 hAi hAi + hAi2 D E
(A − hAi)2 = A2 − hAi2 y la ra´ız de la desviaci´ on media cuadr´ atica queda
∆A =
q
hA2 i − hAi2
(5.7)
por ejemplo para el espectro cont´ınuo de un observable A, ∆A queda en la forma Z α1 2 (∆A) = [α − hAi]2 ρ (α) dα 2
(∆A)
5.2.
=
Z
α0 α1 α0
2
α ρ (α) dα −
Z
α1
α0
2 α ρ (α) dα
Observables compatibles
Consideremos dos observables A y B que conmutan [A, B] = 0 asumiremos por simplicidad que ambos espectros son discretos. El teorema 1.69 nos dice que existe un conjunto completo de vectores propios comunes a ambos observables, es usual denotar esta base como {|an , bp , ii}, o a´ un m´ as simple como {|n, p, ii} A |n, p, ii = an |n, p, ii ; B |n, p, ii = bp |n, p, ii donde el ´ındice i indica que a cada par de autovalores (an , bp ) le pueden corresponder varios autovectores linealmente independientes. Por tanto, para cada posible valor del par (an , bp ) existe por lo menos un vector |n, p, ii para el cual la medida de A siempre ser´ a an y la medida de B siempre ser´ a bp . Veamos las implicaciones f´ısicas sobre los observables asociados a operadores que conmutan. Partamos de un estado inicial normalizado dado |ψi (que en principio es arbitrario). Este estado se puede escribir como una combinaci´ on lineal de la base {|n, p, ii} com´ un a A y B: X |ψi = cn′ ,u,v n′ , u, v (5.8) n′ ,u,v
5.2. OBSERVABLES COMPATIBLES
211
asumamos que primero hacemos una medida del observable A y se obtiene an y que inmediatamente despu´es (de modo que en el tiempo transcurrido se pueda despreciar la evoluci´ on temporal del estado) realizamos una medida de B de la cual obtenemos el valor bp . Calculemos la probabilidad P (an , bp ) de obtener an en la primera medida y bp en la segunda. Usando el cuarto postulado Ec. (4.4) y la Ec. (5.8), la probabilidad P (an ) de obtener la primera medida es 2 X
X X
2 ′ ′ ′ ′ ′ n, p , i n, p , i ψi = cn′ ,u,v n , u, v P (an ) = p′ ,i′ p′ ,i′ n′ ,u,v 2 2 X X X X
′ ′ ′ ′ ,u,v n, p , i n , u, vi ′ ,u,v δn,n′ δp′ u δi′ v = c = c n n p′ ,i′ n′ ,u,v p′ ,i′ n′ ,u,v P (an ) =
X cn,p′ ,i′ 2
(5.9)
p′ ,i′
pero seg´ un el quinto postulado Ec. (4.10), el sistema luego de esta primera medici´ on queda preparado en el estado normalizado |ψn i definido por X 1 cn,p′ ,i′ n, p′ , i′ (5.10) |ψn i = qP 2 ′ ′ |c | p ,i n,k,m k,m
este ser´ a entonces el estado en el que estar´ a el sistema justo antes de la medici´ on de B. Recurriendo de nuevo al cuarto postulado Ec. (4.4) la probabilidad de que habiendo obtenido en la primera medici´ on el valor an se obtenga en la segunda medici´ on el valor bp estar´ a dada por 2 X X
X
1 2 ′ ′ ′ ′ Pan (bp ) = n , p, i ψn i = cn,p′ ,i′ n, p , i n , p, i qP 2 ′ ′ n′ ,i n′ ,i k,m |cn,k,m | p ,i 2 P P P P 2 ′ ′ ′ n′ ,i p′ ,i′ cn,p′ ,i′ hn , p, i |n, p , i i n′ ,i p′ ,i′ cn,p′ ,i′ δn′ n δpp′ δii′ = = P P 2 2 k,m |cn,k,m | k,m |cn,k,m | P |cn,p,i |2 Pan (bp ) = P i (5.11) 2 k,m |cn,k,m |
ahora bien, la probabilidad P (an , bp ) que buscamos corresponde a una composici´ on de eventos: para que estos dos eventos de hecho ocurran, debemos primero encontrar an para lo cual hay una probabilidad P (an ) y entonces habiendo cumplido la primera condici´ on, debemos encontrar bp para lo cual hay una probabilidad Pan (bp ) por lo tanto P (an , bp ) = P (an ) × Pan (bp ) (5.12) sustituyendo (5.9) y (5.11) en (5.12) se obtiene
" # P 2 X 2 |c | cn,p′ ,i′ P i n,p,i P (an , bp ) = 2 k,m |cn,k,m | p′ ,i′ X P (an , bp ) = |cn,p,i |2
(5.13)
i
y el estado del sistema despu´es de la segunda medici´ on de acuerdo con el quinto postulado Ec. (4.10), ser´ a Pp |ψn i |ψn,p i = p hψn | Pp |ψn i
(5.14)
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
212
evaluemos el numerador y el denominador de esta expresi´ on, usando la Ec. (5.10). X X 1 |l, p, vi hl, p, v| qP cn,p′ ,i′ n, p′ , i′ Pp |ψn i = 2 ′ ′ l,v k,m |cn,k,m | p ,i i hP P hP P i ′ , i′ i ′ ′ ′ ′ ′ ′ c |l, p, vi hl, p, v| n, p c |l, p, vi δ δ δ ln pp vi l,v p′ ,i′ n,p ,i l,v p′ ,i′ n,p ,i qP qP = = 2 2 k,m |cn,k,m | k,m |cn,k,m | P ′ ′ cn,p,i′ |n, p, i i Pp |ψn i = qiP 2 k,m |cn,k,m |
(5.15)
P P ∗ P ′ ′ ′ X
′ cn,p,i′ |n, p, i i p′ ,r i′ cn,p′ ,r cn,p,i′ hn, p , r| n, p, i i ∗ ′ i hψn | Pp |ψn i = cn,p′ ,r n, p , r P 2 = P 2 k ′ ,m′ cn,k ′ ,m′ k ′ ,m′ cn,k ′ ,m′ p′ ,r 2 P P ∗ P ∗ P p′ ,r i′ cn,p′ ,r cn,p,i′ δnn δp′ p δri′ i′ cn,p,i′ cn,p,i′ i′ cn,p,i′ hψn | Pp |ψn i = =P 2 2 = P ⇒ P cn,k′ ,m′ cn,k′ ,m′ cn,k′ ,m′ 2 ′ ′ ′ ′ ′ ′ k ,m k ,m k ,m qP 2 q i′ cn,p,i′ hψn | Pp |ψn i = qP (5.16) 2 ′ ′ cn,k ′ ,m′ k ,m
Reemplazando (5.15, 5.16) en (5.14), el estado justo despu´es de la segunda medida queda finalmente X 1 |ψn,p i = qP cn,p,i |n, p, ii 2 |c | i k n,p,k
(5.17)
es f´ acil verificar que |ψn,p i es un estado propio de A y B con valores propios an y bp P P P cn,p,i [A |n, p, ii] cn,p,i [an |n, p, ii] iq iq i cn,p,i [|n, p, ii] A |ψn,p i = = = an q P P P 2 2 2 k |cn,p,k | k |cn,p,k | k |cn,p,k | A |ψn,p i = an |ψn,p i
y similarmente para B B |ψn,p i = bp |ψn,p i
Por tanto, si midi´eramos de nuevo A (nuevamente los tiempos deben ser cortos para que el estado no haya evolucionado significativamente a partir del estado descrito por la Ec. 5.17) la probabilidad de obtener el resultado an es 1 y no se altera el estado del sistema. Igualmente si medimos B con el sistema en el estado |ψn,p i la probabilidad de obtener bp es 1 y el estado permanece inalterado despu´es de la medici´ on. Volvamos ahora al estado inicial |ψi del sistema y hagamos las mediciones en el orden contrario (primero B y luego A). Evaluaremos la probabilidad de obtener el valor bp en la primera medida y el valor an en la segunda medida que denotamos como P (bp , an ), siguiendo los mismos razonamientos del caso anterior vemos que la probabilidad de obtener bp en la primera medida es X cn′ ,p,i′ 2 P (bp ) = n′ ,i′
y si el valor bp es obtenido, el estado despu´es de la medici´ on ser´ a X 1 |ϕp i = qP cn′ ,p,i′ n′ , p, i′ 2 ′ ′ uv |cu,p,v | n ,i
5.2. OBSERVABLES COMPATIBLES
213
y la probabilidad de que partiendo del estado |ϕp i se obtenga el valor an del observable A en la segunda medida es X 1 Pbp (an ) = P |cn,p,i |2 2 uv |cu,p,v | i adicionalmente la probabilidad de que ocurran ambos eventos en este orden ser´ a P (bp , an ) = P (bp ) × Pbp (an ) X |cn,p,i |2 P (bp , an ) =
(5.18)
i
si de hecho encontramos bp en la primera medida y an en la segunda, el estado del sistema despu´es de la segunda medida ser´ a X 1 |ϕp,n i = qP cn,p,i |n, p, ii (5.19) 2 i k |cn,p,k |
comparando la Ec. (5.13) con la Ec. (5.18) vemos que la probabilidad de obtener un par espec´ıfico de valores (an , bp ) de los observables A y B respectivamente, es igual sin importar el orden en que se midan (siempre teniendo en cuenta que la distancia temporal entre dos medidas debe ser peque˜ na para evitar la evoluci´ on del sistema). Adicionalmente, al comparar (5.17) con (5.19) vemos que el estado despu´es de la segunda medida tambi´en es el mismo en ambos casos. Finalmente, una medida posterior de A ´ o B nos dar´ a con certeza los valores an ´ o bp . N´ otese que estos hechos dependen de que podamos encontrar un conjunto completo com´ un de vectores propios para ambos observables, para lo cual es necesario y suficiente que ambos observables conmuten (teorema 1.69). Por esta raz´ on a los observables conmutantes tambi´en se les denomina observables compatibles. Podemos resumir las propiedades de los observables compatibles de la siguiente manera: Cuando dos observables A y B son compatibles, si medimos primero A entonces la medida posterior de B no causa ninguna p´erdida de informaci´ on previamente obtenida en la medida de A y viceversa. Por el contrario, la medida de B se “adiciona” como informaci´ on a lo que se obtiene en la primera medida. Adem´ as la realizaci´ on de las dos medidas ejecutadas en cualquier orden arroja la misma distribuci´ on de probabilidad para cada par accesible de valores propios. Ahora supongamos que se realizan dos experimentos ambos con el mismo estado inicial, midiendo en el primero la secuencia A ⇒ B y en el segundo la secuencia B ⇒ A, si en ambos experimentos se obtienen los mismos valores propios, entonces obtendremos el mismo estado final. Vale decir que si en un experimento particular en el orden A ⇒ B se obtuvo (an , bp ), no quiere decir que en otro experimento espec´ıfico con las mismas condiciones iniciales y en el orden B ⇒ A se obtenga (bp , an ), ya que lo que se igualan son las probabilidades2 . Adicionalmente, tampoco tenemos que llegar al mismo estado final en ambos experimentos, solo tenemos garantizado que si en ambos experimentos obtenemos los mismos valores propios, el estado final ser´ a el mismo. Ahora bien, puesto que no es relevante el orden en que se ejecutan las medidas de A y B podemos considerar la medici´ on simult´anea de ambos observables. N´ otese que para observables compatibles se puede hacer una especie de “extensi´ on” de los postulados cuarto y quinto como se puede apreciar de las Ecs. (5.13, 5.18) y de las Ecs. (5.17, 5.19). De estas ecuaciones se observa que podemos considerar a la dupla (an , bp ) como un solo resultado que corresponde a la superposici´ on de vectores ortonormales |n, p, ii donde i indica la degeneraci´on asociada al “´ unico valor propio” cnp ≡ (an , bp ). Un aspecto importante cuando se realizan medidas sucesivas de observables compatibles es que la adici´ on de informaci´ on que se obtiene luego de cada medida, conduce a una reducci´ on “acumulativa” del paquete de ondas cuando este paquete se define con respecto a kets propios comunes a todos los observables3 . Esto se puede observar 2
Es decir el patr´ on de distribuci´ on de valores propios en ambos casos debe ser el mismo cuando se hace una gran cantidad de experimentos de cada tipo. 3 Es esencial comprender que la definici´ on de paquete de ondas en el presente contexto, depende de una base espec´ıfica. Por ejemplo, si el estado de un sistema en un instante dado es |ψk i donde ´este es un ket propio de A, entonces el paquete asociado ser´ a “monocrom´ atico” si lo referimos a una base de kets propios de A en donde |ψk i hace parte de la base. No obstante, si el paquete lo definimos eligiendo una base asociada a kets propios de otro observable B, entonces |ψk i ser´ a una superposici´ on “policrom´ atica” con respecto a dicha base.
214
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
si comparamos al estado |ψi en la Ec. (5.8) (antes de la medida de A) con el estado |ψn i en la Ec. (5.10) (posterior a la medida de A) y luego con el estado |ψn,p i en la Ec. (5.17) (despu´es de la medida de A y B). Es decir, que al medir sucesivamente observables compatibles A1 , A2 , . . . , Am el paquete de onda despu´es de medir el observable Ai es un subconjunto propio del paquete justo antes de dicha medici´ on. En principio, la reducci´on del paquete ser´ a m´ axima cuando el conjunto de observables compatibles forme un C.S.C.O. volveremos sobre este punto en la secci´on 5.5.
5.3.
Observables no compatibles e incertidumbres
Seg´ un el teorema 1.69 si A y B no conmutan, no existe un conjunto completo de vectores propios comunes a ambos observables4 . Por tanto, los argumentos anteriores no ser´ an v´ alidos. Esto se puede ilustrar de manera sencilla si reemplazamos el espacio de Hilbert E por el espacio vectorial real de dos dimensiones. Supongamos que |u1 i , |u2 i son autovectores ortonormales del observable A (que definen a los ejes X,Y ) con autovalores a1 y a2 . Sean |v1 i , |v2 i autovectores ortonormales de B (que definen ejes X ′ Y ′ en general rotados con respecto a XY ), con valores propios b1 y b2 . Si definimos θ el ´ angulo de rotaci´ on (en direcci´ on antihoraria) de los ejes X ′ Y ′ con respecto a los ejes XY tenemos que las bases correspondientes a los autovectores de A y B est´ an relacionadas por |v1 i = cos θ |u1 i + sin θ |u2 i π π |v2 i = cos θ + |u1 i + sin θ + |u2 i = − sin θ |u1 i + cos θ |u2 i 2 2
en resumen estas relaciones y sus inversas quedan
|v1 i = cos θ |u1 i + sin θ |u2 i ; |v2 i = − sin θ |u1 i + cos θ |u2 i
|u1 i = cos θ |v1 i − sin θ |v2 i ; |u2 i = sin θ |v1 i + cos θ |v2 i
ahora pensemos que la condici´ on inicial est´ a dada por un vector unitario |ψi en direcci´ on arbitraria que hace un angulo ϕ con |u1 i. En ambas bases este vector se escribe ´ |ψi = cos ϕ |u1 i + sin ϕ |u2 i
;
|ψi = cos (ϕ − θ) |v1 i + sin (ϕ − θ) |v2 i
Primero mediremos A y asumamos que encontramos el valor a1 , el sistema quedar´ a preparado en el estado |u1 i. Si luego medimos B y encontramos por ejemplo b2 el estado final del sistema ser´ a |v2 i. (a1 )
(b2 )
|ψi =⇒ |u1 i =⇒ |v2 i
(5.20)
si por otro lado, realizamos las medidas en el orden opuesto y encontramos los mismos valores propios anteriores pero en la secuencia b2 ⇒ a1 el esquema ser´ a (b2 )
(a1 )
|ψi =⇒ |v2 i =⇒ |u1 i
(5.21)
el estado final del sistema no es el mismo en ambos casos. Ahora, las probabilidades en ambos casos ser´ıan P (a1 , b2 ) = P (a1 ) × Pa1 (b2 ) = |hψ| u1 i|2 × |hu1 | v2 i|2 P (b2 , a1 ) = P (b2 ) × Pb2 (a1 ) = |hψ| v2 i|2 × |hv2 | u1 i|2 cada uno de estos productos internos da hψ| u1 i = cos ϕ ; hψ| v2 i = sin (ϕ − θ) ; hu1 | v2 i = hv2 | u1 i = − sin θ 4
Esto no significa que no puedan existir vectores propios comunes a ambos. Pero si estos existen, no ser´ an suficientes para conformar una base.
´ MEDIA CUADRATICA ´ 5.4. DESVIACION Y PRINCIPIO DE INCERTIDUMBRE
215
por lo tanto P (a1 , b2 ) = cos2 ϕ sin2 θ
;
P (b2 , a1 ) = sin2 (ϕ − θ) sin2 θ
con lo cual se observa que P (b2 , a1 ) 6= P (a1 , b2 )
esto significa entonces que dos observables no compatibles no se pueden medir simult´ aneamente5 . Se puede ver de las Ecs. (5.20, 5.21) que la segunda medida genera la p´erdida de la informaci´ on suministrada por la primera. Si por ejemplo despu´es de la secuencia A ⇒ B representada por (5.20) medimos de nuevo A, no podemos tener certeza del resultado ya que |v2 i no es autovector de A. Toda la informaci´ on que se gan´ o en la primera medida de A se ha perdido al ejecutar la posterior medici´ on de B. Es claro de los postulados que si definimos un paquete de ondas con respecto a una base generada por A entonces la medida de A conduce a una reducci´ on de este paquete, algo similar ocurre con el observable B. Sin embargo, no podemos constru´ır una base fija en donde el paquete se reduzca acumulativamente con respecto a dicha base cuando se miden sucesivamente A y B. Esto se debe a la ausencia de una base com´ un, que en t´erminos m´ as f´ısicos implicar´ıa la posibilidad de adicionar informaci´ on en cada medida con respecto a la informaci´ on obtenida en la medida anterior.
5.4.
La desviaci´ on media cuadr´ atica y el principio de incertidumbre para observables arbitrarios (opcional)
Supongamos que tenemos dos observables A y B arbitrarios, siguiendo los argumentos de la secci´ on 5.1.3, definiremos el valor esperado de su conmutador en la forma iM ≡ h[A, B]i
(5.22)
donde M es un n´ umero real. Asumamos que el sistema f´ısico est´ a en el estado |ψi. Con base en dicho estado, construiremos un ket |ϕi y su bra asociado hϕ| en la forma |ϕi = (A + iλB) |ψi ; hϕ| = hψ| (A − iλB)
(5.23)
siendo λ una variable real arbitraria. Estudiaremos las predicciones para el producto de las incertidumbres ∆A, ∆B donde las incertidumbres se definir´ an a trav´es de la ra´ız de la desviaci´ on media cuadr´ atica de cada observable. La norma al cuadrado de |ϕi se escribe como hϕ| ϕi = hψ| (A − iλB) (A + iλB) |ψi = hψ| A2 + iλAB − iλBA + λ2 B 2 |ψi
hϕ| ϕi = A2 + iλ hAB − BAi + λ2 B 2 = λ2 B 2 + iλ h[A, B]i + A2
hϕ| ϕi = λ2 B 2 − λM + A2 ≥ 0 (5.24)
donde hemos usado la Ec. (5.22). Ahora bien, por definici´ on la norma al cuadrado de |ϕi es no negativa para todo valor de λ. Por tanto, el polinomio cuadr´ atico en λ definido por la ecuaci´ on (5.24) debe ser no negativo para todo λ, esto solo es posible si tal polinomio no posee ra´ıces reales en λ o a lo m´ as las ra´ıces reales deben ser degeneradas y corresponder a un m´ınimo local (en cuyo caso la norma de |ϕi es cero para un valor dado de λ, y positiva para los otros valores). Esto implica que como ecuaci´ on cuadr´ atica para λ, el discriminante deber ser negativo o cero
M 2 − 4 A2 B 2 ≤ 0 ⇒ (5.25) 2
2 2 M A B ≥ (5.26) 4 5
Supongamos que medimos un observable A en el tiempo t y otro observable B en el tiempo t + ∆t. La medici´ on simult´ anea se puede definir consistentemente solo si los “l´ımites laterales” ∆t → 0+ (donde se mide en el orden A ⇒ B) y ∆t → 0− (donde se mide en el orden B ⇒ A) conducen a las mismas predicciones en t´erminos de distribuci´ on de probabilidad, y estados. Por esta raz´ on solo se puede definir adecuadamente la medici´ on simult´ anea de observables compatibles.
216
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
recordando que |ψi describe el estado del sistema, introducimos dos nuevos observables A′ , B ′ definidos por A′ = A − hAi I = A − hψ| A |ψi
B
′
= B − hBi I = B − hψ| B |ψi
(5.27) (5.28)
donde hAi y hBi son n´ umeros reales e I es el operador identidad. Es claro que las relaciones de conmutaci´ on de ′ ′ A , B coinciden con las de A y B ′ ′ A , B = [A, B] = iM (5.29) con lo cual el resultado (5.26) tambi´en es v´ alido para A′ y B ′
B ′2 ≥ D ED E (A − hAi)2 (B − hBi)2 ≥ A′2
M2 ⇒ 4 M2 4
y teniendo en cuenta la definici´ on de la ra´ız de la deviaci´ on media cuadr´ atica Ec. (5.6), tenemos que (∆A)2 (∆B)2 ≥ (∆A) · (∆B) ≥
M2 ⇒ 4 |M | 2
y recordando la definici´ on (5.22) resulta (∆A) · (∆B) ≥
|h[A, B]i| 2
(5.30)
Si definimos la incertidumbre en los observables como la ra´ız de la desviaci´ on media cuadr´ atica de su distribuci´on, esto se puede considerar como una extensi´ on del principio de incertidumbre. N´ otese que en este caso el l´ımite inferior est´a muy bien definido, precisamente porque hemos definido de manera muy clara el ancho de la distribuci´ on por medio de la ra´ız de la desviaci´ on media cuadr´ atica. Vale decir adem´ as que solo tendremos un l´ımite inferior no nulo, cuando los observables NO son compatibles (no conmutantes). Para los observables compatibles no hay un principio de incertidumbre, lo que permite sin ambig¨ uedad su medici´ on simult´ anea y la no destrucci´ on de la informaci´ on por efecto de mediciones adicionales. Un caso especial muy importante es el de dos variable conjugadas. Se dice que dos observables Q, P son conjugados si [Q, P ] = i~ esta es una extrapolaci´ on natural del concepto de variables can´ onicamente conjugadas en mec´ anica cl´ asica, que cumplen propiedades similares pero con los corchetes de Poisson en lugar de los conmutadores. Para observables conjugados, la expresi´ on (5.30) queda en la forma ∆Q · ∆P ≥ ~/2 A su vez, un caso especial de variables conjugadas son los pares de posici´ on y momento (X, Px ), (Y, Py ) y (Z, Pz ). Se obtiene entonces ∆X · ∆Px ≥ ~/2 ; ∆Y · ∆Py ≥ ~/2 ; ∆Z · ∆Pz ≥ ~/2 que son las relaciones de incertidumbre de Heisenberg (2.73), pero con l´ımites inferiores precisos, lo cual surge de haber definido de manera precisa las incertidumbres.
´ MEDIA CUADRATICA ´ 5.4. DESVIACION Y PRINCIPIO DE INCERTIDUMBRE
5.4.1.
217
Paquetes de m´ınima incertidumbre
Es natural preguntarse por las condiciones que se requieren para obtener un paquete de m´ınima incertidumbre. Es decir, bajo que condiciones obtenemos la igualdad en la Ec. (5.30). Esto implica imponer la igualdad en las desigualdades (5.24-5.30). En particular, esto implica que el polinomio cuadr´ atico en λ definido por la ecuaci´ on (5.24) sea nulo y corresponda a un m´ınimo local para alg´ un valor λ0 (ra´ız real degenerada), esto conlleva a la nulidad de la norma de |ϕi. Lo anterior se obtiene con la anulaci´ on del discriminante Ec. (5.25)
2 2 M 2 A B = 4
⇒
M2 A2 = 4 hB 2 i
(5.31)
usando la Ec. (5.31), llegamos a una soluci´ on u ´nica λ ≡ λ0 para la cuadr´ atica (5.24)
2 A2 M = λ0 = 2 hB 2 i M
(5.32)
Redefiniendo los observables a trav´es de las Ecs. (5.27, 5.28) y teniendo en cuenta la invarianza del conmutador Ec. (5.29) vemos que los resultados obtenidos para A y B son tambi´en v´ alidos para A′ y B ′ (ya que todos ellos dependen solo de la relaci´ on de conmutaci´ on Ec. 5.22). Por tanto para el ket ′ ϕ = A′ + iλB ′ |ψi
;
′ ϕ = hψ| A′ − iλB ′
podemos hacer el mismo procedimiento que se realiz´ o para el ket |ϕi de la Ec. (5.23), y llegar a que la norma de |ϕ′ i es nula cuando λ = λ0 . Pero la norma es cero si y solo si el ket es nulo, por lo tanto ′ ϕ ≡
A′ + iλB ′ |ψi = 0 ⇒
[A − hAi + iλ0 (B − hBi)] |ψi = 0
(5.33)
as´ı mismo las Ecs. (5.31, 5.32) son aplicables tambi´en para A′ , B ′ con lo cual
y teniendo en cuenta que
′2
A
2 A′2 M M2 ; λ0 = = = 4 hB ′2 i 2 hB ′2 i M
(5.34)
E E D
D A′2 ≡ (A − hAi)2 ≡ (∆A)2 ; B ′2 ≡ (B − hBi)2 ≡ (∆B)2
las Ecs. (5.34) quedan finalmente
(∆A)2 =
M2 M 2 (∆A)2 ; λ = = 0 M 4 (∆B)2 2 (∆B)2
(5.35)
la Ec. (5.33) junto con las ligaduras (5.35) nos dictaminan la condici´ on para obtener paquetes de m´ınima incertidumbre. Su soluci´on expl´ıcita debe realizarse en una base espec´ıfica y depende de la naturaleza de los operadores A y B. Un caso particular de inter´es surge para variables conjugadas para lo cual definimos A ≡ Q, B ≡ P y M ≡ ~. La Ec. (5.33) y las ligaduras (5.35) quedan en la forma [Q − hQi + iλ0 (P − hP i)] |ψi = 0
; (∆Q)2 =
~2 ; 4 (∆P )2
λ0 =
~ 2 (∆Q)2 = ~ 2 (∆P )2
(5.36)
218
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
usando la representaci´ on {|qi} y el hecho de que en esta representaci´ on P act´ ua como (~/i)d/dq (ver Ec. 1.214, 6 P´ ag. 106) se obtiene ~ d hq| [Q − hQi + iλ0 (P − hP i)] |ψi = 0 ⇒ q − hQi + iλ0 − hP i hq |ψi = 0 ⇒ i dq d q + ~λ0 − hQi − iλ0 hP i ψ (q) = 0 (5.37) dq para resolver la ecuaci´ on diferencial (5.37) es conveniente introducir la funci´ on h (q) definida por ψ (q) = eihP iq/~ h (q − hQi) insertando la Ec. (5.38) en la Ec. (5.37) resulta
(5.38)
h i d q + ~λ0 − hQi − iλ0 hP i eihP iq/~ h (q − hQi) = 0 dq i d h ihP iq/~ [q − hQi − iλ0 hP i] eihP iq/~ h (q − hQi) + ~λ0 e h (q − hQi) = 0 dq i hP i d h (q − hQi) eihP iq/~ + ~λ0 eihP iq/~ h (q − hQi) = 0 [q − hQi − iλ0 hP i] eihP iq/~ h (q − hQi) + ~λ0 ~ dq d [q − hQi] h (q − hQi) + ~λ0 h (q − hQi) = 0 dq sustituyendo q ′ = q − hQi (5.39) queda
cuya soluci´ on es
d q + ~λ0 ′ h q ′ = 0 dq ′
(5.40)
′2 − q h q ′ = Ce 2λ0 ~
(5.41)
siendo C una constante de normalizaci´ on que elegiremos como positiva. Reemplazando las Ecs. (5.36, 5.39) en la soluci´ on (5.41), tenemos −
h (q − hQi) = Ce
(q−hQi)2 4(∆Q)2
−
= Ce
h
i (q−hQi) 2 2(∆Q)
(5.42)
finalmente reemplazando (5.42) en (5.38) y normalizando (con constante positiva) resulta ψ (q) = q 4
1
−
2
eihP iq/~ e
h
i (q−hQi) 2 2(∆Q)
(5.43)
2π (∆Q)
para encontrar el paquete de onda rec´ıproco, es decir en la base {|pi}, podemos proceder de manera an´ aloga al desarrollo anterior, o haciendo la transformada de Fourier de la Ec. (5.43). En tal caso se encuentra la funci´ on de ¯ onda rec´ıproca ψ (p) definida por ψ¯ (p) = q 4
1 2π (∆P )2
− ~i hQip −
e
e
h
i (q−hP i) 2 2(∆P )
(5.44)
En la Sec. 2.14.3, p´ ag. 151, hab´ıamos demostrado que los paquetes gaussianos son de m´ınima incertidumbre para un par de observables conjugados. En la presente secci´ on hemos demostrado el rec´ıproco: para dos observables conjugados Q y P , hemos demostrado que si ∆Q · ∆P es exactamente ~/2, la funci´ on de onda asociada con este estado en la representaci´ on |qi es un paquete gaussiano as´ı como la representaci´ on de la funci´ on de onda en la base |pi. 6
Debe tenerse en cuenta que la Ec. (1.214) fu´e demostrada para cualquier par de observables conjugados y no solo para posiciones y momentos.
´ DE UN ESTADO 5.5. PREPARACION
5.5.
219
Preparaci´ on de un estado
Consideremos un sistema f´ısico en el estado |ψi dado por |ψi =
gn XX k
i=1
cik uik
siendo uik autoestados del observable A. Asumiremos que todos los observables tienen espectro discreto. Si medimos el observable A y el valor obtenido an es no degenerado, el autovector normalizado |un i en que se prepara el sistema es f´ısicamente u ´nico, por tanto conocemos perfectamente el estado despu´es de la medida, y adem´ as dicho estado es independiente de |ψi (el estado justo antes de la medida). Sin embargo, si el autovalor an es degenerado, el estado inmediatamente despu´es de la medida ser´ a ′ ψn =
Pn |ψi 1 = qP hψ| Pn |ψi gn
gn X
m 2 m=1 |cn | i=1
cin uin
tanto los valores absolutos de los coeficientes cin como sus fases son relevantes. Y puesto que este estado es la proyecci´ on |ψn′ i (normalizada) del vector |ψi sobre el autosubespacio En tendremos que el autoestado final depende de |ψi y por lo tanto tambi´en los coeficientes cin siempre que En sea de m´ as de una dimensi´ on (si En es de una sola dimensi´ on, solo hay un vector normalizado f´ısicamente relevante). Ahora bien, dado que vimos que la medici´ on de otro observable B compatible con A adiciona informaci´ on sobre el estado, y se puede medir simult´ aneamente con A, vemos que si el resultado (an , bp ) de las dos medidas corresponde a un u ´nico autovector |an , bp i ≡ |n, pi com´ un a A y B no tendremos suma sobre i en (5.17) y resulta |ψnp i =
cnp |n, pi = eiθ |n, pi |cnp |
que es f´ısicamente equivalente a |n, pi. En otras palabras, el autoespacio Enp de autovectores comunes a A y B con valores propios an y bp es de una dimensi´ on y por tanto define f´ısicamente un u ´nico vector normalizado. Por tanto, la especificaci´ on de estos dos valores determina el estado final de manera u ´nica e independiente de |ψi. Podr´ıa ocurrir sin embargo que existan varios vectores |n, p, ii linealmente independientes que conduzcan al mismo par (an , bp ) de valores propios de A y B, es decir el espacio Enp no es unidimensional y para determinar la proyecci´ on de |ψi sobre Enp se requiere conocer a |ψi. En este caso podemos ganar m´ as informaci´ on introduciendo un tercer observable C compatible con los otros dos y medir su valor propio cq . El proceso debe continuar hasta que se remueva completamente la degeneraci´ on es decir cuando el autoespacio Enpq... sea unidimensional, en cuyo caso el estado |npq . . .i es f´ısicamente u ´nico. Por otro lado, es posible que la medici´ on de cierto conjunto de autovalores espec´ıficos sea suficiente para determinar el estado de manera u ´nica, pero cuando el mismo sistema me arroja otros valores propios las medidas podr´ıan resultar insuficientes. Por ejemplo, si medimos el observable A y se obtiene el valor no degenerado a1 , el estado estar´ a totalmente determinado. Pero si la medida nos arroja el valor a2 (degenerado), necesitaremos medir otro observable compatible para determinar el estado. La idea por supuesto es determinar un conjunto de observables A1 , A2 , . . . , Am ; que determine de manera u ´nica el estado despu´es de la medida (independiente de |ψi) sin importar los valores experimentales obtenidos. Para ello es necesario que todos los autoespacios de la forma En1 ,n2 ,...,nm sean unidimensionales. En otras palabras, el conjunto completo de autovectores {|n1 , n2 , . . . , nm i} com´ un a los observables A1 , A2 , . . . , Am no debe presentar degeneraci´ on para ning´ un conjunto posible de medidas (an1 , . . . , anm ). Esto indica entonces que el conon 1.23). Adicionalmente, es natural pensar que el conjunto junto {A1 , A2 , . . . , Am } forma un C.S.C.O. (ver secci´ {A1 , A2 , . . . , Am } sea minimal en el sentido de que al remover un observable del conjunto el sistema ya no sea un C.S.C.O. Usualmente se asume que un C.S.C.O. dado es minimal a menos que se indique lo contrario.
220
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
Los m´etodos para preparar un sistema cu´ antico en un estado bien definido son similares en principio a los que se usan para polarizar luz. Cuando se coloca un polarizador en el camino de un haz de luz, la luz que sale est´ a polarizada en una direcci´ on espec´ıfica caracter´ıstica del polarizador, e independiente del estado de polarizaci´ on de la luz incidente. Similarmente se pueden constru´ır dispositivos para preparar un sistema cu´ antico de manera que solo permitan el paso de un estado correspondiente a un autovalor espec´ıfico. Si queremos preparar completamente el estado, ser´ a necesario usar m dispositivos que midan a los observables A1 , .., Am que solo permitan el paso de un conjunto espec´ıfico de autovalores (an1 , ..., anm ). Es claro que puede haber infinidad de C.S.C.O, si cambiamos el conjunto completo de observables compatibles, obtendremos otros estados del sistema. Para entender mejor esto, recordemos que los autoestados est´ an definidos no solo por el sistema a estudiar sino tambi´en por los aparatos de medici´ on (ver secci´ on 2.9, p´ ag 135).
5.6.
Propiedades adicionales de la ecuaci´ on de Schr¨ odinger
Hemos establecido formalmente en el sexto postulado, que la ecuaci´ on de Schr¨ odinger es la ecuaci´on de evoluci´ on de los estados de sistemas cu´ anticos no relativistas. Veremos algunas propiedades adicionales de esta ecuaci´ on (ver secci´on 3.3)
5.6.1.
Aspectos adicionales sobre la conservaci´ on de la probabilidad (opcional)
Hemos visto que la norma de los estados permanece invariante en el tiempo cuando la ecuaci´ on de Schr¨ odinger es la ecuaci´ on de evoluci´ on, lo cual es esencial para la conservaci´ on de la probabilidad. Adicionalmente para una part´ıcula sometida a un potencial que solo depende de la posici´ on V (r, t) cuyo Hamiltoniano es H=
P2 + V (R, t) 2m
podemos encontrar una ecuaci´ on de continuidad que nos expresa la conservaci´ on local de la probabilidad en la forma ∂ρ + ∇ · J = 0 ; ρ ≡ ψψ ∗ = |ψ (r, t)|2 ∂t ~ 1 ∗ ∗ ∗ ~ J ≡ [ψ ∇ψ − ψ∇ψ ] = Re ψ ∇ψ 2mi m i
(5.45) (5.46)
siendo ρ, J la densidad y corriente de probabilidad respectivamente. Escribamos J en la forma ∗ 1 ~ 1 ~ ∗ ~ ∗ ∗ ~ J ≡ ψ ∇ ψ−ψ ∇ ψ = ψ ∇ ψ − ψ − ∇ψ 2m i i 2m i i ∗ 1 ~ ~ = hψ| ri ∇ hr| ψi + hr| ψi ∇ hr| ψi 2m i i 1 1 [hψ| ri hr| P |ψi + hr| ψi hr| P |ψi∗ ] = [hψ| ri hr| P |ψi + hψ| P |ri hr| ψi] J = 2m 2m 1 J = {hψ| [|ri hr| P + P |ri hr|] |ψi} 2m donde hemos usado la Ec. (1.191). Finalmente J = [hψ| K (r) |ψi] ;
1 K (r) ≡ 2
P P |ri hr| + |ri hr| m m
(5.47)
para la densidad de corriente es m´ as f´ acil ver que ρ = [hψ| [|ri hr|] |ψi] = hψ| ̺ (r) |ψi
;
̺ (r) ≡ |ri hr|
(5.48)
´ TEMPORAL DEL VALOR ESPERADO DE UN OBSERVABLE 5.7. EVOLUCION
221
si comparamos las Ecs. (5.47, 5.48) con la Ec. (5.2), vemos que la densidad de probabilidad ρ y la densidad de corriente de probabilidad J, se pueden ver como el valor esperado de los operadores K (r) y ̺ (r) respectivamente. Ahora bien, en coordenadas cartesianas los momentos can´ onicos son los momentos lineales (cuando el potencial no depende de la velocidad). Por tanto, P/m se puede considerar el “operador velocidad” V. En consecuencia, el “operador densidad de corriente” K (r) est´ a relacionado con el operador densidad ̺ (r) en la forma K (r) ≡
1 {̺V + V̺} 2
que corresponde a la cuantizaci´ on de la relaci´ on J =ρv, pero adecuadamente simetrizada. Si la part´ıcula se coloca en un campo electromagn´etico descrito por los potenciales φ (r, t) y A (r, t) , el Hamiltoniano asociado es (ver Ec. 4.12) H=
[P − qA (R, t)]2 + V¯ (R, t) ; 2m
V¯ (R, t) ≡ qφ (R, t) + V (R)
(5.49)
donde V (R) es un potencial escalar que describe una interacci´ on adicional a la del campo electromagn´etico sobre la part´ıcula. Con un procedimiento similar al de la secci´ on 3.3.4, la densidad de corriente resultante es 1 ∗ ~ ∇ − qA ψ (5.50) JEM = Re ψ m i que tambi´en se puede obtener de la corriente (5.46) simplemente reemplazando P → P − qA, o equivalentemente ~ ~ i ∇ → i ∇ − qA (R, t). Un ejemplo sencillo para el c´ alculo de ρ y J es la onda plana. Sea un estado (no estrictamente f´ısico) descrito por una onda plana ψ (r, t) = Aei(k·r−ωt) la densidad de probabilidad es claramente
ρ = ψψ ∗ = |A|2
que es uniforme y constante. El c´ alculo de J (r, t) es inmediato 1 1 ∗ ~ ∗ −i(k·r−ωt) ~A i(k·r−ωt) J = Re ψ ∇ψ = Re A e ∇e m i m i n o 1 1 ∗ −i(k·r−ωt) ~A i(k·r−ωt) Re A e ike = Re ~ |A|2 k J = m i m ~k J = |A|2 m
(5.51)
y recordando que vg = ~k/m es la velocidad de grupo asociada al momento ~k (secci´ on 2.13 Ec. 2.84). Vemos que esta corriente tambi´en es an´ aloga a la relaci´ on cl´ asica J = ρv. La corriente generada por una onda plana es estacionaria (independiente del tiempo) y adem´ as es uniforme y homog´enea.
5.7.
Evoluci´ on temporal del valor esperado de un observable y su relaci´ on con la mec´ anica cl´ asica
Si A es un observable, su valor esperado cuando el sistema est´ a en el estado |ψ (t)i se escribe como hAi (t) = hψ (t)| A |ψ (t)i Vale decir que el valor medio o esperado solo depende de t ya que por ejemplo si usamos la representaci´ on de {|ri} este valor esperado corresponde a una integral sobre todo el espacio para un tiempo fijo. En contraste, el
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
222
observable cl´ asico A (r, p, t) asume un valor para ciertas posiciones y momentos espec´ıficos en un tiempo dado (ya que las part´ıculas est´ an localizadas y sus momentos se pueden medir simult´ aneamente junto con las posiciones). Para estos observables cl´ asicos, la dependencia con el tiempo puede ser tanto expl´ıcita como impl´ıcita, es decir a trav´es de r (t) y p (t). Cuando cuantizamos el observable asignamos a la cantidad cl´ asica A (r, p, t) el operador herm´ıtico A ≡ A (R, P, t). Obs´ervese que ni los autoestados ni los autovalores de los operadores R y P dependen del tiempo, por tanto los observables cu´ anticos R y P no pueden dar cuenta de una dependencia impl´ıcita con el tiempo. En conclusi´ on, los observables cu´ anticos solo dependen del tiempo de manera expl´ıcita. En cuanto al valor esperado del observable, la variaci´ on temporal de hAi se debe tanto a la variaci´ on temporal del estado |ψ (t)i (dictaminada por la ecuaci´ on de Schr¨ odinger), como a la variaci´ on temporal del observable mismo A (t). Si usamos por ejemplo la representaci´ on de coordenadas, el valor esperado de A queda Z Z ~ 3 3 ∗ hAi = hψ (t)| A (R, P, t) |ψ (t)i = d r hψ (t)| ri hr| A (R, P, t) |ψ (t)i = d r ψ (r, t) A r, ∇, t ψ (r, t) i de lo cual es claro que esta cantidad solo depende del tiempo, ya que est´ a integrada sobre las variables espaciales. Vamos a estudiar la variaci´ on temporal del valor esperado de un observable arbitrario y a relacionarla con la variaci´ on temporal cl´ asica. Derivando el valor esperado con respecto al tiempo resulta d d ∂A d hψ (t)| A |ψ (t)i = hψ (t)| A |ψ (t)i + hψ (t)| |ψ (t)i + hψ (t)| A |ψ (t)i dt dt ∂t dt donde hemos usado que dA/dt = ∂A/∂t ya que un observable cu´ antico solo puede depender del tiempo de manera expl´ıcita. Usando las Ecs. (3.25, 3.26) tenemos d 1 ∂A 1 hψ (t)| A |ψ (t)i = hψ (t)| − H (t) A |ψ (t)i + hψ (t)| |ψ (t)i + hψ (t)| A H (t) |ψ (t)i dt i~ ∂t i~ d 1 ∂A hψ (t)| A |ψ (t)i = hψ (t)| [AH − HA] |ψ (t)i + hψ (t)| |ψ (t)i dt i~ ∂t quedando finalmente d 1 hAi = h[A, H]i + dt i~
∂A ∂t
(5.52)
on de las variables del vale recordar que en el formalismo cl´ asico Hamiltoniano, un observable Acl que es funci´ espacio de fase y del tiempo es decir Acl = Acl (q, p, t), posee una evoluci´ on temporal dada por dAcl ∂Acl = [Acl , H]pois + dt ∂t
(5.53)
donde en lugar del conmutador, est´ a el corchete de Poisson entre el observable y el Hamiltoniano. Volviendo al problema cu´ antico, veremos que el valor esperado (y no el operador A r, ~i ∇, t ) es el que debe ser comparado con el correspondiente observable cl´ asico.
5.7.1.
Evoluci´ on temporal de los valores esperados de R, P: Teorema de Ehrenfest
Dado que R, P son todos los observables fundamentales para la cuantizaci´ on de una part´ıcula sin esp´ın, es necesario explorar la evoluci´ on temporal de sus valores esperados. Si bien estos observables no dependen del tiempo, sus valores esperados s´ı poseen una dependencia temporal proveniente de la evoluci´ on del estado |ψ (t)i. Asumiendo un Hamiltoniano de la forma H=
P2 + V (R) 2m
(5.54)
´ TEMPORAL DEL VALOR ESPERADO DE UN OBSERVABLE 5.7. EVOLUCION
223
asignando A → R en la Ec. (5.52) y usando el Hamiltoniano (5.54) tenemos d 1 P2 ∂R 1 P2 1 hRi = R, + V (R) + = R, + h[R, V (R)]i dt i~ 2m ∂t i~ 2m i~ y usando las propiedades de los conmutadores (1.37-1.42) as´ı como las relaciones can´ onicas de conmutaci´ on (4.11) obtenemos d 1 1 i~I i~I hRi = h[R, P] Pi + hP [R, P]i = P + P dt 2mi~ 2mi~ 2mi~ 2mi~ quedando finalmente
d 1 hRi = hPi dt m
similarmente el valor esperado para P es d 1 ∂P P2 1 P2 1 hPi = P, + V (R) + = P, + h[P, V (R)]i dt i~ 2m ∂t i~ 2m i~ d 1 hPi = h[P, V (R)]i dt i~ y usando la Ec. (1.141) p´ ag. 77, se obtiene [P, V (R)] = −i~∇V (R) se obtienen entonces la relaciones fundamentales d 1 hRi = hPi ; dt m
d hPi = − h∇V (R)i dt
(5.55)
estas dos ecuaciones se conocen como teorema de Ehrenfest. Muy semejantes a las relaciones asociadas a sus correspondientes observables cl´ asicos. En virtud de la similitud con las relaciones cl´ asicas, es natural buscar el l´ımite cl´ asico a trav´es del teorema de Ehrenfest Ecs. (5.55). La funci´ on de onda ψ (r, t) que describe el estado de una part´ıcula, es en general un paquete de ondas. hRi representa tres coordenadas hXi i que en general dependen del tiempo. Al punto definido por hRi (t) en el instante t, lo llamaremos el centro del paquete de onda en tal instante. N´ otese que si el paquete es asim´etrico el centro del paquete ser´ a en general diferente del punto en donde la amplitud es m´axima. Cuando movemos el par´ ametro tiempo el punto hRi (t) se mueve en el espacio generando la trayectoria del centro del paquete. Por supuesto, esta trayectoria no se puede asociar a la part´ıcula cuyo estado est´ a descrito por el paquete completo que tiene una extensi´ on dada7 . Sin embargo, si la extensi´ on del paquete de ondas es mucho menor que todas las dem´ as longitudes involucradas en el problema, podemos aproximar el paquete de ondas por su centro y la descripci´ on cl´ asica resultar´ a una buena aproximaci´ on. La pregunta natural es entonces si el movimiento del centro del paquete de onda obedece las leyes de la mec´anica cl´ asica. La respuesta yace en el teorema de Ehrenfest, la primera de las Ecs. (5.55) nos dice que la velocidad del centro del paquete es igual al momento promedio del paquete dividido por m. Por tanto la segunda de las Ecs. (5.55) se puede escribir como m
d2 hRi = − h∇V (R)i dt2
por tanto, el centro del paquete seguir´ a una trayectoria cl´ asica solo si la cantidad − h∇V (R)i coincide con la fuerza cl´ asica en el punto donde se ubica el centro del paquete Fcl = [−∇V (r)]r=hRi 7
N´ otese incluso que cada punto en esta trayectoria no necesariamente coincide con el punto de m´ axima densidad de probabilidad en cada instante.
224
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
debemos observar sin embargo que − h∇V (R)i es en realidad el valor promedio de la fuerza sobre el paquete completo, que no necesariamente debe coincidir con su valor en el centro del paquete h∇V (R)i = 6 [∇V (r)]r=hRi
(5.56)
lo cual se puede expresar diciendo que el valor medio de una funci´ on no es en general igual al valor que toma cuando se eval´ ua en el valor medio de la variable. Esto se puede ver con facilidad tomando un ejemplo espec´ıfico, sea un potencial de la forma V (x) = λxn (5.57) siendo λ una constante real y n un entero positivo. La cuantizaci´ on de este potencial nos lleva a V (X) = λX n
(5.58)
el lado izquierdo de (5.56) nos da
d d V (X) = (λX n ) = λn X n−1 dx dx
en tanto que el lado derecho de (5.56) es d d n = = nλxn−1 x=hXi = λn hXin−1 V (x) (λx ) dx dx x=hXi x=hXi
y en general X n−1 6= hXin−1 . Por ejemplo, para n = 3 se tiene que X 2 6= hXi2 y la diferencia entre ambas es proporcional a la ra´ız de la desviaci´ on media cuadr´ atica definida en la Ec. (5.7). Sin embargo, para n = 0 (part´ıcula libre), n = 1 (part´ıcula en un campo de fuerzas uniforme) y n = 2 (part´ıcula en un potencial parab´ olico i.e. un oscilador arm´ onico), la igualdad s´ı se cumple y vemos que el centro del paquete de onda en estos casos obedece las leyes de la mec´ anica cl´ asica. Por otra parte, aunque los dos lados de (5.56) no son en general iguales, ocurre que en algunas circunstancias (escenarios semicl´asicos) la diferencia entre ambos es despreciable, esto ocurre cuando el paquete de onda es lo suficientemente localizado. Para verlo, escribamos el lado izquierdo de (5.56) en la base {|ri}. Z Z 3 ∗ h∇V (R)i = d r ψ (r, t) [∇V (r)] ψ (r, t) = d3 r |ψ (r, t)|2 ∇V (r) (5.59) asumir el paquete muy localizado equivale a decir que |ψ (r, t)|2 es una distribuci´ on que toma valores no despreciables solo en cierto dominio cuyas dimensiones son mucho mas peque˜ nas que las distancias sobre las cuales ∇V (r) var´ıa apreciablemente. Por tanto, en este dominio centrado alrededor de hRi, la cantidad ∇V (r) es pr´ acticamente constante. En tal caso se puede reemplazar ∇V (r) en (5.59) por su valor en r = hRi y se puede sacar de la integral en (5.59), y teniendo en cuenta que ψ (r, t) est´ a normalizada, se obtiene que para paquetes suficientemente localizados tenemos que (5.60) h∇V (R)i ∼ = [∇V (r)]r=hRi es claro en particular que en el l´ımite macrosc´ opico en el cual las longitudes de onda de De Broglie son mucho menores que las distancias sobre las cuales los potenciales y sus gradientes var´ıan, los paquetes de onda pueden ser lo suficientemente localizados para satisfacer la Ec. (5.60) y al mismo tiempo mantener un momento bien definido. Este u ´ltimo punto es muy importante, ya que no basta con que hRi se comporte de manera semejante al valor cl´ asico de posici´ on para llegar a un escenario cl´ asico, pues un paquete muy localizado en hRi implica que el paquete de onda en el espacio de los momentos puede ser muy disperso, y tendr´ıamos que aunque hPi pueda tener un comportamiento similar al valor cl´ asico, la dispersi´ on de hPi significar´ a una incertidumbre enorme en su medida lo cual nos aleja del escenario cl´ asico. Por tanto, es necesario que los valores de ∆r y ∆p compatibles
´ DE SCHRODINGER ¨ 5.8. ECUACION PARA SISTEMAS CONSERVATIVOS
225
con el principio de incertidumbre sean mucho menores que todas las distancias y momentos involucrados en el problema, situaci´ on que en general se cumple en los sistemas macrosc´ opicos. Bajo las condiciones anteriores, el movimiento del paquete de onda es pr´ acticamente el de una part´ıcula cl´ asica de masa m sometida al potencial V (r). Vemos como era de esperarse que la ecuaci´ on de Schr¨ odinger genera las soluciones cl´ asicas con ciertas condiciones l´ımite apropiadas que en particular son satisfechas por los sistemas macrosc´ opicos.
5.8.
Soluciones de la ecuaci´ on de Schr¨ odinger para sistemas conservativos
En mec´ anica cl´ asica, si el Hamiltoniano no depende expl´ıcitamente del tiempo, es una constante de movimiento en virtud de que su derivada total coincide con su derivada parcial. Si adem´ as el Hamiltoniano coincide con la energ´ıa del sistema entonces la energ´ıa total del sistema es constante en el tiempo y hablamos de un sistema conservativo. Es natural entonces averiguar por las propiedades de un sistema conservativo cuando cuantizamos un Hamiltoniano que es cl´ asicamente constante de movimiento y que corresponde a la energ´ıa del sistema. Consideremos en primer lugar la ecuaci´ on de valores propios del Hamiltoniano H |ϕn,τ i = En |ϕn,τ i
(5.61)
asumiremos por simplicidad un espectro discreto. El ´ındice τ denota la degeneraci´ on de los valores propios que puede corresponder a varios ´ındices. Tales ´ındices nos fijar´ an los autovalores de observables que constituyen un C.S.C.O. junto con H. Puesto que H no depende expl´ıcitamente del tiempo, los autovalores En y autovectores |ϕn,τ i tampoco depender´ an del tiempo. Hemos visto para un caso espec´ıfico de sistema conservativo (ver secci´ on 3.2) que la Ec. de Schr¨ odinger se puede solucionar a partir de este problema de valores propios. En este caso veremos que la Ec. (5.61) tambi´en se puede utilizar para resolver la ecuaci´ on de Schr¨ odinger. Teniendo en cuenta que H es observable, podemos expandir la soluci´on de la Ec. de Schr¨ odinger en t´erminos de la base {|ϕn,τ i} |ψ (t)i =
X n,τ
cn,τ (t) |ϕn,τ i ;
cn,τ (t) ≡ hϕn,τ |ψ (t)i
(5.62)
n´ otese que toda la dependencia temporal de |ψ (t)i est´ a contenida en los cn,τ (t). Aplicando el bra hϕn,τ | sobre la ecuaci´ on de Schr¨ odinger y teniendo en cuenta que este bra no depende del tiempo i~
d hϕn,τ |ψ (t)i = hϕn,τ | H |ψ (t)i dt
(5.63)
y dada la hermiticidad de H el herm´ıtico conjugado de (5.61) es hϕn,τ | H = En hϕn,τ |
(5.64)
aplicando (5.64) y la segunda Ec. (5.62) en (5.63) se obtiene i~
d cn,τ (t) = En cn,τ (t) dt
la cual se puede integrar directamente para obtener cn,τ (t) = cn,τ (t0 ) e−iEn (t−t0 )/~
(5.65)
por tanto, si H no depende del tiempo podemos encontrar a |ψ (t)i a partir de su valor inicial |ψ (t0 )i en la siguiente forma
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
226
(a) Expandimos el valor inicial del estado en la base de autoestados de H |ψ (t0 )i =
XX n
τ
cn,τ (t0 ) |ϕn,τ i ;
cn,τ (t0 ) ≡ hϕn,τ |ψ (t0 )i
(5.66)
(b) En virtud de las Ecs. (5.62) y (5.65), multiplicamos cada sumando en la expansi´ on (5.66) por la fase −iE n (t−t0 )/~ , siendo En el autovalor asociado a los autoestados |ϕn,τ i e |ψ (t)i =
XX n
τ
cn,τ (t0 ) e−iEn (t−t0 )/~ |ϕn,τ i
para el caso de espectro cont´ınuo se realiza un procedimiento an´ alogo para obtener XZ |ψ (t)i = dE cτ (E, t0 ) e−iE(t−t0 )/~ |ϕE,τ i
(5.67)
(5.68)
τ
o si la degeneraci´ on τ tambi´en es cont´ınua tenemos Z Z |ψ (t)i = dτ dE c (τ, E, t0 ) e−iE(t−t0 )/~ |ϕE,τ i n´ otese finalmente que los sumandos en (5.67) poseen fases diferentes para diferentes valores de n. Por tanto, dichas fases son f´ısicamente relevantes y producen fen´ omenos de interferencia.
5.8.1.
Estados estacionarios
Un caso especial importante surge cuando el estado inicial del sistema |ψ (t0 )i coincide con un ket propio de H. En tal caso la expansi´ on (5.66) viene dada por autoestados de H asociados a un solo valor propio |ψ (t0 )i =
X τ
cn,τ (t0 ) |ϕn,τ i
(5.69)
y dado que no hay suma sobre n, la Ec. (5.67) para el estado |ψ (t)i queda |ψ (t)i = e−iEn (t−t0 )/~
X τ
cn,τ (t0 ) |ϕn,τ i = e−iEn (t−t0 )/~ |ψ (t0 )i
de modo que el estado inicial y el estado en cualquier tiempo solo difieren en una fase global f´ısicamente irrelevante. Por tanto, todas las propiedades f´ısicas de sistemas que est´ an inicialmente preparados en un autoestado de H, permanecen inalteradas en el tiempo. Por esta raz´ on a los estados propios del Hamiltoniano se les denomina estados estacionarios. De aqu´ı surge adem´ as la manifestaci´ on cu´ antica de la conservaci´ on de la energ´ıa para sistemas conservativos. Si en el tiempo t0 medimos la energ´ıa de un sistema conservativo y encontramos el valor En , el sistema queda preparado luego de la medici´ on en un autoestado de H dado por (5.69) con valor propio En . A partir de este momento se puede aplicar la ecuaci´ on de Schr¨ odinger tomando este autoestado de H como estado inicial, pero dado que dicho estado es estacionario, no se genera f´ısicamente evoluci´ on temporal y para todo tiempo el estado contin´ ua siendo autoestado de H con energ´ıa En . En consecuencia, una segunda medida de la energ´ıa del sistema en cualquier tiempo posterior nos dar´ a el mismo valor de energ´ıa En obtenido en la primera medici´ on. Finalmente, vale la pena se˜ nalar que lo anterior nos conduce a que solo hay evoluci´ on cuando la energ´ıa en a el estado inicial no est´ a bien definida (de manera que hay varias fases de la forma e−iEk (t−t0 )/~ ). Esto nos llevar´ m´ as adelante a una relaci´ on de incertidumbre entre el tiempo de evoluci´ on y la energ´ıa.
´ DE SCHRODINGER ¨ 5.8. ECUACION PARA SISTEMAS CONSERVATIVOS
5.8.2.
227
Constantes de movimiento
La Ec. (5.52) nos dice que la cantidad hAi ser´ a constante de movimiento si se cumplen las condiciones ∂A = 0 ; [A, H] = 0 ∂t
(5.70)
aplicando estas condiciones en (5.52) se obtiene que d hAi d = hψ (t)| A |ψ (t)i = 0 dt dt
(5.71)
para cualquier estado |ψ (t)i del sistema. Es claro que si se cumplen las condiciones (5.70) el valor medio de A on que un observable A es constante ser´ a constante de movimiento8 . En consecuencia, definiremos por extensi´ de movimiento si cumplen las condiciones (5.70). En palabras, un observable es constante de movimiento si no depende expl´ıcitamente del tiempo y conmuta con el Hamiltoniano. En particular si H no depende del tiempo (sistemas conservativos), H como tal es constante de movimiento. Veremos que si A es constante de movimiento hay algunas consecuencias f´ısicas adicionales. En primer lugar, puesto que A y H son observables que conmutan, poseen un conjunto com´ un completo de kets propios H |ϕn,p,τ i = En |ϕn,p,τ i
;
A |ϕn,p,τ i = ap |ϕn,p,τ i
de nuevo asumimos espectros discretos por simplicidad9 . El ´ındice τ fija los valores propios de observables que forman un C.S.C.O. con H y A. Ahora bien, los kets |ϕn,p,τ i son autoestados de H y por tanto son estados estacionarios (siempre que H no dependa del tiempo). En consecuencia, si |ϕn,p,τ i define el estado inicial del sistema, permanecer´ a en este estado indefinidamente (excepto por una fase global irrelevante). No obstante, |ϕn,p,τ i tambi´en es ket propio de A. En consecuencia, cuando A es una constante de movimiento y H no depende del tiempo, existen estados estacionarios |ϕn,p,τ i del sistema f´ısico que permanecen para todo tiempo como autoestados de A on a los autovalores de A se les denomina n´ umeros cu´ anticos buenos. con el mismo autovalor ap . Por esta raz´ Es claro que si |ϕn,p,τ i es el estado inicial, el valor de la energ´ıa y de ap ser´ an siempre el mismo sin importar el tiempo en que se midan, el orden en que se midan (son observables compatibles), o cuantas veces se midan, adem´ as hay una certeza total en sus valores (ambas cantidades est´ an bien definidas y se conservan). Ahora supongamos que el estado inicial no es del tipo |ϕn,p,τ i, sino un ket arbitrario |ψ (t0 )i. Veremos que si el sistema es conservativo, la probabilidad de encontrar un cierto valor ap es independiente del tiempo cuando se mide la constante de movimiento A. Expandiendo |ψ (t0 )i en la base {|ϕn,p,τ i} se tiene |ψ (t0 )i =
XXX n
p
τ
cn,p,τ (t0 ) |ϕn,p,τ i
y aplicando el procedimiento descrito por las Ecs. (5.66) y (5.67) se obtiene |ψ (t)i =
XXX n
p
τ
cn,p,τ (t) |ϕn,p,τ i
;
cn,p,τ (t) = cn,p,τ (t0 ) e−iEn (t−t0 )/~
y usando el postulado de descomposici´ on espectral, la probabilidad P (ap , t) de obtener ap cuando A se mide sobre
Si se pide ∂A = h[A, H]i = 0, entonces la Ec. (5.71) solo ser´ a v´ alida para un estado o estados espec´ıficos |ψ (t)i. La idea aqu´ı es ∂t estudiar constantes de movimiento inherentes al sistema y no a condiciones iniciales espec´ıficas. 9 Si en lugar de la Ec. (5.70) asumimos la condici´ on m´ as d´ebil ∂A + [A, H] = 0, tenemos que A no conmuta en general con H. Por ∂t tanto, aunque tal condici´ on conduce a la conservaci´ on de hAi Ec. (5.71), no conduce a la existencia de una base com´ un para A y H de modo que las consecuencias f´ısicas adicionales que discutiremos aqu´ı, no son v´ alidas para esta condici´ on m´ as d´ebil. 8
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
228
el sistema en el tiempo t (y por tanto en el estado |ψ (t)i) est´ a dado por 2 X X X 2 ′ ′ ′ ′ ′ ′ P (ap , t) = |hϕn,p,τ |ψ (t)i| = | c (t) ϕ hϕ n,p,τ n ,p ,τ n ,p ,τ ′ ′ ′ n,τ n,τ npτ 2 2 X X X X = cn′ ,p′ ,τ ′ (t) hϕn,p,τ ϕn′ ,p′ ,τ ′ = cn′ ,p′ ,τ ′ (t) δn,n′ δp,p′ δτ,τ ′ n,τ n′ p′ τ ′ n,τ n′ p′ τ ′ XX X X = |cn,p,τ (t)|2 = cn,p,τ (t) c∗n,p,τ (t) n
P (ap , t) =
τ
XX n
n
τ
−iEn (t−t0 )/~
cn,p,τ (t0 ) e
c∗n,p,τ (t0 ) eiEn (t−t0 )/~
τ
cada fase se anula y se obtiene P (ap , t) =
XX n
τ
|cn,p,τ (t0 )|2 = P (ap , t0 )
lo cual prueba la independencia con el tiempo de esta distribuci´ on de probabilidad. En particular, si en t0 el sistema est´ a en un autoestado de A con autovalor am , de modo que P (ak , t0 ) = δkm , esta probabilidad no evoluciona en el tiempo; por lo tanto, para cualquier instante se obtiene la misma medida am , y el estado del sistema en cualquier tiempo contin´ ua siendo autoestado de A con valor propio am .
5.8.3.
Frecuencias de Bohr de un sistema y reglas de selecci´ on
Sea B un observable del sistema que estamos estudiando y que no necesariamente conmuta con H. La evoluci´ on temporal de hBi est´ a dada por la Ec. (5.52) d 1 ∂B hBi = h[B, H]i + dt i~ ∂t para un sistema conservativo el estado en cualquier instante vendr´ a dado por (5.67), con lo cual podemos calcular el valor esperado de B cuando el sistema est´ a en el estado |ψ (t)i. Para ello necesitamos el bra asociado a (5.67) el cual viene dado por XX
c∗n′ ,τ ′ (t0 ) eiEn′ (t−t0 )/~ ϕn′ ,τ ′ hψ (t)| = (5.72) n′
τ′
usando (5.67, 5.72) el valor esperado de B resulta # " # " XX XX
c∗n′ ,τ ′ (t0 ) eiEn′ (t−t0 )/~ ϕn′ ,τ ′ B cn,τ (t0 ) e−iEn (t−t0 )/~ |ϕn,τ i hψ (t)| B |ψ (t)i = n′
hBi|ψ(t)i =
n
τ′
XXXX n′
τ′
n
c∗n′ ,τ ′ (t0 ) cn,τ (t0 )
τ
τ
ϕn′ ,τ ′ B |ϕn,τ i ei(En′ −En )(t−t0 )/~
(5.73)
de aqu´ı en adelante que B no depende expl´ıcitamente del tiempo, en tal caso los elementos matriciales
asumiremos ′ ′ ϕn ,τ B |ϕn,τ i son constantes. De esto y de la Ec. (5.73) se v´e que la evoluci´ on temporal de hBi (t) se debe exclusivamente a las fases, es decir a t´erminos oscilantes con frecuencias dadas por νn′ ,n ≡
1 |En′ − En | |En′ − En | = 2π ~ h
(5.74)
tales frecuencias son caracter´ısticas del sistema bajo estudio pero son independientes del observable B considerado y de las condiciones iniciales del sistema (descritas por los coeficientes c∗n′ ,τ ′ (t0 ) cn,τ (t0 ) ), ya que solo dependen de los valores propios de H.
´ DE SCHRODINGER ¨ 5.8. ECUACION PARA SISTEMAS CONSERVATIVOS
229
Las frecuencias νn′ ,n se denominan las frecuencias de Bohr del sistema. Por ejemplo, para un ´ atomo los valores esperados de todos los par´ ametros at´ omicos (tales como momentos dipolares el´ectricos y magn´eticos), oscilan a las varias frecuencias de Bohr del ´ atomo. Es razonable imaginar que estas frecuencias pueden ser absorbidas o emitidas por el ´ atomo, lo cual nos permite entender intuitivamente la relaci´ on de Bohr entre las diferentes frecuencias absorbidas o emitidas y las diferencias en las energ´ıas at´ omicas. Puede verse de (5.73) que aunque las frecuencias involucradas en la evoluci´ on temporal de
hBi no dependen de B, los pesos de cada frecuencia s´ı dependen de B a trav´es de los elementos matriciales ϕn′ ,τ ′ B |ϕn,τ i. En
particular si hay elementos ϕn′ ,τ ′ B |ϕn,τ i que sean nulos, las correspondientes frecuencias vn′ ,n estar´ an ausentes de la expansi´ on de hBi (t) sin importar cual sea el estado inicial del sistema. Este es el origen de las reglas de selecci´ on que nos indican las frecuencias que pueden ser emitidas o absorbidas bajo las condiciones dadas. Los
elementos de matriz ϕn′ ,τ ′ B |ϕn,τ i nos dicen la importancia de cada frecuencia de Bohr. on proviene del c´ alculo de los elementos no diagonales
De lo anterior vemos que el estudio de las reglas de selecci´ omicos (o de cualquier otro sistema cu´ antico) tales como los dipolos ϕn′ ,τ ′ B |ϕn,τ i de los diversos observables at´ el´ectricos y magn´eticos. Por otro lado, la Ec. (5.73) muestra que el peso completo de cada frecuencia est´ a dado por el producto XX ∗
W n, n′ = cn′ ,τ ′ (t0 ) cn,τ (t0 ) ϕn′ ,τ ′ B |ϕn,τ i τ
τ′
y por tanto tambi´en depende de las condiciones iniciales por medio de c∗n′ ,τ ′ (t0 ) cn,τ (t0 ). Vale la pena anotar
que si bien la nulidad de los elementos ϕn′ ,τ ′ B |ϕn,τ i conduce a la ausencia de una frecuencia de Bohr para cualquier estado inicial del sistema, tambi´en se puede dar la ausencia de una frecuencia por la nulidad del producto c∗n′ ,τ ′ (t0 ) cn,τ (t0 ), es decir por ciertas condiciones iniciales espec´ıficas. En particular, si el estado inicial es un estado estacionario de energ´ıa Ek la expansi´ on de |ψ (t0 )i solo contiene un valor de n (n = k) y el producto c∗n′ ,τ ′ (t0 ) cn,τ (t0 ) solo es no nulo para n = n′ = k, en este caso hBi no depende del tiempo y no hay frecuencias de Bohr no triviales, n´ otese que esta regla de selecci´ on se da por condiciones iniciales y se da para cualquier observable B. Es interesante ver que de la Ec. (5.73) tambi´en podemos verificar que el valor esperado de una constante de movimiento no depende del tiempo. Al ser B constante de movimiento, no depende expl´ıcitamente del tiempo con lo cual la dependencia temporal de hBi recae exclusivamente en las fases que contienen la energ´ıa en la Ec. (5.73). Ahora bien el teorema 1.68 (p´ ag. 58) nos dice que dado que B conmuta con H (por ser constante de movimiento),
si |ϕn,τ i y ϕn′ ,τ ′ corresponden a autovalores diferentes (En′ 6= En ) entonces el producto ϕn′ ,τ ′ B |ϕn,τ i es cero. Por tanto para una constante de movimiento solo sobreviven los t´erminos con n = n′ para los cuales las fases ei(En′ −En )(t−t0 )/~ ser´ an iguales a la unidad y no habr´ a dependencia temporal.
5.8.4.
Relaci´ on de incertidumbre entre tiempo y energ´ıa para sistemas conservativos
A continuaci´ on veremos que los sistemas conservativos presentan la propiedad de que entre mayor sea la incertidumbre en la energ´ıa, m´ as r´ apida es la evoluci´ on temporal. Para ver esto, definimos ∆t como un intervalo de tiempo caracter´ıstico al final del cual el sistema ha evolucionado de forma apreciable, y ∆E denotar´ a la incertidumbre en la energ´ıa. Veamos primero el caso en el cual la energ´ıa est´ a completamente definida, esto ocurre cuando el sistema est´ a en un autoestado de H, de modo que ∆E = 0. Hemos visto que este estado es estacionario y que por tanto no evoluciona, podemos considerar entonces que el tiempo para que el sistema evolucione apreciablemente es infinito, vemos entonces que cuando ∆E = 0 se tiene que ∆t → ∞. Ahora asumamos que el sistema en el estado inicial se encuentra en el estado |ψ (t0 )i que es una superposici´ on de solo dos autoestados de H que denotamos por |ϕ1 i , |ϕ2 i |ψ (t0 )i = c1 |ϕ1 i + c2 |ϕ2 i
(5.75)
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
230
el estado en cualquier tiempo ser´ a entonces |ψ (t)i = c1 e−E1 (t−t0 )/~ |ϕ1 i + c2 e−E2 (t−t0 )/~ |ϕ2 i si medimos la energ´ıa encontramos E1 ´ o E2 . En consecuencia, la incertidumbre en la energ´ıa es del orden de ∆E ∼ = |E2 − E1 | ahora consideremos un observable arbitrario B que no conmuta con H. La probabilidad de encontrar en una medida de B en el tiempo t el valor propio bm (que asumimos no degenerado por simplicidad) asociado con el autovector |um i nos da P (bm , t) = |hum |ψ (t)i|2 = hum |ψ (t)i hψ (t) |um i h io n = hum | c1 e−E1 (t−t0 )/~ |ϕ1 i + c2 e−E2 (t−t0 )/~ |ϕ2 i nh i o × c∗1 eE1 (t−t0 )/~ hϕ1 | + c∗2 eE2 (t−t0 )/~ hϕ2 | |um i P (bm , t) =
n
o c1 e−E1 (t−t0 )/~ hum | ϕ1 i + c2 e−E2 (t−t0 )/~ hum | ϕ2 i n o × c∗1 eE1 (t−t0 )/~ hϕ1 | um i + c∗2 eE2 (t−t0 )/~ hϕ2 | um i
= c1 c∗1 hum | ϕ1 i hϕ1 | um i + c2 c∗2 hum | ϕ2 i hϕ2 | um i
+c1 c∗2 e−E1 (t−t0 )/~ eE2 (t−t0 )/~ hum | ϕ1 i hϕ2 | um i + c2 c∗1 e−E2 (t−t0 )/~ eE1 (t−t0 )/~ hum | ϕ2 i hϕ1 | um i
P (bm , t) = |c1 |2 |hum | ϕ1 i|2 + |c2 |2 |hum | ϕ2 i|2 + c1 c∗2 e(E2 −E1 )(t−t0 )/~ hum | ϕ1 i hϕ2 | um i h i∗ + c1 c∗2 e(E2 −E1 )(t−t0 )/~ hum | ϕ1 i hϕ2 | um i
n o P (bm , t) = |c1 |2 |hum | ϕ1 i|2 + |c2 |2 |hum | ϕ2 i|2 + 2Re c1 c∗2 e(E2 −E1 )(t−t0 )/~ hum | ϕ1 i hϕ2 | um i
(5.76)
n´ otese que la interferencia est´ a dada por la diferencia entre las dos fases. Esta ecuaci´ on muestra que la probabilidad oscila entre dos valores extremos, con una frecuencia de Bohr dada por v21 =
|E2 − E1 | h
vale la pena mencionar que el valor de esta frecuencia de Bohr no dependi´ o del observable, sino de los valores propios del Hamiltoniano. Sin embargo, la Ec. (5.76) nos muestra que el peso con el cual contribuye tal frecuencia depende de las condiciones iniciales descritas por la Ec. (5.75), y del observable mismo a trav´es de |um i que es el vector propio de B asociado al valor propio bm , al cual se le est´ a calculado la probabilidad. El tiempo caracter´ıstico de evoluci´ on ser´ a entonces un periodo de oscilaci´ on de la probabilidad ∆t ∼ = con lo cual se obtiene la relaci´ on
1 h h ∼ = = ν21 |E2 − E1 | ∆E ∆t · ∆E ∼ =h
(5.77)
Asumamos ahora que el espectro de H es cont´ınuo y no degenerado. El estado inicial |ψ (t0 )i se puede escribir como Z |ψ (t0 )i = dE c (E) |ϕE i
´ DE SCHRODINGER ¨ 5.8. ECUACION PARA SISTEMAS CONSERVATIVOS
231
siendo |ϕE i el ket propio de H con autovalor E. Asumamos que en una gr´ afica de |c (E)|2 (densidad de probabilidad para E) vs. E, la densidad de probabilidad solo es apreciable en un intervalo [E0 − ∆E/2, E0 + ∆E/2]. La cantidad ∆E representa entonces la incertidumbre en la energ´ıa del sistema (que depende del algoritmo para elegir el ancho). El estado en un tiempo t se obtiene de (5.68) Z |ψ (t)i = dE c (E) e−iE(t−t0 )/~ |ϕE i la probabilidad de obtener bm cuando se mide el observable B (de espectro discreto) en el estado |ψ (t)i es Z 2 2 −iE(t−t0 )/~ P (bm , t) = |hum |ψ (t)i| = dE c (E) e hum |ϕE i Z 2 E0 +∆E/2 −iE(t−t )/~ 0 ∼ P (bm , t) = dE c (E) e hum |ϕE i E0 −∆E/2
(5.78)
en general hum |ϕE i no var´ıa en forma r´ apida con E cuando E var´ıa alrededor de E0 . Si ∆E es lo suficientemente peque˜ no, la variaci´ on de hum |ϕE i en la integral (5.78) se puede despreciar con respecto a la variaci´ on de c (E). Con lo cual la integral (5.78) se puede aproximar a Z 2 E0 +∆E/2 2 dE c (E) e−iE(t−t0 )/~ P (bm , t) ∼ = |hum |ϕE0 i| E0 −∆E/2
cuando esta aproximaci´ on es v´ alida vemos que P (bm , t) es proporcional al cuadrado del m´ odulo de la transformada de Fourier de c (E). Aplicando la propiedad de incertidumbre para la transformada de Fourier, vemos que el ancho a relacionado con el ancho ∆E de |c (E)|2 por medio de la relaci´ on en t de P (bm , t), es decir ∆t est´ ∆E · ∆t & h
usualmente conocida como la cuarta relaci´ on de incertidumbre de Heisenberg. Sin embargo, esta relaci´ on es diferente a la mostrada por las componentes de R y P ya que el tiempo es un par´ ametro para el cual no existe un operador cu´ antico asociado, y las variables H y t no son can´ onicamente conjugadas. Adicionalmente, ∆t no es en realidad una incertidumbre en la medida del tiempo, sino un tiempo que caracteriza la “rapidez” con que el sistema f´ısico evoluciona. A priori podr´ıa pensarse que la presencia de incertidumbre en la energ´ıa para un sistema conservativo, entra en conflicto con la conservaci´ on de la energ´ıa. Debemos observar sin embargo, que el concepto de conservaci´ on (o no conservaci´ on) de una cantidad f´ısica involucra la comparaci´ on entre dos o m´ as medidas de dicha cantidad. Si el estado inicial no es estacionario, entonces hay una incertidumbre en la energ´ıa, tal incertidumbre persiste y puede evolucionar en el tiempo mientras no se realice una medida. No obstante, cuando se realiza una medida de la energ´ıa, el sistema queda preparado en un estado estacionario con energ´ıa bien definida En , y ya se discuti´ o que toda medida posterior de la energ´ıa dar´ a el mismo valor En con toda certeza. Lo mismo ocurrir´ a con cualquier cantidad posterior de medidas de este observable. Tenemos entonces un principio de conservaci´ on puesto que el experimento revela que para un sistema conservativo, las medidas de esta cantidad f´ısica en diferentes tiempos coinciden siempre. Similar discusi´ on se puede dar para la conservaci´ on del momento u otra cantidad f´ısica.
5.8.5.
Cuarta relaci´ on de incertidumbre para un paquete de onda unidimensional
Veamos el caso de un paquete de ondas unidimensional. A la incertidumbre ∆p en el momento del paquete le podemos asociar una incertidumbre en la energ´ıa de la forma ∆E = ∆E =
dE ∆p ; E = ~ω ; p = ~k ⇒ dp dω ∆p = vg ∆p dk
(5.79)
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
232
por otra parte, es razonable definir el tiempo caracter´ıstico de evoluci´ on ∆t de un paquete de ondas viajeras unidimensional como el tiempo que le toma a este paquete de onda viajando a la velocidad vg para “pasar” un punto fijo en el espacio, es decir para que haya recorrido una longitud igual a su extensi´ on espacial ∆x. Por tanto ∆t ∼ =
∆x vg
(5.80)
y combinando las Ecs. (5.79, 5.80) resulta ∆E · ∆t ∼ = ∆x · ∆p & ~
5.9.
Consecuencias f´ısicas del principio de superposici´ on
El primer postulado nos dice que los estados accesibles de un sistema cu´ antico forman un espacio vectorial completo, lo cual implica que la superposici´ on lineal (incluso infinita) de estados f´ısicamente realizables tambi´en nos da un estado f´ısicamente realizable. Veremos las consecuencias f´ısicas de este primer postulado. Hemos mencionado ya los efectos de interferencia que surgen de este primer postulado cuando se combina con los dem´ as, estos fueron especialmente importantes en la explicaci´ on de la dualidad onda part´ıcula. Vimos adem´ as que la interferencia se da entre las amplitudes de probabilidad por lo cual debemos examinar tales amplitudes en forma detallada
5.9.1.
Diferencia entre superposici´ on lineal y mezcla estad´ıstica
Sean |ψ1 i y |ψ2 i dos estados normalizados ortogonales hψ1 |ψ1 i = hψ2 |ψ2 i = 1 ;
hψ1 |ψ2 i = 0
estos estados podr´ıan ser por ejemplo estados propios de un observable B asociados a valores propios diferentes b1 y b2 . Si el sistema est´ a en el estado |ψ1 i podemos calcular todas las probabilidades concernientes a resultados de medidas de un cierto observable A. Si asumimos por ejemplo que el autovalor an de A es no degenerado y denotamos |un i a su autovector asociado normalizado, la probabilidad de encontrar el valor an cuando se mide A sobre el sistema estando ´este en el estado |ψ1 i est´ a dado por P1 (an ) = |hun |ψ1 i|2
(5.81)
an´ alogamente podemos medir esta probabilidad cuando el sistema est´ a en el estado |ψ2 i P2 (an ) = |hun |ψ2 i|2
(5.82)
ahora consideremos un estado normalizado |ψi que se construye como superposici´ on de los estados |ψ1 i y |ψ2 i |ψi = c1 |ψ1 i + c2 |ψ2 i ; |c1 |2 + |c2 |2 = 1
(5.83)
este vector estar´ a normalizado si |ψ1 i y |ψ2 i lo est´ an. Puesto que |ψ1 i y |ψ2 i son autovectores del observable B correspondientes a valores propios diferentes b1 y b2 , la probabilidad de medir b1 es |c1 |2 y la de medir b2 es |c2 |2 . Con frecuencia se dice que cuando el sistema est´ a en el estado |ψi descrito por (5.83), entonces |c1 |2 es la probabilidad de encontrar al sistema en el estado |ψ1 i y |c2 |2 es la probabilidad de encontrarlo en el estado |ψ2 i, debe decirse sin embargo que esto solo es cierto si se ejecuta una medida del observable B, ya que si se mide cualquier otro observable C en general |ψ1 i y |ψ2 i no ser´ an autoestados de C y por tanto luego de la medida el sistema no quedar´ a en ninguno de estos estados. En este caso se tendr´ a que expandir a |ψi en autoestados de C (esto es posible dado que es un observable), y obtener los respectivos coeficientes. Esto nos muestra una vez m´ as que el aparato de medida y la medida misma juegan un papel muy importante en los postulados.
´ 5.9. CONSECUENCIAS F´ISICAS DEL PRINCIPIO DE SUPERPOSICION
233
Volviendo a la distribuci´ on de probabilidades para b1 y b2 , lo anterior podr´ıa sugerir err´ oneamente que N sistemas id´enticos cada uno en el estado |ψi descrito por (5.83), equivalen a otro conjunto compuesto por N |c1 |2 sistemas id´enticos cada uno en el estado |ψ1 i, junto con N |c2 |2 sistemas id´enticos cada uno en el estado |ψ2 i. A esto u ´ltimo se le denomina una mezcla estad´ıstica de los estados |ψ1 i y |ψ2 i con pesos |c1 |2 y |c2 |2 . Para chequear esta hip´ otesis calcularemos la probabilidad de encontrar el autovalor an cuando medimos A, sobre el sistema en el estado |ψi. Si interpretamos este estado como una mezcla estad´ıstica de los estados |ψ1 i y |ψ2 i con pesos |c1 |2 y |c2 |2 , esta probabilidad se puede calcular como la suma ponderada de probabilidades P1 (an ) y P2 (an ) 10 ?
P (an ) = |c1 |2 P1 (an ) + |c2 |2 P2 (an )
(5.84)
por otro lado, aplicando los postulados de la mec´ anica cu´ antica, esta probabilidad se calcula como P (an ) = |hun | ψi|2 la probabilidad es el m´ odulo al cuadrado de la amplitud de probabilidad hun | ψi. Tal amplitud es la suma de dos t´erminos hun | ψi = hun | {c1 |ψ1 i + c2 |ψ2 i} = c1 hun | ψ1 i + c2 hun | ψ2 i el m´odulo al cuadrado se calcula con un procedimiento id´entico al que nos llev´ o a la Ec. (5.76) (excepto por la ausencia de las exponenciales de la energ´ıa) P (an , t) = |c1 |2 |hun | ψ1 i|2 + |c2 |2 |hun | ψ2 i|2 + 2Re {c1 c∗2 hun | ψ1 i hψ2 | un i} puesto que las cantidades c1 , c2 , hun | ψ1 i y hψ2 | un i son complejas podemos escribirlas en notaci´ on polar c1 = |c1 | eiθ1 , c2 = |c2 | eiθ2 , hun | ψ1 i = |hun | ψ1 i| eiδ1
hψ2 | un i = hun | ψ2 i∗ = |hun | ψ2 i| e−iδ2 con lo cual la probabilidad queda
n o P (an , t) = |c1 |2 |hun | ψ1 i|2 + |c2 |2 |hun | ψ2 i|2 + 2Re |c1 | |c2 | |hun | ψ1 i| |hun | ψ2 i| ei(θ1 +δ1 −θ2 −δ2 ) n o P (an , t) = |c1 |2 |hun | ψ1 i|2 + |c2 |2 |hun | ψ2 i|2 + 2 |c1 | |c2 | |hun | ψ1 i| |hun | ψ2 i| Re ei(θ1 +δ1 −θ2 −δ2 )
quedando finalmente
P (an , t) = |c1 |2 |hun | ψ1 i|2 + |c2 |2 |hun | ψ2 i|2 + 2 |c1 | |c2 | |hun | ψ1 i| |hun | ψ2 i| cos (θ1 + δ1 − θ2 − δ2 ) usando las Ecs. (5.81, 5.82) esta expresi´ on se puede reescribir como P (an , t) = |c1 |2 P1 (an ) + |c2 |2 P2 (an ) + 2 |c1 | |c2 | |hun | ψ1 i| |hun | ψ2 i| cos (θ1 + δ1 − θ2 − δ2 ) este resultado difiere del mostrado en (5.84) en donde se consider´ o a |ψi como una mezcla estad´ıstica. El punto es que la mezcla estad´ıstica no considera los efectos de interferencia contenidos en el producto cruzado que se obtiene cuando se eleva al cuadrado una suma de amplitudes. El resultado muestra que la probabilidad no depende solo de los m´ odulos de los pesos |c1 | y |c2 | y de las amplitudes |hun | ψ1 i| y |hun | ψ2 i| sino tambi´en de sus fases relativas θ1 , θ2 , δ1 y δ2 . N´ otese sin embargo, que una fase global eiθ multiplicando al estado |ψi no afecta esta probabilidad puesto que se elimina con su conjugado en el t´ermino de interferencia. 10
Puesto que P1 (an ) es la probabilidad de obtener el valor an cuando el sistema est´ a en el estado |ψ1 i, es claro 2 que en una mezcla c1 estados |ψ1 i, viene estad´ıstica con N muy grande, el n´ u mero de estados |ψ i que arrojar´ a a cuando se mide A sobre los N 1 n 2 2 dada por N c1 P1 (an ). Similarmente, N c2 P2 (an ) es el n´ umero de estados |ψ2 i de la mezcla estad´ıstica que arrojar´ an el valor an en la medici´ on de A. Es claro entonces que la probabilidad de obtener an cuando se mide sobre la mezcla estad´ıstica completa es 2 N | c2 1 |P1 (an )+N |c2 |P2 (an ) que coincide con la Ec. (5.84). l´ımN→∞ N
234
5.9.2.
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
Efectos de interferencia en fotones polarizados
Consideremos fotones polarizados que se propagan en la direcci´ on uz en los cuales el estado de polarizaci´ on est´ a representado por el vector unitario 1 u = √ (ux + uy ) (5.85) 2 este estado es una superposici´ on de dos estados de polarizaci´ on ortogonales ux y uy . Esto representa luz polarizada linealmente a un ´angulo de π/4 con respecto a los ejes X e Y . Si consider´ aramos u como una mezcla estad´ıstica de los estados ux y uy con id´enticos pesos, tendr´ıamos que 2 N fotones en el estado u son equivalentes a N × √12 = N2 fotones en el estado ux y N2 fotones en el estado uy .
Si coloc´ aramos en la trayectoria del haz de luz un analizador cuyo eje u′ sea perpendicular a u (y de modo que ′ u, u generen un plano paralelo a XY), para la mezcla estad´ıstica la mitad de los fotones pasar´ıa el analizador. En contraste, tanto la teor´ıa cu´ antica como los experimentos muestran que ninguno de los N fotones en el estado u pasa el analizador (ver secci´ on 2.9). Este ejemplo muestra que una superposici´ on lineal de la forma (5.85) es diferente a una mezcla estad´ıstica otese por ejemplo que la superposici´ on en (5.85) describe un de iguales proporciones entre los estados ux y uy . N´ haz de luz polarizada a π/4 de los ejes X e Y . En contraste, una mezcla estad´ıstica est´ a asociada con un haz no polarizado puesto que el sistema contiene fotones de diferente polarizaci´ on la mitad en direcci´ on ux y la otra mitad en la direcci´ on uy . La importancia de las fases relativas de los coeficientes de la expansi´ on se puede ilustrar con los siguientes estados de polarizaci´ on 1 1 1 1 u1 = √ (ux + uy ) ; u1 = √ (ux − uy ) ; u1 = √ (ux + iuy ) ; u1 = √ (ux − iuy ) 2 2 2 2
los cuales difieren solo en las fases relativas de sus coeficientes siendo estas fases 0, π, π/2 y −π/2 respectivamente. Estos cuatro estados son f´ısicamente distintos: los dos primeros representan luz polarizada linealmente pero en direcciones distintas (el primer estado es ortogonal al segundo). Los dos u ´ltimos representan luz polarizada circularmente (dextr´ ogira y lev´ ogira respectivamente).
5.9.3.
Suma sobre los estados intermedios
Para ilustrar el uso adecuado del principio de superposici´ on, vamos a examinar dos experimentos ilustrativos. En esta secci´ on asumiremos que los observables A, B, C tienen un espectro discreto y no degenerado. Asumiremos tambi´en que todas las medidas sucesivas se hacen en intervalos de tiempo cortos, de manera que el sistema no ha tenido tiempo de evolucionar. Primer experimento: Asumamos que en cierto tiempo, se midi´ o el observable A y se obtuvo el valor propio a. El estado despu´es de la medida ser´ a el ket propio |ua i asociado con a. Inmediatamente despu´es medimos al observable C que no conmuta con A y obtenemos el valor c, de modo que el sistema quedar´ a en el estado |vc i. La probabilidad de que habiendo obtenido el valor a en la primera medida, obtengamos en la segunda medida un valor c est´ a dada por Pa (c) = |hvc |ua i|2 (5.86) Segundo experimento: En este experimento medimos de forma sucesiva los observables A, B, y C que no conmutan entre s´ı. Si Pa (b, c) es la probabilidad de que habiendo obtenido el resultado a en la primera medida se obtengan los valores b y c en las otras dos, tenemos que esta probabilidad es el producto Pa (b, c) = Pa (b) × Pb (c) es decir Pa (b, c) es la probabilidad Pa (b) de que habiendo obtenido el valor a del observable A en la primera medida, obtengamos b en la segunda, multiplicada por la probabilidad de que habiendo obtenido un valor b del
´ 5.9. CONSECUENCIAS F´ISICAS DEL PRINCIPIO DE SUPERPOSICION
235
observable B en la segunda medida obtengamos un valor c de C en la tercera. Si denotamos |wb i al ket propio de B asociado con el valor propio b, la cantidad Pa (b, c) estar´ a dada por Pa (b, c) = |hvc | wb i|2 |hwb | ua i|2
(5.87)
Veamos ahora las semejanzas y diferencias entre ambos experimentos. Asumiremos que en ambos experimentos se han obtenido los mismos valores espec´ıficos de A y C. En ambos experimentos el estado despu´es de la medici´ on de A es |ua i, de hecho el papel de esta medici´ on es el de fijar a |ua i como el estado inicial (o “preparar” el sistema on de C en ambos experimentos, el estado ser´ a |vc i que lo tomaremos en el estado inicial |ua i). Despu´es de la medici´ como el estado final. Los dos experimentos coinciden entonces en el estado inicial y en el final. Para ambos experimentos es posible descomponer el estado justo antes de la medida de C en t´erminos de autovectores |wb i de B, y decir que entre los estados |ua i y |vc i el sistema puede “pasar” a trav´es de diferentes “estados intermedios” |wbi i. Cada uno de estos estados intermedios define un posible “camino” entre el estado inicial |ua i y el estado final |vc i. De aqu´ı surge la diferencia fundamental entre los dos experimentos. En el primero el camino que el sistema ha tomado para ir desde |ua i hasta |vc i no ha sido determinado experimentalmente, ya que solo hemos medido la probabilidad Pc (a) de que comenzando en el estado |ua i terminemos en el estado |vc i. En el segundo experimento el camino para ir desde |ua i hasta |vc i ha sido determinado experimentalmente midiendo el observable B, ya que esta medida nos permite obtener la probabilidad Pa (b, c) de que el sistema comenzando en |ua i, pase a trav´es de un estado intermedio dado |wb i y termine en el estado |vc i. La idea ahora es relacionar a Pa (c) con Pa (b, c). Resulta tentador pensar que en el primer experimento el sistema es “libre de pasar” a trav´es de todos los estados intermedios |wb i, pareciera entonces que la probabilidad global Pa (c) es la suma de todas las probabilidades Pa (b, c) asociadas con cada uno de los posibles “caminos”, esto conducir´ıa a X ? Pa (c) = Pa (b, c) (5.88) b
veremos que este resultado es incorrecto a la luz de los postulados de la mec´ anica cu´ antica. La manera m´ as simple para relacionar Pa (c) con Pa (b, c) consiste en tomar la f´ ormula de probabilidad Pa (c) Ec. (5.86) y aplicarle la relaci´ on de completez para la base {|wb i} 2 X Pa (c) = |hvc |ua i|2 = hvc |wb i hwb |ua i b " #" #∗ X X Pa (c) = hvc |wb i hwb |ua i hvc |wb′ i hwb′ |ua i
(5.89)
b′
b
XX Pa (c) = hvc |wb i hwb |ua i hvc |wb′ i∗ hwb′ |ua i∗ b
b′
es conveniente separar los t´erminos en las componentes diagonales b = b′ y las no diagonales X XX Pa (c) = hvc |wb i hwb |ua i hvc |wb i∗ hwb |ua i∗ + hvc |wb i hwb |ua i hvc |wb′ i∗ hwb′ |ua i∗ b
Pa (c) =
X b
|hvc |wb i|2 |hwb |ua i|2 +
XX
b b′ 6=b
hvc |wb i hwb |ua i hvc |wb′ i∗ hwb′ |ua i∗
b b′ 6=b
y teniendo en cuenta la Ec. (5.87) tenemos que X XX Pa (c) = Pa (b, c) + hvc |wb i hwb |ua i hvc |wb′ i∗ hwb′ |ua i∗ b
b
b′ 6=b
(5.90)
236
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
comparando (5.90) con (5.88) vemos nuevamente que los t´erminos cruzados que aparecen en el cuadrado del m´ odulo de la suma en (5.89) est´ an ausentes en (5.88), y por tanto todos los efectos de interferencia entre los diferentes posibles caminos. Los argumentos anteriores nos muestran que es necesario razonar en t´erminos de amplitudes de probabilidad para aplicar adecuadamente el principio de superposici´ on. Cuando los estados intermedios del sistema no est´ an determinados experimentalmente son las amplitudes de probabilidad y no las probabilidades las que se deben sumar. Para comprender mejor el error en el razonamiento que nos llev´ o a la Ec. (5.88), recurrimos al quinto postulado de reducci´on del paquete de onda. En el segundo experimento, la medida del observable B involucra una perturbaci´ on del sistema bajo estudio y durante la medida su ket de estado experimenta un cambio abrupto que se manifiesta como la proyecci´ on sobre uno de los estados |wb i, esta perturbaci´ on inevitable y fundamental es la responsable de la desaparici´ on de los efectos de interferencia. En el primer experimento no podemos decir que el sistema f´ısico “pasa” a trav´es de uno u otro de los estados |wb i, es m´ as acertado decir que el sistema pasa a trav´es de todos los estados |wb i en forma ponderada. Esto se puede ver teniendo en cuenta que el estado antes de la medida de B del segundo experimento es |ua i y este tambi´en es el estado del sistema en el primer experimento antes de la medida de C, en el primer experimento el estado antes de la medida de C es |ua i =
X b
cb |wb i
vemos entonces que cuando no se realiza la medida de B el sistema “est´ a en todos los estados posibles |wb i” aunque en forma ponderada por los coeficientes cb . De otra parte si las medidas sucesivas no se hacen en tiempos cortos, es posible realizar razonamientos similares teniendo en cuenta la evoluci´ on del sistema con la ecuaci´ on de Schr¨ odinger, y en todo caso la diferencia fundamental entre superposiciones lineales de estados y mezcla estad´ıstica de estados contin´ ua existiendo (ver secci´ on 7.1.2 P´ ag. 262). N´ otese que estos razonamientos son muy similares a los que se describieron en la secci´ on 2.8 sobre el experimento de Young de la doble rendija. En ´el, la densidad de probabilidad de que un fot´ on emitido por la fuente llegue a un punto dado M en la pantalla se obtiene primero superponiendo linealmente los campos el´ectricos radiados por cada rendija para luego elevar al cuadrado y obtener la intensidad en M (y por tanto la densidad de probabilidad deseada). El campo el´ectrico hace las veces de la amplitud de probabilidad y la intensidad hace las veces de la densidad de probabilidad como tal. Cuando no intentamos determinar por cual rendija pasa el fot´ on (es decir no determinamos experimentalmente el “estado intermedio”), son los campos el´ectricos radiados por cada rendija los que se deben superponer linealmente y no sus intensidades, con el fin de obtener la intensidad (densidad de probabilidad) resultante. Podemos decir entonces que el campo radiado por una rendija sobre el punto M representa la amplitud para un fot´ on emitido desde la fuente (estado inicial) de pasar a trav´es de tal rendija (estado intermedio) antes de arrivar al punto M sobre la pantalla (estado final), pero sin la medici´ on del estado intermedio se considera que el fot´ on pasa por ambas rendijas (todos los estados intermedios accesibles). De lo anterior podemos obtener las siguientes conclusiones (a) Las predicciones probabil´ısticas de la teor´ıa cu´ antica se obtienen siempre elevando al cuadrado el m´ odulo de una amplitud de probabilidad (b) Cuando en un experimento particular no se mide un estado intermedio, no se debe razonar en t´erminos de las probabilidades de los diversos resultados accesibles que se hubieran obtenido en tales medidas. Se debe razonar en t´erminos de las amplitudes de probabilidad. Esto tiene que ver con que las medidas destruyen la interferencia, dado que se obtienen valores bien definidos de un observable y un estado intermedio dado. En contraste cuando una medida no se efect´ ua, el sistema est´ a simult´ aneamente en todos los estados intermedios posibles y es esta simultaneidad la que permite la interferencia. (c) El hecho de que los estados de un sistema f´ısico se pueden superponer linealmente significa que las amplitudes de probabilidad con frecuencia tienen la forma de una suma de amplitudes parciales. La correspondiente
´ CON VARIOS ESTADOS ASOCIADOS A UNA MEDIDA 5.10. PRINCIPIO DE SUPERPOSICION
237
probabilidad es entonces igual al m´ odulo al cuadrado de esta suma de t´erminos con lo cual las amplitudes parciales interfieren entre s´ı.
5.10.
El principio de superposici´ on para casos en que varios estados est´ an asociados a una medida
En la anterior secci´ on hemos trabajado el caso de mediciones asociadas a valores propios no degenerados en los cuales hay un solo estado asociado a cada medida. En este caso la probabilidad de ocurrencia de un evento se ha escrito como el cuadrado del m´ odulo de una suma de t´erminos (amplitudes). No obstante, cuando hay presencia de degeneraci´ on el cuarto postulado Ec. (4.4) nos dice que la probabilidad de obtener un valor propio degenerado involucra una suma de cuadrados de m´ odulos. Debe tenerse en cuenta sin embargo que cada sumando en (4.4) puede a su vez ser el m´ odulo al cuadrado de una suma de amplitudes. Esto implicar´ a discutir con cuidado el uso adecuado del principio de superposici´ on para obtener la probabilidad asociada a valores propios degenerados. Por otra parte, existe otro escenario importante en el cual varios estados est´ an asociados con una medici´ on: cuando la resoluci´ on del aparato de medida es insuficiente (como ocurre en la realidad). Hasta el momento hemos considerado medidas ideales pero es necesario discutir c´ omo las limitaciones experimentales deben ser manejadas para obtener predicciones te´ oricas sobre los resultados. Esta discusi´ on permitir´ a adem´ as extender el quinto postulado de reducci´ on del paquete de onda a los espectros cont´ınuos.
5.10.1.
El principio de superposici´ on para valores propios degenerados
Cuando un valor propio an es gn −degenerado, sus kets propios linealmente independientes uin generan un autosubespacio En de dimensi´ on gn . En este caso, el estado en el cual queda el sistema despu´es de obtener an en la medici´ on no est´ a un´ıvocamente determinado, ya que depende del estado inicial |ψi (estado justo antes de la medici´ on). Si el estado inicial |ψi es dado, el estado justo despu´es de la medici´ on vendr´ a dado por la proyecci´ on normalizada de |ψi sobre En que denotamos por |ψn i. Sin embargo, incluso cuando se obtiene la misma medida on es diferente cuando cambia el vector inicial, por lo cual podemos decir que hay varios estados an esta proyecci´ finales asociados a la medida an . La Ec. (4.4) nos dice como calcular la probabilidad P (an ) de obtener el valor an cuando conocemos el estado |ψi del sistema justo antes de la medici´ on. P (an ) =
gn X i 2 u ψi n
(5.91)
i=1
para calcular esta probabilidad escogemos una base ortonormal uin del autosubespacio En y calculamos los 2 pesos uin ψi asociados a cada uno de los estados de esta base, la probabilidad P (an ) ser´ a entonces la suma i 2 de estos gn pesos. Debemos tener en cuenta que cada probabilidad un ψi puede ser el cuadrado del m´ odulo de una suma de amplitudes que nos generar´ a interferencias. Por ejemplo si el estado inicial normalizado es de la forma |ψi = c1 |ψ1 i + c2 |ψ2 i cada sumando en (5.91) ser´ a de la forma i 2 i
u ψi = c1 u ψ1 i + c2 ui ψ2 i 2 n n n
con lo cual se obtienen interferencias al expandir el m´ odulo al cuadrado.
238
5.10.2.
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
Aparatos insuficientemente selectivos en la medida
Supongamos que tenemos un dispositivo para medir el observable A de un sistema f´ısico dado, y que el estado justo antes de la medici´ on viene dado por X ck,i uik (5.92) |ψi = k,i
siendo uik los estados propios de A con valor propio ak . Asumamos que el dispositivo posee las siguientes caracter´ısticas. (a) El dispositivo solo puede dar dos respuestas (autoresultados), que por convenci´ on denotaremos como “si” y “no”. (b) Si el estado inicial del sistema |ψi est´a en una combinaci´ on lineal cuyos valores propios yacen todos en un intervalo dado ∆ del eje real, la respuesta ser´ a definitivamente “s´ı”. En otras palabras, la respuesta es “s´ı” con toda certeza, cuando todos los ck,i no nulos de (5.92) sean tales que ak ∈ ∆. (c) La respuesta es definitivamente “no” si el estado inicial del sistema |ψi est´ a en una combinaci´ on lineal de estados donde todos los valores propios asociados a los estados de la combinaci´ on lineal yacen fuera del intervalo ∆. Vemos que ∆ define el poder de resoluci´on del instrumento. As´ı mismo ∆ define los autoestados asociados a a una los autoresultados “si” y “no”. Si existe un solo valor propio an de A en el intervalo ∆ el dispositivo tendr´ resoluci´ on infinita, ya que para el sistema en un estado inicial arbitrario, la probabilidad P (si) ser´ a igual a la probabilidad de obtener an en la medida de A. La probabilidad de obtener “no” es naturalmente P (no) = 1−P (si). Por otro lado, si existen varios valores propios an de A en ∆, el dispositivo no tiene suficiente resoluci´ on para discriminar entre estos diferentes autovalores. En este caso hablamos de un aparato o dispositivo insuficientemente selectivo. Para estudiar la distribuci´ on de probabilidad de P (no) , P (si) con estos dispositivos insuficientemente selectivos, debemos primero estudiar la perturbaci´ on que estos aparatos crean sobre el sistema cuando realizan una medida. Para caracterizar esta perturbaci´ on a˜ nadiremos la siguiente hip´ otesis: El dispositivo transmite sin perturbar todos los estados propios de A asociados con autovalores inclu´ıdos en el intervalo ∆, as´ı como cualquier combinaci´ on lineal de estos estados, en cambio el dispositivo bloquea los autoestados de A asociados con valores propios fuera del intervalo ∆ as´ı como todas sus combinaciones lineales. El dispositivo act´ ua entonces como un filtro perfecto para todos los estados asociados con ∆. Ilustraremos la plausibilidad de esta hip´ otesis con un ejemplo. Cuando el espectro de un observable es cont´ınuo, todo dispositivo experimental para medir este espectro es siempre insuficientemente selectivo. Tomaremos en consecuencia un ejemplo con espectro cont´ınuo. Supongamos que queremos medir la coordenada x de un electr´ on que se propaga en la direcci´ on uz . Para ello colocamos sobre el plano XY (en z = 0) una superficie bloqueadora con una ranura con bordes entre x1 y x2 y de ancho infinito paralelo al eje Y . Un paquete de onda que est´e completamente inclu´ıdo entre los planos x = x1 y x = x2 , entrar´ a a la regi´ on derecha (viniendo desde la izquierda) sin ninguna modificaci´ on (esto equivale a un “s´ı”). Que el paquete de onda est´e entre los planos x = x1 y x = x2 significa que es una superposici´ on de autoestados de R con autovalores x, y, z donde los x est´ an todos inclu´ıdos en el intervalo [x1 , x2 ]. Por otro lado, cualquier paquete de onda situado por debajo de x = x1 o por encima de x = x2 ser´ a bloqueado por la superficie y no pasar´ a a la derecha (esto equivale a un “no”). Vemos que para un dispositivo insuficientemente selectivo, hay varios estados finales posibles luego de una medici´ on que ha dado la respuesta “si” incluso cuando el espectro de A es no degenerado, ya que los estados propios de A asociados a los diferentes autovalores ak en ∆ son estados posibles finales. Queremos estudiar cuales son las predicciones que podemos hacer con estos dispositivos cuando un sistema f´ısico en un estado arbitrario es medido con uno de ellos. Para el ejemplo anterior cuando el paquete de onda est´ a completamente adentro (o afuera) del intervalo [x1 , x2 ], la respuesta es definitivamente si (no). Debemos estudiar las probabilidades P (si) y P (no) cuando el paquete no est´ a completamente adentro ni completamente afuera. Veremos que esto es equivalente a medir un observable cuyo espectro sea degenerado.
´ CON VARIOS ESTADOS ASOCIADOS A UNA MEDIDA 5.10. PRINCIPIO DE SUPERPOSICION
239
Por el momento retornaremos i al caso de un espectro discreto. Consideremos el autosubespacio E∆ generado por todos los autoestados un de A cuyos valores propios yacen en el intervalo ∆. El proyector P∆ sobre este subespacio es gn X X i i u P∆ = un (5.93) n an ∈∆ i=1
otese que E∆ est´ a compuesto donde hemos tenido en cuenta que las autovalores an pueden ser degenerados. N´ por todos los estados accesibles del sistema despu´es de que la medida de A ha dado el valor “si”. En t´erminos m´ as matem´ aticos, podemos decir que la respuesta del dispositivo es definitivamente “si” cuando el estado inicial pertenece a E∆ , es decir para cualquier estado propio de P∆ con valor propio +1. Adicionalmente, la respuesta es definitivamente “no” cuando el estado inicial pertenece al complemento ortogonal de E∆ es decir cuando el estado es autoestado de P∆ con valor propio 0. Si denotamos Ee∆ al complemento ortogonal de E∆ podemos escribir ] ] e = E∆ ⊕ Ee∆ ; |ψi = |ψ∆ i ⊕ |ψ ∆ i ; |ψi ∈ E ; |ψ∆ i ∈ E∆ ; |ψ∆ i ∈ E∆ ] ] P∆ |ψi = |ψ∆ i ; P∆ |ψ∆ i = (+1) |ψ∆ i ; P∆ |ψ ∆ i = (0) |ψ∆ i E
(5.94)
(5.95)
donde |ψi es un estado arbitrario. Vemos entonces que las respuestas “si” y “no” que nos da nuestro dispositivo equivalen a los autovalores +1 y 0 respectivamente del observable P∆ . Podemos decir entonces que el dispositivo est´ a realmente midiendo los valores propios de P∆ en lugar de los de A. Con tal interpretaci´ on podemos calcular las distribuciones de probabilidad P (si) y P (no) aplicando los postulados al observable P∆ que es el que realmente se est´ a midiendo. La probabilidad P (si) es la probabilidad de obtener el valor propio +1 para el observable P∆ . Si el estado inicial normalizado es |ψi tal probabilidad se puede escribir aplicando el cuarto postulado (pag. 196) y la Ec. (4.4) P (si) = P (+1) =
X m
|hvm | ψi|2 ; P (no) = 1 − P (si)
donde {|vm i} es una base ortonormal asociada al subespacio E(+1) generado por el valor propio +1 de P∆ . De (5.95) es claro que E(+1) es justamente E∆ ; por tanto una base ortonormal {|vm i} posible es precisamente la base uin con an ∈ ∆, que se construy´ o para E∆ . Por tanto, las probabilidades quedan en la forma gn X X i 2 un ψi ; P (no) = 1 − P (si) P (si) = P (+1) =
(5.96)
an ∈∆ i=1
otra forma es usar las Ecs. (4.8, 5.94) donde en este caso el proyector sobre el autoespacio E(+1) = E∆ del observable P∆ es justamente P∆ P (si) = hψ| P∆ |ψi = hψ∆ |ψ∆ i (5.97) aplicando (5.93) en (5.97) vemos que se reproduce (5.96) gn X X i i un un ψi ; hψ| P∆ |ψi = hψ| |ψ∆ i = P∆ |ψi =
hψ| P∆ |ψi =
gn X X
an ∈∆ i=1
an ∈∆ i=1
gn X X i 2 un ψi hψ uin uin ψi =
"
# gn X X i i un un ψi
(5.98)
an ∈∆ i=1
(5.99)
an ∈∆ i=1
Similarmente, puesto que el dispositivo no perturba los estados que pertenecen a E∆ y bloquea aquellos que pertenecen a Ee∆ , vemos que el estado del sistema despu´es de la medici´ on cuando ha dado un resultado “si”, es
240
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
decir cuando el autovalor obtenido para P∆ es +1 est´ a dado por |ψ∆ i pero normalizado, de las Ecs. (5.98, 5.99) se tiene ′ ψ = si
′ ψ = si
|ψ∆ i P∆ |ψi = hψ∆ |ψ∆ i hψ| P∆ |ψi P Pgn i i un ψi i=1 un an ∈∆ qP Pg m 2 k am ∈∆ k=1 |hum | ψi|
(5.100) (5.101)
similarmente, la probabilidad de obtener el resultado “no” y el estado del sistema luego de que una medida nos arroje este resultado es E f P (no) = P (0) = hψf ∆ ψ∆ = 1 − P (si) E f P Pgn i i ψ∆ f ′ un ψi P |ψi (I − P ) |ψi ∆ ∆ i=1 un an ∈∆ / ψ E= = = qP = no P 2 hψ| (I − P∆ ) |ψi gm hψ| Pf hψf ψf ∆ |ψi |huk | ψi| ∆
∆
am ∈∆ /
k=1
m
Cuando ∆ contiene solo un autovalor an de A, E∆ y P∆ se reducen a En y Pn y la resoluci´ on del aparato es infinita, en el sentido de que las incertidumbres y perturbaciones son solo las inherentes a las leyes de la mec´ anica cu´ antica, es decir estamos hablando de medidas ideales en el sentido cu´ antico. Vemos entonces que las Ecs. (4.8, 4.10) se pueden ver como casos particulares de las Ecs. (5.97, 5.100). N´ otese que la suma sobre an en las Ecs. (5.96, 5.101) se puede ver como una “degeneraci´ on adicional”. Se puede observar que cuando ∆ contiene varios valores propios, el problema se asemeja a un problema con degeneraci´ on incluso si cada an en ∆ es no degenerado, ya que en lo que concierne al c´ alculo de la probabilidad Ec. (5.96), la suma sobre an es tambi´en una suma de m´ odulos al cuadrado al igual que la suma sobre i.
5.11.
Discusi´ on general sobre el fen´ omeno de interferencia
Hemos visto que en algunos casos la probabilidad se calcula como el cuadrado del m´ odulo de una suma de amplitudes y en otros casos como suma de m´ odulos cuadrados (sumas de probabilidades). Es importante dejar claro cuando se emplea cada algoritmo. Nuevamente el experimento de Young de la doble rendija resulta ilustrativo. Supongamos que queremos calcular la probabilidad de que un determinado fot´ on golpee la pantalla en un cierto intervalo [x1 , x2 ]. Esta probabilidad es proporcional a la intensidad total incidente sobre todo este intervalo Z x2 Z x2 IT = I (x) dx = |E (x)|2 dx x1
x1
es decir es una suma de cuadrados (suma de densidades de probabilidad). No obstante, la intensidad en un punto on lineal de los campos de la pantalla x ∈ [x1 , x2 ] es el cuadrado del campo el´ectrico E (x) el cual es la superposici´ el´ectricos EA (x) y EB (x) radiados por las dos rendijas A y B sobre el punto x en la pantalla. I (x) es entonces |EA (x) + EB (x)|2 es decir el cuadrado de una suma. EA (x) y EB (x) son las amplitudes asociadas a los dos caminos posibles (paso por cada rendija) que terminan en el mismo punto x. Estas amplitudes se adicionan para obtener la amplitud en x ya que no estamos tratando de determinar por cual rendija pasa el fot´ on. Luego, para calcular la intensidad total se suman estos m´ odulos al cuadrado (suma de intensidades), es decir se suman las intensidades sobre los diferentes puntos x, para obtener la intensidad total en el intervalo [x1 , x2 ] (equivalente a suma de probabilidades para obtener probabilidad total). La anterior discusi´ on nos muestra que la suma de amplitudes se realiza cuando partiendo desde un estado inicial dado llegamos por diferentes caminos al mismo estado final (en este caso un punto fijo x en la pantalla). Tendremos tantas amplitudes como caminos intermedios considerados. Una vez calculado el m´ odulo al cuadrado
´ INSUFICIENTE DE ESPECTROS CONT´INUOS 5.12. MEDICION
241
de la suma de estas amplitudes se suman estos cuadrados sobre estados finales diferentes (en este ejemplo corresponde a sumar las intensidades sobre los diferentes puntos x del intervalo). Resumimos el algoritmo en la siguiente forma: Se suman las amplitudes correspondientes al mismo estado final, luego se suman las probabilidades correspondientes a estados finales ortogonales. El hecho de que se sume sobre estados ortogonales tiene que ver con que usualmente los diferentes estados que se usan para constru´ır una base son todos ortogonales entre s´ı. En general, debemos decir que se suma sobre estados linealmente independientes.
5.12.
Medici´ on insuficiente de espectros cont´ınuos
Ya mencionamos que todo dispositivo que mida un observable con espectro cont´ınuo necesariamente debe ser insuficiente, ya que ning´ un instrumento de medici´ on est´ a exento de la incertidumbre experimental. Por tanto, la discusi´ on sobre la aplicaci´ on de los postulados para medidas insuficientes resulta apropiado para el estudio de la medici´ on de espectros cont´ınuos. El ejemplo m´as simple y directo es la medici´ on de la posici´ on de una part´ıcula. Nos preguntamos por la probabilidad de encontrar a la part´ıcula en una posici´ on dentro de un intervalo ∆ = [x1 , x2 ] con un dispositivo similar al descrito anteriormente. Asumamos que la part´ıcula (sin esp´ın) est´ a en un estado |ψi. El subespacio E∆ asociado con esta medida es el expandido por los kets {|ri = |x, y, zi / x1 ≤ x ≤ x2 }. Puesto que estos kets son ortonormales en el sentido extendido, la aplicaci´ on de la regla descrita en la secci´ on 5.11 nos dice que P (x1 ≤ x ≤ x2 ) =
Z
x2
dx x1
Z
∞
dy
−∞
Z
∞
2
−∞
dz |hx, y, z |ψi| =
Z
x2
dx x1
Z
∞ −∞
dy
Z
∞
−∞
dz |ψ (r)|2
(5.102)
vemos que la Ec. (5.97) conduce al mismo resultado ya que P∆ viene dado en este caso por P∆ =
Z
x2
dx x1
Z
∞ −∞
dy
Z
∞
−∞
dz |x, y, zi hx, y, z|
de modo que Z
x2
Z
∞
Z
∞
P (x1 ≤ x ≤ x2 ) = hψ| P∆ |ψi = hψ| dx dy dz |x, y, zi hx, y, z| |ψi x1 −∞ −∞ Z x2 Z ∞ Z ∞ P (x1 ≤ x ≤ x2 ) = dx dy dz hψ |x, y, zi hx, y, z| ψi −∞ Zx1x2 Z−∞ Z ∞ ∞ P (x1 ≤ x ≤ x2 ) = dx dy dz |ψ (r)|2 x1
−∞
(5.103) (5.104)
−∞
ahora debemos encontrar el estado |ψ ′ i despu´es de que la medici´ on arroje un valor “si”, es decir cuando la posici´ on de la part´ıcula est´e dentro de ∆ despu´es de la medici´ on. Para ello aplicamos la Ec. (5.100) ′ ψ = ′ ψ =
Z x2 Z ∞ Z ∞
P∆ |ψi 1 ′ ′ = dx dy dz ′ x′ , y ′ , z ′ x′ , y ′ , z ′ ψi hψ| P∆ |ψi hψ| P∆ |ψi x1 −∞ −∞ Z Z Z 1 x2 ′ ∞ ′ ∞ ′ ′ dx dy dz r ψ r′ ; N ≡ hψ| P∆ |ψi N x1 −∞ −∞
donde el factor de normalizaci´ on N ≡ hψ| P∆ |ψi = P (x1 ≤ x ≤ x2 ), est´ a dado por la Ec. (5.104). Es inmediato
242
´ CAP´ITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS
encontrar la funci´on de onda asociada a |ψ ′ i Z Z Z 1 x2 ′ ∞ ′ ∞ ′ ′ dx dy dz hr r ψ r′ hr ψ ′ = N x1 Z x2 Z−∞ Z−∞ ∞ ∞ 1 ψ ′ (x, y, z) = dx′ dy ′ dz ′ δ x − x′ δ y − y ′ δ z − z ′ ψ x′ , y ′ , z ′ N x1 −∞ −∞ Z x2 1 ψ ′ (x, y, z) = dx′ δ x − x′ ψ x′ , y, z N x1
y como x puede estar dentro o fuera del intervalo [x1 , x2 ] la funci´ on de onda ser´ a ψ (x, y, z) si x1 ≤ x ≤ x2 ψ ′ (x, y, z) = 0 si x ∈ / [x1 , x2 ]
(5.105)
vemos entonces que la parte de ψ (r) que corresponde al intervalo asociado al aparato de medici´on persiste sin modificaci´ on, ya que el factor 1/N simplemente asegura que el estado se mantenga normalizado. El resto es suprimido por la medici´ on. Podemos decir entonces que el paquete de onda inicial ψ (r) de la part´ıcula est´ a siendo “truncado” por los l´ımites de la “ranura”. Podemos entonces entender a partir de estos procesos porqu´e hablamos de una reducci´ on del paquete de onda. Ahora bien, si tenemos un gran n´ umero de part´ıculas todas en el estado |ψi, entrando sucesivamente en el aparato, el resultado ser´ a algunas veces “si” y otras veces “no” seg´ un la distribuci´ on de probabilidad prescrita anteriormente. Si la respuesta es “si”, la part´ıcula sigue su camino a partir de un estado inicial “truncado” o “reducido” dado por |ψ ′ i; si el resultado es “no” la part´ıcula es absorbida por la placa colocada en el plano XY . Es claro que cuando el espectro es cont´ınuo, el dispositivo ser´ a siempre insuficientemente selectivo puesto que el intervalo [x1 , x2 ] siempre contiene infinitos puntos por peque˜ no que este sea. Vale la pena sin embargo, analizar el l´ımite cuando el ancho de este intervalo tiende a cero. Tomemos un intervalo de ancho ∆x centrado en x0 , si ∆x lo tomamos lo suficientemente peque˜ no podemos despreciar la variaci´ on de ψ (r) en x y reemplazarla por su valor en x0 , en cuyo caso se puede integrar en x la probabilidad dada por (5.102) Z ∞ Z ∞ ∆x ∆x dy dz |ψ (x0 , y, z)|2 P x0 − , x0 + ≃ ∆x 2 2 −∞ −∞ dP (x0 ) = ρ (x0 ) dx donde de acuerdo con el cuarto postulado hemos interpretado a la densidad de probabilidad asociada a x0 como la integral en y y z de la expresi´ on anterior. La diferencia con la Ec. (4.9) es que en (4.9) el espectro se consideraba no degenerado en tanto que aqu´ı el espectro de X es infinitamente degenerado en Er , ya que todo vector de la forma |x, y, zi es vector propio de X. Por esta raz´ on, en esta densidad de probabilidad interviene una integral doble sobre y y z.
5.13.
Postulado de reducci´ on del paquete de onda (quinto postulado) para un espectro continuo
En la discusi´ on del quinto postulado dada en la secci´ on 4.3.4, nos hemos restringido al caso discreto. Sin embargo, la discusi´ on realizada en la secci´ on 5.12 sobre dispositivos insuficientemente selectivos nos permite extender el postulado al caso de espectro cont´ınuo. El cual estableceremos de la siguiente forma Quinto postulado o postulado de reducci´ on del paquete de onda (caso cont´ınuo): Si estando el sistema en un estado |ψi realizamos una medida sobre el observable A de espectro cont´ınuo no degenerado, obteniendo como resultado un valor dentro del intervalo [α0 − ∆α, α0 + ∆α], el estado del sistema inmediatamente despu´es de la medida est´ a descrito por Z α0 + ∆α ′ 2 ψ = P∆α (α0 ) |ψi ; P∆α (α0 ) ≡ dα |να i hνα | hψ| P∆α (α0 ) |ψi α0 − ∆α 2
´ DEL PAQUETE DE ONDA PARA ESPECTRO CONTINUO 5.13. REDUCCION
243
el proceso de reducci´ on aparece con claridad en la Ec. (5.105), si la generalizamos a cualquier observable A de espectro cont´ınuo {α} con funci´ on de onda hνα |ψi que representa a |ψi en la base {|να i}. Seg´ un la Ec. (5.105) adecuadamente generalizada, el sistema queda preparado en un estado cuya funci´ on de onda es cero fuera del intervalo de selecci´ on y dentro de dicho intervalo conserva la forma de la funci´ on de onda original (excepto por un factor de normalizaci´ on). Sin importar que tan peque˜ no sea ∆α nunca obtenemos el autoestado |να0 i despu´es de la medida, el cual en la base {|να i} estar´ıa representado por hνα |να0 i = δ (α − α0 ). Pues la funci´ on de onda truncada siempre tiene un ancho finito ∆α. Finalmente, es claro que el factor de normalizaci´ on debe ser mayor que la unidad.
Cap´ıtulo 6
Aplicaci´ on de los postulados cuando se posee informaci´ on parcial de un sistema Hemos estudiado hasta el momento la aplicaci´ on de los postulados cuando el estado del sistema se conoce perfectamente. Veremos dos casos en los cuales manejamos informaci´ on parcial del sistema (a) cuando el sistema est´ a compuesto de dos o m´ as subsistemas, y solo realizamos medidas de un subsistema espec´ıfico. (b) cuando desconocemos las condiciones iniciales detalladas y solo poseemos informaci´ on en forma de probabilidad, como ocurre en la mec´ anica estad´ıstica. Estudiaremos primero el caso (a).
6.1.
Aplicaci´ on de los postulados cuando se mide un observable de un subsistema
Cuando dos subsistemas cu´ anticos se condensan, podemos formar un u ´nico sistema global a trav´es del producto tensorial de los espacios de Hilbert asociados a cada subsistema. Nuestro prop´ osito es estudiar el comportamiento del sistema global cuando se realiza la medida de un observable asociado a uno de los subsistemas. Consideremos el sistema f´ısico como compuesto de dos subsistemas (1) y (2) descritos por los espacios de Hilbert E (1) y E (2). El espacio de estados asociado al sistema global es E ≡ E (1) ⊗ E (2) por ejemplo un sistema de dos electrones (sin esp´ın), est´ a descrito por una funci´ on de onda de la forma ψ (r1 , r2 ) ≡ hr1 , r2 |ψi = ψ (x1 , y1 , z1 ; x2 , y2 , z2 )
;
ψ (r1 , r2 ) ∈ Er (1) ⊗ Er (2)
Estudiaremos el caso en el cual se mide un observable asociado a solo uno de los subsistemas. Asumiremos de aqu´ı en adelante que las medidas se realizar´ an sobre el subsistema (1) ya que el an´ alisis del caso en que se hace e una medida sobre el subsistema (2) es totalmente an´ alogo. El observable A (1) asociado a una medida sobre el subsistema (1) es la extensi´ on tensorial del observable A (1) (ver Ec. 1.128) e (1) ≡ A (1) ⊗ I (2) A
(6.1)
e (1) en E (1) ⊗ E (2) es id´entico al espectro de A (1) en E (1). ya vimos en la secci´ on 1.32.3 que el espectro de A Vimos adicionalmente que la degeneraci´ on de cada valor propio en E (1) ⊗ E (2) es el producto de su degeneraci´ on en E (1) por la dimensi´ on de E (2). Esto implica que (si E (2) es de dos o m´ as dimensiones) todo valor propio de e (1) es degenerado. En consecuencia, cuando se realiza una medida sobre el subsistema (1), el estado del sistema A global despu´es de la medida depender´ a tanto del resultado de la medida como del estado justo antes de ´esta. F´ısicamente, esto se debe a que el resultado no da ninguna informaci´ on sobre el subsistema (2), y por tanto el observable asociado no constituye un C.S.C.O. 244
´ DE LOS POSTULADOS AL MEDIR SOBRE UN SUBSISTEMA 6.1. APLICACION
245
e (1). Para Vamos a calcular la probabilidad de obtener un valor propio dado an en una medida del observable A ello apelamos a la Ec. (4.8) p´ ag 197 P (1) (an ) = hψ| Pen (1) |ψi (6.2)
siendo |ψi el estado (normalizado) en el que se encuentra el sistema global antes de la medici´ on. El proyector extendido Pen (1) se escribe en t´erminos del proyector Pn (1) en E (1) en la forma Pen (1) ≡ Pn (1) ⊗ I (2) ; Pn (1) =
gn X i
un (1) uin (1)
(6.3)
i=1
siendo uin (1) una base ortonormal en E (1) y gn la degeneraci´ on de an en E (1). Pen (1) es entonces el proyector (1)
en E (1) ⊗ E (2) sobre el autosubespacio generado por an en E (1) ⊗ E (2), el cual es claramente Ean ⊗ E (2). Adicionalmente podemos expresar la identidad de (2) usando una base ortonormal {|vk (2)i} de E (2) con lo cual Pen (1) queda " gn # " # X X i i un (1) un (1) ⊗ |vk (2)i hvk (2)| Pen (1) ≡ Pn (1) ⊗ I (2) = i=1
k
gn X X
i u (1) ⊗ |vk (2)i ui (1) ⊗ hvk (2)| = n n i=1
k
gn X X i
e un (1) vk (2) uin (1) vk (2) Pn (1) = i=1
(6.4)
k
aplicando este proyector en la Ec. (6.2) resulta
P (1) (an ) = hψ| Pen (1) |ψi = =
gn X X i=1
P
(1)
k
gn X X i=1
k
hψ| uin (1) vk (2) uin (1) vk (2) |ψi
hψ| uin (1) vk (2)i uin (1) vk (2) ψi
(an ) = hψ| Pen (1) |ψi =
gn X X i u (1) vk (2) ψi 2 n i=1
(6.5)
k
adicionalmente, el estado |ψ ′ i justo despu´es de la medici´ on se puede calcular empleando la Ec. (4.10) p´ ag. 200, y teniendo en cuenta las Ecs. (6.5, 6.4) i Pgn P i ψi en (1) |ψi ′ (1) v (2) u (1) v (2) u P k k n n i=1 k ψ = q qP = (6.6) P gn 2 m hψ| Pen (1) |ψi m=1 p |hun (1) vp (2)| ψi|
N´ otese que las Ecs. (6.2, 6.3, 6.6), nos dicen que la base ortonormal {|vk (2)i} en E (2) se puede elegir arbitrariamente, en el sentido de que ninguna base ortonormal espec´ıfica de E (2) presenta ventajas operativas especiales, cuando se miden solo observables del subsistema (1). Esto es de esperarse, ya que al no realizarse ninguna medida en el sistema (2), ning´ un conjunto de estados en E (2) es preferencial.
6.1.1.
Interpretaci´ on f´ısica de los estados que son productos tensoriales
En la secci´ on 1.32, vimos que no todos los estados en E (1) ⊗ E (2) se pueden expresar como producto tensorial de estados en E (1) y en E (2). Estudiaremos aqu´ı el significado f´ısico de los estados que s´ı son producto tensorial de los subespacios anteriores, sea |ψi ∈ E (1) ⊗ E (2) tal que |ψi = |ϕ (1)i ⊗ |χ (2)i = |ϕ (1) χ (2)i ; |ϕ (1)i ∈ E (1) ,
|χ (2)i ∈ E (2) , k|ϕ (1)ik = k|χ (2)ik = 1
(6.7)
´ DE LOS POSTULADOS CON INFORMACION ´ PARCIAL CAP´ITULO 6. APLICACION
246
e (1), el estado |ψ ′ i despu´es de la medici´ supongamos que |ψi es el estado del sistema antes de la medici´ on de A on se obtiene aplicando las Ecs. (6.6, 6.7, 6.3) ′ ψ =
′ ψ =
Pe (1) |ψi [Pn (1) ⊗ I (2)] [|ϕ (1)i ⊗ |χ (2)i] q n =p [hϕ (1)| ⊗ hχ (2)|] [Pn (1) ⊗ I (2)] [|ϕ (1)i ⊗ |χ (2)i] hψ| Pen (1) |ψi
Pn (1) |ϕ (1)i ⊗ |χ (2)i Pn (1) |ϕ (1)i ⊗ I (2) |χ (2)i p =p [hϕ (1)| ⊗ hχ (2)|] [Pn (1) |ϕ (1)i ⊗ I (2) |χ (2)i] hϕ (1)| Pn (1) |ϕ (1)i hχ (2)| χ (2)i
que se puede escribir como
′ ′ ψ = ϕ (1) ⊗ |χ (2)i ; ϕ′ (1) ≡ p Pn (1) |ϕ (1)i hϕ (1)| Pn (1) |ϕ (1)i
vemos que el estado posterior a la medici´ on tambi´en es un producto tensorial tal que el estado del subsistema (1) ha cambiado pero no el estado asociado al subsistema (2). La probabilidad P (an ) queda en la forma P (1) (an ) = hψ| Pen (1) |ψi = hϕ (1) χ (2)| [Pn (1) ⊗ I (2)] |ϕ (1) χ (2)i
P
(1)
= hϕ (1)| Pn (1) |ϕ (1)i hχ (2)| I (2) |χ (2)i
(an ) = hϕ (1)| Pn (1) |ϕ (1)i
de lo cual se v´e que P (1) (an ) no depende de |χ (2)i solo del estado |ϕ (1)i del subsistema (1). Por tanto, cuando el estado del sistema est´ a descrito por un producto tensorial como en la Ec. (6.7), las predicciones f´ısicas asociadas a solo uno de los dos subsistemas, no dependen del estado del otro subsistema y se obtienen u ´nicamente a partir del estado del subsistema sobre el que se mide. En consecuencia, un estado producto |ϕ (1)i⊗|χ (2)i describe una simple yuxtaposici´ on de los subsistemas (1) y (2) cada uno de ellos en los estados |ϕ (1)i y |χ (2)i respectivamente. En tal estado, se dice que los dos subsistemas NO est´ an correlacionados, esto implica que la medici´ on de observables que pertenecen a uno u otro subsistema corresponden a variable aleatorias independientes. Esto ocurre cuando los subsistemas han sido preparados en los estados |ϕ (1)i y |χ (2)i para luego unirlos sin interacci´ on. Example 6.1 Sea H1 el Hamiltoniano que describe al sistema (1) y H2 el Hamiltoniano que describe al sistema (2). Si la ecuaci´ on de Schr¨ odinger independiente y dependiente del tiempo vienen dadas por H1 |ϕ1 i = E1 |ϕ1 i
;
H2 |ϕ2 i = E2 |ϕ2 i
;
d |ψ1 i = H1 |ψ1 i dt d i~ |ψ2 i = H2 |ψ2 i dt i~
y si el hamiltoniano del sistema (1) + (2) est´ a dado por H = H1 + H2 , es f´ acil verificar que H |ϕi = E |ϕi
;
H = H1 + H2
d |ψi = H |ψi dt ; E = E1 + E2 ; |ϕi = |ϕ1 i ⊗ |ϕ2 i i~
;
|ψi = |ψ1 i ⊗ |ψ2 i
dado que en el sistema completo H1 y H2 son operadores sobre E = E (1) ⊗ E (2) entonces cada Hi se refiere a su extensi´ on sobre E. Efectivamente, esta es la forma del Hamiltoniano cuando simplemente se agregan los dos sistemas sin interacci´ on entre ellos, en cuyo caso la energ´ıa total es simplemente la suma de las energ´ıas asociadas a cada subsistema.
´ DE LOS POSTULADOS AL MEDIR SOBRE UN SUBSISTEMA 6.1. APLICACION
6.1.2.
247
Significado f´ısico de estados que no son productos tensoriales
Sean {|un (1)i} y {|vk (2)i} bases de E (1) y E (2) respectivamente. Si el estado |ψi no est´ a asociado a un producto tensorial entonces este se escribe como X |ψi = cn,k |un (1)i ⊗ |vk (2)i n,k
donde hay por lo menos dos sumandos diferentes de cero. Veamos las predicciones sobre la medici´ on de un e (1) asociado solo al subsistema (1). En tal caso, es f´ observable A acil probar que las predicciones f´ısicas no se pueden escribir solo en t´erminos de un estado del subsistema (1). Esto se puede ver aplicando las f´ ormulas (6.5, 6.6) en el contexto m´ as general. Esta situaci´on corresponde entonces a la existencia de correlaciones entre los dos subsistemas, los resultados de medidas sobre cada subsistema corresponden a variables aleatorias dependientes y que pueden ser correlacionadas. Puede demostrarse por ejemplo que si dos subsistemas descritos por un producto tensorial se “conectan” entre s´ı por medio de una interacci´ on, el nuevo estado ya no ser´ a un producto tensorial. Esto se puede ilustrar re-examinando el ejemplo 6.1, en el caso en el cual el Hamiltoniano del sistema se escriba como H = H1 + H2 + Hint donde Hint es un Hamiltoniano que modela la interacci´ on entre los dos subsistemas. En este caso las soluciones de la ecuaci´ on de Schr¨ odinger dependiente e independiente del tiempo para el sistema completo, ya no son los productos tensoriales de las soluciones para cada subsistema. Estudiemos primero el caso m´ as sencillo, asumiendo que el valor propio an obtenido en la medida, es no degenerado en el subsistema (1). En tal caso desaparece la sumatoria sobre i en la Ec. (6.3) y en todas las dem´ as ecuaciones. El estado despu´es de la medida se obtiene de (6.6) suprimiendo la suma sobre i P P ′ |un (1)i ⊗ k |vk (2)i hun (1) vk (2)| ψi (1) v (2)i hun (1) vk (2)| ψi k |u ψ qnP k qP = = 2 2 p |hun (1) vp (2)| ψi| p |hun (1) vp (2)| ψi| P ′ ′ ′ k |vk (2)i hun (1) vk (2)| ψi ψ = |un (1)i ⊗ χ (2) ; χ (2) = q (6.8) P 2 |hu (1) v (2)| ψi| n p p
en conclusi´ on, sin importar el estado |ψi previo a la medici´ on del subsistema (1), el estado global posterior a la medici´ on de un observable que no es degenerado en el subsistema (1), es siempre un producto tensorial. Este resultado se puede extender al caso en que se realiza un conjunto de mediciones asociadas a un C.S.C.O. de E (1), es decir cuando la medici´ on es completa con respecto a un subsistema (estas mediciones son naturalmente parciales con respecto al sistema global). Cuando el estado del sistema global no es un producto tensorial del tipo |ϕ (1)i ⊗ |χ (2)i, no podemos asociar un ket |ϕ (1)i , |χ (2)i a cada subsistema (1) y (2) 1 . Surge entonces la pregunta de como caracterizar cada sistema parcial en un sistema correlacionado. Esta pregunta es de gran inter´es si tenemos en cuenta que en general todo sistema f´ısico ha interactuado en el pasado con otros sistemas incluso si est´ a aislado en el momento en que estudiamos tal sistema. Esto implica que el sistema total (sistema bajo estudio m´ as el sistema con el que interactu´ o en el pasado) no es en general un estado producto y no es posible asociar un vector de estado |ϕ (1)i con el sistema bajo estudio. Este problema se resuelve asociando al subsistema (1) (sistema bajo estudio) un operador (operador densidad) en lugar de un vector, volveremos sobre este punto en la secci´ on 6.2. Por el momento, tomaremos un caso en el cual se puede asociar un vector de estado para el sistema (1). Esto ocurre cuando se realiza un conjunto completo de medidas del subsistema (1). Hemos visto que en tal situaci´ on, para cualquier estado del sistema global (1) + (2) antes de la medida, un conjunto completo de medidas en E (1) 1 Por ejemplo, la energ´ıa de un sistema compuesto no es en general la suma de las energ´ıas individuales ya que la interacci´ on aporta a dicha energ´ıa, adem´ as no hay una manera no ambig¨ ua de “repartir” la energ´ıa total del sistema asign´ andole una porci´ on a cada sistema.
248
´ DE LOS POSTULADOS CON INFORMACION ´ PARCIAL CAP´ITULO 6. APLICACION
coloca al sistema global en un estado que es producto tensorial como se v´e en la Ec. (6.8). El vector asociado con (1) es el que se obtiene de manera u ´nica (salvo por un factor multiplicativo), por medio de los valores del conjunto completo de medidas sobre (1). En consecuencia, el conjunto completo de medidas sobre (1) borra todas las correlaciones que surgen de interacciones previas entre los dos sistemas. En particular, si en el momento de la medida el sistema (2) est´ a muy lejos y ya no interact´ ua con el sistema (1), el sistema (2) puede ser totalmente omitido para efectos de estudiar al sistema (1). Hemos visto que cuando el estado |ψi es un producto tensorial, el vector de estado asociado al subsistema (2), no depende de medidas hechas sobre el sistema (1). Ahora bien, cuando el estado del sistema global es |ψi antes de las medidas, y realizamos un conjunto completo de medidas sobre (1), la Ec. (6.8) nos muestra el estado |ψ ′ i en el cual queda preparado el sistema global. Dicha ecuaci´ on nos muestra que cuando |ψi no es un producto tensorial, el vector de estado |χ′ (2)i asociado al sistema (2) posterior a las medidas, depende del resultado del conjunto completo de medidas en (1). Esto es a priori sorprendente ya que el estado del sistema (2) despu´es de ejecutar un conjunto completo de medidas en (1), depender´ a del resultado de dichas medidas incluso si el sistema (2) est´ a muy lejos del sistema (1) en el momento de realizar las medidas. En otras palabras un conjunto completo de medidas sobre (1) influir´ıa sobre el sistema (2) incluso cuando ´estos no interact´ uan. Esta paradoja ha sido ampliamente estudiada por cient´ıficos como Einstein, Podolsky, Rosen y Bell.
6.2.
Operador densidad
Cuando conocemos completamente el estado del sistema en un cierto tiempo, podemos predecir determin´ısticamente el estado en cualquier tiempo posterior en tanto no se realice una medida. Tambi´en podemos predecir perfectamente probabilidades de obtener determinados resultados cuando se realizan medidas. Para determinar completamente el estado en cierto tiempo es suficiente realizar un conjunto de medidas que formen un C.S.C.O. Este es el caso en el experimento de polarizaci´ on de fotones descrito en la secci´ on 2.9, en el cual el estado de polarizaci´ on es conocido perfectamente cuando el haz atravieza el polarizador. Sin embargo, ocurre con frecuencia que el estado del sistema no est´ a completamente determinado. Por ejemplo, los estados de polarizaci´ on de los fotones que emanan de una fuente de luz natural (no polarizada) no est´ an bien definidos. Otro ejemplo lo constituyen los ´ atomos de un gas a cierta temperatura, para los cuales el valor de la energ´ıa cin´etica de los ´ atomos solo se conoce estad´ısticamente. La pregunta natural es c´ omo incorporar esta informaci´ on incompleta en el formalismo de modo que se pueda aprovechar de la mejor manera posible. Esto nos llevar´ a a la introducci´ on del operador densidad que nos permitir´ a incorporar los resultados parciales en los postulados de la mec´ anica cu´ antica.
6.2.1.
El concepto de mezcla estad´ıstica de estados
Ya hemos mencionado el concepto de mezcla estad´ıstica de estados (ver secci´ on 5.9.1, p´ ag 232). Cuando tenemos informaci´ on incompleta de un sistema es usual utilizar el concepto de probabilidad para incorporar la informaci´ on parcial. Como ejemplo, cada estado de polarizaci´ on posible para un fot´ on posee la misma probabilidad en un haz de luz no polarizada. Un sistema termodin´ amico en equilibrio a temperatura T posee una probabilidad proporcional a e−En /kT de estar en el estado de energ´ıa En . En mec´ anica cu´ antica es usual que la informaci´ on parcial se presente de la siguiente forma: Un sistema cu´ antico dado posee un conjunto de estados accesibles {|ψn i} siendo pk la probabilidad de obtener un estado espec´ıfico |ψk i donde obviamente X pk = 1 ; 0 ≤ pk ≤ 1 k
decimos entonces que el sistema est´ a en una mezcla estad´ıstica de estados accesibles {|ψn i} con probabilidades {pn }. Queremos ahora hacer predicciones sobre los resultados cuando se realiza un conjunto de medidas sobre el sistema. Si el sistema estuviera en un estado |ψk i podr´ıamos aplicar los postulados para realizar las correspondientes predicciones. Sin embargo, dado que no tenemos certeza sobre el estado inicial sino solo una probabilidad pk de
6.2. OPERADOR DENSIDAD
249
que se encuentre en ese estado, los resultados obtenidos deben ser ponderados por el factor pk y luego sumados sobre todos los estados accesibles en la mezcla estad´ıstica. Los estados accesibles {|ψk i} se pueden normalizar y de hecho asumiremos de aqu´ı en adelante que est´ an normalizados. Sin embargo, estos estados no son necesariamente ortogonales. Por otra parte ser´ a necesario distinguir en nuestro estudio dos tipos diferentes de probabilidad: (a) Probabilidad de obtener un estado |ψk i en el tiempo inicial. En otras palabras, probabilidad de encontrar al sistema en t0 en unas condiciones iniciales dadas. Este tipo de probabilidad se utiliza tambi´en en mec´ anica estad´ıstica cl´ asica y es inherente a la informaci´ on incompleta sobre las condiciones iniciales. (b) Probabilidad de obtener ciertos resultados cuando se realizan medidas en el sistema, esta probabilidad es eminentemente cu´ antica y proviene de los postulados de la mec´ anica cu´antica, adem´ as no desaparece incluso si determinamos perfectamente las condiciones iniciales (estado {|ψk i}) del sistema. Adicionalmente, es necesario diferenciar entre una mezcla estad´ıstica y una superposici´ on lineal de estados (ver secciones 5.9.1, 5.9.3). Para una superposici´ on lineal de estados X ck |ψk i (6.9) |ψi = k
es frecuente decir que cuando el vector de estado es |ψi, el sistema tiene probabilidad |ck |2 de estar en el estado |ψk i. Esto en realidad significa que cuando se realiza un conjunto de medidas que corresponden a un C.S.C.O. y que tienen a |ψk i como autovector, la probabilidad de encontrar el conjunto de autovalores asociados con |ψk i es |ck |2 . Vimos en la secci´ on 5.9.3 que un estado |ψi dado por la Ec. (6.9) no equivale simplemente a un sistema que tiene la probabilidad |ck |2 de estar en el estado |ψk i para cada estado accesible. Esto se debe a que una combinaci´ on lineal del conjunto {|ψk i} genera interferencias entre los estados accesibles debidas a t´erminos cruzados de la forma ck c∗p que surgen cuando los m´ odulos de la amplitud de probabilidad se suman y luego se elevan al cuadrado. En una mezcla estad´ıstica el sistema est´ a en un estado espec´ıfico |ψm i de los estados accesibles {|ψk i}, aunque no sepamos en cual de ellos est´ a (esta falta de informaci´ on se parametriza con la distribuci´ on de probabilidad). En contraste, en una superposici´ on lineal de los estados {|ψk i}, el sistema est´ a simult´ aneamente en todos los estados aunque ponderados por los coeficientes ck . Lo anterior implica que no podemos en general describir una mezcla estad´ıstica a trav´es de un “vector de estado promedio” que sea una superposici´ on de los estados {|ψk i}. Como ya mencionamos, cuando tomamos una suma ponderada de probabilidades no se obtienen t´erminos de interferencia entre los estados accesibles de la mezcla estad´ıstica. Ya hemos sugerido una estrategia para estudiar los estados que son una mezcla estad´ıstica que es calcular las predicciones f´ısicas asociadas a cada estado |ψk i ponderando cada estado con su probabilidad para entonces sumar sobre los estados accesibles. Aunque este m´etodo es correcto resulta engorroso en muchos casos. Por otro lado ante la imposibilidad de describir los estados mezclados por medio de un “vector promedio”, recurriremos a utilizar un “operador promedio” que denominaremos operador densidad. Comenzaremos el tratamiento con el caso m´ as sencillo en el cual el estado del sistema es completamente conocido
6.2.2.
Estados puros y operador densidad
Cuando el estado inicial es perfectamente conocido solo hay un estado accesible |ψm i de modo que las probabilidades asociadas a los estados est´ an dadas por pk = δkm . En tal caso existe un vector de estado que describe al sistema en cualquier instante de tiempo X |ψ (t)i = cn (t) |un i n
siendo {|un i} una base ortonormal en el espacio de estados, que por simplicidad asumiremos discreta. Si el estado est´ a normalizado los coeficientes satisfacen la relaci´ on X |cn (t)|2 = 1 (6.10) n
250
´ DE LOS POSTULADOS CON INFORMACION ´ PARCIAL CAP´ITULO 6. APLICACION
si A es un observable, sus elementos de matriz en la base {|un i} y su valor esperado cuando el sistema est´ a en el estado |ψ (t)i est´ an dados por hun | A |up i = Anp
hAi (t) = hψ (t)| A |ψ (t)i =
hAi (t) =
X
c∗n (t) cp (t)
n,p
X n,p
Anp
(6.11) hψ (t)| un i hun | A |up i hup |ψ (t)i
(6.12)
; ck (t) ≡ huk |ψ (t)i
(6.13)
y la evoluci´ on de |ψ (t)i se describe con la ecuaci´ on de Schr¨ odinger i~
d |ψ (t)i = H (t) |ψ (t)i dt
(6.14)
siendo H (t) el Hamiltoniano del sistema. N´ otese que el valor esperado de A depende cuadr´ aticamente de los ∗ coeficientes de Fourier como se aprecia en la Ec. (6.13). El producto de coeficientes cn (t) cp (t) que aparece en dicha ecuaci´ on se puede escribir en la forma c∗n (t) cp (t) = hup |ψ (t)i hψ (t)| un i = hup | [|ψ (t)i hψ (t)|] |un i de modo que este producto es claramente un elemento de la representaci´ on matricial del proyector |ψ (t)i hψ (t)| en la base {|uk i}. Es natural entonces definir un operador ρ (t) en la forma ρ (t) ≡ |ψ (t)i hψ (t)|
(6.15)
que denominaremos operador densidad. Su representaci´ on matricial en la base {|uk i} es claramente ρpn = hup | ρ (t) |un i = c∗n (t) cp (t)
(6.16)
mostraremos a continuaci´ on que el operador densidad ρ (t), posee la misma informaci´ on f´ısica que el vector de estado |ψ (t)i. Para verlo reescribiremos las f´ ormulas (6.10, 6.13, 6.14) en t´erminos de ρ (t). Sustituyendo (6.16) en (6.10) tenemos X X X |cn |2 = c∗n cn = 1 ⇒ ρnn = 1 n
n
n
de modo que en virtud de la normalizaci´ on del estado |ψ (t)i en (6.15), la traza del operador densidad es igual a la unidad T rρ (t) = 1 (6.17) teniendo en cuenta las relaciones (6.11, 6.16), la Ec. (6.13) queda X X X hAi (t) = c∗n (t) cp (t) Anp = hup | ρ (t) |un i hun | A |up i = hup | ρ (t) A |up i n,p
n,p
p
hAi (t) = T r {ρ (t) A}
ahora calcularemos la evoluci´ on temporal de ρ (t), partiendo de la Ecuaci´ on de Schr¨ odinger y su conjugada d d d d ρ (t) = [|ψ (t)i hψ (t)|] = |ψ (t)i hψ (t)| + |ψ (t)i hψ (t)| dt dt dt dt 1 1 1 1 = H (t) |ψ (t)i hψ (t)| + |ψ (t)i hψ (t)| H (t) = H (t) ρ (t) − ρ (t) H (t) i~ (−i~) i~ i~ d 1 ρ (t) = [H (t) , ρ (t)] dt i~
(6.18)
6.2. OPERADOR DENSIDAD
251
veamos ahora como se escribe la probabilidad P (an ) de obtener el valor an cuando se mide el observable A, en t´erminos del operador densidad. La Ec. (4.8) nos muestra que P (an ) es el valor esperado del proyector Pn sobre el autoespacio generado por an P (an ) = hψ (t)| Pn |ψ (t)i = hPn i (6.19) y usando (6.18) en (6.19) se obtiene
P (an ) = hPn i = T r {Pn ρ (t)}
(6.20)
otras propiedades del operador densidad se siguen directamente de su definici´ on Ec. (6.15) ρ† (t) = ρ (t) ; ρ2 (t) = ρ (t) ; T rρ2 (t) = 1 En resumen, hemos encontrado las siguientes expresiones para el operador densidad y su relaci´ on con los observables f´ısicos hAi (t) = T r {ρ (t) A} ; P (an ) = T r {Pn ρ (t)} d i~ ρ (t) = [H (t) , ρ (t)] dt T rρ = 1, ρ† (t) = ρ (t) 2
2
ρ (t) = ρ (t) ; T rρ (t) = 1
(6.21) (6.22) (6.23) (6.24)
la segunda de las Ecs. (6.21) nos expresa la conservaci´ on de la probabilidad en el lenguaje del operador densidad. Veremos que estas ecuaciones ser´ an tambi´en v´ alidas en el caso de estados mezclados, excepto las Ecs. (6.24), las cuales provienen del hecho de que para estados puros, el operador densidad es un proyector. Para el caso de estados puros, el formalismo de operador densidad es totalmente equivalente al de vectores de estado. No obstante, el formalismo de operador densidad posee algunas ventajas incluso para estudiar estados puros. Por ejemplo, los estados f´ısicamente equivalentes |ψ (t)i y eiθ |ψ (t)i est´ an asociados a un solo operador densidad ρ (t) = |ψ (t)i hψ (t)| de modo que el operador densidad remueve la arbitrariedad introducida por la fase en el vector de estado. Por otra parte, las Ecs. (6.21, 6.22, 6.23) muestran que las f´ ormulas b´asicas para los observables son lineales con respecto al operador densidad ρ (t). En contraste, las Ecs. (6.12, 6.19) son cuadr´ aticas en el vector de estado |ψ (t)i. Veremos que la linealidad simplificar´ a el tratamiento considerablemente.
6.2.3.
Mezcla estad´ıstica de estados: estados no puros
Estudiaremos ahora la incorporaci´ on del operador densidad para la caracterizaci´ on de estados mezclados, en los cuales no es posible una caracterizaci´ on por vectores de estado. Sea pn la probabilidad de encontrar al sistema en el estado accesible |ψn i. Estas probabilidades {pk } son n´ umeros reales que satisfacen las condiciones X 0 ≤ pk ≤ 1 ; pk = 1 (6.25) k
veamos como calcular la probabilidad P (an ) de que al medir el observable A se obtenga el valor an . Comenzaremos por evaluar la probabilidad Pk (an ) de obtener el valor an del observable A, cuando el sistema se encuentra en el estado |ψk i, puesto que tal probabilidad sale directamente de los postulados Pk (an ) = hψk | Pn |ψk i para obtener P (an ) debemos entonces ponderar esta probabilidad con la probabilidad pk de que el sistema est´e en el estado |ψk i 2 , para luego sumar sobre todos los estados accesibles X P (an ) = pk Pk (an ) (6.26) k
2
Esto nos da la probabilidad de que ocurran simult´ aneamnte dos hechos: (a) que el estado del sistema sea |ψk i y (b) que el valor obtenido en la medida del observable A sea an .
252
´ DE LOS POSTULADOS CON INFORMACION ´ PARCIAL CAP´ITULO 6. APLICACION
Pk (an ) es una probabilidad asociada a un estado puro (con vector de estado |ψk i) de modo que podemos evaluarla aplicando la Ec. (6.20) Pk (an ) = T r {ρk Pn } (6.27)
siendo ρk = |ψk i hψk | el operador densidad asociado al vector de estado |ψk i. Para obtener P (an ) en t´erminos de los operadores densidad ρk sustitu´ımos (6.27) en (6.26) ( ) X X pk T r {ρk Pn } = T r pk ρk Pn P (an ) = (6.28) k
k
obs´ervese que si definimos ρ (t) ≡
X
pk ρk (t)
(6.29)
k
y sustitu´ımos esta definici´ on en (6.28), obtendremos una expresi´ on para estados mezclados an´ aloga a la Ec. (6.20) para estados puros (6.30) P (an ) = T r {ρPn }
es natural entonces definir a ρ en la Ec. (6.29), como el operador densidad asociado al sistema en un estado mezclado. N´ otese que ρ es el promedio ponderado de los operadores ρk asociados a estados puros.
6.2.4.
Propiedades generales del operador densidad
Derivaremos las propiedades del operador densidad para estados mezclados. Obviamente, tales propiedades deben contener como caso particular las propiedades del operador densidad para estados puros, para lo cual debe hacerse pk = δkm . Calculemos primero la traza de ρ " # X X X T rρ = T r pk ρk = pk T rρk = pk = 1 k
k
k
donde hemos usado las Ecs. (6.29, 6.17, 6.25). La expresi´ on para la probabilidad Ec. (6.30) coincide con la expresi´ on para estados puros, con la extensi´ on apropiada del operador densidad Ec. (6.29). Veamos lo que ocurre con el valor esperado de un observable # ) (" X X X hAi = pk hAk i = pk T r {ρk A} = T r pk ρk A k
k
k
hAi = T r {ρA}
esto tambi´en se puede ver usando la Ec. (6.30) en la forma hAi =
X n
an P (an ) =
X n
an T r {ρPn } = T r
(
ρ
X n
an Pn
)
= T r {ρA}
donde hemos usado el teorema espectral Ec. (1.98), P´ ag. 52. Calculemos ahora la evoluci´ on temporal del operador densidad para estados mezclados. Para ello asumiremos que a diferencia del estado del sistema, su Hamiltoniano est´ a bien definido. En otras palabras, el sistema como tal est´ a perfectamente definido aunque no lo est´e su estado. Puede verse f´ acilmente que si en el tiempo t0 el sistema tiene una probabilidad pk de estar en el estado |ψk i entonces en un tiempo posterior t, tiene la misma probabilidad de estar en el estado |ψk (t)i 3 . Si el sistema est´ a 3
Esto se puede ver teniendo en cuenta que la probabilidad de que en el tiempo t el sistema est´e en el estado |ψk (t)i es la composici´ on de dos probabilidades: (i) La probabilidad pk de que en t0 el sistema est´e en el estado |ψk (t0 )i y (ii) la probabilidad pt de que estando el sistema en el estado |ψk (t0 )i en t0 , quede en el estado |ψk (t)i en el tiempo posterior t. La probabilidad total es el producto de las dos probabilidades. Sin embargo, la probabilidad del segundo evento es pt = 1 debido a la naturaleza determinista de la ecuaci´ on de Schr¨ odinger. N´ otese que para que el segundo evento sea determinista, es necesario que el Hamiltoniano del sistema est´e bien definido (y por tanto la Ec. de Schr¨ odinger), aunque el estado inicial no est´e bien definido.
6.2. OPERADOR DENSIDAD
253
en el estado |ψk i (puro) en t0 , la evoluci´ on temporal est´ a dada por la ecuaci´ on de Schr¨ odinger i~
d |ψk (t)i = H (t) |ψk (t)i ; |ψk (t0 )i = |ψk i dt
el operador densidad en el tiempo t est´ a dado por ρ (t) =
X
pk ρk (t)
(6.31)
k
donde hemos usado el hecho ya mencionado de que pk no evoluciona en el tiempo. Usando (6.22, 6.31) encontramos que " # X dρk (t) X 1 X 1 1 dρ (t) = pk = pk [H (t) , ρk (t)] = H (t) , pk ρk (t) = [H (t) , ρ] dt dt i~ i~ i~ k
dρ (t) i~ dt
k
k
= [H (t) , ρ]
n´ otese que hemos usado la linealidad de las Ecs. (6.22, 6.31) con respecto a ρk (t) para obtener la evoluci´ on temporal de ρ. Vemos entonces que la ecuaci´ on de evoluci´ on temporal es totalmente an´ aloga a la obtenida para estados puros Ec. (6.22). N´ otese sin embargo, que ρ definido por (6.31) no es un proyector (a menos que pk = δkm , en cuyo caso tenemos un estado puro). Se puede verificar que cuando el estado es mezclado i.e. pk 6= δkm tenemos que ρ2 6= ρ
;
T rρ2 < 1
(6.32)
y que verificando una sola de las ecuaciones (6.24) nos dice que el sistema est´ a en un estado puro. En conclusi´ on, utilizando la definici´ on (6.31) del operador densidad ρ para estados mezclados, se obtienen las Ecs. (6.21-6.23), pero las Ecs. (6.24) para estados puros son reemplazadas por las Ecs. (6.32) para estados mezclados. Demostraremos adicionalmente que ρ es un operador positivo, en primer lugar es claro que ρ es herm´ıtico puesto umeros reales no negativos y cada ρk es herm´ıtico. Adicionalmente, si tomamos un ket arbitrario |ui que pk son n´ podemos escribir X X X hu| ρ |ui = pk hu| ρk |ui = pk hu| ψk ihψk |ui = pk |hu| ψk i|2 k
k
k
hu| ρ |ui ≥ 0
(6.33)
donde hemos usado el hecho de que las probabilidades pk son no negativas. Esto demuestra que ρ es un operador positivo. Resumimos estos resultados en la siguiente forma: sea un sistema que est´ a en una mezcla estad´ıstica de estados con estados accesibles {|ψk i}, cada uno de ellos asociado a una probabilidad {pk }, definimos el operador densidad ρ con las siguientes propiedades X ρ (t) ≡ pk ρk (t) ; ρk (t) ≡ |ψk i hψk | (6.34) k
ρ = ρ†
2
; T rρ = 1 ; ρ es un operador positivo 2
(6.35)
ρ (t) = ρ (t) ; T rρ (t) = 1 para estados puros (i.e. pk = δkm )
(6.36)
ρ2 (t) 6= ρ (t) ; T rρ2 (t) < 1 para estados mezclados (i.e. pk 6= δkm )
(6.37)
hAi (t) = T r {ρ (t) A} ; P (an ) = T r {Pn ρ (t)} d i~ ρ (t) = [H (t) , ρ (t)] dt
(6.38) (6.39)
´ DE LOS POSTULADOS CON INFORMACION ´ PARCIAL CAP´ITULO 6. APLICACION
254
6.2.5.
Populaciones y coherencias
Veremos ahora el significado F´ısico de los elementos matriciales ρnp de ρ en una cierta base {|un i} de vectores propios asociados a un cierto observable A que por simplicidad asumimos no degenerado. Consideremos primero los elementos diagonales ρnn . De acuerdo con (6.34) estos elementos est´ an dados por X X X X pk [ρk ]nn = pk [|ψk i hψk |]nn = pk hun |ψk i hψk | un i = pk |hun |ψk i|2 ρnn = k
ρnn =
X k
k
k
2 pk c(k) ; c(k) n n ≡ hun |ψk i
k
(6.40)
(k) 2 los factores cn son cantidades positivas que f´ısicamente se interpretan de la siguiente manera: Si el estado del (k) 2 sistema es |ψk i y si se mide el observable A cuyos vectores propios est´ an dados por la base {|un i}, entonces cn
es la probabilidad de que el sistema quede preparado en el estado |un i despu´es de la medida de A 4 . Ahora bien, la Ec. (6.40), nos dice que ρnn es la suma ponderada (a trav´es de las probabilidades asociadas a los estados) de las probabilidades arriba mencionadas. En otras palabras, ρnn representa la probabilidad promedio de encontrar al sistema en el estado |un i. Este promedio surge de la indeterminaci´ on que tenemos sobre el estado inicial del sistema. Por las razones anteriores, ρnn se conoce como la populaci´ on del estado |un i; puesto que si realiz´ aramos la misma medida un n´ umero N de veces para sistemas id´enticos bajo las mismas condiciones iniciales5 con N → ∞, entonces un n´ umero N ρnn de sistemas estar´ an en el estado |un i. Es claro adem´ as de la Ec. (6.40), (k) 2 umero real positivo, igual a cero solo si todos los cn son cero. que ρnn es un n´ Con un c´ alculo muy similar se encuentran los elementos no diagonales de ρ en la base {|un i} X (k)∗ pk c(k) ; c(k) (6.41) ρnp = n cp n ≡ hun |ψk i k
(k) (k)∗
los t´erminos cruzados cn cp son del mismo tipo que los estudiados en la secci´ on 5.9.1. Por tanto, ellos expresan los efectos de interferencia entre los estados |un i y |up i que pueden surgir cuando el estado |ψk i es una superposici´ on lineal coherente de ´estos estados. La Ec. (6.41) nos dice que ρnp es el promedio de ´estos t´erminos cruzados tomados sobre todos los estados accesibles de la mezcla estad´ıstica. A diferencia de las populaciones, ρnp se puede anular incluso si los t´erminos cruzados no son nulos, esto se debe a que estos t´erminos cruzados son n´ umeros complejos (y no n´ umeros reales no negativos como ocurre con los ρnn ). Si un ρnp es cero, significa que hay una cancelaci´ on estad´ıstica de los efectos de interferencia entre los estados |un i y |up i. Por otro lado, si ρnp no es cero, decimos que existe cierta coherencia entre ´estos estados. Por esta raz´ on, a los elementos no diagonales ρnp suele llam´ arseles coherencias. Es importante mencionar que la distinci´ on entre populaciones y coherencias depende de la base {|un i} escogida en el espacio de estados, o en otras palabras del observable A para el cual constru´ımos la base {|un i} de vectores propios. Puesto que ρ es herm´ıtico, es posible encontrar una base ortonormal {|χl i} donde ρ sea diagonal, ρ se puede escribir entonces en la forma X ρ= πl |χl i hχl | l
P n (k) 2 4 Si existe degeneraci´ on, de modo que A uin = an uin , solo podremos decir que gi=1 cn,i es la probabilidad de que al medir el observable A el sistema quede en un estado que pertenece al subespacio Ean . En otras palabras, es la probabilidad de que al medir A el sistema quede en alg´ un estado asociado al valor propio an . Sin embargo, el estado espec´ıfico no es u ´nico, ya que depende del estado del sistema antes de la medida cuando hay degeneraci´ on. 5 En este caso, las mismas condiciones iniciales no significan que el sistema parta siempre del mismo estado |ψk i. Lo que significa es que en el momento inicial para cada experimento, el sistema posee los mismo estados accesibles {|ψk i} con las mismas ponderaciones {pk } para ´estos. Podemos decir que el sistema est´ a en la misma condici´ on mezclada inicial, ya que para cada experimento, el operador densidad es el mismo en el tiempo inicial.
6.3. APLICACIONES DEL OPERADOR DENSIDAD
255
siendo πl los valores propios de ρ yP|χl i sus vectores propios. Dado que ρ es positivo, sus valores propios son reales no-negativos y puesto que T rρ = l πl = 1 tenemos que 0 ≤ πl ≤ 1 ;
X
πl = 1
l
por tanto se puede considerar que ρ describe una mezcla estad´ıstica de sus propios autoestados |χl i con probabilidades πl . Claramente, no hay coherencias entre los estados {|χl i}. Usando la Ec. (6.33) se puede demostrar que ρnn ρpp ≥ |ρnp |2 de esto se obtiene en particular, que ρ solo puede tener coherencias entre estados cuya populaci´on es no nula. Esto es razonable ya que implica que un estado puede generar una coherencia con otro, solo si forma parte de los estados accesibles del sistema. Un caso interesante ocurre cuando la base elegida {|un i} son autovectores del Hamiltoniano, y ´este u ´ltimo no depende expl´ıcitamente del tiempo. Por simplicidad, asumiremos que el Hamiltoniano es no degenerado. Tenemos entonces que H |un i = En |un i usando la Ec. (6.39) y teniendo en cuenta que |un i y En no dependen del tiempo (ya que el Hamiltoniano no depende del tiempo) se encuentra que d d hun | i~ ρ |up i = hun | [H, ρ] |up i ⇒ i~ hun | ρ |up i = hun | [Hρ − ρH] |up i dt dt dρnp dρnp ⇒ i~ = hun | [En ρ − ρEp ] |up i ⇒ i~ = (En − Ep ) hun | ρ |up i dt dt dρnp i~ = (En − Ep ) ρnp dt conviene colocar los t´erminos diagonales y no diagonales por aparte i~
dρnp dρnn = 0 ; i~ = (En − Ep ) ρnp dt dt
de lo cual se deduce ρnn (t) = constante ;
i
ρnp = e ~ (Ep −En )t ρnp (0)
de modo que las populaciones relativas a estados propios del Hamiltoniano son constantes, y sus coherencias oscilan a las frecuencias de Bohr del sistema.
6.3. 6.3.1.
Aplicaciones del operador densidad Sistema en equilibrio termodin´ amico
Este ejemplo es tomado de la mec´ anica estad´ıstica cu´ antica. Consideremos un sistema termodin´ amico en equilibrio con un ba˜ no t´ermico a temperatura absoluta T . Se puede mostrar que su operador densidad es n o ρ = Z −1 e−H/kT ; Z ≡ T r e−H/kT donde H es el Hamiltoniano del sistema, k la constante de Boltzmann y Z es una funci´ on de normalizaci´ on (conocida como funci´ on de partici´ on) para mantener la traza de ρ igual a la unidad.
256
´ DE LOS POSTULADOS CON INFORMACION ´ PARCIAL CAP´ITULO 6. APLICACION
Vamos a calcular las populaciones y coherencias para la base ortonormal {|un i} asociada a los autoestados del Hamiltoniano. Los elementos matriciales de ρ estar´ an dados por ρnp = Z −1 hun | e−H/kT |up i = Z −1 hun | e−Ep /kT |up i = Z −1 e−Ep /kT hun | up i ρnp = Z −1 e−Ep /kT δnp
vemos entonces que en el equilibrio termodin´ amico, las populaciones de los estados estacionarios |un i son funciones exponencialmente decrecientes de la energ´ıa, adem´ as el decrecimiento es m´ as r´ apido a medida que disminuye la temperatura. Por otro lado, las coherencias entre los estados estacionarios son nulas.
6.3.2.
Descripci´ on de subsistemas con base en observables globales de un sistema: el concepto de traza parcial
Volveremos a estudiar sistemas consistentes en dos subsistemas (1) y (2) como se describi´ o en la secci´ on 6.1. Sea E (1) [E (2)] el espacio de estados del subsistema (1) [(2)], y sea {|un (1)i} [{|vp (2)i}] una base ortonormal en el espacio E (1) [E (2)]. El espacio de estados para el sistema global E y una base ortonormal para dicho espacio se obtienen como E = E (1) ⊗ E (2)
;
{|un (1)i ⊗ |vp (2)i} ≡ {|un (1)i |vp (2)i} ≡ {|un (1) vp (2)i}
Sea un observable A que act´ ua en el espacio E. Ya hemos estudiado como extender un operador que proviene de uno de los espacios factores. Ahora estudiaremos un proceso inverso: con base en el operador A que act´ ua en el espacio producto, encontraremos un operador A (1) que act´ ua en el espacio E (1), y que nos permitir´ a hacer predicciones f´ısicas sobre el sistema (1). Esta operaci´ on se denominar´ a la traza parcial con respecto al sistema (2). Naturalmente, se puede inducir an´ alogamente el operador A (2) sobre el sistema (2) usando la traza parcial con respecto al sistema (1). Introduciremos el operador A (1) por medio del operador A, definiendo los elementos matriciales de A (1) en la base {|un (1)i} de E (1) ( ) X X hun (1)| A (1) |un′ (1)i ≡ hun (1) vp (2)| A |un′ (1) vp (2)i = hun (1)| [hvp (2)| A |vp (2)i] |un′ (1)i (6.42) p
p
como esta definici´on es v´ alida para cualquier base {|un (1)i} de E (1) tenemos X A (1) ≡ [hvp (2)| A |vp (2)i]
(6.43)
si definimos la traza parcial con respecto al sistema (2) de un operador A sobre E en la forma X T r2 A ≡ hvp (2)| A |vp (2)i
(6.44)
p
p
podemos escribir la definici´ on de A (1), Ec. (6.43) en la forma A (1) ≡ T r2 A
(6.45)
para comprender el concepto de traza parcial, escribamos la traza “normal” de un operador A en t´erminos de la base {|un (1)i |vp (2)i} de E XX T rA = hun (1) vp (2)| A |un (1) vp (2)i (6.46) n
p
comparando (6.46) con (6.44) vemos que la apariencia de las dos ecuaciones es similar, excepto que en (6.44) solo se suma sobre la base del sistema (2). Por esta raz´ on, hablamos de la traza parcial de A con respecto al sistema
6.3. APLICACIONES DEL OPERADOR DENSIDAD
257
(2). N´ otese adem´as que la traza parcial con respecto al sistema (2) de un operador A sobre E, es un operador en E (1). Esta es una gran diferencia con respecto a la traza normal, la cual es un n´ umero complejo. Para ver que dicha traza parcial es un operador sobre E (1), aplicaremos esta traza parcial sobre un ket |ψ (1)i ∈ E (1) X X A (1) |ψ (1)i ≡ (T r2 A) |ψ (1)i ≡ hvm (2)| A |vm (2)i |ψ (1)i = hvm (2)| {A |vm (2) ψ (1)i} m
m
y dado que A |vm (2) ψ (1)i es un ket en el espacio E = E (1) ⊗ E (2), se puede escribir como una superposici´ on de la base {|un (1)i |vp (2)i} de E, por tanto ( ) ( ) X X X X A (1) |ψ (1)i = hvm (2)| cnp |un (1)i |vp (2)i = hvm (2)| vp (2)i cnp |un (1)i m
⇒
n,p
A (1) |ψ (1)i =
X n,p
m
n,p
cnp |un (1)i ≡ |χ (1)i ∈ E (1)
como se quer´ıa demostrar. Veamos ahora como se escribe la traza normal de A en t´erminos de las trazas parciales sobre los sistemas (1) y (2). ( ) XX X X T rA = hun (1)| {hvp (2)| A |vp (2)i} |un (1)i = hun (1)| hvp (2)| A |vp (2)i |un (1)i n
=
X n
p
n
p
hun (1)| {T r2 A} |un (1)i = T r1 (T r2 A)
asumiendo que las sumatorias pueden intercambiarse encontramos que T rA = T r1 (T r2 A) = T r2 (T r1 A)
(6.47)
Es f´ acil ver que la traza parcial con respecto al sistema (1) de un operador sobre E (1) es un n´ umero complejo, e igualmente cuando tomamos el sistema (2). Por esta raz´ on, si tomamos la traza parcial con respecto a (1) y luego la traza parcial con respecto a (2) (o viceversa) de un observable A sobre E, el resultado es un n´ umero complejo como se v´e en la Ec. (6.47). Obtendremos ahora la traza (normal) de A (1) (calculada sobre E (1)). Para ello usamos la Ec. (6.43), con lo cual se obtiene " # X X XX X T rA (1) = hun | A (1) |un i = hun | hvp (2)| A |vp (2)i |un i = hun vp (2)| A |un vp (2)i n
n
p
n
p
T rA (1) = T rA
(6.48)
En conclusi´ on la traza de A (calculada sobre E) coincide con la traza de A (1) (calculada sobre E (1)) y obviamente tambi´en coincide con la traza de A (2) (calculada sobre E (2)). Adicionalmente, es f´ acil ver a partir de la Ec. (6.43), que si A es herm´ıtico entonces A (1) y A (2) tambi´en lo son.
6.3.3.
Traza parcial y operador densidad
Una de las aplicaciones de mayor inter´es del concepto de traza parcial se obtiene cuando lo aplicamos al operador densidad ρ sobre E = E (1) ⊗ E (2). Puesto que la traza de ρ es igual a la unidad, la traza de ρ (1) y ρ (2) tambi´en lo ser´ a, de acuerdo con la Ec. (6.48). As´ı mismo, los operadores ρ (1) y ρ (2) tambi´en ser´ an herm´ıticos y en general, puede demostrarse que ρ (1) y ρ (2) satisfacen todas las propiedades de un operador densidad establecidas en la secci´ on 6.2.46 . 6
Sin embargo, la evoluci´ on temporal de ρ (1) ´ o ρ (2) no viene en general dada por la Ec. (6.39).
´ DE LOS POSTULADOS CON INFORMACION ´ PARCIAL CAP´ITULO 6. APLICACION
258
Sea adem´ as A (1) un observable definido sobre E (1). La Ec. (6.38) nos dice que el valor esperado del observable e A (1) ≡ A (1) ⊗ I2 sobre E est´ a dado por D E n o X h i e (1) e (1) = e (1) |un (1) vp (2)i A = T r ρA hun (1) vp (2)| ρA n,p
X
un′ (1) vp′ (2) un′ (1) vp′ (2) (A (1) ⊗ I2 ) |un (1) vp (2)i = hun (1) vp (2)| ρ ′ ′ n,p n ,p XX
= hun (1) vp (2)| ρ un′ (1) vp′ (2) hun′ (1)| A (1) |un (1)i vp′ (2) I2 |vp (2)i X
n,p n′ ,p′
=
XX
n,p n′ ,p′
hun (1) vp (2)| ρ un′ (1) vp′ (2) hun′ (1)| A (1) |un (1)i δpp′
e (1) queda con lo cual es valor esperado de A " # D E X X e (1) A = hun (1) vp (2)| ρ |un′ (1) vp (2)i hun′ (1)| A (1) |un (1)i n,n′
D
e (1) A
E
=
X n,n′
p
hun (1)|
" X p
#
hvp (2)| ρ |vp (2)i |un′ (1)i hun′ (1)| A (1) |un (1)i
pero el factor dentro de par´entesis cuadrados es el elemento matricial de ρ (1), como se observa en la definici´ on (6.43). Con lo cual tenemos D E X XX X e (1) A = [hun (1)| ρ (1) |un′ (1)i] hun′ (1)| A (1) |un (1)i = [ρ (1)]nn′ [A (1)]n′ n = [ρ (1) A (1)]nn n,n′
D E e (1) A = T r [ρ (1) A (1)]
n
n′
n
(6.49)
comparando con la expresi´ oEn (6.38) vemos que la traza parcial ρ (1) nos permite calcular los valores esperados de D e observables del tipo A (1) como si el sistema (1) estuviera aislado y tuviera a ρ (1) como su operador densidad. Similarmente, obtenemos una expresi´ on an´ aloga a la segunda de las Ecs. (6.38) para calcular probabilidades e (1), es decir para resultados de medidas realizadas solo sobre el sistema (1). asociadas a observables del tipo A En la secci´ on 6.1.2, vimos que no es posible asignar un vector de estado al sistema (1), si el estado del sistema global (1) + (2) no est´ a descrito por un producto tensorial de estados de E (1) y E (2). Esto nos muestra otra ventaja del operador densidad: independientemente de que el sistema global est´e o no est´e en un producto de estados, o de que el sistema est´e en un estado puro o mezclado, siempre es posible constru´ır un operador densidad ρ (1) asociado al subsistema (1), utilizando las trazas parciales. Esto permite el c´ alculo de todas las cantidades asociadas solo con el sistema (1). En contraste, para que podamos asignar un vector de estado a cada subsistema del sistema global, se requiere que dicho sistema global est´e en un estado puro y que el vector de estado que lo describe sea un producto tensorial de vectores de cada subsistema. Por otro lado, se puede demostrar a partir de la Ec. (6.42) que T r ρ2 (1) no es en general igual a la unidad, incluso si T rρ = T rρ2 = 1. F´ısicamente, esto significa que incluso si ρ describe un estado puro, los operadores densidad ρ (1) y ρ (2) obtenidos por trazas parciales no necesariamente describen estados puros. En otras palabras, incluso si se puede asignar un vector de estado al sistema global, no es en general posible asignar un vector de estado al subsistema (1) [o al (2)], excepto en el caso en el cual el sistema global est´ a en un estado producto. Lo anterior nos induce a estudiar el caso en el cual el sistema global est´ a en un estado producto |ψi = |ϕ (1)i ⊗ |χ (2)i = |ϕ (1) χ (2)i
(6.50)
6.3. APLICACIONES DEL OPERADOR DENSIDAD
259
puesto que esto implica un estado puro, el operador densidad viene dado por la Ec. (6.15) ρ = |ϕ (1) χ (2)i hϕ (1) χ (2)| = [|ϕ (1)i hϕ (1)|] ⊗ [|χ (2)i hχ (2)|] esto se puede escribir en la forma ρ = σ (1) ⊗ τ (2)
(6.51)
σ (1) ≡ |ϕ (1)i hϕ (1)| , τ (2) ≡ |χ (2)i hχ (2)|
(6.52)
Calculando las trazas parciales a partir de (6.44) se tiene que X X hvp (2)| [σ (1) ⊗ τ (2)] |vp (2)i = σ (1) hvp (2)| τ (2) |vp (2)i T r2 {σ (1) ⊗ τ (2)} ≡ p
p
T r2 {σ (1) ⊗ τ (2)} = σ (1) T r [τ (2)] = σ (1)
y similarmente para T r1 {σ (1) ⊗ τ (2)}, con lo cual se obtiene T r2 {σ (1) ⊗ τ (2)} = σ (1) ; T r1 {σ (1) ⊗ τ (2)} = τ (2)
(6.53)
por tanto si el operador densidad est´ a descrito por (6.51), tal operador representa una simple yuxtaposici´ on de un sistema (1) descrito por el operador densidad σ(1), y un sistema (2) descrito por τ (2). No hay correlaci´ on entre estos dos subsistemas. N´ otese que los resultados arriba mencionados dependen de la Ec. (6.51), pero no de las Ecs. (6.50, 6.52). Esto implica que la validez de (6.53) se extiende a un contexto m´ as general, ya que es posible encontrar estados del sistema en los cuales ρ se puede factorizar en la forma (6.51), pero en donde los operadores factor no necesariamente son de la forma descrita por (6.52), es decir σ (1) y τ (2) pueden corresponder a estados puros y/o mezclados. Si al menos uno de los operadores σ (1) , τ (2) corresponde a un estado mezclado, el estado del sistema no estar´ a descrito por un vector de la forma (6.50). Lo anterior implica la simple yuxtaposici´ on de dos sistemas cada uno en un estado mezclado, pero que no est´ an correlacionados entre s´ı, y el sistema global ser´ a en general mezclado.
Cap´ıtulo 7
Formulaciones alternativas de la mec´ anica cu´ antica 7.1.
Operador evoluci´ on temporal: definici´ on y propiedades
En la secci´ on 3.3.2 vimos que la transformaci´ on que nos lleva de un estado inicial |ψ (t0 )i al estado |ψ (t)i del mismo sistema en un instante posterior t, es una transformaci´ on lineal descrita por la Ec. (3.23) |ψ (t)i = U (t, t0 ) |ψ (t0 )i
(7.1)
por otro lado, vimos en la secci´ on 3.3.3, que los kets |ψ (t)i poseen la misma norma para todo tiempo, propiedad fundamental para obtener conservaci´ on de la probabilidad. Esto implica entonces que el operador U (t, t0 ) debe ser unitario (debe conservar la norma). Caracterizar este operador conocido como operador evoluci´ on temporal, es en todo sentido equivalente f´ısicamente a resolver la ecuaci´ on de Schr¨ odinger. Una primera propiedad que se desprende directamente de la definici´ on Eq. (7.1) es que U (t0 , t0 ) = I
(7.2)
escribiendo la Ec. de Schr¨ odinger en el lenguaje de los kets y usando la Eq. (7.1) se tiene i~ i~
d |ψ (t)i = H (t) |ψ (t)i dt
(7.3)
∂ U (t, t0 ) |ψ (t0 )i = H (t) U (t, t0 ) |ψ (t0 )i ∂t
y teniendo en cuenta que el estado inicial es en principio arbitrario, podemos escribir i~
∂ U (t, t0 ) = H (t) U (t, t0 ) ∂t
(7.4)
vemos que (7.4) es una ecuaci´ on diferencial de primer orden para U (t, t0 ) que debe cumplir la condici´ on inicial (7.2). Las Ecs. (7.2, 7.4) se pueden sintetizar en una sola ecuaci´ on integral Z i t U (t, t0 ) = I − H t′ U t′ , t0 dt′ ~ t0
La Ec. (7.1) es v´ alida para todos los valores de t y t0 (de momento no hemos introducido causalidad), por tanto podemos escribir |ψ (t1 )i = U (t1 , t0 ) |ψ (t0 )i |ψ (t2 )i = U (t2 , t1 ) |ψ (t1 )i 260
(7.5) (7.6)
´ TEMPORAL: DEFINICION ´ Y PROPIEDADES 7.1. OPERADOR EVOLUCION
261
y sustituyendo (7.5) en (7.6) se tiene |ψ (t2 )i = U (t2 , t1 ) [U (t1 , t0 ) |ψ (t0 )i]
|ψ (t2 )i = [U (t2 , t1 ) U (t1 , t0 )] |ψ (t0 )i
(7.7)
de la misma forma, la acci´ on de U (t2 , t0 ) se puede escribir usando (7.1) |ψ (t2 )i = U (t2 , t0 ) |ψ (t0 )i
(7.8)
y puesto que |ψ (t2 )i y |ψ (t0 )i son arbitrarios, la comparaci´ on de las Ecs. (7.7, 7.8) nos da U (t2 , t0 ) = U (t2 , t1 ) U (t1 , t0 )
(7.9)
este procedimiento se puede generalizar para escribir U (tn , t0 ) = U (tn , tn−1 ) U (tn−1 , tn−2 ) . . . U (t2 , t1 ) U (t1 , t0 )
(7.10)
donde t0 , t1 , . . . , tn son arbitrarios. Si asumimos causalidad i.e. t0 < t1 < . . . < tn , la Ec. (7.10) se puede interpretar diciendo que el sistema evoluciona desde t0 pasando progresivamente por los estados intermedios t1 , t2 , . . .,tn−1 hasta llegar a tn . Si usamos t0 = t2 en (7.9) y tenemos en cuenta (7.2) llegamos a U (t2 , t2 ) = I = U (t2 , t1 ) U (t1 , t2 ) U (t1 , t2 ) = U −1 (t2 , t1 )
(7.11)
es importante insistir en que t1 y t2 son arbitrarios y no se ha asumido causalidad. La relaci´ on (7.11) es sin embargo muy l´ ogica desde el punto de vista causal. Veremos como es el operador evoluci´ on temporal infinitesimal, es decir el que conecta a un tiempo t con un tiempo t + dt, para ello escribimos la ecuaci´ on de Schr¨ odinger (7.3) en forma diferencial i i~ d |ψ (t)i = H (t) |ψ (t)i dt ⇒ [|ψ (t + dt)i − |ψ (t)i] = − H (t) |ψ (t)i dt ⇒ ~ i |ψ (t + dt)i = I − H (t) dt |ψ (t)i ~
(7.12)
de la definici´ on de operador evoluci´ on temporal se tiene |ψ (t + dt)i = U (t + dt, t) |ψ (t)i
(7.13)
comparando (7.12) con (7.13) se tiene que i U (t + dt, t) = I − H (t) dt ~ vemos que el operador infinitesimal de evoluci´ on temporal es unitario a primer orden ya que H es herm´ıtico i † U (t + dt, t) = I + H (t) dt ⇒ ~ i i † U (t + dt, t) U (t + dt, t) = I − H (t) dt I + H (t) dt ~ ~ U (t + dt, t) U † (t + dt, t) = I + O (dt)2
una transformaci´ on unitaria finita se obtiene con sucesivas transformaciones infinitesimales, este proceso de integraci´on solo requiere t´erminos de primer orden ya que los de segundo orden contin´ uan yendo a cero cuando se toma el l´ımite. Por tanto, el operador finito de evoluci´ on temporal ser´ a tambi´en unitario como ten´ıa que ser U † (t1 , t2 ) = U −1 (t1 , t2 ) = U (t2 , t1 )
´ ´ CAP´ITULO 7. FORMULACIONES ALTERNATIVAS DE LA MECANICA CUANTICA
262
7.1.1.
Operador evoluci´ on temporal para sistemas conservativos
Cuando H no es funci´ on del tiempo, la Ec. (7.4) junto con la condici´ on inicial (7.2) se pueden integrar para 1 obtener U (t, t0 ) = e−iH(t−t0 )/~ (7.14) es f´ acil verificar que este operador es unitario y que U (t0 , t) = U −1 (t, t0 ). La unitariedad de U (t, t0 ) (y por tanto la conservaci´ on de la probabilidad) est´ a directamente relacionada con la hermiticidad de H. Una vez m´ as, vemos el papel clave de la hermiticidad del Hamiltoniano en la conservaci´ on de la probabilidad. A manera de consistencia, vamos a encontrar la Ec. (5.67) a partir de la Ec. (5.66) aplicando el operador evoluci´ on temporal para sistemas conservativos. La Ec. (5.66) es una expansi´ on del estado inicial del sistema en la base |ϕn,τ i de estados propios del Hamiltoniano XX |ψ (t0 )i = cn,τ (t0 ) |ϕn,τ i ; cn,τ (t0 ) ≡ hϕn,τ |ψ (t0 )i (7.15) n
τ
al aplicar el operador evoluci´ on temporal a un |ϕn,τ i queda
k k ∞ ∞ X X i i 1 1 − H (t − t0 ) |ϕn,τ i = − (t − t0 ) H k |ϕn,τ i k! ~ k! ~ k=0 k=0 k k ∞ ∞ X X 1 i 1 i k = − (t − t0 ) En |ϕn,τ i = − En (t − t0 ) |ϕn,τ i k! ~ k! ~
U (t, t0 ) |ϕn,τ i = e−iH(t−t0 )/~ |ϕn,τ i =
k=0 −iEn (t−t0 )/~
U (t, t0 ) |ϕn,τ i = e
k=0
|ϕn,τ i
(7.16)
aplicando U (t, t0 ) a ambos lados de la Ec. (7.15) y teniendo en cuenta que este operador es lineal tenemos XX U (t, t0 ) |ψ (t0 )i = cn,τ (t0 ) U (t, t0 ) |ϕn,τ i n
|ψ (t)i =
τ
XX n
τ
cn,τ (t0 ) e−iEn (t−t0 )/~ |ϕn,τ i
(7.17)
donde hemos usado (7.16). Esta ecuaci´ on coincide con (5.67).
7.1.2.
Observaciones adicionales sobre el operador evoluci´ on temporal (opcional)
Cuando H depende expl´ıcitamente del tiempo podr´ıamos pensar en analog´ıa con la ecuaci´ on (7.14), que el operador evoluci´ on temporal es igual al operador V (t, t0 ) dado por − ~i
V (t, t0 ) = e
Rt
t0
H(t′ ) dt′
sin embargo, esto no es correcto en general, dado que la derivada de un operador de la forma eF (t) no es en general igual a F ′ (t) eF (t) (ver Eq. 1.148, pag. 79) de modo que en este caso i~
∂V (t, t0 ) 6= H (t) V (t, t0 ) ∂t
Consideremos ahora los experimentos descritos en la secci´ on 5.9.3 en los cuales se llegaba desde el mismo estado inicial |ua i hasta el mismo estado final |vc i de dos maneras: (1) Efectuando medidas de los observables A y C obteniendo dichos estados y (2) Efectuando sucesivamente medidas de los observables A, B y C donde para el estado intermedio se obtiene |wb i. En la discusi´ on de la secci´ on 5.9.3 se asumi´ o que las medidas se hac´ıan en intervalos muy cortos de modo que el sistema no ten´ıa tiempo de evolucionar. Ahora asumiremos que las medidas 1
Aplicando la Ec. (1.147) P´ ag. 78, al operador en (7.14), podemos verificar que se cumple la Ec. (7.4).
7.2. BRAS, KETS Y OBSERVABLES EQUIVALENTES
263
se hacen en intervalos en los cuales la evoluci´ on temporal es apreciable. Para el primer caso asumimos que el sistema est´ a en el estado |ua i en t0 , y |vc i en t2 . Para el segundo caso asumimos que el sistema est´ a en el estado |ua i en t0 , en el estado |wb i en t1 y finalmente en el estado |vc i en t2 . Es decir t0 , t1 y t2 definen los tiempos en que se realizan las medidas. En tal situaci´ on, la Ec. (5.86) se convierte en 2 2 (7.18) Pa (c) = hvc | ψ t− 2 i = |hvc | U (t2 , t0 ) |ua i| donde ψ t− es el estado del sistema que desde |ua i en t0 hasta el instante justo antes de la medida 2 evoluciona − + de C, por eso la notaci´ on t2 , es claro que ψ t2 = |vc i (estado justo despu´es de la medida de C). La Ec. (5.87) queda 2 hwb | ψ t− i 2 = |hvc | U (t2 , t1 ) |wb i|2 |hwb | U (t1 , t0 ) |ua i|2 Pa (b, c) = hvc | φ t− (7.19) 2 i 1 siendo φ t− el estado del sistema 2 justo antes de la medida de C, cuando el sistema evoluciona a partir del describe al sistema justo antes de la medida de B cuando evoluciona desde estado |wb i en t1 . El estado ψ t− 1 |ua i en t0 . Ahora usando la Ec. (7.9) se tiene hvc | U (t2 , t0 ) |ua i = hvc | U (t2 , t1 ) U (t1 , t0 ) |ua i X hvc | U (t2 , t1 ) |wb i hwb | U (t1 , t0 ) |ua i hvc | U (t2 , t0 ) |ua i =
(7.20)
b
sustituyendo (7.20) en la Ec. (7.18), y comparando el resultado con la Ec. (7.19), se puede verificar que al igual que en la ecuaci´ on (5.90) se tiene que X Pa (c) 6= Pa (b, c) b
7.2.
Bras, kets y observables equivalentes
A trav´es de la discusi´ on de los postulados de la mec´ anica cu´ antica y sus consecuencias, hemos observado que las predicciones de la mec´ anica cu´ antica tales como valores accesibles de un observable, probabilidades, valores esperados del observable etc. est´ an expresados en t´erminos de ecuaciones de valores propios y productos escalares, es decir expresiones de la forma A |ηi = a |ηi ; m = hφ| A |ψi (7.21)
donde |ηi , |φi , |ψi se refiere a estados arbitrarios del sistema y A es un observable (operador herm´ıtico completo). Desde este punto de vista los bras, kets y observables (entendidos estos u ´ltimos como operadores herm´ıticos completos) no son cantidades medibles sino solo herramientas para calcular los verdaderos observables f´ısicos (valores propios y productos escalares). Esto es an´ alogo a lo que ocurre con los potenciales escalar y vectorial en electrodin´ amica los cuales son excelentes herramientas pero no corresponden a observables f´ısicos. Esto indica que si los kets, bras y observables se redefinen de manera que no se alteran los valores propios ni los productos escalares, tendremos una imagen diferente pero totalmente equivalente f´ısicamente desde el punto de vista de los postulados. La alternativa m´ as evidente para hacer este cambio de imagen es el uso de operadores unitarios ya que estos no alteran el valor del producto interno. Vamos a reexpresar el producto interno en (7.21) insertando operadores identidad a trav´es de un operador unitario I = O† O = OO† h i hφ| A |ψi = hφ| O† O A O† O |ψi = hφ| O† OAO† [O |ψi] † hφ| A |ψi = hOφ| OAO |Oψi (7.22)
ahora redefinimos los operadores, kets y bras en la forma
A′ ≡ OAO† ; ψ ′ ≡ |Oψi = O |ψi ; ψ ′ ≡ hOψ| = hψ| O†
(7.23)
´ ´ CAP´ITULO 7. FORMULACIONES ALTERNATIVAS DE LA MECANICA CUANTICA
264
y combinando las Ecs. (7.22, 7.23) es claro que
hφ| A |ψi = φ′ A′ ψ ′
(7.24)
adicionalmente puede verificarse que el espectro de valores propios de A′ coincide con el de A, y los vectores propios de A′ est´ an dados por |η ′ i ≡ O |ηi , siendo |ηi los kets propios de A A |ηi = a |ηi ⇒ OA |ηi = aO |ηi ⇒ OA O† O |ηi = aO |ηi ⇒ OAO† [O |ηi] = a [O |ηi] se deduce entonces que
A |ηi = a |ηi ⇒ A′ η ′ = a η ′
;
A′ ≡ OAO† ,
′ η ≡ O |ηi
En conclusion, los nuevos bras, kets y operadores mantienen intactos los valores propios y productos internos asociados con los observables f´ısicos y por tanto describen la misma F´ısica que los bras, kets y operadores originales.
7.2.1.
La transformada de un operador y sus propiedades
Si tomamos la igualdad expresada en (7.24) para los elementos de una base del espacio
hui | A |uj i = u′i A′ u′j
E tal igualdad se puede interpretar diciendo que el elemento matricial A′ij de A′ en la base u′j coincide con el elemento matricial Aij de A en la base |uj i; siendo ambas bases ortonormales (conectadas por una transformaci´ on unitaria). En este contexto se dice que A′ es la transformada del operador A. La transformada A′ posee propiedades muy u ´tiles, ya vimos que el espectro de ambos operadores es id´entico y sus vectores propios est´ an conectados por una transformaci´ on unitaria. Las siguientes propiedades se obtienen de la definici´ on † ′ † A′ = OAO† = OA† O† = A† en particular, se obtiene que
A = A† ⇔ A′ = A′
†
de modo que la hermiticidad se preserva con esta relaci´ on. Vemos adem´ as que la transformada de A est´ a conectada con A por una transformaci´ on de similaridad, con el requerimiento de que el operador que realiza la transformaci´ on sea unitario. Como las transformaciones de similaridad preservan el producto, es claro que n A′ = (An )′ y usando la definici´ on para una funci´ on F (A) del operador A, Ec. (1.131) se obtiene F ′ (A) = F A′
(7.25)
donde en este caso F ′ (A) significa la transformada de la funci´ on F (A) con respecto al operador O, y no la derivada de F (A) “con respecto a A” (ver notaci´ on en la secci´ on 1.34.1 Eq. 1.137). Para los conmutadores de las transformadas de dos operadores A y B tenemos h i ′ ′ A ,B = OAO† , OBO† = OAO† OBO† − OBO† OAO† = OA O† O BO† − OB O† O AO† = OABO† − OBAO† = O (AB − BA) O† ′ ′ A ,B = O [A, B] O† = [A, B]′ (7.26)
¨ 7.3. LA IMAGEN DE SCHRODINGER Y LA IMAGEN DE HEISENBERG
265
de modo que el conmutador de las transformadas es la transformada del conmutador. Si el conmutador es proporcional a la identidad (observables conjugados) tenemos [Q, P ] = αI ⇒ Q′ , P ′ = O [Q, P ] O† = αOIO† = αI [Q, P ] = αI ⇒ Q′ , P ′ = [Q, P ]
(7.27)
el caso m´ as importante son los observables X, P para los cuales vemos que el conmutador de sus transformadas X ′ , P ′ , es id´entico al de los operadores originales.
7.3.
La imagen de Schr¨ odinger y la imagen de Heisenberg
Denotaremos a los kets, bras y observables originalmente utilizados en la mec´ anica cu´ antica como |ψS i , hψS | , AS ; indicando que est´ an en la “imagen de Schr¨ odinger”. En esta imagen, los observables b´ asicos X, P no dependen del tiempo y los observables que se construyen con ellos solo pueden tener dependencia expl´ıcita con el tiempo (excluiremos el esp´ın por ahora) de modo que AS = AS (X, P, t), simplificaremos la notaci´ on a AS = AS (t). La evoluci´ on temporal del estado en la imagen de Schr¨ odinger se obtiene a trav´es de la ecuaci´ on de Schr¨ odinger (de all´ı el nombre de la imagen) o equivalentemente, a trav´es del operador evoluci´ on temporal Ec. (7.1) |ψS (t)i = U (t, t0 ) |ψS (t0 )i ⇒ |ψS (t0 )i = U † (t, t0 ) |ψS (t)i
(7.28)
donde hemos tenido en cuenta que U (t, t0 ) es unitario, y por tanto tambi´en lo es U † (t, t0 ). N´ otese que definiendo a O ≡ U † (t, t0 ) como el operador unitario para transformar bras, kets y observables, seg´ un la Ec. (7.23), vemos que la Ec. (7.28) nos conduce a que los nuevos bras y kets ser´ an independientes del tiempo. Denotaremos a los nuevos bras, kets y operadores con el sub´ındice H para indicar “la imagen de Heisenberg”. Usando O ≡ U † (t, t0 ) en las Ecs. (7.23) y aplicando la Ec. (7.28) se obtiene |ψH i ≡ U † (t, t0 ) |ψS (t)i = |ψS (t0 )i ; hψH | ≡ hψS (t)| U (t, t0 ) = hψS (t0 )| AH
†
≡ U (t, t0 ) AS (t) U (t, t0 )
(7.29) (7.30)
la Ec. (7.29) nos muestra que en la imagen de Heisenberg, los kets y bras no poseen evoluci´ on temporal y su valor coincide con el del estado en la imagen de Schr¨ odinger en t0 . Por otro lado, incluso los observables A que en la imagen de Schr¨odinger no dependen del tiempo, adquieren dependencia temporal en la imagen de Heisenberg como se aprecia en la Ec. (7.30). Se tiene entonces que la evoluci´ on temporal en la imagen de Heisenberg recae completamente en los operadores. Calculemos la evoluci´ on temporal del operador AH (t) para un operador arbitrario AS (t). Derivando la Ec. (7.30) y usando la Ec. (7.4) as´ı como su adjunta, se tiene que dAH (t) dt dAH (t) dt
dU † (t, t0 ) dAS (t) dU (t, t0 ) AS (t) U (t, t0 ) + U † (t, t0 ) U (t, t0 ) + U † (t, t0 ) AS (t) dt dt dt 1 † dA (t) S = − U (t, t0 ) HS† (t) AS (t) U (t, t0 ) + U † (t, t0 ) U (t, t0 ) i~ dt 1 + U † (t, t0 ) AS (t) HS (t) U (t, t0 ) i~ =
266
´ ´ CAP´ITULO 7. FORMULACIONES ALTERNATIVAS DE LA MECANICA CUANTICA
insertando un operador identidad apropiadamente tenemos h i dAH (t) 1 dAS (t) = − U † (t, t0 ) HS (t) U (t, t0 ) U † (t, t0 ) AS (t) U (t, t0 ) + U † (t, t0 ) U (t, t0 ) dt i~ dt h i 1 + U † (t, t0 ) AS (t) U (t, t0 ) U † (t, t0 ) HS (t) U (t, t0 ) i~ ih i dAH (t) 1 h † dAS (t) = − U (t, t0 ) HS (t) U (t, t0 ) U † (t, t0 ) AS (t) U (t, t0 ) + U † (t, t0 ) U (t, t0 ) dt i~ dt ih i 1 h † U (t, t0 ) AS (t) U (t, t0 ) U † (t, t0 ) HS (t) U (t, t0 ) + i~ dAH (t) dAS (t) 1 1 † = − HH (t) AH (t) + U (t, t0 ) U (t, t0 ) + AH (t) HH (t) dt i~ dt i~ dAH (t) dAS (t) i~ = [AH (t) , HH (t)] + i~ dt dt H
(7.31)
una ecuaci´ on muy similar a la ecuaci´ on para un observable cl´ asico u (q, p) que es funci´ on del espacio de fase q, p, en donde tenemos corchete de Poisson en lugar de conmutador (ver Ec. 5.53, P´ ag. 222). A manera de consistencia, veremos que es f´ acil reproducir la Ec. (5.52) teniendo en cuenta que por construcci´ on hAi (t) = hψS (t)| AS (t) |ψS (t)i = hψH | AH (t) |ψH i teniendo en cuenta la Ec. (7.31) y el hecho de que en la imagen de Heisenberg los estados no dependen del tiempo se tiene d hAi (t) dAH (t) 1 dAS (t) = hψH | |ψH i = hψH | [AH (t) , HH (t)] + |ψH i dt dt i~ dt H d hAi (t) dAS (t) 1 (7.32) = h[AH (t) , HH (t)]iH + dt i~ dt H H una vez m´ as, por construcci´ on estas cantidades son iguales al caso en que todo lo evaluamos en la imagen de Schr¨ odinger, de modo que sustituyendo el sub´ındice H por S en la Ec. (7.32), se reproduce la Ec. (5.52). N´ otese sin embargo, que la expresi´ on (7.31) es m´ as general que la Ec. (5.52) ya que la u ´ltima es v´ alida solo para valores esperados en tanto que (7.31) es v´ alida para los operadores como tal.
7.3.1.
Algunos sistemas simples en la imagen de Heisenberg
Tomemos el caso de una part´ıcula no-relativista unidimensional de masa m sometida a un potencial del tipo V (XS , t). Usando la Ec. (7.25), tenemos que HS (t) =
PS2 P2 + V (XS , t) ; HH (t) = H + V (XH , t) 2m 2m
(7.33)
la Ec. (7.27) nos dice que [XH , PH ] = [XS , PS ] = i~ sustituyendo (7.33, 7.34) en (7.31) se obtiene la evoluci´ on temporal de los operadores XH , PH PH2 dXH (t) dXS i~ = [XH (t) , HH (t)] + i~ = XH (t) , + V (XH , t) dt dt H 2m PH2 PH PH PH = XH (t) , = [XH (t) , PH ] + [XH (t) , PH ] = i~ 2m 2m 2m m dXH (t) PH = dt m
(7.34)
´ 7.4. LA IMAGEN DE INTERACCION dPH (t) i~ dt dPH (t) dt
267
dPS PH2 = [PH (t) , HH (t)] + i~ = PH (t) , + V (XH , t) dt H 2m = [PH (t) , V (XH , t)] = −i~∂XH V (XH , t) ∂V (XH , t) = − ∂XH
donde se ha usado la Ec. (1.141) p´ ag. 77. Hemos obtenido entonces la evoluci´ on temporal de los observables b´ asicos en la imagen de Heisenberg dXH (t) PH dPH (t) ∂V (XH , t) = ; =− (7.35) dt m dt ∂XH estas ecuaciones son una generalizaci´ on del teorema de Ehrenfest Ec. (5.55) P´ ag. 223, ya que estas ecuaciones son v´ alidas para los operadores como tal y no solo para sus valores esperados. Vemos que la analog´ıa con las ecuaciones cl´ asicas es m´ as fuerte en la imagen de Heisenberg. En la imagen de Schr¨ odinger, la analog´ıa aparece solo cuando se toman los valores esperados de los observables. En contraste, en la imagen de Heisenberg la analog´ıa aparece directamente en la ecuaciones de movimiento para los observables. Un sistema simple de amplio inter´es ocurre cuando el sistema es conservativo (HS es independiente del tiempo), y el observable AS conmuta con el Hamiltoniano HS . Para sistemas conservativos, el operador evoluci´ on temporal est´ a dado por (7.14) i U (t, t0 ) = e− ~ HS (t−t0 ) si AS conmuta con HS tambi´en conmuta con eαHS de modo que conmuta con U (t, t0 ). El observable asociado en la imagen de Heisenberg queda entonces AH (t) = U † (t, t0 ) AS (t) U (t, t0 ) = U † (t, t0 ) U (t, t0 ) AS (t) = AS (t) En conclusi´ on, si el sistema es conservativo y AS conmuta con HS , los observables en las im´ agenes de Schr¨ odinger y de Heisenberg coinciden. Como caso particular, HS = HH para sistemas conservativos. N´ otese que no es necesario que AS sea constante de movimiento, ya que en general hemos permitido que AS (t) sea funci´ on expl´ıcita del tiempo.
7.4.
La imagen de interacci´ on
Consideremos un sistema f´ısico descrito por un Hamiltoniano H0S en la imagen de Schr¨ odinger. Denotaremos el operador evoluci´ on temporal asociado a H0S como U0 (t, t0 ) de modo que se cumplen las Ecs. (7.4) i~
∂U0 (t, t0 ) = H0S (t) U0 (t, t0 ) ; U0 (t0 , t0 ) = I ∂t
(7.36)
asumimos ahora que el sistema es “perturbado” por cierta interacci´ on adicional, de modo que el Hamiltoniano se modifica en la forma HS (t) = H0S (t) + WS (t) (7.37) definiremos una transformaci´ on unitaria para kets, bras y observables a trav´es del operador evoluci´ on temporal del “Hamiltoniano no perturbado” H0S . Por tanto, los nuevos kets, bras y observables se definir´ an como |ψI (t)i ≡ U0† (t, t0 ) |ψS (t)i ; hψI (t)| ≡ hψS (t)| U0 (t, t0 ) ; AI ≡ U0† (t, t0 ) AS U0 (t, t0 )
(7.38)
n´ otese que en ausencia de perturbaci´ on i.e. cuando WS (t) = 0, el ket |ψI (t)i es independiente del tiempo (y un todo coincide con la imagen de Heisenberg). No obstante, la presencia de WS (t) hace que |ψI (t)i tenga a´ dependencia temporal. Coloquialmente, podemos decir que el operador unitario elegido, “absorbe” la dependencia temporal del ket debida a H0S dej´ andonos solo con la dependencia temporal causada por WS (t). Ya veremos que
´ ´ CAP´ITULO 7. FORMULACIONES ALTERNATIVAS DE LA MECANICA CUANTICA
268
las ecuaciones de movimiento apoyan esta visi´ on cualitativa de la situaci´ on. Las Ecs. (7.36, 7.37, 7.38), describen lo que se denomina la “imagen de interacci´ on”. Primero describiremos la din´ amica de los kets |ψI (t)i en la imagen de interacci´ on. Derivando la primera de las Ecs. (7.38) resulta d |ψS (t)i d |ψI (t)i dU † (t, t0 ) i~ ≡ i~ 0 |ψS (t)i + i~U0† (t, t0 ) dt dt dt y usando las Ecs. (7.36, 7.3) tenemos i~
d |ψI (t)i dt
d |ψI (t)i i~ dt
i~
quedando finalmente
d |ψI (t)i dt
≡ −U0† (t, t0 ) H0S (t) |ψS (t)i + U0† (t, t0 ) HS (t) |ψS (t)i h i = −U0† (t, t0 ) H0S (t) U0 (t, t0 ) U0† (t, t0 ) |ψS (t)i h i +U0† (t, t0 ) HS (t) U0 (t, t0 ) U0† (t, t0 ) |ψS (t)i
h ih i † † = − U0 (t, t0 ) H0S (t) U0 (t, t0 ) U0 (t, t0 ) |ψS (t)i h ih i † † + U0 (t, t0 ) HS (t) U0 (t, t0 ) U0 (t, t0 ) |ψS (t)i n oh i = U0† (t, t0 ) [HS (t) − H0S (t)] U0 (t, t0 ) U0† (t, t0 ) |ψS (t)i h ih i = U0† (t, t0 ) WS (t) U0 (t, t0 ) U0† (t, t0 ) |ψS (t)i
d |ψI (t)i = WI (t) |ψI (t)i (7.39) dt de modo que la evoluci´ on temporal del ket |ψI (t)i en la imagen de interacci´ on est´ a regida solo por el t´ermino de perturbaci´ on como se hab´ıa anticipado. Es f´ acil demostrar que la ecuaci´ on diferencial (7.39) es equivalente a la ecuaci´ on integral dada por Z 1 t ′ dt WI t′ ψI t′ |ψI (t)i = |ψI (t0 )i + (7.40) i~ t0 i~
Teniendo en cuenta la Ec. (7.38) y el hecho de que U0 (t0 , t0 ) = I, obtenemos la condici´ on |ψI (t0 )i = |ψS (t0 )i
la ecuaci´ on integral (7.40) se puede resolver por iteraci´ on de manera que |ψI (t)i queda escrita como una expansi´ on en series de potencias integrales de WI (t) ( ) 2 Z t Z Z t1 1 t 1 |ψI (t)i = I + dt1 WI (t1 ) + dt1 WI (t1 ) dt2 WI (t2 ) + . . . |ψI (t0 )i (7.41) i~ t0 i~ t0 t0 Estudiemos ahora la evoluci´ on temporal de los observables en esta imagen. Para esto se deriva en el tiempo la tercera de las ecuaciones (7.38), el procedimiento es muy similar al realizado para obtener la Ec. (7.31), el u ´nico detalle a tener en cuenta es que aqu´ı se usa U0 (t, t0 ) que est´ a asociado a H0S , de modo que el an´ alogo a la Ec. (7.31) queda dAI (t) dAS (t) i~ = [AI (t) , H0I (t)] + i~ (7.42) dt dt I las ecuaciones de evoluci´ on (7.39) y (7.42) muestran que los kets de estado tienen solo a WI (t) como fuente de cambio, en tanto que los operadores tiene solo a H0I como fuente de cambio. Cada parte del Hamiltoniano
´ 7.4. LA IMAGEN DE INTERACCION
269
contribuye a uno u otro cambio, a diferencia de la im´ agen de Schr¨ odinger en donde la din´ amica de los kets est´ a regida por el Hamiltoniano completo, o la de Heisenberg en la cual la din´ amica de los operadores se rige por el Hamiltoniano completo. Es notable que la Ec. (7.39) para los kets, se asemeja a la ecuaci´ on de Schr¨ odinger en la imagen del mismo nombre, aunque en la Ec. (7.39) solo aparece la perturbaci´ on. An´ alogamente, la Ec. (7.42) para los operadores se asemeja a la Ec. (7.31) en la imagen de Heisenberg, aunque en (7.42) solo aparece el Hamiltoniano no perturbado. amica del vector |ψI (t)i es mucho mas “suave” Si por ejemplo, WS (t) es mucho menor2 que H0S (t), la din´ que la din´ amica de |ψS (t)i. Este hecho facilita el uso de diversos m´etodos de aproximaci´ on. En la pr´ actica, esta imagen resulta u ´til cuando H0S es un Hamiltoniano suficientemente simple para conocer su soluci´ on anal´ıtica, de modo que WS (t) se considera una perturbaci´ on que se puede evaluar por diferentes m´etodos. Dado que los operadores toman sus valores no perturbados (que en principio se asumen conocidos), podemos concentrarnos solo en la evoluci´ on de los kets |ψI i que en general tienen una evoluci´ on suave. Por ejemplo H0S puede ser la energ´ıa cin´etica (soluci´ on de part´ıcula libre como caso no perturbado) y WS (t) puede ser la energ´ıa potencial, o H0S puede ser la energ´ıa cin´etica m´ as una parte de la energ´ıa potencial que sea suficientemente simple, y WS (t) contiene interacciones externas adicionales m´ as complejas.
2
Naturalmente, la comparaci´ on entre dos observables se refiere en realidad a la comparaci´ on entre sus valores propios.
Cap´ıtulo 8
El oscilador arm´ onico cu´ antico El oscilador arm´ onico es un sistema de gran importancia en la f´ısica cl´ asica. Tal importancia radica en el hecho de que todo movimiento acotado alrededor de un punto de equilibrio estable puede ser aproximado a un movimiento arm´ onico simple, siempre que las oscilaciones sean suficientemente peque˜ nas. La cuantizaci´ on del oscilador arm´onico aparece en el nacimiento mismo de la mec´ anica cu´ antica, ya que la hip´ otesis de Planck consisti´ o en cuantizar los modos normales que est´ an asociados a osciladores arm´ onicos en el interior de un cuerpo negro. Adicionalmente, las peque˜ nas oscilaciones alrededor del equilibrio tambi´en est´ an presentes en el mundo microsc´ opico, como es el caso de las vibraciones de mol´eculas diat´ omicas o de los ´ atomos alrededor del punto de equilibrio en un red cristalina, etc. Puesto que en estos casos las “elongaciones” alrededor del equilibrio son comparables a la longitud de onda de De Broglie de los objetos que vibran, es claro que las correcciones cu´ anticas ser´ an importantes para estos sistemas que se comportan como osciladores arm´ onicos.
8.1.
Propiedades generales del oscilador arm´ onico cu´ antico unidimensional
El Hamiltoniano cuantizado del oscilador arm´ onico ser´ a de la forma H=
P2 1 + mω 2 X 2 2m 2
(8.1)
puesto que H no es funci´ on del tiempo, el oscilador arm´ onico cu´ antico define un sistema conservativo. En consecuencia, el estudio mec´ anico cu´ antico de dicho sistema se reduce al estudio de su ecuaci´ on de valores propios H |ϕi = E |ϕi que en la base {|xi} se escribe como
~2 d2 1 2 2 − + mω x ϕ (x) = E ϕ (x) 2m dx2 2
(8.2)
antes de resolver en detalle la ecuaci´ on de valores propios vale la pena mencionar que la forma del potencial 1 1 V (x) = kx2 = mω 2 x2 2 2 nos permite obtener algunas propiedades generales de las soluciones. En primer lugar, los autovalores del Hamiltoniano son positivos, ya que se puede mostrar que en general si la funci´ on potencial tiene una cota inferior, los autovalores E de un Hamiltoniano de la forma H=
P2 + V (X) 2m 270
8.2. EL PROBLEMA DE VALORES PROPIOS DEL HAMILTONIANO
271
son mayores que el m´ınimo de V (x) de modo que si V (x) ≥ Vm ⇒ E > Vm . Para nuestro caso Vm = 0 y por tanto E > 0. Por otro lado, debido a que el potencial es una funci´ on par en el argumento x V (−x) = V (x) existen autofunciones ψ (x) de H en la base {|xi} con paridad definida (pares o impares en x). Veremos que esto combinado con el hecho de que el espectro no es degenerado, nos conduce a que las funciones de onda asociadas con los estados estacionarios son necesariamente pares o impares. Adicionalmente, es bien sabido que el movimiento cl´ asico est´ a limitado a un intervalo acotado para cualquier valor de la energ´ıa total del oscilador. Con base en este hecho, se puede demostrar que todos los autovalores de energ´ıa son discretos. Veremos ahora el problema de valores propios en detalle.
8.2.
El problema de valores propios del Hamiltoniano
Veremos que el espectro de energ´ıas de la ecuaci´ on de valores propios H |ϕi = E |ϕi se puede resolver con base en las relaciones can´ onicas de conmutaci´ on [X, P ] = i~ por conveniencia utilizaremos los siguientes operadores adimensionales r P b ≡ mω X ; X Pb ≡ √ ~ m~ω con los cuales, las relaciones can´ onicas de conmutaci´ on quedan h i b Pb = i X,
(8.3)
(8.4)
y el Hamiltoniano se puede escribir en la forma
b H = ~ω H
;
b ≡1 X b 2 + Pb2 H 2
podemos entonces simplificar la ecuaci´ on de valores propios en la forma b ϕi = εν ϕi H ν ν
(8.5)
b como los valores propios εν son adimensionales. Los ´ındices ν, i pueden ser (por el donde tanto el operador H momento) cont´ınuos o discretos y el ´ındice i nos indica el grado de degeneraci´ on. b Pb b Pb X−i b b b b = X+i √ √ N´ otese que si X y P fueran n´ umeros, podr´ıamos escribir H en (8.5) de la forma H , es decir 2 2 b y Pb son operadores no conmutantes, esta como el producto de dos funciones lineales. Sin embargo, dado que X factorizaci´ on no es correcta. Sin embargo, veremos que la redefinici´ on de estos operadores lineales nos simplifica considerablemente el problema de valores propios, definiremos entonces 1 b 1 b a ≡ √ X + iPb ; a† ≡ √ X − iPb (8.6) 2 2 r r mω P mω P † a = X + i√ ; a = X − i√ (8.7) 2~ 2~ 2m~ω 2m~ω
´ ´ CAP´ITULO 8. EL OSCILADOR ARMONICO CUANTICO
272 cuya inversa se escribe como
i 1 √ a† + a ; Pb = √ a† − a 2 2 r r ~ m~ω † † X = a +a ; P =i a −a 2mω 2 b = X
(8.8) (8.9)
onicas de conmutaci´ on el conmutador de a† y a se calcula con las reglas can´ h i i h i h i 1hb b − iPb = 1 X b + iPb, X b −i X b + iPb, Pb a, a† = X + iPb, X 2 2 2 1 h b b i i h b b i i h b bi i h b bi iP , P = X, X + P, X − X, P − 2 2 2 2 h i i h b bi i h b bi b = P, X + P , X = i Pb , X 2 2 y usando la Ec. (8.4) queda
h
i a, a† = I
(8.10)
esta relaci´ on es entonces equivalente a las reglas can´ onicas de conmutaci´ on. Ahora queremos escribir el Hamilto† niano en t´erminos de los operadores a, a , para ello calculamos primero el producto a† a 1 1b b + iPb = 1 X b 2 + Pb 2 + iX b Pb − iPbX b a† a = X − iPb X 2 2 h i 1 b 2 b2 † b Pb aa = X + P + i X, 2 1 b 2 b2 X +P −I (8.11) a† a = 2
de aqu´ı en adelante reemplazamos la identidad I por el n´ umero 1 lo cual no es causa de ambig¨ uedad. N´ otese que b b la presencia del t´ermino adicional I/2 es debido a la no conmutatividad de X y P . Comparando (8.5) con (8.11) vemos que el Hamiltoniano adimensional ser´ a b =N+1 H 2
;
N ≡ a† a
(8.12)
es claro que el nuevo operador N es Herm´ıtico
† † N † = a† a = (a)† a† = a† a = N
por otro lado el Hamiltoniano adimensional tambi´en se puede escribir como b = aa† − 1 H 2
b y N solo difieren en un operador que es m´ ahora bien, de acuerdo con la Ec. (8.12), H ultiplo de la identidad. En b consecuencia, los autovectores de H son autovectores de N y viceversa. Ahora calcularemos los conmutadores de N con a y a† por medio de la Ec. (8.10) h i h i [N, a] = a† a, a = a† [a, a] + a† , a a = −a h i h i h i h i N, a† = a† a, a† = a† a, a† + a† , a† a = a† 1
b fueran conmutantes. De acuerdo con la discusi´ on anterior este producto ser´ıa el Hamiltoniano si los operadores Pb , X
´ DEL ESPECTRO 8.3. DETERMINACION en resumen, el ´ algebra de conmutadores entre a, a† y N se escribe h i h i a, a† = 1 ; [N, a] = −a ; N, a† = a†
273
(8.13)
donde tambi´en hemos tenido en cuenta la Ec. (8.10). Veremos que la ecuaci´ on de valores propios se resolver´ a en t´erminos de las propiedades de los operadores a, a† y N . De momento, hemos reducido el problema a encontrar los vectores y valores propios del operador N N ϕiν = ν ϕiν i ϕν ser´ y teniendo en cuenta las Ecs. (8.5, 8.12) los autovectores an tambi´en autovectores del Hamiltoniano H 1 con autovalores E = ν + 2 ~ω i 1 H ϕν = ν + ~ω ϕiν (8.14) 2
8.3.
Determinaci´ on del espectro
En todo lo que sigue, asumiremos que los ϕiν est´ an normalizados. Calculemos la norma del vector a ϕiν . Dicha norma es obviamente no negativa
i 2
a ϕν = ϕiν a† a ϕiν = ϕiν N ϕiν
i 2
a ϕν = ν ϕiν ϕiν i = ν ≥ 0 (8.15) lo cual nos indica que
Lemma 1 Los valores propios del operador N son no negativos
Ec. (8.15) nos muestra que a ϕiν = 0 ⇔ ν = 0 pero dado que a ϕiν = 0 ⇔ a ϕiν = 0 se tiene que La a ϕiν = 0 ⇔ ν = 0. i De acuerdo i a lo anterior, si ν > 0 entonces a ϕν no es cero. Apliquemos ahora el conmutador [N, a] sobre el on (8.13) autovector ϕν usando las reglas de conmutaci´ [N, a] ϕiν = −a ϕiν ⇒ N a ϕiν = aN ϕiν − a ϕiν = aν ϕiν − a ϕiν = (ν − 1) a ϕiν N a ϕiν esta expresi´ on nos indica que cuando ν > 0 el vector a ϕiν es vector propio de N con autovalor ν − 1. Esto indica adem´ as que ν ≥ 1 cuando ν > 0, ya que de lo contrario ν − 1 ser´ıa un autovalor negativo de N contradiciendo el lema anterior. Estos resultados los podemos resumir en la siguiente forma i ϕν un autovector no nulo de N con autovalor ν. Tenemos que (a) a ϕiν = 0 ⇔ ν = 0. (b) Si Lemma 2 Sea ν > 0 ⇒ a ϕiν es un autovector no nulo de N con autovalor ν − 1. El anterior lema nos caracteriza las propiedades de los vectores a ϕiν , es natural entonces preguntarse por las propiedades de los vectores a† ϕiν . Con un proceso similar al anterior se tiene que
2 o nh i o n
† i
a ϕν = ϕiν aa† ϕiν = ϕiν aa† − a† a + a† a ϕiν = ϕiν a, a† + N ϕiν
2
† i
a ϕν = ϕiν (1 + N ) ϕiν = (ν + 1) ϕiν ϕiν i
2
† i
a ϕν = ν + 1
274
´ ´ CAP´ITULO 8. EL OSCILADOR ARMONICO CUANTICO
donde hemos usado la Ec. (8.10). Puesto que ν ≥ 0 el vector a† ϕiν es siempre no nulo. Ahora usando la Ec. (8.13) calculemos h i N, a† ϕiν = a† ϕiν ⇒ N a† ϕiν = a† N ϕiν + a† ϕiν = νa† ϕiν + a† ϕiν h i h i = (ν + 1) a† ϕiν N a† ϕiν vemos que a† ϕiν es un autovector de N con autovalor ν + 1. Lo anterior podemos resumirlo en la forma Lemma 3 Sea ϕiν un autovector no nulo de N con autovalor ν. Tenemos que (a) a† ϕiν es siempre no nulo. (b) a† ϕiν es un autovector de N con autovalor ν + 1.
Por ahora sabemos que el espectro de N es no negativo. Asumamos que ν no es entero y mostraremos que esta hip´ otesis contradice al lema 1 y por tanto debe ser rechazada. Si ν no es entero podemos encontrar un entero n tal que n < ν < n+1 (8.16) consideremos la sucesi´ on de kets i ϕν , a ϕiν , a2 ϕiν , . . . , ap ϕiν , . . . , an ϕiν (8.17) aplicaremos iterativamente el lema 2. ϕiν = a0 ϕiν es por hip´ otesis un autovector no nulo de N con valor es un autovector no nulo (ya que ν > 0) de N con propio ν0 = ν − 0. Ahora a ϕiν de acuerdo con el lema i i valor propio ν1 = ν − 1, podemos entonces a ϕν ≡ ϕν−1 . Otra aplicaci´ on del lema lleva a que si denotar 2 ϕi = a ϕi v − 1 > 0 entonces a es un autovector no nulo de N con valor propio ν2 = ν − 2. En general p−1 i ν i ν−1 p i a ϕν = a a ϕν = a ϕν−p+1 es autovector no nulo de N con valor propio ν − p, siempre y cuando se cumpla que ν − p + 1 > 0. Adicionalmente, puesto que ν no es entero, ν − p es no nulo, con lo cual el lema 1, nos dice que ν − p > 0. A su vez, de la Ec. (8.16) vemos que la condici´ on ν − p > 0 solo se cumple en el intervalo 0 ≤ p ≤ n. on (8.17) con 0 ≤ p ≤ n, es un autovector En s´ıntesis, de acuerdo con el lema 2, un vector ap ϕiν de la sucesi´ no nulo de N con valor propio ν − p > 0. Veamos ahora que pasa con un vector fuera de la sucesi´ on para lo cual calculamos an+1 ϕiν = a an ϕiν an ϕiν es un autovector no nulo de N con valor propio v − n > 0 (de acuerdo con la Ec. 8.16). Por tanto podemos aplicar el lema 2 para decir que an+1 ϕiν es autovector de N con autovalor ν − n − 1 pero este valor propio es estrictamente negativo de acuerdo con la Ec. (8.16). Esto contradice el lema 1 por lo cual debemos rechazar la hip´ otesis de que ν es no entero. Lo anterior se puede describir de otra forma diciendo que ap ϕiν con 0 ≤ p ≤ n es autovector de N donde los valores propios νp tienen la siguiente caracter´ıstica: ν0 = ν ∈ (n, n + 1); ν1 ∈ (n − 1, n); v2 ∈ (n − 2, n − 1) ; . . . ; νn−1 ∈ (1, 2); νn ∈ (0, 1). Al aplicar de nuevo el operador a, el valor propio correspondiente quedar´ıa en el intervalo (−1, 0) que est´ a prohibido por el lema 1. Veremos ahora que la hip´ otesis de que ν es entero es perfectamente consistente con los lemas anteriores, en tal caso la Ec. (8.16) se cambia por n = ν < n+1 y el ket an ϕiν es un autovector no nulo de N con valor propio v − n = 0. Como su valor propio es cero, el lema 2 nos dice que2 an+1 ϕin = 0 (8.18) 2
Estrictamente, debemos escribir |0i a la derecha de la Ec. (8.18), ya que este es un elemento del espacio de Hilbert (vector nulo). Sin embargo, no se presenta confusi´ on al usar el s´ımbolo 0.
´ DEL ESPECTRO 8.3. DETERMINACION
275
por tanto el conjunto de vectores diferentes obtenida por aplicaci´ on reiterada de a sobre ϕiν est´ a limitada cuando m i ν = n es entero, ya que el lema 2 predice que para todo entero m ≥ n + 1 tenemos que a ϕν = 0, y se obtiene el vector cero para cualquier aplicaci´ on adicional del operador a. De esta manera se evita la contradicci´ on con el lema 1 evitando valores propios negativos. Veremos ahora que el espectro de N consta de todos los enteros no negativos. Ya hemos constru´ıdo un auto-† on sucesiva de a vector de N con valor propio nulo: an ϕin ≡ ϕi0 . Ahora bien, el lema 3 nos dice que la aplicaci´ i k i † sobre ϕ0 nos genera autoestados a ϕ0 , con valor propio k, barriendo claramente todos los valores enteros no negativos. Utilizando la Ec. (8.14) decimos que los autovalores de H tienen la forma 1 En = n + ~ω ; n = 0, 1, 2, . . . (8.19) 2 vemos entonces que la energ´ıa del oscilador arm´ onico cu´ antico est´ a cuantizada, ya que no puede adquirir cualquier valor. El espaciamiento entre los valores accesibles es adem´ as uniforme, es decir cada estado excitado consiste en agregar un cuanto ~ω al estado anterior. Adicionalmente, el estado base (estado de menor energ´ıa) no posee energ´ıa cero sino ~ω/2. N´ otese que el espaciamiento uniforme de los niveles de energ´ıa del oscilador arm´ onico cu´ antico con valor de espaciamiento ~ω, coincide con la hip´ otesis de Planck para el estudio de la radiaci´ on del cuerpo negro.
8.3.1.
Interpretaci´ on de los operadores a, a† y N
8.3.2.
Estudio de la degeneraci´ on del espectro
Si comenzamos con un estado ϕin de H con valor propio En = n + 12 ~ω, la aplicaci´ on de los operadores a y a† sobre ϕin nos da i i i 1 ~ω = En − ~ω a ϕn = αn−1 ϕn−1 ; ϕn−1 → En−1 = (n − 1) + 2 i i 1 † i a ϕn = αn+1 ϕn+1 ; ϕn+1 → En+1 = (n + 1) + ~ω = En + ~ω 2 ; n = 0, 1, 2, 3, . . . N = a† a ϕin = n ϕin i vemos que la acci´on de a sobre ϕn equivale a “extraer” un cuanto de energ´ıa ~ω del valor de energ´ıa En del estado original. En otras palabras, su acci´ on sobre un autovector de N (o de H) consiste en hacer desaparecer un cuanto de energ´ıa. Por esta raz´ on se denomina on o de aniquilaci´ on. i operador de destrucci´ † Similarmente, la acci´ on de a sobre ϕn equivale a “a˜ nadir” un cuanto de energ´ıa ~ω al valor original de energ´ıa En . Su acci´ on sobre un autovector de N (o de H) consiste en hacer aparecer un cuanto de energ´ıa. Por esta raz´ on se denomina operador de construcci´ on o creaci´ on. Finalmente, vemos que el operador N aplicado sobre ϕin nos da el valor n de cuantos que est´ an asociados con el nivel de energ´ıa (hay n cuantos agregados al valor del m´ınimo de la energ´ıa). Por esta raz´ on N se conoce como operador n´ umero.
Mostraremos que el espectro del oscilador arm´ onico es no degenerado. Comenzaremos estudiando el estado base. Todos los autoestados de H asociados a E0 = ~ω/2, o equivalentemente todos los autoestados de N asociados con n = 0, deben satisfacer seg´ un el lema 2 la siguiente condici´ on i a ϕ0 = 0 (8.20)
debemos ver entonces cuantos kets linealmente independientes satisfacen esta condici´ on. Usando las Ecs. (8.7), la Ec. (8.20) queda en la forma
´ ´ CAP´ITULO 8. EL OSCILADOR ARMONICO CUANTICO
276
1 √ 2
r
r r r i mω mω mω mω i i √ √ P ϕ0 = 0 ⇒ P ϕi0 = 0 ⇒ X+ X+ ~ ~ ~ ~ m~ω m~ω i mω i X + P ϕ0 = 0 ~ ~
que en la base {|xi} se escribe
mω d x+ ~ dx
ϕi0 (x) = 0 ;
ϕi0 (x) = hx ϕi0
(8.21)
debemos entonces resolver la ecuaci´ on diferencial de primer orden (8.21). Su soluci´ on m´ as general es de la forma 1 mω 2 x ~
ϕi0 (x) = ce− 2
(8.22)
siendo c una constante de integraci´ on (solo hay una en virtud de que la ecuaci´ on es de primer orden). Por tanto todas las soluciones no nulas posibles de (8.21) son linealmente dependientes. Existe por tanto un u ´nico ket dentro de factores multiplicativos asociado a E0 = ~ω/2. Por tanto, el estado base es no degenerado3 . La demostraci´on de que los dem´ as estados no son degenerados la haremos por inducci´ on para lo cual ya tenemos el primer paso al demostrar que el estado base no es degenerado. El segundo paso en la inducci´ on es probar que si En = (n + 1/2) ~ω no es degenerado entonces el nivel En+1 = (n + 1 + 1/2) ~ω tampoco lo es. Nuestra hip´ otesis es entonces que dentro de factores multiplicativos, solo hay un vector |ϕn i tal que N |ϕn i = n |ϕn i (8.23) i ahora consideramos un autovector ϕn+1 correspondiente al autovalor n + 1, donde el ´ındice i indica una posible degeneraci´ on N ϕin+1 = (n + 1) ϕin+1 (8.24) i el lema 2 nos dice que a ϕn+1 es un autovector no nulo de N con autovalor n. Dado que este ket no es degenerado i por hip´ otesis, tenemos que a ϕn+1 es linealmente dependiente con |ϕn i si aplicamos a† a ambos lados se tiene
a ϕin+1 = ci |ϕn i
a† a ϕin+1 = ci a† |ϕn i N ϕin+1 = ci a† |ϕn i
donde hemos usado la definici´ on de N Ec. (8.12). Combinando (8.24) con (8.25) se tiene (n + 1) ϕin+1 = ci a† |ϕn i h i i ci ϕn+1 = a† |ϕn i (n + 1)
(8.25)
(8.26)
† el lema 3 nos dice que on (8.26) nos muestra que a |ϕn i es autovector de N con autovalor (n + 1). La expresi´ i todos los kets ϕn+1 asociados al valor propio (n + 1) son linealmente dependientes con a† |ϕn i. Por tanto el valor propio n + 1 es no degenerado y la demostraci´ on est´ a completa. Todos los valores propios del Hamiltoniano son no degenerados. 3
Aunque aqu´ı usamos la base {|xi}, es claro que el grado de degeneraci´ on es independiente de la base utilizada.
8.4. ESTADOS PROPIOS DEL HAMILTONIANO
8.4.
277
Estados propios del Hamiltoniano
Ya que hemos resuelto el problema de valores propios, procederemos ahora a estudiar el problema de los kets propios del Hamiltoniano del oscilador arm´ onico unidimensional. Tomaremos como hip´ otesis de trabajo que N y H son observables, de modo que sus kets propios {|ϕn i} constituyen una base ortonormal4 de Ex , y se cumplen por lo tanto, relaciones de ortonormalidad y completez X hϕn′ |ϕn i = δn′ n ; |ϕn i hϕn | = 1 n
la completez ser´ a probada m´ as adelante utilizando la representaci´ on {|xi}, es decir calculando las funciones de onda ϕn (x) y mostrando que estas funciones son completas en el espacio de las funciones cuadr´ aticamente integrables en x. Por otro lado N y H tienen un espectro no degenerado. Por tanto cada uno de estos observables constituye por s´ı solo un C.S.C.O. en Ex .
8.4.1.
Construcci´ on de los kets propios con base en el ket del estado base
El ket |ϕ0 i asociado al estado base i.e. a n = 0 en N y a E0 = ~ω/2 en H, es el vector en Ex que satisface la condici´ on a |ϕ0 i = 0 y es u ´nico salvo constantes de proporcionalidad. Si lo asumimos normalizado, la ambig¨ uedad se reduce a solo un iθ factor de fase global arbitraria e , con θ real. Aplicando el lema 3 p´ ag 274, el vector |ϕ1 i asociado a n = 1 es proporcional a a† |ϕ0 i |ϕ1 i = c1 a† |ϕ0 i (8.27) determinaremos c1 requiriendo que |ϕ1 i est´e normalizado y que tal coeficiente sea real y positivo (es decir c1 se fija con fase cero). Para esto se calcula la norma de |ϕ1 i † n o c1 a† |ϕ0 i = |c1 |2 hϕ0 | aa† |ϕ0 i hϕ1 |ϕ1 i = hϕ0 | a† c∗1 y usando la regla de conmutaci´ on (8.10) se obtiene hϕ1 |ϕ1 i = |c1 |2 hϕ0 | a† a + 1 |ϕ0 i = |c1 |2 hϕ0 | (N + 1) |ϕ0 i = |c1 |2 hϕ0 | (0 + 1) |ϕ0 i hϕ1 |ϕ1 i = |c1 |2 hϕ0 | ϕ0 i ⇒ c1 = 1
la Ec. (8.27) queda entonces |ϕ1 i = a† |ϕ0 i
De manera similar constru´ımos a |ϕ2 i aplicando el operador creaci´ on a† sobre |ϕ1 i |ϕ2 i = c2 a† |ϕ1 i
(8.28)
nuevamente requeriremos que c2 sea una constante real positiva que normalice a |ϕ2 i. De aqu´ı en adelante este ser´ a el requerimiento para todas las constantes con que se construyen los siguientes estados. hϕ2 |ϕ2 i = |c2 |2 hϕ1 | aa† |ϕ1 i = |c2 |2 hϕ1 | (N + 1) |ϕ1 i = |c2 |2 hϕ1 | (1 + 1) |ϕ1 i 1 hϕ2 |ϕ2 i = 2 |c2 |2 = 1 ⇒ c2 = √ 2 4
La ortonormalidad est´ a garantizada autom´ aticamente, debido a la ausencia de degeneraci´ on.
´ ´ CAP´ITULO 8. EL OSCILADOR ARMONICO CUANTICO
278 con lo cual la Ec. (8.28) queda
1 1 † 2 |ϕ2 i = √ a† |ϕ1 i = √ a |ϕ0 i 2 2
este proceso se puede generalizar para constru´ır al estado |ϕn i con base en el estado |ϕn−1 i |ϕn i = cn a† |ϕn−1 i
(8.29)
hϕn |ϕn i = |cn |2 hϕn−1 | aa† |ϕn−1 i = |cn |2 hϕn−1 | (N + 1) |ϕn−1 i = |cn |2 hϕn−1 | [(n − 1) + 1] |ϕn−1 i 1 hϕn |ϕn i = n |cn |2 ⇒ cn = √ n con lo cual la Ec. (8.29) queda 1 |ϕn i = √ a† |ϕn−1 i ; n
n = 1, 2, 3, . . .
(8.30)
usando la Ec. (8.30) iterativamente, podemos conectar a |ϕn i con el estado base |ϕn i = |ϕn i = quedando finalmente
2 3 1 1 1 1 1 1 √ a† |ϕn−1 i = √ √ √ a† |ϕn−2 i = √ √ a† |ϕn−3 i n n n−1 n n−1 n−2 1 1 1 n 1 1 √ √ √ . . . √ √ a† |ϕ0 i n n−1 n−2 2 1 1 † n |ϕn i = √ a |ϕ0 i n!
; n = 0, 1, 2, 3, . . .
(8.31)
En s´ıntesis, todos los autoestados de N y H se √ pueden constru´ır con base en el autoestado base |ϕ0 i por aplicaci´ on sucesiva del operador creaci´ on. El factor 1/ n! garantiza la normalizaci´ on de cada nuevo estado creado, bajo la convenci´ on de que los coeficientes de normalizaci´ on tengan fase cero, es decir que sean reales y positivos.
8.4.2.
Ortonormalidad de los kets propios (opcional)
Es interesante ver a manera de consistencia, que la expresi´ on (8.31) conduce a que los kets |ϕn i son ortonormales n 1 ′ hϕn′ |ϕn i = √ hϕ0 | an a† |ϕ0 i n! n′ !
(8.32)
veamos como act´ uan los operadores sobre el ket n n−1 n−1 † n′ −1 † † n′ −1 † a a |ϕ0 i = a aa a |ϕ0 i = a (N + 1) a |ϕ0 i h i hp i p n ′ ′ ′ an a† |ϕ0 i = an −1 (N + 1) (n − 1)! |ϕn−1 i = an −1 [(n − 1) + 1] (n − 1)! |ϕn−1 i " # n n−1 p 1 ′ ′ an a† |ϕ0 i = nan −1 (n − 1)! p a† |ϕ0 i (n − 1)! n′
an
′
n n−1 ′ a† |ϕ0 i = nan −1 a† |ϕ0 i
(8.33)
donde hemos usado la Ec. (8.31). Utilizaremos el resultado (8.33) iterativamente, para ello analizamos tres casos
8.4. ESTADOS PROPIOS DEL HAMILTONIANO
279
1) n < n′ . En este caso usamos la propiedad (8.33) n−veces de forma iterativa n n−1 n−2 † n′ −1 † n′ −2 † a a a a |ϕ0 i = n a |ϕ0 i = n (n − 1) a |ϕ0 i n n−3 ′ ′ an a† |ϕ0 i = n (n − 1) (n − 2) an −3 a† |ϕ0 i n n−n n′ † n′ −n † |ϕ0 i = n [n − 1] [n − 2] . . . [n − (n − 1)] a |ϕ0 i a a a n 0 ′ ′ an a† |ϕ0 i = n × [n − 1] × . . . × 1 × a|n −n| a† |ϕ0 i n′
finalmente an
′
n ′ a† |ϕ0 i = n!a|n −n| |ϕ0 i
(8.34) (8.35)
(8.36) ′
pero por hip´ otesis |n′ − n| es un entero mayor o igual que 1, por tanto a|n −n| |ϕ0 i = 0 ya que a |ϕ0 i = 0. Usando (8.32) y (8.36) resulta que hϕn′ |ϕn i = √
n n o 1 ′ 1 ′ hϕ0 | an a† |ϕ0 i = √ hϕ0 | n!a|n −n| |ϕ0 i = 0 n! n′ ! n! n′ !
2) si n = n′ podemos usar (8.34) para obtener n 0 an a† |ϕ0 i = n!a0 a† |ϕ0 i = n! |ϕ0 i
(8.37)
Usando (8.32) y (8.37) resulta que si n = n′ hϕn |ϕn i = √
n 1 hϕ0 | an a† |ϕ0 i = hϕ0 | {n! |ϕ0 i} = 1 n! n! n! 1
3) n > n′ . En este caso podemos conjugar el producto interno hϕn′ |ϕn i = hϕn |ϕn′ i∗ y probar la ortogonalidad del miembro derecho con lo cual quedamos nuevamente en el primer caso. Alternativamente, podemos usar la propiedad (8.33) n′ −veces de forma iterativa, aplicando la Ec. (8.31). En tal caso el an´ alogo de la Ec. (8.34) es n n′ −n′ † n−n′ † ′ a a a |ϕ0 i = n [n − 1] [n − 2] . . . n − n − 1 a |ϕ0 i n |n−n′ | ′ an a† |ϕ0 i = n [n − 1] [n − 2] . . . n − n′ + 1 × a0 a† |ϕ0 i n i hp ′ an a† |ϕ0 i = n [n − 1] [n − 2] . . . n − n′ + 1 × (n − n′ )! |ϕn−n′ i n′
(8.38) (8.39) (8.40)
y el producto interno (8.32) queda hϕn′ |ϕn i = =
n 1 ′ hϕ0 | an a† |ϕ0 i n! n′ ! p n [n − 1] [n − 2] . . . [n − n′ + 1] (n − n′ )! √ hϕ0 |ϕn−n′ i = 0 n! n′ !
√
donde hemos usado el hecho de que n − n′ es un entero mayor o igual que uno, de modo que hϕ0 |ϕn−n′ i = 0.
´ ´ CAP´ITULO 8. EL OSCILADOR ARMONICO CUANTICO
280
8.4.3.
Acci´ on de los operadores creaci´ on y destrucci´ on sobre los autoestados del Hamiltoniano
Las Ecs. (8.9) nos muestran que los observables X, P se pueden escribir en t´erminos de a y a† , por lo tanto cualquier observable f´ısico (sin esp´ın) se puede escribir en t´erminos de a y a† . Por otro lado, como los autoestados {|ϕn i} del Hamiltoniano del oscilador arm´ onico, constituyen una base en Ex , recurriremos con frecuencia a esta base para constru´ır representaciones matriciales. Por lo anterior, resulta de especial importancia estudiar la acci´ on † de los operadores a y a sobre los estados {|ϕn i}. La acci´ on de a† sobre |ϕn i se puede obtener reemplazando n por n + 1 en la Ec. (8.30) √ a† |ϕn i = n + 1 |ϕn+1 i ; n = 0, 1, 2, . . . para obtener a |ϕn i multiplicamos la Ec. (8.30) por a. 1 1 1 √ aa† |ϕn−1 i = √ (N + 1) |ϕn−1 i = √ [(n − 1) + 1] |ϕn−1 i n n n √ a |ϕn i = n |ϕn−1 i ; n = 0, 1, 2, . . . a |ϕn i =
tenemos entonces que la acci´ on de los operadores m´ as relevantes sobre los autoestados |ϕn i son √ √ n + 1 |ϕn+1 i ; a |ϕn i = n |ϕn−1 i ; n = 0, 1, 2, . . . a† |ϕn i = 1 N |ϕn i = n |ϕn i ; H |ϕn i = n + ~ω |ϕn i ; n = 0, 1, 2, . . . 2
(8.41) (8.42)
Se puede ver que la segunda de las Ecs. (8.41) contiene autom´ aticamente el hecho de que a |ϕ0 i = 0. N´ otese que el adjunto de las Ecs. (8.41) es √ √ hϕn | a = n + 1 hϕn+1 | ; hϕn | a† = n hϕn−1 | (8.43) podemos expresar el significado de las Ecs. (8.41, 8.43) en palabras diciendo que a es un operador destrucci´ on (construcci´ on) para kets (bras), en tanto que a† es un operador construcci´ on (destrucci´ on) para kets (bras). La acci´ on de los observables b´ asicos X y P sobre los autoestados |ϕn i se obtiene usando las Ecs. (8.9) r r √ ~ † ~ √ X |ϕn i = a + a |ϕn i = n + 1 |ϕn+1 i + n |ϕn−1 i 2mω 2mω r r √ mω~ † mω~ √ a − a |ϕn i = i n + 1 |ϕn+1 i − n |ϕn−1 i P |ϕn i = i 2 2
con estas relaciones es f´ acil encontrar la representaci´ on matricial de los operadores a, a† , X y P en la base {|ϕn i} √ √ nhϕm |ϕn−1 i = nδm,n−1 √ √ hϕm | a† |ϕn i = n + 1hϕm |ϕn+1 i = n + 1δm,n+1 r √ ~ √ hϕm | X |ϕn i = n + 1δm,n+1 + nδm,n−1 2mω r √ mω~ √ hϕm | P |ϕn i = i n + 1δm,n+1 − nδm,n−1 2 hϕm | a |ϕn i =
(8.44) (8.45) (8.46) (8.47)
se puede ver que las matrices representativas de a y a† son herm´ıticas conjugadas una de otra como era de esperarse, pues en este caso las matrices son reales y la una es la traspuesta de la otra. En forma expl´ıcita estas matrices vienen dadas por
8.5. FUNCIONES PROPIAS ASOCIADAS A LOS ESTADOS ESTACIONARIOS EN LA BASE {|Xi}
a=
0 0 0 0 .. .
√
1 √0 0 ··· 0 2 √0 · · · 0 0 3 ··· 0 0 0 ··· .. .. .. . . . . . .
; a† =
0 0 √0 1 √0 0 0 2 √0 0 0 3 .. .. .. . . .
0 0 0 0 .. .
··· ··· ··· ··· .. .
281
n´ otese que las matrices de X y P son proporcionales a la suma y la diferencia de las matrices anteriores. Finalmente, las matrices asociadas a X y P son herm´ıticas como se esperaba.
8.5.
Funciones propias asociadas a los estados estacionarios en la base {|xi}
Los resultados obtenidos hasta el momento se han extra´ıdo a partir de los kets abstractos |ϕn i y el ´ algebra abstracta de los operadores a, a† y N . En otras palabras, todos los resultados anteriores son independientes de la ´nico resultado que no ha sido demostrado es el hecho de que los estados {|ϕn i} forman una base, lo cual base5 . El u hasta el momento es solo una hip´ otesis de trabajo que debe ser examinada. Con el fin de verificar la completez de los kets propios de H y con el fin de poder hacer c´ alculos concretos de probabilidades vamos a encontrar estos kets propios de H en la base {|xi} es decir las funciones de onda asociadas. Ya hemos determinado la funci´ on de onda asociada al estado base ϕ0 (x) la cual est´ a dada por la Ec. (8.22) ϕ0 (x) = hx |ϕ0 i =
mω 1/4 π~
1 mω 2 x ~
e− 2
(8.48)
donde (mω/π~)1/4 es un factor de normalizaci´ on. Dado que los dem´ as estados se obtienen de la Ec. (8.31) 1 † n |ϕ0 i |ϕn i = √ a n!
(8.49)
debemos obtener la representaci´ on del vector |ϕn i en la base {|xi} para ello multiplicamos la Ec. (8.49) por el bra hx| hx |ϕn i = ϕn (x) = ϕn (x) =
n n 1 1 1 b † b √ hx| a |ϕ0 i = √ hx| √ X − iP |ϕ0 i 2 n! n! r n 1 1 mω i √ hx| √ √ X− |ϕ0 i P ~ 2 n! mω~ r n 1 1 mω i ~ d √ √ x− √ hx| ϕ0 i ~ mω~ i dx n! 2n
#n r mω ~ d ϕn (x) = x− hx| ϕ0 i ~ mω dx "r #n 1 ~ mω d ϕn (x) = √ x− hx| ϕ0 i mω ~ dx 2n n! n 1 n 2 1 ~ mω d ϕn (x) = x− ϕ0 (x) n! 2mω ~ dx 1 √ 2n n!
5
"r
La ausencia de degeneraci´ on del estado base se demostr´ o utilizando la base espec´ıfica {|xi}, pero el resultado debe ser independiente de la base.
´ ´ CAP´ITULO 8. EL OSCILADOR ARMONICO CUANTICO
282
ahora usando en forma expl´ıcita la funci´ on de onda del estado base Ec. (8.48) se tiene que
1 ϕn (x) = n!
~ 2mω
n 1 n 2 1 mω 2 mω 14 mω d x− e− 2 ~ x π~ ~ dx 1 mω
(8.50)
2
de lo anterior se puede ver f´ acilmente que ϕn (x) es el producto de e− 2 ~ x por un polinomio de grado n y paridad n (−1) . Los polinomios que surgen se denominan polinomios de Hermite. Las dos primeras funciones asociadas a estados excitados (con energ´ıa mayor al estado base) son 4 mω 3 1/4 − 1 mω x2 ϕ1 (x) = xe 2 ~ π ~ mω 1/4 h mω i 1 mω 2 ϕ2 (x) = 2 x2 − 1 e− 2 ~ x 4π~ ~
(8.51) (8.52)
si se grafica la funci´ on de onda y la densidad de probabilidad para n = 0, 1, 2 (ver Figs. 8.1, 8.2) y para valores
Figura 8.1: Funciones de onda asociadas a n = 0, 1, 2 para el oscilador arm´ onico.
Figura 8.2: Densidades de probabilidad asociadas a n = 0, 1, 2 para el oscilador arm´ onico. grandes de n (Figs. 8.3), se pueden observar las siguientes caracter´ısticas: cuando n aumenta, la regi´ on en x en la cual la densidad de probabilidad toma valores no despreciables se vuelve mayor. Esto corresponde a la caracter´ıstica cl´ asica de que la amplitud de movimiento (y por tanto la regi´ on accesible) aumenta con la energ´ıa. Tambi´en veremos que el valor promedio o esperado de la energ´ıa potencial se incrementa con la energ´ıa (y por tanto con n). Aunque esto se puede ver de un c´ alculo directo, se puede explicar cualitativamente teniendo en cuenta que para n grandes, ϕn (x) toma valores no despreciables en regiones donde x es grande y por tanto donde V (x) es grande. Las gr´ aficas tambi´en muestran que el n´ umero de ceros de ϕn (x) es igual a n, lo cual se puede demostrar formalmente con las propiedades de los polinomios de Hermite. Un an´ alisis de estos polinomios muestra
´ EN UN ESTADO ESTACIONARIO DEL OSCILADOR 8.6. VALORES ESPERADOS Y DISPERSION
283
Figura 8.3: Funci´ on de onda (izquierda) y densidad de probabilidad (derecha) asociadas a n = 10, para el oscilador arm´onico. tambi´en que el valor promedio de la energ´ıa cin´etica se incrementa con n, puesto que tal valor promedio viene dado por Z ∞ 1 2 ~2 d2 ϕn P =− ϕ∗n (x) dx (8.53) 2m 2m −∞ dx2
y cuando el n´ umero de ceros de ϕn (x) aumenta, tambi´en se incrementa la curvatura de la funci´ on de onda y en la Ec. (8.53) la segunda derivada de ϕn se incrementa a su vez. Otra caracter´ıstica sobresaliente para grandes valores de n es que la densidad de probabilidad es grande para x ∼ asica de movimiento cuando la energ´ıa es En . Esto se relaciona con la = ±xM siendo xM la amplitud cl´ a en reposo instant´ aneo y por tanto, en promedio se mantiene caracter´ıstica cl´ asica de que en xM la part´ıcula est´ m´ as tiempo en las vecindades de ±xM que por ejemplo en las vecindades de x = 0 donde la rapidez es m´ axima.
8.6.
Valores esperados y dispersi´ on para los observables cuando el sistema est´ a en un estado estacionario del oscilador arm´ onico
Dado que ninguno de los observables X y P conmuta con H, los autoestados |ϕn i del Hamiltoniano no son autoestados de X ni P . Por tanto, si el oscilador arm´ onico est´ a en un estado estacionario |ϕn i la medida de X ´ o P dar´ a en principio cualquier valor ya que el espectro de estos observables incluye a todos los n´ umeros reales. Calcularemos los valores esperados de X y P y las ra´ıces de la desviaci´ on media cuadr´ atica ∆X y ∆P , cuando el sistema est´ a en un estado estacionario |ϕn i. Los valores esperados se calculan directamente de las Ecs. (8.46, 8.47) hXi = hϕn | X |ϕn i = hP i = hϕn | P |ϕn i = 0 (8.54) estos valores son v´ alidos para todo tiempo. N´ otese que el comportamiento del centro del paquete de onda difiere profundamente del caso cl´ asico en el cual las variables x y p son oscilantes en el tiempo (excepto cuando la energ´ıa es cero)6 . Para calcular ∆X, ∆P deben calcularse los valores esperados de X 2 y P 2 (∆X)2 = hϕn | X 2 |ϕn i − [hϕn | X |ϕn i]2 = hϕn | X 2 |ϕn i 2
(∆P )
2
2
2
= hϕn | P |ϕn i − [hϕn | P |ϕn i] = hϕn | P |ϕn i
(8.55) (8.56)
6 Puede verse que cl´ asicamente los valores promedio de x y p tomados sobre un periodo completo de movimiento, s´ı son nulos como en el caso cu´ antico. Sin embargo, debemos recordar que en el caso cu´ antico los promedios no son tomados sobre un periodo de movimiento.
´ ´ CAP´ITULO 8. EL OSCILADOR ARMONICO CUANTICO
284 y usando (8.9) tenemos que X
2
~ 2mω ~ 2mω ~ 2mω
=
X2 = X2 =
P
2
P2
m~ω = − 2 m~ω = − 2
2 ~ † † † † † 2 + aa + a a + a a +a a +a = a 2mω 2 a† + (1 + N ) + N + a2 2 † 2 a + a + 2N + 1 m~ω † 2 † † † † 2 − aa − a a + a a −a a −a =− a 2 2 a† + a2 − 2N − 1
reemplazando (8.57, 8.58) en (8.55, 8.56) es claro que 2 ~ 2 † 2 (∆X) = hϕn | a + a + 2N + 1 |ϕn i 2mω 2 m~ω 2 † 2 (∆P ) = − hϕn | a + a − 2N − 1 |ϕn i 2
(8.57)
(8.58)
(8.59) (8.60)
calculando cada elemento matricial se tiene p hϕn | a2 |ϕn i = n (n − 1)hϕn |ϕn−2 i = 0 2 p (n + 1) (n + 2)hϕn |ϕn+2 i = 0 hϕn | a† |ϕn i =
hϕn | (2N + 1) |ϕn i = (2n + 1) hϕn |ϕn i = (2n + 1)
(8.61) (8.62) (8.63)
reemplazando (8.61, 8.62, 8.63) en (8.59, 8.60), resulta (∆X)2 = Finalmente 2
(∆X) =
1 n+ 2
(2n + 1) ~ 2mω
;
(∆P )2 =
~ En = ; (∆P )2 = mω mω 2
(2n + 1) m~ω 2
1 n+ 2
m~ω = mEn
(8.64)
n´ otese que a medida que aumenta el nivel de energ´ıa, se ensanchan ambos paquetes. Esto es perfectamente permitido por el principio de incertidumbre el cual solo prohibe un angostamiento indefinido de ambos paquetes. El producto de estas desviaciones que se puede tomar como la definici´ on de incertidumbre, es ~ 1 ∆X · ∆P = n + ~≥ 2 2 La cota inferior para el producto ∆X · ∆P depende de la forma del potencial, y en el caso del oscilador arm´ onico adquiere el m´ınimo valor posible ~/2 cuando n = 0, es decir cuando el sistema est´ a en el estado base. Esto est´ a relacionado con el hecho de que en el estado base, la funci´ on de onda es una gaussiana y las gaussianas son distribuciones de m´ınima incertidumbre (ver Sec. 2.14.3). Por otro lado, es bien sabido que si xM es la amplitud del oscilador arm´ onico cl´ asico con energ´ıa En = (n + 1/2) ~ω, la relaci´ on entre la energ´ıa y la amplitud es En =
1 mω 2 x2M 2
´ EN UN ESTADO ESTACIONARIO DEL OSCILADOR 8.6. VALORES ESPERADOS Y DISPERSION
285
usando (8.64) se tiene que (∆X)2 = ∆X =
En 1 mω 2 x2M 1 = = x2M 2 2 mω 2 mω 2 1 √ xM 2
(8.65)
an´ alogamente, si pM es la amplitud de oscilaci´ on del momento cl´ asico se tiene que pM ∆P
= mωxM 1 = √ pM 2
(8.66)
vemos que el ancho ∆X es del orden del ancho del intervalo [−xM , xM ], esto es de esperarse ya que esta es la regi´ on cl´ asicamente accesible y ya vimos en la secci´ on 8.5 que es aproximadamente en esta regi´ on en donde ϕn (x) adquiere valores no despreciables. Un resultado similar se sigue para el intervalo [−pM , pM ]. Lo anterior permite tambi´en entender porqu´e ∆X se incrementa con n: la densidad |ϕn (x)|2 posee dos picos sim´etricos situados aproximadamente en x = ±xM . La desviaci´ on media cuadr´ atica no puede ser mucho menor que la distancias entre picos incluso si estos son muy agudos. Un argumento similar se sigue para ∆P . Ahora bien, el valor esperado de la energ´ıa potencial en el estado |ϕn i, se puede calcular teniendo en cuenta la Ec. (8.55), y est´ a dado por
1 1 hV (X)i = mω 2 X 2 ⇒ hV (X)i = mω 2 (∆X)2 2 2 similarmente, el valor esperado de la energ´ıa cin´etica es 2 P 1 = (∆P )2 2m 2m
(8.67)
(8.68)
y reemplazando (8.64) en (8.67, 8.68) resulta hV (X)i = 2 P = 2m
1 n+ 2 1 n+ 2
1 En ~ω = 2 2 1 En ~ω = 2 2
el valor esperado de las energ´ıas cin´etica y potencial es igual. Esto es consistente con el teorema del virial. No obstante, debe tenerse en cuenta que en el teorema del virial el promedio es sacado sobre un periodo de movimiento, en tanto que el promedio cu´ antico no est´ a asociado a una evoluci´ on temporal. Es notable adem´ as la simetr´ıa entre los resultados sobre las variables X y P , esto se debe a que el Hamiltoniano es muy sim´etrico en ambos ya que la energ´ıa cin´etica es proporcional a P 2 y la energ´ıa potencial es proporcional X 2 . Tal simetr´ıa se v´e de forma manifiesta en la Ec. (8.5). Los estados estacionarios |ϕn i no tienen equivalente en la mec´ anica cl´ asica ya que tienen energ´ıa no nula a pesar de que hXi y hP i s´ı son nulos. Sin embargo, podemos establecer cierta analog´ıa entre el estado estacionario |ϕn i y el estado de una part´ıcula cl´ asica cuya posici´ on est´ a descrita por x = xM cos (ωt − ϕ) y para el cual la fase inicial ϕ es escogida arbitrariamente, es decir puede tomar cualquier valor entre 0 y 2π con la misma probabilidad. Los valores esperados de x y p son entonces nulos ya que Z 2π 1 x ¯cl = xM cos (ωt − ϕ) dϕ = 0 2π 0 Z 2π 1 p¯cl = −pM sin (ωt − ϕ) dϕ = 0 2π 0
´ ´ CAP´ITULO 8. EL OSCILADOR ARMONICO CUANTICO
286 ahora, calculando el valor esperado de x2cl y p2cl
p2cl
Z 2π x2 1 cos2 (ωt − ϕ) dϕ = M 2π 0 2 Z 2π 2 p 1 = pM sin2 (ωt − ϕ) dϕ = M 2π 0 2
x2cl = xM
la desviaci´ on media cuadr´ atica cl´ asica de x y p queda q q xM pM ∆xcl = x2cl − (xcl )2 = √ ; ∆pcl = p2cl − (pcl )2 = √ 2 2 y vemos que coincide con sus valores cu´ anticos Ecs. (8.65, 8.66). Este promedio cl´ asico se est´ a realizando sobre los posible valores de la fase y no sobre un periodo de movimiento. Es decir, al igual que el promedio cu´ antico, no involucra evoluci´ on temporal.
8.7.
Propiedades del estado base
En la mec´ anica cl´ asica, el estado de m´ as baja energ´ıa del oscilador arm´ onico se obtiene cuando la part´ıcula est´ a en reposo en el origen (condiciones iniciales x = p = 0) y la energ´ıa total es cero. En contraste, el sistema cu´ antico posee un estado de m´ınima energ´ıa |ϕ0 i con energ´ıa no nula y lapfunci´ on de onda asociada posee una extensi´ on espacial caracterizada por la desviaci´ on media cuadr´ atica ∆X = ~/2mω. La diferencia entre las dos descripciones tiene su origen en el principio de incertidumbre, que impide la minimizaci´ on simult´ anea de la energ´ıa cin´etica y la potencial, ya que los operadores energ´ıa cin´etica y potencial no conmutan entre s´ı. El estado base es entonces el resultado de la minimizaci´ on de la suma de las dos energ´ıas. N´ otese que el resultado cl´ asico x = p = 0 para obtener energ´ıa m´ınima cero, requerir´ıa una determinaci´ on total simult´ anea de posici´ on y momento, que cu´ anticamente no es posible. Podemos realizar un argumento semicuantitativo para estimar el orden de magnitud de la energ´ıa base y la extensi´ on espacial de su funci´ on de onda. Pensemos que la distancia ξ caracteriza la extensi´ on espacial de la funci´on de onda, es decir ξ ∼ ∆X. Entonces, de acuerdo con (8.67) el potencial promedio ser´ a del orden de 1 V ∼ = mω 2 ξ 2 2 pero
∆X · ∆P ∼ = ~ ⇒ ξ · ∆P ∼ =~
(8.69)
por tanto
~ p2 (∆P )2 ∼ ~2 ∆P ∼ = = ⇒T = = ξ 2m 2m 2mξ 2 con lo cual el orden de magnitud de la energ´ıa total es E =T +V ∼ =
~2 1 + mω 2 ξ 2 2 2mξ 2
(8.70)
para valores peque˜ nos de ξ, T domina sobre V y para valores grandes de ξ ocurre lo contrario. El estado base se calcula de manera aproximada con el m´ınimo de la funci´ on E en la Ec. (8.70) dE ~2 = 0 ⇒ − 3 + mω 2 ξm = 0 dξ ξ=ξm mξm −
~2 ~2 4 4 + mω 2 ξm = 0 ⇒ ξm = 2 2 m m ω
´ TEMPORAL DE LOS OBSERVABLES DEL OSCILADOR ARMONICO ´ 8.8. EVOLUCION
287
por tanto el valor m´ımimo aproximado del promedio de la energ´ıa total es E ∼ =
~2 1 ~2 1 2 + mω 2 + mω 2 ξm = 2 ~ 2mξm 2 2 2m mω
E ∼ = ~ω
~ mω
=
~ω ~ω + 2 2
n´ otese que la Ec. (8.69) implica tomar un principio de “m´ınima incertidumbre” ya que implica que el producto de las incertidumbres se acerca al l´ımite inferior. Vemos entonces que la combinaci´ on de m´ınima incertidumbre con la minimizaci´ on del promedio de la suma de las energ´ıas cin´etica y potencial, nos predice correctamente el orden de magnitud de la energ´ıa del estado base. Finalmente, podr´ıa argumentarse que el aumento en la energ´ıa base con respecto al caso cl´ asico es irrelevante ya que es una cantidad constante ~ω/2. Al fin y al cabo, el verdadero observable f´ısico est´ a en las transiciones o diferencias de energ´ıa y no en la energ´ıa misma. Sin embargo, esto no es en general cierto, puesto que hay procesos en los cuales interviene m´ as de una frecuencia caracter´ıstica ω, en los cuales pueden haber diferencias en la energ´ıa base de varios osciladores. Adicionalmente, la diferencia entre la energ´ıa cl´ asica y cu´ antica del oscilador es intr´ınseca y no depende de la calibraci´ on que se defina en el caso cl´ asico. Por ejemplo, si defino la energ´ıa m´ınima cl´ asica como E0 = −~ω/2, entonces el estado de menor energ´ıa cu´ antica ser´ a E0 = 0. Una vez m´ as esta redefinici´ on de la energ´ıa base debe tomarse con cuidado, puesto que si hay m´ as de una frecuencia involucrada, solo puedo redefinir E0 = −~ωi /2 para ωi fijo, y solo ese oscilador quedar´ a con energ´ıa cu´ antica cero.
8.8.
Evoluci´ on temporal de los observables del oscilador arm´ onico
Consideremos un oscilador arm´ onico cuyo estado en t = 0 est´ a descrito por el estado normalizado |ψ (0)i =
∞ X
n=0
cn (0) |ϕn i
(8.71)
como el sistema es conservativo, el estado en cualquier tiempo se obtiene empleando las Ecs. (5.66, 5.67). |ψ (t)i =
∞ X
n=0
1
cn (0) e−i(n+ 2 )ωt |ϕn i
el valor esperado de cualquier observable estar´ a dado por " ∞ # "∞ # X X 1 1 hψ (t)| A |ψ (t)i = c∗m (0) ei(m+ 2 )ωt hϕm | A cn (0) e−i(n+ 2 )ωt |ϕn i m=0
hψ (t)| A |ψ (t)i =
n=0
∞ X ∞ X
m=0 n=0
c∗m (0) cn (0) ei(m−n)ωt hϕm | A |ϕn i
el valor esperado de A es entonces hψ (t)| A |ψ (t)i =
∞ X ∞ X
m=0 n=0
c∗m (0) cn (0) Amn ei(m−n)ωt ; Amn ≡ hϕm | A |ϕn i
(8.72)
puesto que m y n son enteros, la evoluci´ on temporal de los valores esperados solo involucra frecuencias de la forma kω/2π con k entero. Por tanto las frecuencias de Bohr est´ an constitu´ıdas por “arm´ onicos” que son m´ ultiplos enteros del “arm´ onico fundamental” ω/2π. Para el caso particular de los observables X y P estos valores esperados se
´ ´ CAP´ITULO 8. EL OSCILADOR ARMONICO CUANTICO
288 obtienen de (8.46, 8.72) hXi =
∞ X ∞ X
c∗m (0) cn (0) Xmn ei(m−n)ωt
m=0 n=0
r
∞ ∞ √ √ ~ XX ∗ hXi = cm (0) cn (0) n + 1δm,n+1 + nδm,n−1 ei(m−n)ωt 2mω m=0 n=0 ) (∞ r ∞ X X √ √ ~ hXi = c∗n+1 (0) cn (0) n + 1 ei[(n+1)−n]ωt + c∗m (0) cm+1 (0) m + 1 ei[m−(m+1)]ωt 2mω n=0
hXi =
r
~ 2mω
m=0
(
∞ X √
n + 1c∗n+1 (0) cn (0) eiωt +
n=0
∞ X √
n + 1c∗n (0) cn+1 (0) e−iωt
n=0
donde hemos tenido en cuenta que los ´ındices m y n son mudos r ∞ 2~ X √ n + 1Re c∗n+1 (0) cn (0) eiωt hXi = mω n=0
)
(8.73)
Vemos entonces que solo se incluyen ondas sinusoidales de frecuencia angular ω. Esto est´ a relacionado con la soluci´ on cl´ asica del oscilador arm´ onico la cual es monocrom´ atica para la variable x. Para hP i se obtiene un resultado similar. Por otro lado, en la discusi´ on del teorema de Ehrenfest de la secci´ on 5.7.1 vimos que la condici´on de igualdad de los dos miembros en la Ec. (5.56) necesaria para obtener el l´ımite cl´ asico adecuado, se cumple para todo estado |ψi, cuando se usa el potencial del oscilador arm´ onico que corresponde a n = 2 en la Ec. (5.58). Por tanto, de acuerdo con las Ecs. (5.55, 5.52) se tiene que d hXi dt d hP i dt
= =
1 hP i h[X, H]i = i~ m 1 h[P, H]i = −mω 2 hXi i~
integrando estas ecuaciones se obtiene 1 hP i (0) sin ωt mω hP i (t) = hP i (0) cos ωt − mω hXi (0) sin ωt
hXi (t) = hXi (0) cos ωt +
(8.74) (8.75)
que es la forma sinusoidal que se obtuvo en (8.73), aunque escrita en t´erminos de otras condiciones iniciales, puesto que (8.73) est´ a escrita en t´erminos de los pesos iniciales del paquete de onda Ec. (8.71). En contraste, las Ecs. (8.74, 8.75) est´ an escritas en t´erminos de condiciones iniciales concernientes al valor esperado del momento y la posici´ on. Es importante mencionar que este an´ alogo cl´ asico solo es v´ alido si el estado |ψ (0)i descrito por (8.71) es una superposici´ on con al menos dos coeficientes no nulos, ya que si solo uno de ellos es no nulo el sistema estar´ a 7 inicialmente en un estado estacionario y los valores esperados no evolucionar´ an en el tiempo . En consecuencia, cuando el oscilador est´ a en un estado estacionario el comportamiento cu´ antico ser´ a muy diferente al cl´ asico incluso si n es muy grande. Si queremos un paquete de onda cuya posici´ on promedio oscile en el tiempo, deben superponerse varios estados estacionarios. 7 Cuando solo uno de los coeficientes en (8.71) es no nulo, entonces al menos uno de los coeficientes cn (0) ´ o cn+1 (0) es nulo para cada n en la Ec. (8.73), con lo cual hXi = 0. Similarmente hP i = 0. Como en particular hXi (0) = hP i (0) = 0, tambi´en se obtiene que hXi (t) = hP i (t) = 0 de las Ecs. (8.74, 8.75).
´ ´ 8.9. OSCILADOR ARMONICO CARGADO EN UN CAMPO ELECTRICO UNIFORME (OPCIONAL)
8.9.
289
Oscilador arm´ onico cargado en un campo el´ ectrico uniforme (Opcional)
Asumamos que un oscilador arm´ onico unidimensional posee carga q y est´ a inmerso en un campo el´ectrico uniforme E en la direcci´ on ux . Veremos como cambian los valores y vectores propios del oscilador arm´ onico cu´ antico cuando se le a˜ nade al Hamiltoniano la energ´ıa potencial asociada a esta nueva interacci´ on, la cual cl´ asicamente viene descrita por w (E) = −qEx (8.76) con lo cual el Hamiltoniano cu´ antico completo ser´ a H ′ (E) =
P2 1 + mω 2 X 2 − qEX 2m 2
(8.77)
la ecuaci´ on de valores propios ser´ a H ′ (E) ϕ′ = E ′ ϕ′ ~2 d2 1 2 2 − + mω x − qEx ϕ′ (x) = E ′ ϕ′ (x) 2m dx2 2 completando el cuadrado con respecto a x al lado izquierdo de la ecuaci´ on (8.78) queda " # ~2 d2 1 qE 2 q 2 E2 2 − + mω x − − ϕ′ (x) = E ′ ϕ′ (x) 2m dx2 2 mω 2 2mω 2 realizando el cambio de variable u=x−
qE ; du = dx mω 2
la ecuaci´ on (8.79) queda ~2 d2 1 q 2 E2 2 2 ′ ′ mω − + u ϕ (u) = E + ϕ′ (u) 2m du2 2 2mω 2 ~2 d2 1 q 2 E2 2 2 ′ ′′ ′ ′′ ′ − + mω u ϕ (u) = E ϕ (u) ; E ≡ E + 2m du2 2 2mω 2
(8.78)
(8.79)
(8.80)
(8.81)
la ecuaci´ on (8.81) coincide exactamente con la ecuaci´ on (8.2) asociada a los estados estacionarios del oscilador arm´onico simple (sin campo el´ectrico). Por tanto los valores propios E ′′ viene dados por la Ec. (8.19) 1 ′′ E = n+ ~ω ; n = 0, 1, 2, 3, . . . 2 De la definici´ on de E ′′ en (8.81) obtenemos los valores propios de nuestra ecuaci´ on (8.78) 1 q 2 E2 En′ = n + ~ω − ; n = 0, 1, 2, 3, . . . 2 2mω 2
(8.82)
as´ı mismo las funciones propias de (8.81) coincidir´ an con los estados estacionarios del oscilador arm´ onico dados por la Ec. (8.50) n 1 n 2 1 mω 2 1 ~ mω 14 mω d ′ ϕn (u) = u− e− 2 ~ u n! 2mω π~ ~ du y teniendo en cuenta el cambio de variable (8.80), la funci´ on propia de la Ec. (8.78) ser´ a qE ϕ′n (x) = ϕn x − mω 2
(8.83)
´ ´ CAP´ITULO 8. EL OSCILADOR ARMONICO CUANTICO
290
Las ecuaciones (8.82) muestran que el efecto del campo el´ectrico uniforme E sobre el espectro del oscilador arm´onico consiste en un corrimiento constante del espectro por un cantidad q 2 E2 / 2mω 2 . Por otro lado, la Ec. (8.83) muestra que el efecto sobre el estado, on de la funci´ on de onda estacionaria del oscilador es una traslaci´ on se debe a que el campo el´ectrico ejerce una fuerza arm´onico simple en una cantidad qE/ mω 2 . Esta traslaci´ constante sobre la part´ıcula, cuyo efecto neto es redefinir el punto de equilibrio del oscilador. Ya que usualmente definimos el origen en el punto de equilibrio, podemos decir que el u ´nico efecto del campo el´ectrico uniforme es el de cambiar el origen de x y de la energ´ıa. Por ejemplo, si qE > 0, la traslaci´ on en la funci´ on de onda se realiza en la direcci´ on positiva de las x, que es la direcci´ on de la fuerza ejercida por E. El caso qE < 0, es an´alogo. Otra forma de ver el fen´ omeno es analizando la estructura del potencial con y sin campo el´ectrico. El potencial cl´ asico del oscilador arm´ onico con campo el´ectrico uniforme viene dado por V
′
V′
1 1 qE 2 q 2 E2 2 2 2 = mω x − qEx = mω x − − 2 2 mω 2 2mω 2 1 q 2 E2 qE = −V0 + mω 2 (x − x0 )2 ; V0 = , x0 = 2 2 2mω mω 2
(8.84)
el potencial V sin campo el´ectrico es una par´ abola centrada en cero y con m´ınimo V = 0 en x = 0. La Ec. (8.84) muestra que el potencial con la contribuci´ on del campo es tambi´en una par´ abola asociada al mismo valor de ω, pero centrada en x0 y con m´ınimo en V = −V0 . La Ec. (8.82) con n = 0, muestra que el proceso de cuantizaci´ on incrementa el m´ınimo de la energ´ıa en una cantidad ~ω/2, en virtud del principio de incertidumbre como ya se discuti´ o en la secci´ on 8.7.
8.9.1.
Soluci´ on utilizando el operador traslaci´ on
El hecho de que la funci´ on de onda que se obtiene cuando se aplica el campo uniforme corresponde a una traslaci´ on de la funci´ on de onda sin campo, sugiere emplear el operador traslaci´ on definido en la Ec. (1.211) P´ ag. 106 hq| S (Λ) |ψi = hq − Λ| ψi = ψ (q − Λ) ; S (Λ) ≡ e−iΛP/~ (8.85) puesto que conocemos mejor la acci´ on de los operadores creaci´ on y destrucci´ on sobre los estados del oscilador arm´onico, ser´ a conveniente escribir el operador traslaci´ on S (Λ) en t´erminos de ellos usando la Ec. (8.9) (" "r # #) r m~ω † mω † S (Λ) ≡ exp [−iΛP/~] = exp −iΛ i a − a /~ = exp Λ a −a 2 2~ r h i mω † S (λ) ≡ exp [−iΛP/~] ≡ exp −λ a − a ; λ≡Λ (8.86) 2~ desarrollaremos algunas expresiones algebr´ aicas relativas a S (λ), a y a† para prop´ ositos futuros. Dado que P es herm´ıtico es claro de (8.85) que S (λ) es unitario † S (λ) = e−λ(a−a )
;
† S † (λ) = S −1 (λ) = eλ(a−a )
de la Ec. (8.10) es claro que tanto a como a† conmutan con el conmutador entre ambos. Por tanto, es aplicable la f´ ormula de Glauber (1.149) P´ ag. 79 1 † † † † † † 1 2 † 1 2 S (λ) = e−λ(a−a ) = e−λa+λa = e−λa eλa e− 2 [−λa,λa ] = e−λa eλa e 2 λ [a,a ] = e−λa eλa e 2 λ
el adjunto se calcula similarmente y se obtiene 1
2
†
S (λ) = e 2 λ e−λa eλa
;
1
2
†
S † (λ) = e− 2 λ e−λa eλa
(8.87)
´ ´ 8.9. OSCILADOR ARMONICO CARGADO EN UN CAMPO ELECTRICO UNIFORME (OPCIONAL)
291
la misma condici´ on de que a y a† conmutan con su conmutador nos permite utilizar la primera de las Ecs. (1.140) P´ ag. 77, con a† = A y a = B, para calcular h
i h i h i ′ h i e−λa , a† = − a† , e−λa = − a† , a e−λa = a, a† −λe−λa = −λe−λa †
de manera similar se obtiene el conmutador entre eλa y a, obteni´endose i h † i h † e−λa , a† = −λe−λa ; eλa , a = −λeλa
(8.88)
a partir de las Ecs. (8.88) se obtiene nh i o n o e−λa a† eλa = e−λa a† eλa = e−λa , a† + a† e−λa eλa = −λe−λa + a† e−λa eλa = a† − λ † nh † i n o o † † † † † † † † eλa ae−λa = eλa a e−λa = eλa , a + aeλa e−λa = −λeλa + aeλa e−λa = a − λ
quedando entonces
e−λa a† eλa = a† − λ
;
†
†
eλa ae−λa = a − λ
(8.89)
Partiremos de la ecuaci´ on de valores propios sin campo el´ectrico H |ϕi = E |ϕi
(8.90)
y haremos una transformaci´ on pasiva8 asociada al operador unitario S (λ). Para ello multiplicamos la ecuaci´ on por S (λ) e insertamos un operador identidad en la forma i h i h S (λ) H S † (λ) S (λ) |ϕi = ES (λ) |ϕi ⇒ S (λ) HS † (λ) [S (λ) |ϕi] = E [S (λ) |ϕi] e |ϕi H e = E |ϕi e
;
e ≡ S (λ) HS † (λ) H
,
|ϕi e ≡ S (λ) |ϕi
calcularemos la transformaci´ on pasiva del Hamiltoniano del oscilador arm´ onico sin campo Ec. (8.12) 1 1 † † † † † e H ≡ S (λ) HS (λ) = ~ω S (λ) + a a S (λ) = + S (λ) a aS (λ) ~ω 2 2 h i h ih i e = ~ω + ~ω S (λ) a† S † (λ) S (λ) aS † (λ) = ~ω + ~ω S (λ) a† S † (λ) S (λ) aS † (λ) H 2 2 1 e = H +e a†e a ~ω ; e a ≡ S (λ) aS † (λ) ; e a† ≡ S (λ) a† S † (λ) 2
(8.91)
(8.92)
utilizando las Ecs. (8.87) y (8.89), podemos calcular los operadores transformados e a y e a† en t´erminos de los operadores originales h 1 2 i h 1 2 i † † † † e a ≡ S (λ) aS † (λ) = e 2 λ e−λa eλa a e− 2 λ e−λa eλa = e−λa eλa ae−λa eλa e a = e−λa (a − λ) eλa = a − λ
y similarmente para e a† , se obtiene entonces 8
e a =a−λ
; e a† = a† − λ
(8.93)
Sin embargo, esta transformaci´ on no ser´ıa un cambio de base, ya que el operador unitario en cuesti´ on produce una traslaci´ on (y no una rotaci´ on) que conserva norma. Desde el punto de vista pasivo, ser´ıa m´ as bien un cambio de origen.
292
´ ´ CAP´ITULO 8. EL OSCILADOR ARMONICO CUANTICO
sustituyendo (8.93) en (8.92) resulta 1 1 † 1 † † † 2 e H = +e ae a ~ω = ~ω + a − λ (a − λ) = ~ω +a a−λ a+a +λ 2 2 2 r 2mω † 2 e X + λ2 ~ω H = H − λ~ω a + a + λ ~ω = H − λ~ω ~ donde hemos usado las Ecs. (8.9). El Hamiltoniano transformado queda finalmente √ e (λ) = H − λω 2m~ωX + λ2 ~ω H
(8.94)
teniendo en cuenta que H es el Hamiltoniano del oscilador arm´ onico (sin trasladar) y comparando los Hamilto′ e e nianos H y H (E) Ecs. (8.77, 8.94), vemos que H coincide con H ′ (E) (excepto por una constante) si definimos el par´ ametro λ en la forma r qE 1 (8.95) λE = ω 2m~ω en cuyo caso obtenemos 2 2 2 2 e (λE ) = H − qEX + q E = H ′ (E) + q E H 2mω 2 2mω 2 2 2 e (λE ) = H ′ (E) + κ1 ; κ ≡ q E H 2mω 2
(8.96)
e (λE ) y H ′ (E) solo difieren en un operador proporcional a la identidad, tendr´ puesto que H an los mismos autovectores y sus valores propios difieren por la constante de proporcionalidad κ. Adicionalmente, de las Ecs. (8.90, e est´ an dados por 8.91) vemos que si los autovectores de H son los kets |ϕn i, los autovectores de H |ϕ en i = S (λ) |ϕn i
(8.97)
e coinciden. Los estados estacionarios |ϕ′ i del oscilador arm´ y que los autovalores de H y H onico en presencia del n campo uniforme E, estar´ an dados entonces por los estados |ϕ en i dados por la Ec. (8.97). De acuerdo con la Ec. (8.96) los autovalores de H ′ (E) est´ an dados por 1 q 2 E2 ′ En (E) = n + ~ω − 2 2mω 2 que coincide con la Ec. (8.82) obtenida por m´etodos directos. La expresi´ on (8.97) para el autovector, viene dada por " # r ′ i i 2~ ϕ (E) = |ϕ en (λE )i = S (λE ) |ϕn i = exp − ΛE P |ϕn i = exp − λE P |ϕn i n ~ ~ mω " !r # r i qE 1 2~ = exp − P |ϕn i ~ ω 2m~ω mω ′ ϕn (E) = exp − i qE P |ϕn i (8.98) ~ mω 2 donde hemos usado (8.86, 8.95). La ecuaci´ on (8.85), nos dice que S (Λ) ≡ exp [−iΛP/~] es precisamente el operador traslaci´ on sobre una distancia Λ a lo largo de x, vemos de la Ec. (8.98) que |ϕ′n (E)i se obtiene por una traslaci´ on de |ϕn i en la cantidad qE/ mω 2 , en consistencia con la funci´ on de onda (8.83) calculada con los m´etodos tradicionales.
Cap´ıtulo 9
Estados coherentes cuasi-cl´ asicos del oscilador arm´ onico (opcional) Ya hemos estudiado las propiedades de los estados estacionarios del oscilador arm´ onico y hemos observado que su comportamiento difiere significativamente del oscilador arm´ onico cl´ asico. Por ejemplo, los valores esperados de X y P son cero y no oscilantes como ocurre en el caso cl´ asico (excepto en el caso en que la energ´ıa cl´ asica es cero). Vimos tambi´en que para emular razonablemente el caso cl´ asico, se necesita la superposici´ on de al menos dos estados estacionarios. Por otro lado, es de esperarse que en el l´ımite de energ´ıas mucho mayores que ~ω (n´ umeros cu´ anticos n muy grandes), las predicciones cl´ asicas y cu´ anticas sean casi id´enticas, ya que al tener una enorme cantidad de cuantos se enmascara su car´ acter discreto. Hemos visto que muchos sistemas cl´ asicos y cu´ anticos se pueden describir con el oscilador arm´onico al menos en primera aproximaci´ on. Por esta raz´ on es importante saber como pasar gradualmente de una descripci´ on cl´ asica a una descripci´ on cu´ antica o vice versa. En otras palabras es importante caracterizar ciertos par´ ametros que nos indiquen como dicernir cuando los resultados cl´ asicos o cu´ anticos sean adecuados para describir cierto sistema f´ısico. Un caso importante es la radiaci´ on electromagn´etica, hemos visto que para altas intensidades la descripci´ on cl´ asica es adecuada, en tanto que para bajas intensidades el car´ acter discreto de la radiaci´ on se manifiesta claramente. Lo anterior nos induce a indagar por la existencia de estados cu´ anticos que conduzcan a predicciones f´ısicas muy similares a las cl´ asicas, al menos para el oscilador arm´ onico macrosc´ opico. Veremos que los estados que cumplen esta condici´ on son superposiciones coherentes de los estados estacionarios |ϕn i del oscilador arm´ onico. Por tal raz´ on a dichos estados se les denomina como estados coherentes del oscilador arm´ onico o tambi´en estados cuasi-cl´ asicos. Los estados coherentes de la radiaci´ on electromagn´etica permiten dicernir cuantitativamente la importancia de los efectos cu´ anticos en la radiaci´ on para cada sistema radiativo. La idea es entonces encontrar estados para los cuales los valores de hXi , hP i , y hHi sean semejantes a los valores cl´ asicos para todo tiempo. Adicionalmente, puesto que estos observables no son compatibles (no conmutan entre s´ı) no es posible constru´ır un estado cu´ antico en donde las tres cantidades est´en bien definidas. Los estados coherentes deben entonces lidiar inevitablemente con el principio de incertidumbre, de modo que tambi´en deben lograr que las desviaciones medias cuadr´ aticas ∆X, ∆P, ∆H sean despreciables en el l´ımite macrosc´ opico.
9.1.
Parametrizaci´ on del oscilador cl´ asico con par´ ametros cu´ anticos
Tomemos como punto de partida las ecuaciones cl´ asicas del oscilador arm´ onico dx (t) p (t) dp (t) = ; = −mω 2 x (t) dt m dt reescribiremos por conveniencia estas ecuaciones en variables adimensionales x b y pb definidas por r 1 mω x b (t) = βx (t) , pb (t) = p (t) ; β = ~β ~ 293
(9.1)
(9.2)
´ ´ CAP´ITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO
294
reemplazando (9.2) en (9.1) tenemos db x (t) db p (t) = ωb p (t) ; = −ωb x (t) dt dt
(9.3)
n´ otese que la “normalizaci´ on” de las variables x y p se realiz´ o con constantes que dependen de ~, de modo que facilite la comparaci´ on del oscilador cl´ asico con el oscilador cu´ antico. El estado cl´ asico est´ a determinado para todo tiempo por las variables x (t) , p (t) o equivalentemente, por las variables x b (t) y pb (t). Estas a su vez se pueden sintetizar en un n´ umero complejo adimensional α (t) en la forma 1 α (t) = √ [b x (t) + ib p (t)] 2
(9.4)
y las ecuaciones (9.3) se pueden escribir como una u ´nica ecuaci´ on compleja en la forma
cuya soluci´ on es
dα (t) = −iω α (t) dt
(9.5)
1 α (t) = α0 e−iωt ; α0 = α (0) = √ [b x (0) + ib p (0)] ≡ |α0 | eiδ 2
(9.6)
siendo α0 un n´ umero complejo que se puede escribir como α0 = |α0 | eiδ , claramente la soluci´ on representa un fasor de magnitud |α0 | y cuya fase est´ a dada por δ − ωt. Es decir, el fasor rota con velocidad angular −ω (de modo que si ω > 0 el giro es en direcci´ on horaria alrededor de O). √ Es claro adem´ a s que las componentes cartesianas del fasor α (t) en cualquier instante, corresponden a x b (t) / 2 √ y pb (t) / 2. Vemos entonces que la descripci´ on completa del movimiento se obtiene a trav´es de la condici´ on inicial descrita por α0 , en la Ec. (9.6). Esta condici´ on inicial se expresa bien sea como posici´ on y momento inicial (componentes cartesianas adimensionales) o bien sea como |α0 | y δ (par´ ametros polares correspondientes a la amplitud adimensional de la oscilaci´ on y fase inicial respectivamente). De las Ecs. (9.4, 9.6) se obtiene √ √ i 1 x b (t) = √ α0 e−iωt + α∗0 eiωt = 2Re α0 e−iωt ; pb (t) = − √ α0 e−iωt − α∗0 eiωt = 2Im α0 e−iωt 2 2
(9.7)
ahora escribiremos la energ´ıa del sistema cl´ asico H la cual es una constante de movimiento y por tanto coincide con su valor inicial para todo tiempo H = H =
1 1 [p (0)]2 + mω 2 [x (0)]2 2m 2 o ~ω n [b x (0)]2 + [b p (0)]2 2
(9.8)
teniendo en cuenta la segunda de las Ecs. (9.6), la energ´ıa queda en la forma H = ~ω |α0 |2
(9.9)
para un oscilador macrosc´ opico es claro que la energ´ıa es mucho mayor a la energ´ıa del cuanto fundamental de modo que |α0 | ≫ 1 (9.10)
9.2.
Construcci´ on de los estados coherentes o cuasi-cl´ asicos
Buscaremos estados mecano-cu´ anticos para los cuales los valores esperados hXi , hP i y hHi sean muy similares a los valores cl´ asicos x, p, H. Para ello compararemos a X, P con las variables adimensionales x b, pb para lo
´ DE LOS ESTADOS COHERENTES O CUASI-CLASICOS ´ 9.2. CONSTRUCCION
295
cual definiremos los correspondientes observables adimensionales. Adicionalmente, escribiremos los observables en t´erminos de los operadores creaci´ on y destrucci´ on. De las Ecs. (8.8, 8.12) se obtiene 1 1 1 i † † † b = βX = √ a + a X ; Pb = P = −√ a − a ; H = ~ω a a + (9.11) ~β 2 2 2
si comparamos las Ecs. (9.11) con las Ecs. (9.7, 9.6) vemos que el operador a es el an´ alogo de la cantidad cl´ asica asicamente hemos visto que la cantidad compleja α0 (condiciones iniciales) α (t) y a† posee el papel de α∗ (t). Cl´ nos dictamina la evoluci´ on temporal de los observables cl´ asicos que se describen con α (t) en la Ec. (9.6), y dado que a es el an´ alogo cu´ antico de α, es natural continuar la analog´ıa calculando la evoluci´ on temporal de hai para el sistema en un estado arbitrario |ψ (t)i. Tal evoluci´ on se obtiene de la Ec. (5.52) i~
d hai (t) = h[a, H]i (t) dt
(9.12)
donde hemos tenido en cuenta que a es solo funci´ on de X y P y por tanto no depende expl´ıcitamente del tiempo. El miembro derecho de (9.12) se escribe como Dh iE Dh i E I † (t) = ~ω a, a† a (t) = ~ω a, a† a (t) h[a, H]i (t) = ~ω a, a a + 2 h[a, H]i (t) = ~ω hai (t) donde hemos usado la Ec. (8.10) P´ ag. 272. Con lo anterior, la Ec. (9.12) queda d hai (t) = ω hai (t) dt
(9.13)
hai (t) = hai (0) e−iωt
(9.14)
i cuya soluci´ on es
la soluci´ on para a† (t) es la compleja conjugada de (9.14) D E D E a† (t) = a† (0) eiωt = hai∗ (0) eiωt
(9.15)
n´ otese que las soluciones cu´ anticas (9.14, 9.15) son los an´ alogos de la soluci´ on cl´ asica (9.6), como era de esperarse † ∗ en virtud de la analog´ıa a, a ↔ α, α . Sustituyendo (9.14) y (9.15) en (9.11) se obtiene D E b (t) = X
1 √ hai (0) e−iωt + hai∗ (0) eiωt 2 D E i Pb (t) = − √ hai (0) e−iωt − hai∗ (0) eiωt 2
el l´ımite cl´ asico se obtiene igualando los valores esperados con las variables cl´ asicas D E D E b (t) = x X b (t) ; Pb (t) = pb (t)
(9.16)
(9.17)
esta igualaci´ on se realiza comparando las Ecs. (9.16) con las Ecs. (9.7). De esto se ve que la condici´on necesaria y suficiente para obtener el l´ımite cl´ asico (9.17) es que en t = 0 se cumpla la condici´ on hai (0) = α0
(9.18)
siendo α0 el par´ ametro complejo que caracteriza al movimiento cl´ asico que pretendemos emular cu´anticamente, y viene dado por la segunda de las Ecs. (9.6). Debemos ahora obtener la condici´ on para la igualaci´ on de las energ´ıas
´ ´ CAP´ITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO
296
cl´ asica y cu´ antica, para ello calculamos el valor esperado del Hamiltoniano cu´ antico, como ´este es constante de movimiento, se puede evaluar en cero D E ~ω hHi = ~ω a† a (0) + 2
debemos igualar esta energ´ıa con su valor cl´ asico H y obtener la condici´ on que se genera con tal igualaci´ on. Para ello podemos despreciar el t´ermino ~ω/2, ya que el l´ımite cl´ asico corresponde a energ´ıas mucho mayores
que ~ω. Recordemos que el t´ermino ~ω/2 es puramente cu´ antico en su origen. La igualaci´ on de hHi ≃ ~ω a† a (0) con el valor cl´ asico dado por la Ec. (9.9) nos lleva a la condici´ on D
E a† a (0) = |α0 |2
(9.19)
recordando que hemos asumido un estado |ψ (t)i para el sistema, las condiciones (9.18, 9.19) se escriben como hψ (0)| a |ψ (0)i = α0 ; hψ (0)| a† a |ψ (0)i = |α0 |2
(9.20)
veremos que las condiciones (9.20) son suficientes para determinar el estado normalizado |ψ (0)i excepto por un factor de fase constante. Para verlo introducimos el operador b (α0 ) definido por b (α0 ) ≡ a − α0 n´ otese que este operador mide la “desviaci´ on” entre el comportamiento del operador cu´ antico a y el de su an´ alogo cl´ asico α0 en el tiempo inicial, tenemos que b† (α0 ) b (α0 ) = a† − α∗0 (a − α0 ) = a† a − a† α0 − α∗0 a + |α0 |2 con lo cual
n o kb (α0 ) |ψ (0)ik2 = hψ (0)| b† (α0 ) b (α0 ) |ψ (0)i = hψ (0)| a† a − a† α0 − α∗0 a + |α0 |2 |ψ (0)i kb (α0 ) |ψ (0)ik2 = hψ (0)| a† a |ψ (0)i − α0 hψ (0)| a† |ψ (0)i − α∗0 hψ (0)| a |ψ (0)i + |α0 |2
y usando las condiciones (9.20) tenemos que kb (α) |ψ (0)ik2 = |α0 |2 − α0 α∗0 − α∗0 α0 + |α0 |2 = 0 como la norma del ket b (α) |ψ (0)i es nula entonces el ket como tal es nulo, por tanto b (α) |ψ (0)i = 0 ⇒ (a − α0 ) |ψ (0)i = 0 a |ψ (0)i = α0 |ψ (0)i
(9.21)
rec´ıprocamente, si el ket normalizado |ψ (0)i satisface esta relaci´ on, podemos devolvernos en los pasos y ver que las condiciones (9.20) se satisfacen. N´ otese que el resultado b (α) |ψ (0)i = 0 es el esperado, ya que cuando el estado |ψ (0)i es cuasi-cl´ asico, es razonable que la “desviaci´ on” entre el comportamiento cl´ asico y el cu´ antico se anule. Lo anterior nos lleva a la conclusi´ on de que el estado cuasi-cl´ asico asociado con un movimiento cl´ asico caracterizado por el par´ ametro α0 , es tal que el vector de estado |ψ (0)i en t = 0 es un autovector del operador destrucci´ on a con autovalor α0 . Escribiremos los autovectores de a y su autovalores en la forma a |αi = α |αi veremos adem´ as que la soluci´ on de (9.22) es u ´nica salvo constantes.
(9.22)
9.3. PROPIEDADES DE LOS ESTADOS |αi
9.3.
297
Propiedades de los estados |αi
Vamos a determinar las soluciones para el ket |αi de la Ec. (9.22). Para ello expandiremos el ket |αi en la base de estados estacionarios del oscilador arm´ onico |αi =
∞ X
n=0
cn (α) |ϕn i
(9.23)
aplicando el operador destrucci´ on a ambos lados de la expansi´ on y usando la Ec. (8.41), se obtiene a |αi =
∞ X
n=0
cn (α) [a |ϕn i] ⇒ a |αi =
∞ X
cn (α)
n=0
√
n |ϕn−1 i
(9.24)
sustituyendo la Ec. (9.24) en la Ec. (9.22) y usando (9.23) resulta ∞ X √
n=0
ncn (α) |ϕn−1 i = α
∞ X k=0
ck (α) |ϕk i
reemplazando n → k + 1 en el miembro izquierdo, se tiene ∞ X √ k=0
k + 1ck+1 (α) |ϕk i = α
∞ X k=0
ck (α) |ϕk i
n´ otese que aunque la suma de la izquierda debe ir desde k = −1, este primer t´ermino es nulo. Apelando a la independencia lineal de los |ϕk i se obtiene ck+1 (α) = √
α ck (α) k+1
(9.25)
utilizando esta relaci´ on iterativamente tenemos ck (α) = ck (α) = ck (α) =
α α α α2 √ ck−1 (α) = √ √ ck−2 (α) = p ck−2 (α) k−1 k k k (k − 1) α2 α α3 p √ ck−3 (α) = p ck−3 (α) k−2 k (k − 1) k (k − 1) (k − 2) p
αk
k (k − 1) (k − 2) . . . × 2 × 1
ck−k (α)
de modo que todos los coeficientes de la expansi´ on de |αi se pueden generar a partir de c0 (α) αk ck (α) = √ c0 (α) k!
(9.26)
Escogeremos a c0 (α) como real y positivo (fase cero). Adicionalmente, escogeremos c0 (α) de modo que |αi quede adecuadamente normalizado. De acuerdo con (9.23), la normalizaci´ on de |αi nos lleva a 1
=
hα |αi =
⇒
∞ X k=0
∞ X
c∗k
(α)
k=0
|ck (α)|2 = 1
∞ X
n=0
cn (α) hϕk |ϕn i =
∞ X ∞ X
c∗k (α) cn (α) δkn
k=0 n=0
(9.27)
´ ´ CAP´ITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO
298
reemplazando (9.26) en (9.27) se tiene |c0 (α)|2
∞ X |α|2k k=0
k!
2
= 1 ⇒ |c0 (α)|2 e|α| = 1
c0 (α) = e−
|α|2 2
(9.28)
reemplazando (9.26) y (9.28) en (9.23) queda finalmente |αi =
∞ X
n=0
|αi = e−
9.3.1.
cn (α) |ϕn i =
|α|2 2
∞ ∞ X X |α|2 αn αn √ c0 (α) |ϕn i = √ e− 2 |ϕn i n! n! n=0 n=0
∞ X αn √ |ϕn i n! n=0
(9.29)
Valores permitidos de la energ´ıa para un estado coherente |αi
Los estados coherentes son autoestados de un operador que no es observable (el operador a no es herm´ıtico). Por tanto sus valores propios pueden ser complejos y no corresponden a observables f´ısicos. Sin embargo, estos estados son de cuadrado integrable y por tanto pertenecen al espacio de estados f´ısicos posibles. Asumamos entonces un oscilador en el estado |αi descrito por la Ec. (9.29). La probabilidad de obtener el valor Em = (m + 1/2) ~ω para el sistema en el estado |αi se puede calcular de (9.29) 2 ∞ |α|2 X αn − 2 √ hϕm |ϕn i Pm (α) = |hϕm |αi| = e n! n=0 2
Pm (α) = e−|α|
2
|α|2m m!
es f´ acil ver que la probabilidad anterior cumple con la condici´ on Pm (α) =
|α|2 m
Pm (α) =
|α|2 Pm−1 (α) m
−|α|2 |α|
e
2(m−1)
(m − 1)!
!
⇒
de modo que la distribuci´ on de la probabilidad es del tipo Poisson. Se puede verificar que el m´aximo de esta probabilidad se obtiene cuando m = la parte entera de |α|2 (9.30) calcularemos ahora el valor esperado de la energ´ıa el cual debe ser comparado con la energ´ıa cl´ asica. Para ello notemos primero que de la Ec. (9.22), se tiene que ka |αik2 = kα |αik2 ⇒ hα| a† a |αi = hα| α∗ α |αi ⇒
hα| a† a |αi = |α|2
(9.31)
con lo cual hHiα hHiα
1 = ~ω hα| a a + 2 1 = ~ω |α|2 + 2 †
|αi (9.32)
9.3. PROPIEDADES DE LOS ESTADOS |αi
299
teniendo en cuenta el resultado (9.30), vemos que si |α| ≫ 1 (como corresponde al l´ımite cl´ asico), la cantidad hHiα es muy similar en valor a la energ´ıa En que corresponde al m´ aximo de Pn (α). Con el fin de calcular
relativo el ancho ∆H calcularemos H 2 α
2 1 2 1 2 2 † 2 2 † † † |αi = ~ ω hα| a a a a + a a + H α = ~ ω hα| a a + |αi 2 4 1 1 2 2 2 2 2 † 2 2 2 2 = ~ ω hα| N N |αi + ~ ω hα| a a + |αi = ~ ω hN α |N αi + ~ ω |α| + 4 4
2 1 (9.33) H α = ~2 ω 2 k|N αik2 + ~2 ω 2 |α|2 + 4
donde hemos usado la Ec. (9.31) y el hecho de que N = a† a es herm´ıtico. Multiplicando (9.22) por a† se tiene que
2
a† a |αi = αa† |αi ⇒ N |αi = αa† |αi ⇒ kN |αik2 = |α|2 a† |αi ⇒ kN |αik2 = |α|2 hα| aa† |αi ⇒ kN |αik2 = |α|2 hα| a† a + 1 |αi kN |αik2 = |α|2 |α|2 + 1 (9.34) donde hemos usado nuevamente (9.31). Reemplazando (9.34) en (9.33) se obtiene
2 1 2 2 2 2 2 2 2 H α = ~ ω |α| |α| + 1 + ~ ω |α| + 4
2 1 H α = ~2 ω 2 |α|4 + 2 |α|2 + 4
(9.35)
y el ancho se obtiene usando (9.32) y (9.35)
1 1 2 4 2 2 = ~ ω |α| + 2 |α| + − ~ω |α| + (∆Hα ) = H α − 4 2 1 1 (∆Hα )2 = ~2 ω 2 |α|4 + 2 |α|2 + − |α|4 − |α|2 − = ~2 ω 2 |α|2 4 4 (∆Hα ) = ~ω |α| 2
2
hHi2α
2 2
(9.36)
en el l´ımite cuasi-cl´ asico el ancho relativo debe ser mucho menor que uno, con el fin de poder afirmar que la energ´ıa est´ a bien definida. El ancho relativo se puede calcular de (9.32) y (9.36) ∆Hα |α| = hHiα |α|2 + 12
(9.37)
para el l´ımite cuasi-cl´ asico |α| ≫ 1, se tiene que
∆Hα 1 |α| ≃ = ≪1 2 hHα i |α| |α|
(9.38)
de modo que se puede considerar que la energ´ıa est´ a bien definida en el l´ımite cuasi-cl´ asico. Es inmediato ver que hN iα = |α|2 ; ∆Nα = |α| lo cual nos dice que para obtener un estado cuasi-cl´ asico |α| ≫ 1, se debe suporponer un enorme n´ umero de estados |ϕn i ya que ∆Nα ≫ 1. Sin embargo, el valor relativo de la dispersi´ on sobre N tambi´en es muy peque˜ no ∆Nα 1 ≃ ≪1 hN iα |α|
´ ´ CAP´ITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO
300
9.3.2.
C´ alculo de los observables X, P en el estado |αi
Con el fin de realizar la comparaci´ on con los valores cl´ asicos, calcularemos hXi , hP i , ∆X, ∆P . Para ello se † usan las expresiones de X y P en t´erminos de a y a (ver Ecs. 8.9), junto con la Ec. (9.22) r r r h i r ~ ~ ~ 2~ hα| a† + a |αi = hα| a† |αi + hα| a |αi = (α∗ + α) = Re (α) hXiα = 2mω 2mω 2mω mω r r r m~ω m~ω ∗ m~ω (α − α∗ ) √ hP iα = i hα| a† − a |αi = i (α − α) = (−2i) i = 2m~ωIm (α) 2 2 2 2i 2 2 2
2 ~ ~ ~ hα| a† + a |αi = hα| a† + a2 + a† a + aa† |αi = hα| a† + a2 + 2N + 1 |αi X α = 2mω 2mω 2mω i i h h ~ ~ = α∗2 + α2 + 2 |α|2 + 1 = (α∗ + α)2 + 1 2mω 2mω 2 2 i
2 m~ω m~ω m~ω h ∗2 † † 2 P α = − + a − 2N − 1 |αi = hα| a − a |αi = − hα| a −α − α2 + 2 |α|2 + 1 2 2 2 h i m~ω = − (α − α∗ )2 + 1 2 i ~ h ∗ ~ ~ (α + α)2 + 1 − (α∗ + α)2 = 2mω 2mω 2mω "r #2 i
2 m~ω m~ω h 2 2 = P α − hP iα = − (α − α∗ ) + 1 − i (α∗ − α) 2 2 i m~ω m~ω h m~ω = − (α − α∗ )2 + 1 + (α∗ − α)2 = 2 2 2
(∆Xα )2 = (∆Pα )2
X2
− hXi2α = α
resumiendo los anteriores resultados tenemos que r √ 2~ hXiα = hα| X |αi = Re (α) ; hP iα = hα| P |αi = 2m~ωIm (α) mω i i
2
~ h m~ω h X α = (α + α∗ )2 + 1 ; P 2 α = 1 − (α − α∗ )2 2mω 2 r r ~ m~ω ∆Xα = ; ∆Pα = 2mω 2
(9.39) (9.40) (9.41)
se observa que los anchos ∆Xα y ∆Pα no dependen de α y el producto de los anchos toma su valor m´ınimo ∆Xα · ∆Pα =
~ 2
(9.42)
lo cual es muy deseable para un l´ımite cuasi-cl´ asico.
9.4.
Generador y funci´ on de onda de los estados coherentes
Teniendo en cuenta la Ec. (8.31) vemos que el estado coherente de la Ec. (9.29) se puede escribir en t´erminos del operador construcci´ on a partir del estado base del oscilador arm´ onico " n # ∞ ∞ ∞ † n |α|2 X αn |α|2 X αn |α|2 X αa a† − 2 − 2 − 2 √ |ϕn i = e √ √ |ϕ0 i = e |αi = e |ϕ0 i n! n! n! n! n=0 n=0 n=0 |α|2 † ¯ (α) |ϕ0 i |αi = e− 2 eαa |ϕ0 i ≡ D (9.43)
´ DE ONDA DE LOS ESTADOS COHERENTES 9.4. GENERADOR Y FUNCION
301
podemos generar a |αi a partir de |ϕ0 i con un operador m´ as sim´etrico, para ello tenemos en cuenta que el operador destrucci´ on a aniquila el estado base, con lo cual tenemos que α∗2 2 −α∗ a ∗ e |ϕ0 i = 1 − α a + a + . . . |ϕ0 i = |ϕ0 i (9.44) 2! de la Ec. (9.44) podemos reescribir la Ec. (9.43) en la forma |α|2 − 2 αa† −α∗ a |αi = e e e |ϕ0 i con lo cual se obtiene |αi = D (α) |ϕ0 i 2 − |α| 2
D (α) ≡ e teniendo en cuenta que
h
αa†
e
(9.45) −α∗ a
e
(9.46)
i h i αa† , −α∗ a = −αα∗ a† , a = |α|2 I
y usando la relaci´ on (1.149), las Ecs. (9.45, 9.46) quedan † −α∗ a
D (α) = eαa
; |αi = D (α) |ϕ0 i
(9.47)
este operador (conocido como operador de Weyl) es unitario ∗ a−αa†
D † (α) = eα
⇒ D (α) D † (α) = D † (α) D (α) = I
La Ec. (9.47) nos muestra que podemos ver al operador unitario D (α) como un operador “creaci´ on” del estado coherente |αi a partir del estado base del oscilador arm´ onico. La Ec. (9.47) nos permite encontrar la funci´ on de onda asociada a los estados coherentes ψα (x) = hx| αi = hx| D (α) |ϕ0 i
(9.48)
para calcular la funci´ on de onda, primero escribimos el operador αa† − α∗ a en t´erminos de X y P usando las Ecs. (8.7) r mω α − α∗ i α + α∗ † ∗ √ √ αa − α a = X−√ P ~ 2 2 m~ω teniendo en cuenta que r r mω α − α∗ i α + α∗ i mω √ √ X, − √ P = − √ (α − α∗ ) (α + α∗ ) [X, P ] ~ ~ 2 2 m~ω 2 m~ω 1 2 = α − α∗2 2 y usando de nuevo la relaci´ on (1.149), el operador D (α) queda r ∗2 mω α − α∗ i α + α∗ α − α2 αa† −α∗ a √ X exp − √ √ P exp D (α) = e = exp ~ 4 2 2 m~ω
sustituyendo este resultado en (9.48) se obtiene ∗2 r α − α2 mω α − α∗ i α + α∗ √ X exp − √ √ P |ϕ0 i ψα (x) = exp hx| exp 4 ~ 2 2 m~ω ( " # ) r ∗2 r 2 ∗ α −α mω α − α i ~ √ x hx| exp − ψα (x) = exp exp (α + α∗ ) P |ϕ0 i 4 ~ ~ 2mω 2
(9.49)
´ ´ CAP´ITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO
302
ahora bien, el operador e−iλP/~ es el operador traslaci´ on de λ a lo largo de x (siendo P la componente x del momento) ver secci´ on 1.44.2 Ec. (1.211), p´ ag 106, de modo que (
i hx| exp − ~ con lo cual la Ec. (9.49) queda
"r
# ) * r ~ ~ (α + α∗ ) P = x − (α + α∗ ) 2mω 2mω
r α∗2 − α2 mω α − α∗ √ x ϕ0 ψα (x) = exp exp 4 ~ 2
x−
r
~ (α + α∗ ) 2mω
!
(9.50)
si escribimos α y α∗ en t´erminos de hXiα y hP iα seg´ un las Ecs. (9.39), tenemos que ∗
α−α
α∗2 − α2
r hP iα mω ∗ = 2i Im(α) = 2i √ ; α + α = 2Re (α) = 2 hXiα 2~ 2m~ω hXiα hP iα = − (α − α∗ ) (α + α∗ ) = −2i ~
(9.51) (9.52)
reemplazando las Ecs. (9.51, 9.52) en la funci´ on de onda (9.50) tenemos que r hXiα hP iα mω 2i hP iα √ √ ψα (x) = exp −i exp x ϕ0 2~ ~ 2 2m~ω
ψα (x) = eiθα eihP iα x/~ ϕ0 (x − hXiα )
;
θα ≡ −
x−
r
~ 2mω
r ! mω 2 hXiα 2~
hXiα hP iα 2~
(9.53)
la ecuaci´ on (9.53) nos muestra que ψα (x) se puede obtener a partir de la funci´ on de onda ϕ0 (x) del estado base del oscilador arm´onico en la siguiente forma: Se traslada esta funci´ on a lo largo de x en una cantidad hXiα y se multiplica por la exponencial oscilante eihP iα x/~ . El factor eiθa es irrelevante y puede ser omitido, n´ otese sin ihP i x α embargo que el t´ermino e no es una fase global sino local ya que depende de x, y por tanto es relevante. Esta exponencial nos asegura que el valor promedio de P en el estado ψα (x) sea hP iα . Si reemplazamos la forma expl´ıcita de ϕ0 (x) (Ec. 8.48, P´ ag. 281), en la Ec. (9.53) obtenemos 1 mω 2 ψα (x) = e e exp − (x − hXiα ) π~ 2 ~ " r #2 mω 1 1 2mω 4 iθα ihP i x/~ ψα (x) = e e α exp − (x − hXiα ) π~ 2 ~ ( ) 1 x − hXiα 2 x iθα mω 4 ψα (x) = e exp − + i hP iα π~ 2∆Xα ~ mω 1 4
iθα ihP iα x/~
(9.54)
donde hemos usado tambi´en la Ec. (9.41). La forma del paquete de onda asociada con el estado |αi est´ a dada por 2
|ψα (x)| =
r
( ) mω 1 x − hXiα 2 exp − π~ 2 ∆Xα
(9.55)
con lo cual para cualquier estado coherente |αi obtenemos un paquete Gaussiano. Esto a su vez est´ a relacionado con la propiedad de m´ınima incertidumbre que obtuvimos en la Ec. (9.42).
9.5. LOS ESTADOS COHERENTES SON COMPLETOS PERO NO ORTOGONALES
9.5.
303
Los estados coherentes son completos pero no ortogonales
Los estados coherentes o cuasi-cl´ asicos |αi son autovectores del operador a, el cual no es herm´ıtico1 . Por tanto, no es claro si estos estados satisfacen relaciones de completez y ortogonalidad. Veremos que el conjunto de los estados coherentes {|αi} es completo pero no es ortogonal. Consideremos primero el producto interno de dos estados cuasi-cl´ asicos. Aplicando (9.29) tenemos " # " # ∞ ∞ ′ |α′ |2 X α′n |α|2 X α∗m − − √ hϕm | e 2 √ |ϕn i hα α = e 2 m! n! m=0 n=0 " ∞ ∞ # 2 X X α′n α∗m |α′ | |α|2 √ √ hϕm | ϕn i = e− 2 e− 2 n! m! m=0 n=0 "∞ # "∞ # |α′ |2 X α′n α∗n |α′ |2 X (α′ α∗ )n |α|2 |α|2 √ √ = e− 2 e− 2 = e− 2 e− 2 n! n! n! n=0 n=0 con lo cual resulta
2 ′ |α′ |2 ∗ ′ − |α| − 2 2 = e hα α e eα α
′ 2 2 hα α = e−|α−α′ |
de modo que este producto escalar nunca es cero. Los estados coherentes no son ortogonales. Veremos no obstante que los estados |αi poseen una relaci´ on de completez de la forma Z Z 1 I≡ |αi hα| d2 α = 1 π comenzaremos reemplazando |αi al lado izquierdo de (9.57) por su expresi´ on en (9.29) #" # Z Z Z Z " ∞ ∞ 2 X |α|2 X α∗m 1 1 αn 2 − |α| − √ |ϕn i e 2 √ hϕm | d2 α |αi hα| d α = e 2 I ≡ π π n! m! n=0 m=0 " # Z Z ∞ X ∞ X 1 αn α∗m −|α|2 √ √ |ϕn i hϕm | d2 α I = e π n! m! n=0 m=0
(9.56)
(9.57)
(9.58)
el complejo α lo podemos escribir como α = ρeiϕ = x + iy ; d2 α = ρ dρ dϕ = dx dy = d {Re (α)} d {Im (α)}
(9.59)
donde hemos tenido en cuenta la expresi´ on del diferencial de ´ area en coordenadas polares2 . Sustituyendo la parametrizaci´ on polar de la Ec. (9.59) en la integral (9.58), ´esta u ´ltima queda como " # Z Z ∞ X ∞ iϕ n ρe−iϕ m X 2 ρe iϕ 1 √ √ I = e−|ρe | |ϕn i hϕm | ρ dρ dϕ π n! m! n=0 m=0 "∞ ∞ # Z Z X X ρn+m ei(n−m)ϕ 2 1 √ I = e−|ρ| |ϕn i hϕm | ρ dρ dϕ π n!m! n=0 m=0 Z 2π ∞ ∞ Z 1 X X ∞ −ρ2 n+m 1 I = e ρ ρ dρ √ |ϕn i hϕm | dϕ ei(n−m)ϕ (9.60) π n!m! 0 n=0 m=0 0 1
De hecho el operador destrucci´ on “a” no es ni siquiera normal, de modo que no es v´ alido en general el teorema espectral para este operador. 2 1 Combinando las Ecs. (9.39, 9.59), podemos ver que d2 α = d {Re (α)} d {Im (α)} = 2~ d hXiα d hP iα , con lo cual la Ec. (9.57) que expresa la completez de los estados coherentes, se puede interpretar como una integral sobre el espacio de fase cl´ asico.
´ ´ CAP´ITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO
304
la integral sobre ϕ es inmediata
Z
2π
ei(n−m)ϕ dϕ = 2πδnm
0
de modo que la Ec. (9.60) queda en la forma ∞ X ∞ Z ∞ ∞ Z ∞ X X 1 1 2 −ρ2 n+m I = 2 e ρ ρ dρ √ |ϕn i hϕm | δmn = 2 e−ρ ρn+n ρ dρ √ |ϕn i hϕn | n!m! n!n! n=0 m=0 0 n=0 0 Z ∞ ∞ X 1 −ρ2 2n 2 e ρ ρ dρ I = |ϕn i hϕn | n! 0 n=0 haciendo el cambio de variable u = ρ2 , du = 2ρ dρ tenemos Z ∞ Z ∞ X 1 −ρ2 2n In |ϕn i hϕn | ; In = 2 ρ dρ e ρ = du e−u un n! 0 0 n
(9.61)
haciendo dV = du e−u y U = un integramos In por partes Z ∞ Z n −u ∞ −u n−1 In = −u e 0 − −e nu du = n du e−u un−1 0
con lo cual encontramos una relaci´ on de recurrencia para In
In = nIn−1 cuya soluci´ on es In = nIn−1 = n (n − 1) In−2 = n (n − 1) (n − 2) In−3 = . . . = [n × (n − 1) × (n − 2) × · · · × 2 × 1] In−n In = n!I0
de la Ec. (9.61) tenemos que I0 =
Z
∞
0
∞ du e−u = −e−u 0 = 1 ⇒
In = n!I0 = n! que al sustitu´ırlo en (9.61) nos da I=
X n
|ϕn i hϕn | = 1
donde hemos usado la completez de las autofunciones del oscilador arm´ onico. Con esto se demuestra la Ec. (9.57), que nos expresa la completez de los estados coherentes |αi.
9.6.
Evoluci´ on temporal de los estados coherentes
Consideremos un oscilador arm´ onico que en t = 0 est´ a en un estado coherente dado |ψ (0)i = |α0 i. Veremos la evoluci´ on temporal de este estado y de los observables m´ as importantes. Ya hemos visto que hXi (t) y hP i (t) permanecen iguales a sus valores cl´ asicos para todo tiempo. De hecho, esta caracter´ıstica fu´e la motivaci´ on para la construcci´ on de estos estados. Para calcular la evoluci´ on temporal del estado del sistema, expandimos el estado inicial en autoestados del Hamiltoniano del oscilador arm´ onico usando (9.29) |ψ (0)i = |α0 i =
X n
cn (0) |ϕn i ; cn (0) ≡ e−
|α0 |2 2
αn √0 n!
(9.62)
´ TEMPORAL DE LOS ESTADOS COHERENTES 9.6. EVOLUCION
305
Como el Hamiltoniano del oscilador arm´ onico es independiente del tiempo, la evoluci´ on temporal del estado se puede calcular con la Ec. (5.67) |ψ (t)i =
X n
cn (0) e−iEn t/~ |ϕn i = e−
−i ωt − 2
|ψ (t)i = e
e
|α0 |2 2
|α0 |2 2
X αn 1 √ 0 e−i(n+ 2 )ωt |ϕn i n! n
2 X αn |α0 e−iωt | X α0 e−iωt ωt 2 √ 0 e−inωt |ϕn i = e−i 2 e− √ n! n! n n
n
|ϕn i
(9.63)
comparando (9.63) con (9.62), vemos que el ket |ψ (t)i se obtiene del ket inicial |ψ (0)i = |α0 i cambiando α0 por ωt α0 e−iωt y multiplicando el ket resultante por la fase global (irrelevante) e−i 2 , con lo cual |ψ (t)i se puede reescribir como ; |ψ (0)i = |α0 i |ψ (t)i = e−iωt/2 α = α0 e−iωt (9.64) por tanto el estado cuasi-cl´ asico contin´ ua siendo autovector del operador a, para todo tiempo t. Su autovalor es −iωt α0 e que es el par´ ametro α (t) descrito por las ecuaciones (9.4, 9.6) y que geom´etricamente es un fasor que rota en el plano complejo con velocidad angular −ω. Recordemos que este fasor caracteriza en todo tiempo al oscilador arm´onico cl´ asico cuya evoluci´ on pretendemos reproducir a trav´es del estado |ψ (t)i. Los valores esperados de hXi y hP i para todo tiempo se obtienen a partir de (9.64) y (9.39) r √ 2~ Re α0 e−iωt ; hP iα(t) (t) = 2m~ωIm α0 e−iωt (9.65) hXiα(t) (t) = mω y tal como se predijo, estas ecuaciones son similares a la evoluci´ on cl´ asica Ecs. Por otro lado, la energ´ıa promedio es independiente del tiempo 2 1 hHiα(t) (t) = ~ω α0 e−iωt + = ~ω |α0 |2 + 2
(9.7).
1 2
(9.66)
finalmente, las ra´ıces de las desviaciones medias cuadr´ aticas ∆Hα(t) , ∆Xα(t) y ∆Pα(t) calculadas con las Ecs. (9.36, 9.41) nos dan r r ~ m~ω ∆H = ~ω |α0 | ; ∆X = ; ∆P = (9.67) 2mω 2 vemos que los anchos no dependen del tiempo. En particular ∆X y ∆P permanecen siendo paquetes de m´ınima incertidumbre para todo tiempo. No hay dispersi´ on de los paquetes de onda. Veamos un poco m´ as en detalle la evoluci´ on del paquete de onda, la funci´ on de onda ψ (x, t) para todo tiempo se puede calcular con las Ecs. (9.54, 9.64) h i2 mω 1/4 xhP i(t) − x−hXi(t) 2∆X ψ (x, t) = eiθα e−iωt/2 ei ~ e π~ vemos que la forma del paquete es Gaussiana para todo tiempo t. Su forma no var´ıa en el tiempo puesto que |ψ (t)|2 = |ϕ0 (x − hXi (t))|2 vemos que los estados cuasi-cl´ asicos son tales que los anchos ∆X y ∆P permanecen como paquetes de m´ınima incertidumbre y la forma del paquete permanece intacta cuando ´este se propaga. Esta ausencia de dispersi´ on y de cambio del perfil del paquete es la que le da el nombre de “estados coherentes” a los estados cuasi-cl´ asicos del oscilador arm´ onico. La Fig. 9.1 muestra el movimiento de un paquete de onda de un estado coherente. De acuerdo con la Ec. (9.65), el valor esperado de X oscila alrededor de x = 0 con periodo T = 2π/ω, y dado que el paquete de onda no se distorsiona, este ser´ a tambi´en el movimiento del paquete como un todo. En contraste, vimos en la secci´ on 2.15.1 que un paquete Gaussiano libre se distorsiona cuando se propaga, ya que su ancho aumenta a medida que se
306
´ ´ CAP´ITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO
Figura 9.1: Propagaci´ on de un paquete de onda Gaussiano sometido a un potencial parab´ olico y asociado a un estado cuasi-cl´ asico. El paquete oscila alrededor del punto de equilibrio. La forma y el ancho del paquete Permanecen intactos en el tiempo.
propaga (dispersi´ on del paquete de onda). Vemos en contraste que un paquete Gaussiano sometido a un potencial parab´ olico (oscilador arm´ onico) no posee dispersi´ on. Esto se debe a que la tendencia del paquete a dispersarse es compensada por el potencial, cuyo efecto es empujar al paquete hacia el origen desde regiones donde x (y por tanto V (x)) es grande. Adicionalmente, ya hemos visto en las secciones (9.3.1, 9.3.2) que cuando |α| ≫ 1, las ra´ıces de las desviaciones medias cuadr´ aticas de X, P y H son mucho menores que sus valores esperados asociados, y adem´ as dichos valores esperados emulan en todo tiempo la evoluci´ on cl´ asica. De modo que escogiendo un valor de |α| lo suficientemente alto, obtenemos una evoluci´ on temporal cu´ antica para la cual la posici´ on y momento de los osciladores son en valor relativo, tan definidos como es posible, ya que los paquetes son de m´ınima incertidumbre, y su valor caracter´ıstico tiene un comportamiento similar al cl´ asico. Por tanto, en este l´ımite el estado |αi emula muy bien las propiedades de un oscilador macrosc´ opico (cl´ asico) para el cual la posici´ on, momento y energ´ıa est´ an bien definidos.
´ ´ ´ 9.7. TRATAMIENTO MECANO-CUANTICO DE UN OSCILADOR ARMONICO MACROSCOPICO
9.7.
307
Tratamiento mecano-cu´ antico de un oscilador arm´ onico macrosc´ opico
Consideraremos un ejemplo macrosc´ opico que nos permita una apreciaci´ on num´erica de la discusi´ on anterior. Sea un cuerpo de masa m = 1kg, suspendido de una cuerda de longitud l = 0,1m colocado en un campo gravitacional g ≃ 10m/seg2 . Sabemos que para peque˜ nas oscilaciones el periodo de movimiento es s l T = 2π ≃ 0,63seg ; ω = 10Rad/seg g asumamos que este oscilador realiza movimiento peri´ odico de amplitud xM = 1cm. Nos preguntamos ahora por el estado mecano-cu´ antico que mejor representa esta oscilaci´ on. De acuerdo con la discusi´ on anterior, dicho estado es del tipo |αi. Combinando la relaci´ on cl´ asica entre energ´ıa y amplitud con la Ec. (9.32) (despreciando el factor 1/2 en esta u ´ltima) se obtiene 1 mω 2 x2M = ~ω |α|2 ⇒ 2 r mω xM |α| = 2~ E =
en donde el argumento de α depende de la fase inicial de movimiento. Para nuestro caso tenemos las siguientes estimaciones num´ericas √ |α| ≃ 5 × 1015 ≫ 1 r ~ ∆X = ≃ 2,2 × 10−18 m ≪ xM 2mω r m~ω ∆P = ≃ 2,2 × 10−17 kg m/s 2 la ra´ız de la desviaci´ on media cuadr´ atica para la velocidad est´ a dada por ∆V ≃ 2,2 × 10−17 m/s el valor m´ aximo de la velocidad del oscilador es 0,1m/s y la ra´ız del valor medio cuadr´ atico es de este mismo orden de magnitud. Por tanto, las incertidumbres en la posici´ on y velocidad son completamente despreciables con respecto a las cantidades involucradas en el problema. Por ejemplo ∆X es menor que un fermi (10−15 m) que es el tama˜ no aproximado de un n´ ucleo at´ omico. Es claro que esta cantidad es despreciable para una longitud macrosc´ opica. Finalmente, la energ´ıa del oscilador se conoce con una excelente precisi´ on relativa, usando la Ec. (9.38) resulta ∆H 1 ≃ ≃ 0,4 × 10−15 ≪ 1 hHi |α| todo esto nos muestra porqu´e la mec´ anica cl´ asica provee una adecuada descripci´ on del oscilador arm´ onico macrosc´ opico.
Cap´ıtulo 10
Teor´ıa general del momento angular en mec´ anica cu´ antica Es bien conocida la gran importancia que tiene el momento angular en mec´ anica cl´ asica. En primer lugar es una constante de movimiento cuando el sistema es aislado constituyendo uno de los principios de conservaci´ on m´ as fundamentales en la teor´ıa cl´ asica. Adem´ as, tambi´en es una cantidad conservada para una part´ıcula sometida a una fuerza central, y trae como consecuencia el hecho de que el movimiento sea en un plano y que se conserve la velocidad aerolar (segunda ley de Kepler). Veremos que estas propiedades tienen su contrapartida cu´ antica. Por ejemplo, veremos m´ as adelante que para una part´ıcula sometida a una interacci´ on central, los operadores L1 , L2 , L3 que surgen de cuantizar las cantidades cl´ asicas, son constantes de movimiento en el sentido cu´ antico, es decir no dependen expl´ıcitamente del tiempo y conmutan con el Hamiltoniano. Veremos adem´ as que existe otro tipo de momento angular que no depende de R ni P ni de ninguna otra variable geom´etrica cl´ asica. Estos momentos angulares que surgen directamente como observables cu´ anticos y no como la cuantizaci´ on de observables cl´ asicos se denominan momentos angulares intr´ınsecos. Este momento angular intr´ınseco (tambi´en conocido como esp´ın), est´ a cuantizado desde el principio y es esencial para entender el mundo microsc´ opico como veremos m´ as adelante. De aqu´ı en adelante denotaremos como momento angular orbital L a cualquier momento angular que provenga de la cuantizaci´ on de un momento angular cl´ asico. Llamaremos momento angular de esp´ın S o simplemente esp´ın, a cualquier momento angular intr´ınseco de una part´ıcula. Finalmente, en sistemas complejos como n´ ucleos, ´ atomos, mol´eculas, etc. los momentos angulares orbitales de sus constituyentes se combinan y tambi´en se combinan con los espines de sus constituyentes para formar el momento angular total J. La notaci´ on J representar´ a entonces la resultante entre la suma de momentos orbitales e intr´ınsecos, pero tambi´en se usar´ a para denotar un momento angular gen´erico cuando no hagamos distinci´ on entre el momento angular intr´ınseco y orbital. Las reglas de adici´ on de los momentos angulares se estudiar´ an en cap´ıtulos subsecuentes. Existen una serie de propiedades de los momentos angulares que solo dependen de sus relaciones de conmutaci´ on y que ser´ an v´ alidas para cualquier momento angular sin importar su naturaleza. Veremos en particular, que toda componente de un momento angular posee un espectro discreto, propiedad denominada “cuantizaci´ on espacial”. Desarrollaremos en cap´ıtulos posteriores, las aplicaciones concernientes tanto al momento angular orbital como al intr´ınseco. 308
´ DE MOMENTO ANGULAR POR SUS PROPIEDADES DE CONMUTACION ´ 10.1. DEFINICION
309
10.1.
Definici´ on de momento angular por sus propiedades de conmutaci´ on
10.1.1.
Cuantizaci´ on del momento angular orbital
Para obtener los tres observables L1 , L2 , L3 asociados a un momento angular orbital cl´ asico de componentes L1 , L2 , L3 , donde → − L = r×p (10.1) Li = εijk xj pk ; i, j, k = 1, 2, 3
(10.2)
simplemente reemplazamos cada componente xj , pk por los correspondientes operadores Xj , Pk . La cantidad εijk es el tensor de Levi Civita. N´ otese que aunque aparece un producto de estos operadores, no es necesaria una simetrizaci´ on puesto que en (10.2) solo sobreviven los t´erminos con j 6= k de modo que los operadores en el producto conmutan seg´ un las reglas can´ onicas de conmutaci´ on (4.11). Por esta raz´ on, no hay ambig¨ uedad en el orden y el operador que se obtiene es autom´ aticamente herm´ıtico. Visto de otra manera, la simetrizaci´ on del producto coincide con el producto original cuando los operadores conmutan. Los observables cu´ anticos son entonces Li = εijk Xj Pk ; i, j, k = 1, 2, 3
(10.3)
L = R×P
(10.4)
onicas de conmutaci´ on (4.11) calculemos entonces los conmutadores entre los Li con base en las relaciones can´ [L1 , L2 ] = [X2 P3 − X3 P2 , X3 P1 − X1 P3 ] = [X2 P3 , X3 P1 − X1 P3 ] − [X3 P2 , X3 P1 − X1 P3 ] = [X2 P3 , X3 P1 ] − [X2 P3 , X1 P3 ] − [X3 P2 , X3 P1 ] + [X3 P2 , X1 P3 ]
= X2 [P3 , X3 P1 ] + [X2 , X3 P1 ] P3 − X2 [P3 , X1 P3 ] − [X2 , X1 P3 ] P3
−X3 [P2 , X3 P1 ] − [X3 , X3 P1 ] P2 + X3 [P2 , X1 P3 ] + [X3 , X1 P3 ] P2
[L1 , L2 ] = X2 [P3 , X3 ] P1 + X3 [X2 , P1 ] P3 − X2 [P3 , X1 ] P3 − X1 [X2 , P3 ] P3
−X3 [P2 , X3 ] P1 − X3 [X3 , P1 ] P2 + X3 [P2 , X1 ] P3 + X1 [X3 , P3 ] P2 [L1 , L2 ] = −i~X2 P1 + i~X1 P2 = i~ (R × P)3 [L1 , L2 ] = i~L3
procediendo de forma similar con los dem´ as conmutadores se obtiene [L1 , L2 ] = i~L3 ; [L1 , L3 ] = −i~L2 ; [L2 , L3 ] = i~L1 o m´as sint´eticamente [Li , Lj ] = i~εijk Lk
(10.5)
este resultado se puede generalizar cuando tenemos N part´ıculas sin esp´ın. El momento angular total del sistema en mec´ anica cu´ antica es N X L= L(i) ; L(i) ≡ R(i) × P(i) i=1
L(i)
y cada momento angular individual satisface relaciones de conmutaci´ on del tipo (10.5) y conmuta con L(j) para i 6= j, ya que son operadores actuando en el espacio de estados de part´ıculas diferentes. Por tanto para N part´ıculas tendr´ıamos h i (m) (n) (m) Li , Lj = i~εijk δmn Lk
Se puede demostrar adicionalmente que el origen de las reglas de conmutaci´ on (10.5) yace en las propiedades geom´etricas de las rotaciones en tres dimensiones. Esto est´ a relacionado con el hecho de que en mec´ anica cl´ asica, el momento angular junto con el torque forman las variables fundamentales de la din´ amica rotacional.
310
´ ´ CAP´ITULO 10. TEOR´IA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA
10.1.2.
Definici´ on de momento angular
De nuestro trabajo con el oscilador arm´ onico hemos aprendido que muchas propiedades se pueden extraer de las reglas de conmutaci´ on entre los operadores sin utilizar una representaci´ on espec´ıfica. Esto nos induce a generalizar los resultados anteriores para definir un operador momento angular como cualquier tripla de observables J = (J1 , J2 , J3 ), que satisface las relaciones [Ji , Jj ] = i~εijk Jk (10.6) ser´ a de gran utilidad el operador J2 = J12 + J22 + J32 este operador es Herm´ıtico ya que cada componente es herm´ıtica. Vale la pena enfatizar que el car´ acter de observable de los Ji forma parte esencial de la definici´ on de momento angular1 . Calculemos primero el conmutador de J2 con J, para lo cual calculamos para cada componente
J2 , J1
2
J , J1
=
2 J1 + J22 + J32 , J1 = J22 , J1 + J32 , J1
= J2 [J2 , J1 ] + [J2 , J1 ] J2 + J3 [J3 , J1 ] + [J3 , J1 ] J3 = −i~J2 J3 − i~J3 J2 + i~J3 J2 + i~J2 J3 = 0
y similarmente con las otras componentes de modo que
J2 , J = 0
(10.7)
toda la teor´ıa del momento angular en cu´ antica se basar´ a completamente en las reglas de conmutaci´ on (10.6, 10.7). En particular, estas relaciones muestran que no es posible medir simult´ aneamente las tres componentes del momento angular, pero s´ı es posible medir simult´ aneamente una sola componente y la cantidad J2 . Es decir cualquier componente de J es una variable compatible con J2 . Esto implicar´ a que si asumimos que J2 y Ji son observables, podemos encontrar una base com´ un de vectores propios para J2 y uno de los Ji . Es usual elegir la componente de J3 , y decimos que tomamos a X3 como “eje de cuantizaci´ on” de modo que constru´ımos una base que diagonalice simult´ aneamente a J2 y a J3 .
10.2.
Propiedades algebr´ aicas del momento angular
Estudiaremos la estructura del espectro de J2 y J3 as´ı como la estructura de sus vectores propios comunes. Veremos que muchos de los argumentos se asemejan a los que se utilizaron para el oscilador arm´ onico. † En primer lugar, inspirados por la definici´ on de los operadores a y a en las Ecs. (8.6) introduciremos los siguientes operadores J+ ≡ J1 + iJ2 ; J− ≡ J1 − iJ2 1 1 J1 = (J+ + J− ) ; J2 = (J+ − J− ) 2 2i
(10.8) (10.9)
y al igual que los operadores a y a† , los operadores J± no son herm´ıticos y son conjugados el uno del otro. En todo el estudio del momento angular trabajaremos con los operadores J2 , J3 , J+ , J− por lo cual ser´ a necesario encontrar todas las relaciones de conmutaci´ on entre ellos 1
Para un conjunto concreto de tres operadores, el car´ acter de observable solo podr´ a verificarse cuando se sepa sobre que espacio act´ uan los operadores momento angular. Las reglas de conmutaci´ on no especifican sobre qu´e espacio act´ uan los momentos angulares.
10.3. ESTRUCTURA DE VALORES Y VECTORES PROPIOS
10.2.1.
311
´ Algebra de los operadores J2 , J3 , J+ , J−
Usando las Ecs. (10.6, 10.7, 10.8) podemos encontrar las relaciones de conmutaci´ on requeridas [J3 , J± ] = [J3 , J1 ± iJ2 ] = [J3 , J1 ] ± i [J3 , J2 ] = i~J2 ± i (−i~J1 ) = ~ {iJ2 ± J1 }
[J3 , J+ ] = ~J+
[J3 , J− ] = −~J−
;
[J+ , J− ] = [J1 + iJ2 , J1 − iJ2 ] = [J1 , J1 − iJ2 ] + i [J2 , J1 − iJ2 ]
= [J1 , J1 ] − i [J1 , J2 ] + i [J2 , J1 ] + [J2 , J2 ] = 2i [J2 , J1 ] = 2i (−i~J3 )
[J+ , J− ] = 2~J3
J2 , J± J2 , J±
=
(10.10)
J2 , J1 ± iJ2 = J2 , J1 ± i J2 , J2
= 0
tambi´en ser´ an u ´tiles los siguientes productos J+ J− = (J1 + iJ2 ) (J1 − iJ2 ) = J12 + J22 + iJ2 J1 − iJ1 J2
= J12 + J22 + J32 − J32 + i [J2 , J1 ] = J2 − J32 + i (−i~J3 )
J+ J− = J2 − J32 + ~J3
(10.11)
el producto J− J+ se puede obtener expl´ıcitamente o usando las Ecs. (10.10, 10.11) J− J+ = J+ J− − [J+ , J− ] = J2 − J32 + ~J3 − 2~J3 J− J+ = J2 − J32 − ~J3
resumiremos el ´ algebra encontrada hasta ahora. Tenemos las definiciones J ≡ (J1 , J2 , J3 ) ; J2 ≡ J12 + J22 + J32
(10.12)
J+ ≡ (J1 + iJ2 ) ; J− ≡ (J1 − iJ2 )
(10.13)
donde los Ji son observables con las siguientes propiedades algebr´ aicas 2 [Ji , Jj ] = i~εijk Jk ; J ,J = 0 [J3 , J+ ] = ~J+
[J+ , J− ] = 2~J3 2
J+ J− = J −
;
; J32
[J3 , J− ] = −~J− 2 J , J± = 0
(10.14) (10.15) (10.16) 2
+ ~J3 ; J− J+ = J −
10.3.
Estructura de valores y vectores propios
10.3.1.
Notaci´ on
J32
− ~J3
(10.17)
Dado que J2 es la suma de cuadrados de tres operadores herm´ıticos, tal operador es positivo hψ| J2 |ψi = hψ| J12 |ψi + hψ| J22 |ψi + hψ| J32 |ψi = hψ| J1† J1 |ψi + hψ| J2† J2 |ψi + hψ| J3† J3 |ψi = kJ1 |ψik2 + kJ2 |ψik2 + kJ3 |ψik2 ≥ 0
este resultado era de esperarse ya que la variable cl´ asica es el m´ odulo al cuadrado de un vector el cual es no negativo. En particular eligiendo a |ψi como un autovector de J2 vemos que hψ| J2 |ψi = hψ| a |ψi = a hψ| ψi = a k|ψik2 ≥ 0 ⇒ a ≥ 0
´ ´ CAP´ITULO 10. TEOR´IA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA
312
los autovalores deben ser no negativos (en analog´ıa con los autovectores de N en el oscilador arm´ onico). Dado 2 que J tiene dimensiones de momento angular, el valor propio de J se puede parametrizar como a = µ~2 siendo µ una cantidad adimensional no negativa. Adicionalmente, se puede demostrar que para todo µ ≥ 0 la ecuaci´ on j (j + 1) = µ
(10.18)
on de µ determina completamente a j y viceversa. tiene una y solo una ra´ız no negativa2 . Por tanto la especificaci´ Por tanto, sin p´erdida de generalidad podemos denotar a los valores propios de J2 en la forma J2 |ψi = j (j + 1) ~2 |ψi ; j ≥ 0 si consideramos que {|ψi} es la base de vectores propios comunes a J2 y J3 denotaremos a los valores propios de J3 en la forma J3 |ψi = m~ |ψi siendo m una cantidad adimensional. Puesto que J2 y J3 son observables conmutantes, ellos hacen parte de un C.S.C.O pero no necesariamente lo constituyen por s´ı solos. Por esa raz´ on denotaremos a los kets propios comunes a los dos con tres n´ umeros cu´ anticos: j para rotular los valores propios de J2 , m para rotular los valores propios de J3 y k asociado a la degeneraci´ on. Naturalmente, estos ´ındices pueden ser de momento cont´ınuos o discretos y k podr´ıa simbolizar varios ´ındices (los necesarios para completar un C.S.C.O.). En s´ıntesis escribiremos la ecuaci´ on de valores propios en la forma J2 |j, m, ki = j (j + 1) ~2 |j, m, ki
10.3.2.
;
J3 |j, m, ki = m~ |j, m, ki
(10.19)
Caracter´ısticas generales de los valores propios de J2 y J3
Asumiremos que los estados propios est´ an normalizados y que J2 y J3 son observables. En analog´ıa con el oscilador arm´ onico, vamos a caracterizar primero a los vectores J+ |j, m, ki y J− |j, m, ki, por medio de sus normas al cuadrado kJ+ |j, m, kik2 = hj, m, k| J− J+ |j, m, ki ≥ 0 kJ− |j, m, kik
2
= hj, m, k| J+ J− |j, m, ki ≥ 0
(10.20) (10.21)
y usando las Ecs. (10.17, 10.19) resulta kJ± |j, m, kik2 = hj, m, k| J2 − J32 ∓ ~J3 |j, m, ki = hj, m, k| j (j + 1) ~2 − m2 ~2 ∓ m~2 |j, m, ki = j (j + 1) ~2 − m2 ~2 ∓ m~2
kJ± |j, m, kik2 = ~2 {j (j + 1) − m (m ± 1)}
(10.22)
reemplazando (10.22) en (10.20, 10.21) se tiene que j (j + 1) − m (m + 1) = (j − m) (j + m + 1) ≥ 0 j (j + 1) − m (m − 1) = (j − m + 1) (j + m) ≥ 0
(10.23) (10.24)
asumamos que j − m < 0, dado que j ≥ 0 entonces m > 0 y j + m + 1 > 0. Por tanto, (j − m) (j + m + 1) < 0, contradiciendo la Ec. (10.23). Debemos rechazar la hip´ otesis de que j − m < 0. Es necesario entonces que j − m ≥ 0, de esta hip´ otesis se obtiene que j − m + 1 > 0, y para satisfacer la Ec. (10.24) se requiere que (j + m) ≥ 0, tenemos entonces que las condiciones j−m≥0 2
La Ec. (10.18) tiene como soluci´ on j± = −1 ±
√
y
j+m≥0
1 + 4µ /2. Si µ ≥ 0, la u ´nica soluci´ on no negativa para j es j+ .
(10.25)
10.3. ESTRUCTURA DE VALORES Y VECTORES PROPIOS
313
por construcci´ on satisfacen (10.24). Solo falta ver que estas condiciones tambi´en cumplen con la desigualdad (10.23). Usando la segunda condici´ on j + m ≥ 0 vemos que implica j + m + 1 > 0, y esto junto con la primera condici´ on en (10.25) nos satisface la Ec. (10.23). Vemos entonces que las condiciones (10.25) son necesarias y suficientes para que se cumplan las desigualdades (10.23) y (10.24). Finalmente, y teniendo en cuenta que j es no negativo, estas condiciones se pueden reescribir como j−m
≥
0 y j+m≥0 ⇔ j ≥m
⇔ j ≥ |m| ⇔ −j ≤ m ≤ j
y
j ≥ −m
con lo cual obtenemos el siguiente lema Lemma 4 Si j (j + 1) ~2 y m~ son valores propios de J2 y J3 asociados al ket propio com´ un |j, m, ki entonces j y m satisfacen la desigualdad −j ≤ m ≤ j (10.26) Ahora veremos con base en la Ec. (10.26), las caracter´ısticas de los kets J− |j, m, ki y J+ |j, m, ki, siendo |j, m, ki autovector com´ un de J2 y J3 . En primer lugar, veremos las condiciones necesarias y suficientes para la nulidad del vector J− |j, m, ki. Esto se puede hacer con base en la Ec. (10.22) J− |j, m, ki
= ⇔
0 ⇔ kJ− |j, m, kik2 = 0 ⇔ ~2 {j (j + 1) − m (m − 1)} = 0 (j − m + 1) (j + m) = 0
cuyas soluciones son m = −j (su m´ınimo valor posible) y m = j + 1. Pero la segunda soluci´ on contradice al lema 4 Ec. (10.26). Por tanto (10.27) m = −j ⇔ J− |j, m, ki = 0 por tanto si m > −j el vector J− |j, m, ki ser´ a no nulo siempre que se cumpla la Ec. (10.26). Esto se puede corroborar reemplazando m > −j en la Ec. (10.22) verificando que la norma de J− |j, m, ki no es nula. Ahora demostraremos que J− |j, m, ki es un ket propio de J2 y J3 . Puesto que J2 y J− conmutan seg´ un la Ec. (10.16), podemos escribir
J2 , J− |j, m, ki
=
0 ⇒ J2 J− |j, m, ki = J− J2 |j, m, ki ⇒ J2 J− |j, m, ki = J− j (j + 1) ~2 |j, m, ki
⇒ J2 [J− |j, m, ki] = j (j + 1) ~2 [J− |j, m, ki]
por tanto J− |j, m, ki es ket propio de J2 con valor propio j (j + 1) ~2 . Este resultado est´ a relacionado con el hecho de que J2 y J− conmutan, como se aprecia en el teorema 1.66, p´ ag. 57. Ahora veremos que J− |j, m, ki es tambi´en ket propio de J3 , para lo cual empleamos la Ec. (10.15) [J3 , J− ] |j, m, ki J3 J− |j, m, ki
= = ⇒
−~J− |j, m, ki ⇒ J3 J− |j, m, ki = (J− J3 − ~J− ) |j, m, ki ⇒ (J− m − J− ) ~ |j, m, ki
J3 [J− |j, m, ki] = (m − 1) ~ [J− |j, m, ki]
de modo que J− |j, m, ki es autovector de J3 con autovalor (m − 1) ~. Los anteriores resultados se pueden resumir en el siguiente lema Lemma 5 Sea |j, m, ki un vector propio com´ un a J2 y J3 con valores propios j (j + 1) ~2 y m~. Se tiene que (a) m = −j si y solo si J− |j, m, ki = 0. (b) Si m > −j entonces J− |j, m, ki = 6 0 y es autovector de J2 y J3 con 2 valores propios j (j + 1) ~ y (m − 1) ~.
´ ´ CAP´ITULO 10. TEOR´IA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA
314
El siguiente paso natural es estudiar al vector J+ |j, m, ki. De la Ec. (10.22) podemos ver las condiciones necesarias y suficientes para que J+ |j, m, ki sea nulo. J+ |j, m, ki
= ⇔
0 ⇔ kJ+ |j, m, kik2 = 0 ⇔ ~2 {j (j + 1) − m (m + 1)} = 0 (j + m + 1) (j − m) = 0
las soluciones son m = j y m = − (j + 1) pero la segunda soluci´ on es incompatible con el lema 4 Ec. (10.26). Por tanto m = j ⇔ J+ |j, m, ki = 0 (10.28) si m < j, y usando (10.16, 10.15) obtenemos 2 J , J+ |j, m, ki = 0 ⇒ J2 J+ |j, m, ki = J+ J2 |j, m, ki ⇒ J2 [J+ |j, m, ki] = j (j + 1) ~2 [J+ |j, m, ki]
[J3 , J+ ] |j, m, ki = ~J+ |j, m, ki ⇒ J3 J+ |j, m, ki = J+ J3 |j, m, ki + ~J+ |j, m, ki J3 J+ |j, m, ki = m~J+ |j, m, ki + ~J+ |j, m, ki
J3 [J+ |j, m, ki] = (m + 1) ~ [J+ |j, m, ki]
por tanto J+ |j, m, ki es vector propio de J2 y de J3 con valores propios j (j + 1) ~2 y (m + 1) ~. Tenemos entonces el siguiente lema Lemma 6 Sea |j, m, ki un vector propio com´ un a J2 y J3 con valores propios j (j + 1) ~2 y m~. Se tiene que (a) m = j si y solo si J+ |j, m, ki = 0. (b) Si m < j entonces J+ |j, m, ki = 6 0 y es autovector de J2 y J3 con valores 2 propios j (j + 1) ~ y (m + 1) ~. Veremos que estos lemas permiten encontrar el espectro de J2 y J3 .
10.3.3. que
Determinaci´ on de los valores propios de J2 y J3
Asumamos que |j, m, ki es un autovector de J2 y J3 con valores propios j (j + 1) ~2 y m~. El lema 4 nos dice −j ≤ m ≤ j
como el ket es fijo los valores de j y m son fijos. Es claro que existe un n´ umero entero no negativo p, tal que −j ≤ m − p < −j + 1 formamos ahora una sucesi´ on de vectores n o |j, m, ki , J− |j, m, ki , (J− )2 |j, m, ki , . . . , (J− )p |j, m, ki
(10.29)
(10.30)
demostraremos que estos son vectores propios no nulos de J2 y J3 y que para potencias m´ as altas de J− , se obtienen vectores nulos. Esto se realiza aplicando iterativamente el lema 5 Comenzamos aplicando el lema 5 a |j, m, ki. Por hip´ otesis |j, m, ki es vector propio no nulo de J2 y J3 con valores 2 propios j (j + 1) ~ y m~. Si m > −j podemos aplicar el lema 5 con lo cual J− |j, m, ki ≡ |j, m − 1, ki es vector propio no nulo de J2 y J3 con valores propios j (j + 1) ~2 y (m − 1) ~. Si m − 1 > −j podemos aplicar de nuevo el lema y J− |j, m − 1, ki = (J− )2 |j, m, ki ≡ |j, m − 2, ki es vector propio no nulo de iJ2 y J3 con valores propios h n−1 j (j + 1) ~2 y (m − 2) ~. En general si m − (n − 1) > −j entonces J− (J− ) |j, m, ki = J− |j, m − (n − 1) , ki = (J− )n |j, m, ki ≡ |j, m − n, ki es vector propio no nulo de J2 y J3 con valores propios j (j + 1) ~2 y (m − n) ~.
10.3. ESTRUCTURA DE VALORES Y VECTORES PROPIOS
315
Veremos que estas condiciones se satisfacen solo para n = 0, 1, . . . , p. Si asumimos que 0 ≤ n ≤ p entonces m − (n − 1) = m − n + 1 ≥ m − p + 1 ≥ −j + 1 donde hemos usado la primera de las desigualdades (10.29) en el u ´ltimo paso. Por tanto m − (n − 1) ≥ −j + 1 > −j de modo que la condici´ on m − (n − 1) > −j necesaria para aplicar el lema 5 se cumple cuando n = 0, 1, . . . , p. Ahora veamos lo que ocurre con el vector (J− )p+1 |j, m, ki = J− [(J− )p |j, m, ki]. Puesto que (J− )p |j, m, ki es autovector de J2 y J3 con valores propios j (j + 1) ~2 y (m − p) ~, el lema 4 Ec. (10.26) nos dice que (m − p) ≥ −j. Asumamos de momento que (m − p) > −j
una aplicaci´ on adicional del lema 5 nos dice que J− [(J− )p |j, m, ki] es autovector no nulo de J2 y J3 con valores propios j (j + 1) ~2 y (m − p − 1) ~. Ahora aplicando la segunda de las desigualdades en la expresi´ on (10.29), se tiene que m − p − 1 < −j lo cual contradice al lema 4 Ec. (10.26). Por tanto debemos rechazar la hip´ otesis m − p > −j. Solo nos queda entonces que m − p = −j y al aplicar el lema 5 se obtiene (J− )p+1 |j, m, ki = J− |j, m − p, ki = 0 y todas las potencias mayores tambi´en se anulan. Esta anulaci´ on evita el conflicto con el lema 4. De lo anterior se deduce que existe un entero no negativo p tal que m − p = −j
(10.31)
Por un razonamiento similar, existe un entero no negativo q, tal que j−1
(10.32)
consiste de vectores no nulos, pero potencias mayores de J+ producen vectores nulos con lo cual se evita una contradicci´ on con el lema 4. Esto implica a su vez que existe un entero no negativo q tal que m+q =j
(10.33)
aqu´ı aparece una diferencia con respecto al oscilador arm´ onico, ya que ambos operadores J+ y J− tienen una sucesi´ on limitada de potencias que generan vectores no nulos. En el oscilador arm´ onico, la sucesi´ on de a† no est´ a limitada. Esto tiene que ver con el hecho de que J+ ( J− ) es un operador que incrementa (decrementa) el valor de m dejando j sin cambiar. Pero para un j dado, m tiene l´ımite superior e inferior, por tanto hay l´ımites tanto para el decremento como para el incremento. Otra diferencia importante es la degeneraci´ on y el hecho de que el 2 3 conjunto J , J3 no forma en general un C.S.C.O. 3
La cuesti´ on es que la teor´ıa del momento angular no parte de un Hamiltoniano definido ni tampoco de un espacio de Hilbert definido, a diferencia de la teor´ıa del oscilador arm´ onico en donde el espacio de estados y el Hamiltoniano son bien espec´ıficos. Por esta raz´ on, la teor´ıa general del momento angular no nos puede decir a priori cual es el grado de degeneraci´ on de los estados propios de J2 y J3 .
´ ´ CAP´ITULO 10. TEOR´IA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA
316
Combinando las Ecs. (10.31, 10.33) se tiene que p + q = 2j ⇒ j =
p+q 2
pero p + q es un entero no negativo. Por tanto, j solo puede adquirir valores enteros o semienteros no negativo 1 3 5 j = 0, , 1, , 2, , . . . 2 2 2 Estos son los valores posibles pero no hemos demostrado que tenga que tomarlos todos (de hecho no es as´ı en general4 ). Adicionalmente, si existe un autovector no nulo |j, m, ki de J2 y J3 , las sucesiones (10.30, 10.32) constan de autovectores no nulos de J2 con valores propios j (j + 1) ~2 y tambi´en de J3 con autovalores dados por mj = −j~, (−j + 1) ~, (−j + 2) ~, . . . , (j − 2) ~, (j − 1) ~, j~
(10.34)
es decir tenemos 2j + 1 valores posibles de m para un j dado. Puesto que estos valores se obtienen de las sucesiones ya mencionadas, todos los 2j + 1 valores de m posibles bajo la restricci´ on (10.26) son valores propios accesibles para un valor dado de j. Adicionalmente, puesto que p y q son enteros no negativos, las Ecs. (10.31, 10.33) nos dicen que m es entero (semi-entero) si y solo si j es entero (semi-entero). Lo anterior nos dice que para un j dado, todos los valores de m expresados en la Ec. (10.34) est´ an asociados a un vector |j, m, ki y son adem´ as los u ´nicos valores accesibles de m para dicho valor de j. Podemos sintetizar estos resultados en la siguiente forma: Sea J un momento angular arbitrario que obedece las reglas de conmutaci´ on (10.6). Si j (j + 1) ~2 y m~ denotan los autovalores de J2 y J3 asociados al ket com´ un |j, m, ki. Tenemos que Los u ´nicos valores posibles de j son enteros o semienteros no negativos: 0, 12 , 1, 32 , 2, 52 , . . .. No necesariamente j debe tomar todos estos valores. Para un valor dado de j existen 2j + 1 valores posibles de m: −j, − j + 1, − j + 2, . . . , j − 2, j − 1, j. La cantidad m es entera si y solo si j es entera. As´ı mismo, m es semi-entero si y solo si j es entero. Todos los valores de m son permitidos si uno de ellos lo es.
10.4.
Propiedades de los vectores propios de J2 y J3
Veremos que las propiedades algebr´ aicas de los operadores J2 , J3 , J+ , J− , nos permiten extraer informaci´ on 2 uan los operadores. sobre los estados propios de J y J3 incluso sin especificar el espacio de Hilbert E sobre el cual act´ Para ello solo requerimos dos hip´ otesis de trabajo: (1) Que J2 y J3 son observables con respecto al espacio E sobre el cual act´ uan, y (2) Que conocemos por alg´ un medio experimental y/o te´ orico, los valores de j que son permitidos en nuestro sistema f´ısico (recordemos que j debe ser entero o semientero no negativo, pero no necesariamente debe cubrir todos los valores enteros y semienteros no negativos). Debemos recordar que para un j dado que est´e permitido, todos los valores de m permitidos por la Ec. (10.26) deben aparecer. En el oscilador arm´ onico aprendimos que con un solo estado (el estado base) podemos generar todos los estados propios por medio del operador construcci´ on. En esta secci´ on desarrollaremos un m´etodo para 2 generar los autoestados de J y J3 a partir de un subconjunto de estos estados y de los operadores J+ y J− . 4
Esto tambi´en est´ a relacionado con el hecho de que el Hamiltoniano y el espacio vectorial sobre el cual operan los Ji no est´ an definidos.
10.4. PROPIEDADES DE LOS VECTORES PROPIOS DE J2 Y J3
10.4.1.
317
Generaci´ on de autoestados por medio de los operadores J+ y J−
Consideremos un operador momento angular J que act´ ua sobre un espacio de estados E, y mostraremos un algoritmo para construir una base ortonormal en E de vectores propios comunes a J2 y J3 . Tomemos un par de valores propios j (j + 1) ~2 y m~ que sean realizables f´ısicamente para nuestro sistema f´ısico. Los autovectores asociados |j, m, ki pueden ser degenerados en j, m lo cual se indica con el ´ındice k. Los vectores propios asociados al par (j, m) forman un autosubespacio E (j, m) de dimensi´ on g (j, m). Si g (j, m) > 1 para al menos un par (j, m), entonces el conjunto J2 , J3 no forma un C.S.C.O. Escogeremos en E (j, m) una base ortonormal de vectores {|j, m, ki} con k = 1, . . . , g (j, m). Si m 6= j existe un subespacio E (j, m + 1) de E compuesto por autovectores de J2 , J3 con valores propios j (j + 1) ~2 y (m + 1) ~. An´ alogamente, si m 6= −j existe un subespacio E (j, m − 1) con autovectores de J2 , J3 2 y valores propios j (j + 1) ~ , (m − 1) ~. Si m 6= j construiremos una base ortonormal en E (j, m + 1) a partir de la base ya constru´ıda para E (j, m). Similarmente, si m 6= −j generaremos una base ortonormal en E (j, m − 1) partiendo de la base en E (j, m). En primer lugar mostraremos que si |j, m, k1 i y |j, m, k2 i son ortogonales para k1 6= k2 , entonces los vectores J+ |j, m, k1 i y J+ |j, m, k2 i tambi´en son ortogonales. De igual forma se ver´ a que J− |j, m, k1 i y J− |j, m, k2 i tambi´en son ortogonales. Para ello calculamos el producto interno entre los kets en cuesti´ on utilizando las f´ ormulas (10.17) (J± |j, m, k2 i , J± |j, m, k1 i) = hj, m, k2 | J∓ J± |j, m, k1 i = hj, m, k2 | J2 − J32 ∓ ~J3 |j, m, k1 i = j (j + 1) − m2 ∓ m ~2 hj, m, k2 | j, m, k1 i (J± |j, m, k2 i , J± |j, m, k1 i) = [j (j + 1) − m (m ± 1)] ~2 hj, m, k2 | j, m, k1 i
(10.35)
y puesto que los vectores {|j, m, ki i} asociados a E (j, m) son ortonormales por hip´ otesis, se tiene Theorem 10.1 Sean |j, m, k1 i y |j, m, k2 i dos autovectores ortogonales de J2 y J3 con valores propios j (j + 1) ~2 , m~, y k1 6= k2 . Entonces J± |j, m, k2 i es ortogonal a J± |j, m, k1 i. Si k1 = k2 ≡ k, la Ec. (10.35) nos permite calcular la norma de J± |j, m, ki. Asumiendo que |j, m, ki est´ a normalizado se tiene kJ± |j, m, kik2 = [j (j + 1) − m (m ± 1)] ~2 por tanto podemos constru´ır vectores ortonormales asociados a |j, m ± 1, ki para lo cual simplemente debemos normalizar los vectores J± |j, m, ki. Comencemos con J+ |j, m, ki, normalizando los vectores J+ |j, m, ki obtenemos un conjunto ortonormal en E (j, m + 1) dado por J+ |j, m, ki |j, m + 1, ki ≡ p (10.36) ~ j (j + 1) − m (m + 1) multipliquemos (10.36) por J− usando (10.17)
J2 − J32 − ~J3 |j, m, ki p J− |j, m + 1, ki = = p ~ j (j + 1) − m (m + 1) ~ j (j + 1) − m (m + 1) [j (j + 1) − m (m + 1)] ~ |j, m, ki p = j (j + 1) − m (m + 1) p J− |j, m + 1, ki = ~ j (j + 1) − m (m + 1) |j, m, ki J− J+ |j, m, ki
(10.37)
Vamos a demostrar que el conjunto ortonormal {|j, m + 1, ki} en E (j, m + 1) generado por todos los elementos de la base {|j, m, ki} de E (j, m) a trav´es de (10.36), constituye una base para E (j, m + 1). La demostraci´ on se har´ a por contradicci´ on, es decir asumiendo que {|j, m + 1, ki} no es una base, seg´ un el teorema 1.23, P´ ag. 30, esta negaci´ on equivale a decir que existe un vector no nulo |j, m + 1, αi en E (j, m + 1) ortogonal a todos los vectores del conjunto.
318
´ ´ CAP´ITULO 10. TEOR´IA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA
Asumamos que existe un vector no nulo |j, m + 1, αi en E (j, m + 1) ortogonal a todos los elementos del conjunto ortonormal {|j, m + 1, ki}. Por tanto, α 6= k para todos los k′ s del conjunto anterior. Dado que m + 1 6= −j, el vector J− |j, m + 1, αi es no nulo en virtud del lema 5, y dicho vector yace en E (j, m). Ahora bien, puesto que α 6= k, el teorema 10.1 dice que J− |j, m + 1, αi ser´ a ortogonal a todos los vectores J− |j, m + 1, ki. Por otro lado, la Ec. (10.37) nos dice que J− |j, m + 1, ki es colineal con |j, m, ki. En consecuencia, al barrer toda la base {|j, m, ki} obtenemos que el conjunto {J− |j, m + 1, ki} generado de esta manera tambi´en es una base para E (j, m). De lo anterior vemos que J− |j, m + 1, αi es un vector no nulo de E (j, m), ortogonal a todos los vectores de la base {|j, m, ki}, pero esto es imposible en virtud del teorema 1.23. Por tanto, el conjunto de vectores {|j, m + 1, ki} generado por la base {|j, m, ki} de E (j, m) por medio de (10.36) es completo. De una forma similar se puede demostrar que cuando m 6= −j podemos definir vectores |j, m − 1i en la forma J− |j, m, ki |j, m − 1, ki ≡ p ~ j (j + 1) − m (m − 1)
(10.38)
para formar una base ortonormal en E (j, m − 1). N´ otese que (10.38) se obtiene de (10.37) reemplazando m → m−1. Las Ecs. (10.36, 10.38) implican una escogencia de fase cero entre |j, m ± 1, ki y el vector J± |j, m, ki, de modo que la constante de proporcionalidad entre ambos es real y positiva. Esta convenci´ on de fase cero es conocida como convenci´ on de Cordon-Shortley. En particular vemos que las Ecs. (10.36) establecen relaciones uno a uno y sobreyectivas entre las bases de E (j, m) y E (j, m + 1). Igualmente las Ecs. (10.38) nos dan una relaci´ on uno a uno y sobreyectiva entre las bases de E (j, m) y E (j, m − 1). En consecuencia, los espacios E (j, m) y E (j, m ± 1) son de la misma dimensionalidad. Por inducci´ on se obtiene entonces que la dimensionalidad de cualquier E (j, m) solo depende de j g (j, m) = g (j) describamos un procedimiento sistem´ atico para generar una base ortonormal para el espacio completo E. Para un valor accesible de j encontramos un subespacio de la forma E (j, m) digamos E (j, j), y encontramos una base ortonormal de dicho espacio {|j, j, ki ; k = 1, . . . , g (j)}. Ahora usando (10.38) contru´ımos iterativamente las bases para E (j, j − 1) , E (j, j − 2) , . . . , E (j, −j). La uni´ on de las bases de los 2j + 1 subespacios asociados a j nos da una base ortonormal para el subespacio E (j) dado por E (j) = E (j, j) ⊕ E (j, j − 1) ⊕ E (j, j − 2) ⊕ . . . ⊕ E (j, −j)
(10.39)
es claro que el espacio E (j) es de dimensionalidad (2j + 1) g (j). Una vez generada la base para un E (j), cambiamos a otro valor accesible de j y repetimos el procedimiento, barriendo todos los valores accesibles de j. La base ortonormal para E se obtiene de la uni´ on de las bases asociadas a cada valor de j puesto que E = E (j1 ) ⊕ E (j2 ) ⊕ E (j3 ) ⊕ . . .
(10.40)
siendo {j1 , j2 , j3 , . . .} los valores accesibles de j en el sistema f´ısico considerado5 . Insistimos que este debe ser un subconjunto del conjunto de todos los enteros y semienteros no negativos. La tabla 10.1 describe esquem´ aticamente el algoritmo para generar una base para E (j) a partir de la base para E (j, j). La base generada con este algoritmo se conoce como la base est´ andar del espacio de estados E, para la cual existen relaciones de completez y ortonormalidad g(j) +j X X X ′ ′ ′ hj, m, k j , m , k = δjj ′ δmm′ δkk′ ; |j, m, ki hj, m, k| = I j
(10.41)
m=−j k=1
Por supuesto podemos empezar por E (j, −j) y constru´ır con base en J+ . Finalmente, podemos empezar por un E (j, m) con −j < m < j, en tal caso habr´a que generar con J+ “hacia arriba” hasta j y con J− “hacia abajo” hasta −j. 5
N´ otese que la Ec. (10.40) es cierta bajo la hip´ otesis de que los operadores Ji sean observables. Es decir, que los valores permitidos de j nos den una base para E .
´ DE UNA BASE ESTANDAR ´ 10.5. CONSTRUCCION CON BASE EN UN C.S.C.O
E (j, j) ⇓ J− E (j, j − 1) ⇓ J− .. .
k=1 |j, j, 1i ⇓ J− |j, j − 1, 1i ⇓ J− .. .
k=2 |j, j, 2i ⇓ J− |j, j − 1, 2i ⇓ J− .. .
... ... ... ... ...
k = g (j) |j, j, g (j)i ⇓ J− |j, j − 1, g (j)i ⇓ J− .. .
E (j, m) ⇓ J− .. .
|j, j − m, 1i ⇓ J− .. .
|j, j − m, 2i ⇓ J− .. .
... ...
|j, j − m, g (j)i ⇓ J− .. .
319
E (j, −j)
|j, −j, 1i |j, −j, 2i ... |j, −j, g (j)i E (j, k = 1) E (j, k = 2) E (j, k = g (j)) Cuadro 10.1: Construcci´ on de la base est´ andar para E (j) de dimensi´ on (2j + 1) g (j). Comenzando con cada uno de los g (j) vectores |j, j, ki de la primera fila, usamos el operador J− para constru´ır los 2j + 1 vectores de cada columna. Los g (j) vectores de la m−´esima fila, expanden al subespacio E (j, m). Los 2j + 1 vectores de la k−´esima columna expanden al subespacio E (j, k). Hay un total de 2j + 1 subespacios de la forma E (j, m) y un total de g (j) subespacios de la forma E (j, k). El espacio total se puede obtener por suma directa de los E (j, m), o alternativamente por suma directa de los E (j, k).
10.5.
Construcci´ on de una base est´ andar con base en un C.S.C.O
Un m´etodo muy utilizado para generar una base est´ andar consiste en usar un conjunto de observables {A1 , A2 , . . . , An } que junto con J2 y J3 formen un C.S.C.O. y que adem´ as conmuten con todas las componentes de J [Ai , J] = 0 ; i = 1, . . . , n un observable que conmute con las componentes de J se denomina un escalar. Por simplicidad asumiremos que un solo escalar A es suficiente para formar un C.S.C.O con J2 y J3 . Veamos la acci´ on de A sobre un estado arbitrario |j, m, ki de E (j, m), definiendo |ψi ≡ A |j, m, ki tenemos que J2 |ψi = J2 A |j, m, ki = AJ2 |j, m, ki = j (j + 1) ~2 A |j, m, ki = j (j + 1) ~2 |ψi J3 |ψi = J3 A |j, m, ki = AJ3 |j, m, ki = m~A |j, m, ki = m~ |ψi
donde hemos usado el hecho de que A conmuta con J2 y J3 . Tenemos entonces que |ψi ≡ A |j, m, ki es autovector de J2 y J3 con autovalores j (j + 1) ~2 y m~, y por lo tanto pertenece a E (j, m). En consecuencia, cada subespacio E (j, m) es globalmente invariante bajo la acci´ on de un operador A que conmute con J2 y J3 . Si ahora escogemos un valor de j, el subespacio E (j, j) ser´ a en particular invariante bajo A y podemos diagonalizar la restricci´ on de A sobre E (j, j), con cierta base ortonormal {|j, j, ki} de E (j, j),6 de modo que A |j, j, ki = ajk |j, j, ki
(10.42)
el conjunto {|j, j, ki ; j f ijo; k = 1, . . . , g (j)} es una base ortonormal de E (j, j), a partir de la cual se puede constru´ır la base ortonormal para E (j). Aplicando este procedimiento para cada valor accesible de j obtenemos la base ortonormal {|j, m, ki} para el espacio completo E. Los resultados anteriores no requieren que A sea escalar, solo requieren que conmute con J2 y J3 . Sea {|j, m, ki} la base de vectores de E (j, m) obtenida por la aplicaci´ on sucesiva de J− sobre la base {|j, j, ki}. Veremos que si 6
Recordemos que A es herm´ıtico y por tanto normal. Para todo operador normal existe una representaci´ on ortonormal que lo diagonaliza.
320
´ ´ CAP´ITULO 10. TEOR´IA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA
A es escalar y los elementos de la base {|j, j, ki} son autovectores de A, entonces los kets {|j, m, ki} (obtenidos por aplicaci´ on sucesiva de J− ) adem´ as de ser vectores propios de J2 y J3 tambi´en ser´ an autom´ aticamente vectores propios de A. Para ver esto observemos que para un escalar A se tiene [A, J− ] = [A, J1 − iJ2 ] = [A, J1 ] − i [A, J2 ] = 0
(10.43)
al asumir que los elementos de la base {|j, j, ki} son autovectores de A, podemos usar la Ec. (10.42), la cual combinada con la Ec. (10.43) nos da A [J− |j, j, ki] = J− A |j, j, ki = ajk [J− |j, j, ki] de modo que J− |j, j, ki es autovector de A con el mismo autovalor que |j, j, ki (teorema 1.66). Equivalentemente, |j, j − 1, ki es autovector de A con el mismo autovalor que |j, j, ki. Aplicando sucesivamente este proceso vemos que los kets dados por |j, j, ki , |j, j − 1, ki , . . . , |j, −j, ki son vectores propios de A con valor propio ajk por tanto podemos escribir A |j, m, ki = ajk |j, m, ki ; m = j, j − 1, . . . , −j + 1, − j
(10.44)
el espectro de A es entonces el mismo para todos los subespacios E (j, m) con j fijo, pero depende en general tanto de j como de k, de modo que un conjunto de n´ umeros cu´ anticos (j, m, k) define un´ıvocamente a un vector |j, m, ki de E, como corresponde a un C.S.C.O. N´ otese que un observable que conmute con J2 y J3 no necesariamente conmuta con J1 y J2 . En particular, el conjunto (J2 , J3 , A) podr´ıa formar un C.S.C.O. sin que A conmute con J1 y/o J2 . En tal caso sin embargo, J± no conmuta con A y por tanto J± |j, m, ki no necesariamente es autovector de A con el mismo valor propio de |j, m, ki, incluso si |j, j, ki es autovector de A. Por tanto, cuando A conmuta con J2 y J3 pero no es escalar, la base {|j, m, ki} obtenida por aplicaci´ on sucesiva de J− sobre {|j, j, ki} debe ser rotada a otra base {|j, m, αi} cada vez que se aplica J− , con el fin de diagonalizar a la restricci´ on de A sobre cada E (j, m). En cambio, cuando A es escalar solo es necesaria la rotaci´ on de los elementos |j, j, k′ i para obtener autovectores de A como en la Ec. (10.42), y la aplicaci´ on sucesiva de J− genera autom´ aticamente autovectores de A.
10.5.1.
Descomposici´ on de E en subespacios del tipo E (j, k)
En los procedimientos anteriores hemos descompuesto el espacio completo E en la forma dada por la combinaci´on de las Ecs. (10.39, 10.40) E
= E (j1 , j1 ) ⊕ E (j1 , j1 − 1) ⊕ E (j1 , j1 − 2) ⊕ . . . ⊕ E (j1 , −j1 ) ⊕ E (j2 , j2 ) ⊕ E (j2 , j2 − 1) ⊕ E (j2 , j2 − 2) ⊕ . . . ⊕ E (j2 , −j2 ) ⊕
E (j3 , j3 ) ⊕ E (j3 , j3 − 1) ⊕ E (j3 , j3 − 2) ⊕ . . . ⊕ E (j3 , −j3 ) ⊕ . . . on en subespacios siendo j1 , j2 , j3 , . . . los valores permitidos de j para el sistema en estudio. Esta es una descomposici´ del tipo E (j, m). Sin embargo los subespacios E (j, m) tienen ciertas desventajas, por un lado su dimensi´ on g (j) depende del sistema f´ısico espec´ıfico ya que esta dimensi´ on nos da cuenta de la degeneraci´ on asociada al par (j, m), por tanto g (j) es desconocido al menos en el caso general. Adicionalmente un subespacio del tipo E (j, m) no es invariante ante J, por ejemplo J1 |j, m, ki =
1 1 1 (J+ + J− ) |j, m, ki = c+ |j, m + 1, ki + c− |j, m − 1, ki 2 2 2
(10.45)
de acuerdo con (10.41) este estado es ortonormal a |j, m, ki y no es nulo ya que por lo menos uno de los estados |j, m + 1, ki , |j, m − 1, ki tiene que ser no nulo y ambos son ortogonales entre s´ı.
10.6. REPRESENTACIONES MATRICIALES DE LOS OPERADORES MOMENTO ANGULAR
321
Examinando la tabla (10.1) vemos que cada subespacio del tipo E (j, m) es generado por la expansi´ on de los g (j) vectores de la m−´esima fila de la tabla (los g (j) valores posibles de k). Vemos sin embargo que hay otra manera de agrupar los vectores: podemos generar un subespacio con los (2j + 1) vectores de una columna fija de la tabla, con lo cual obtenemos un subespacio del tipo E (j, k) puesto que en este caso es el par (j, k) el que permanece fijo en la expansi´ on. La descomposici´ on de E quedar´ıa en la forma E
= E (j1 , k = 1) ⊕ E (j1 , k = 2) ⊕ . . . ⊕ E (j1 , k = g (j1 )) ⊕ E (j2 , k = 1) ⊕ E (j2 , k = 2) ⊕ . . . ⊕ E (j2 , k = g (j2 )) ⊕
E (j3 , k = 1) ⊕ E (j3 , k = 2) ⊕ . . . ⊕ E (j3 , k = g (j3 )) ⊕ . . .
(10.46)
los subespacios E (j, k) poseen las propiedades siguientes: (a) la dimensi´ on de E (j, k) es 2j + 1 de modo que para un j dado su dimensi´ on se conoce sin importar el sistema f´ısico que se est´e trabajando. (b) E (j, k) es globalmente invariante bajo J. Incluso se puede demostrar que E (j, k) es irreducible como subespacio invariante de J, es decir no hay un subespacio propio no nulo de E (j, k) que sea invariante bajo J. Nos limitaremos a demostrar la invarianza de E (j, k) bajo J. Una base para este espacio es de la forma {|j, m, ki ; m = −j, −j + 1, . . . , j − 1, j}. Para J3 es inmediato, para J1 tomamos el resultado de la Ec. (10.45) notando que los dos kets son estados con el mismo valor de j, k y solo difieren en m. Por tanto J1 |j, m, ki pertenece a E (j, k). Para J2 el argumento es similar. En general E (j, k) ser´ a invariante bajo cualquier funci´ on del tipo F (J), lo cual se puede ver simplemente de la expansi´ on de Taylor de F (J) y de que E (j, k) es invariante ante cualquier potencia de J.
10.6.
Representaciones matriciales de los operadores momento angular
Los elementos matriciales de los Ji en la base est´ andar {|j, m, ki}, se pueden calcular a trav´es de la acci´ on de los operadores J3 , J± sobre los kets propios |j, m, ki de J2 y J3 descritos por las Ecs. (10.19, 10.36, 10.38) p J3 |j, m, ki = m~ |j, m, ki ; J± |j, m, ki = ~ j (j + 1) − m (m ± 1) |j, m ± 1, ki (10.47) combinando las Ecs. (10.9, 10.47) encontramos la acci´ on de J1 y J2 sobre los kets de la base J1 j ′ , m′ , k′ = J2 j ′ , m′ , k′ =
~ hp 1 (J+ + J− ) j ′ , m′ , k′ = j ′ (j ′ + 1) − m′ (m′ + 1) j ′ , m′ + 1, k′ 2 2 p i ′ ′ ′ ′ + j (j + 1) − m (m − 1) j ′ , m′ − 1, k′
1 ~ hp ′ ′ (J+ − J− ) j ′ , m′ , k′ = j (j + 1) − m′ (m′ + 1) j ′ , m′ + 1, k′ 2i 2i p i ′ ′ ′ ′ − j (j + 1) − m (m − 1) j ′ , m′ − 1, k′
(10.48)
(10.49)
de las Ecs. (10.47, 10.48, 10.49) y la ortonormalidad de la base, los elementos matriciales de Ji y J± quedan hj, m, k| J3 j ′ , m′ , k′ = m~δkk′ δjj ′ δmm′ (10.50) p ′ ′ ′ hj, m, k| J± j , m , k = ~ j (j + 1) − m′ (m′ ± 1)δkk′ δjj ′ δm,m′ ±1 (10.51) hj, m, k| J1 j ′ , m′ , k′ =
hp ~ 1 hj, m, k| (J+ + J− ) j ′ , m′ , k′ = δkk′ δjj ′ j (j + 1) − m′ (m′ + 1)δm,m′ +1 2 2i p + j (j + 1) − m′ (m′ − 1)δm,m′ −1 (10.52)
´ ´ CAP´ITULO 10. TEOR´IA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA
322
hj, m, k| J2 j ′ , m′ , k′ =
hp 1 ~ hj, m, k| (J+ − J− ) j ′ , m′ , k′ = δkk′ δjj ′ j (j + 1) − m′ (m′ + 1)δm,m′ +1 2i 2i i p − j (j + 1) − m′ (m′ − 1)δm,m′ −1 (10.53)
lo cual muestra que los elementos matriciales de J solo dependen de j y m pero no de k. Este hecho implica que la representaci´ on matricial de las componentes de J en la base est´ andar {|j, m, ki} tiene una forma particularmente simple cuando descomponemos E en subespacios del tipo E (j, k). Las Ecs. (10.50, 10.51, 10.52, 10.53) muestran que un operador Ji (o una funci´ on de la forma F (J)) tiene elementos matriciales nulos cuando el elemento enlaza dos kets base asociados a espacios E (j1 , k1 ) y E (j2 , k2 ) con j1 6= j2 y/o con k1 6= k2 . Por tanto la matriz ser´ a diagonal por bloques donde los bloques son todos de dimensi´ on 2j + 1 (que es la dimensi´ on de un espacio E (j, k)) en la forma
E (j, k) E (j, k′ )
E (j, k) matriz (2j + 1) × (2j + 1) 0
.. .
E (j ′ , k′ ) .. .
···
E (j, k′ )
E (j ′ , k′ )
···
0
0
0
matriz (2j + 1) × (2j + 1)
0
0
0
0
0
0
(10.54)
(2j ′
matriz + 1) × (2j ′ + 1) 0
0 0
comenzando por el valor de j1 m´ as bajo permitido constru´ımos las matrices asociadas a E (j1 , k1 ) para el k = k1 m´ as bajo permitido, luego manteniendo j1 fijo recorremos los posibles valores de k, una vez terminado este recorrido, continuamos con el siguiente valor permitido j2 de j, recorriendo el ´ındice k nuevamente y as´ı sucesivamente. Las matrices asociadas a estos subespacios son de dimensi´ on 2ji + 1. Por tanto, lo que debemos hacer es calcular las matrices de dimensi´ on finita (2j + 1)× (2j + 1) que representan a cada operador en cada subespacio E (j, k). Adicionalmente, estas matrices no dependen de k y por tanto no dependen del sistema f´ısico bajo estudio. Solo dependen de j y del operador que se quiere representar. En s´ıntesis, la representaci´ on matricial de una componente Ji del momento angular en la base est´andar, se puede calcular dentro de un subespacio de la forma E (j, k) sin alusi´ on alguna al sistema f´ısico que se est´ a trabajando. (j) La matrices del tipo (Ji ) son en consecuencia de car´ acter universal y representan al operador Ji dentro del subespacio E (j, k) para todos los posibles valores de j es decir j = 0, 12 , 1, . . .. Cuando tenemos un sistema f´ısico espec´ıfico, debemos determinar cuales de estos valores de j son permitidos y el n´ umero de subespacios E (j, k) asociados con cada j, es decir el grado de degeneraci´ on (2j + 1) g (j). La matriz representativa de Ji ser´ a entonces diagonal por bloques con la estructura descrita en la Ec. (10.54), y se puede constru´ır a partir de las matrices universales definidas para cada subespacio E (j, k). Para cada valor de j, tendremos g (j) bloques id´enticos de (Ji )(j) , es decir todos los valores posibles de k, una vez que para un j dado se barren los valores posibles de k, se ′ cambia al siguiente valor accesible j ′ y se construyen g (j ′ ) bloques id´enticos de (Ji )(j ) y as´ı sucesivamente.
10.6.1.
Representaciones matriciales del tipo (Ji )(j) en la base est´ andar para j arbitrario
De lo anterior, los elementos matriciales para j arbitrario de un operador (Ji )(j) dentro de un subespacio E (j, k) est´ an dados por hj, m, k| J3 j ′ , m′ , k′ = m~δkk′ δjj ′ δmm′ (10.55) 2 ′ ′ ′ 2 hj, m, k| J j , m , k = j (j + 1) ~ δkk′ δjj ′ δmm′ (10.56)
10.6. REPRESENTACIONES MATRICIALES DE LOS OPERADORES MOMENTO ANGULAR p hj, m, k| J± j ′ , m′ , k′ = ~ j (j + 1) − m′ (m′ ± 1)δkk′ δjj ′ δm,m′ ±1
hj, m, k| J1 j ′ , m′ , k′ =
hp ~ δkk′ δjj ′ j (j + 1) − m′ (m′ + 1)δm,m′ +1 2 i p + j (j + 1) − m′ (m′ − 1)δm,m′ −1
hj, m, k| J2 j ′ , m′ , k′ =
hp ~ δkk′ δjj ′ j (j + 1) − m′ (m′ + 1)δm,m′ +1 2i i p − j (j + 1) − m′ (m′ − 1)δm,m′ −1
323 (10.57)
(10.58)
(10.59)
vemos que la matriz de (J3 )(j) es diagonal, esto se debe a que se eligi´ o a X3 como el eje de cuantizaci´ on (la base est´ andar consta de vectores propios de J2 y J3 ), sus elementos son los 2j + 1 valores de m~. Para las ´nicos elementos no nulos son los que est´ an por encima y por debajo de la diagonal. (J1 )(j) matrices (J1,2 )(j) los u (j) es una matriz sim´etrica y real en tanto que (J2 )(j) es antisim´etrica y puramente imaginaria. La matriz J2 es naturalmente diagonal ya que esta es una base de vectores propios de J2 , y ad´emas sus elementos diagonales son (j) es j (j + 1) ~2 I, siendo I la matriz identidad de dimensi´ on (2j + 1) × (2j + 1). La id´enticos, de modo que J2 (j) matriz (J+ ) solo tiene elementos no nulos por encima de la diagonal, en tanto que la matriz (J− )(j) solo tiene elementos no nulos por debajo de la diagonal. Puesto que todas las direcciones del espacio son equivalentes, es claro que la elecci´ on del eje de cuantizaci´ on es arbitraria. De esto se desprende que todos los Ji deben tener los mismos valores propios. Los vectores propios ser´ an sin embargo diferentes ya que los Ji no conmutan entre s´ı. En consecuencia, dentro de un subespacio dado E (j, k) los autovalores de J1 , J2 , J3 son j~, (j − 1) ~, . . . , (−j + 1) ~, −j~. Estos tambi´en ser´ an los valores propios de cualquier componente de la forma Jn = J · n siendo n un vector unitario de direcci´ on arbitraria. Los autovectores comunes de J2 y J1 son combinaciones lineales de los |j, m, ki con j y k fijos. Lo mismo ocurre con los vectores propios comunes a J2 y J2 . En conclusi´ on una base ortonormal {|j, m, ki} del espacio de estados compuesta por vectores comunes a J2 y J3 J2 |j, m, ki = j (j + 1) ~2 |j, m, ki
;
J3 |j, m, ki = m~ |j, m, ki
se denomina un base est´ andar si la acci´ on de J± sobre estos vectores est´ a dada por p J± |j, m, ki = ~ j (j + 1) − m (m ± 1) |j, m ± 1, ki
10.6.2.
Representaciones matriciales en la base est´ andar para j = 0
Los subespacios E (j = 0, k) son de dimensi´ on 2 (0) + 1 = 1. Y el u ´nico valor posible de m es cero. Las matrices (j) (Ji ) son n´ umeros y de acuerdo con las Ecs. (10.58, 10.59, 10.55) estos n´ umeros son cero.
10.6.3.
Representaciones matriciales en la base est´ andar para j = 1/2
Los subespacios E (j = 1/2, k) son de dimensi´ on 2 (1/2) + 1 = 2. Las matrices dentro de un subespacio E (j = 1/2, k) son de dimensi´ on 2 × 2 y los vectores base los elegiremos en el orden m1 = 1/2, m2 = −1/2. Las representaciones matriciales se obtienen usando las Ecs. (10.58, 10.59, 10.55, 10.56), teniendo en cuenta que estamos interesados en las representaciones dentro de un subespacio E (j = 1/2, k) de modo que k = k′ . Con estas
324
´ ´ CAP´ITULO 10. TEOR´IA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA
consideraciones calcularemos la representaci´ on matricial de J1 usando (10.58) (J1 )pq ≡
(J1 )pq =
"s 1 1 ~ 1 1 , mp , k J1 , mq , k = δkk δ 1 , 1 + 1 − mq (mq + 1) δmp ,mq +1 2 2 2 2 2 2 2 s # 1 1 + 1 − mq (mq − 1) δmp ,mq −1 + 2 2 "r # r ~ 3 3 − mq (mq + 1) δmp ,mq +1 + − mq (mq − 1) δmp ,mq −1 2 4 4
de aqu´ı en adelante se omite el ´ındice k ya que las representaciones matriciales no dependen de tal ´ındice. Estas expresiones muestran que los elementos diagonales son cero, por tanto 1 1 1 1 (1/2) ≡ (J1 )11 , J1 , =0 2 2 2 2 1 1 1 1 (1/2) ≡ (J1 )22 , − J1 , − =0 2 2 2 2 y los t´erminos no diagonales son (1/2) (J1 )12
≡
(1/2)
=
(J1 )12
"s 1 1 1 1 ~ 3 1 1 , J1 , − = − − − + 1 δ 1 ,− 1 +1 2 2 2 2 2 2 2 4 2 2 s # 3 1 1 + − − − − 1 δ 1 ,− 1 −1 2 2 4 2 2 r ~ 3 1 ~ + δ1,1 = 2 4 4 2 2 2
"s 1 1 1 1 ~ 3 1 1 , − J1 , = − + 1 δ− 1 , 1 +1 2 2 2 2 2 2 2 4 2 2 s # 3 1 1 + − − 1 δ− 1 , 1 −1 2 2 4 2 2
(1/2)
≡
(1/2)
=
~ 2
(J1 )21
(J1 )21
este elemento se pod´ıa tambi´en calcular teniendo en cuenta que la matriz de J1 es sim´etrica real. La matriz representativa queda entonces ~ 0 1 (1/2) (J1 ) = 2 1 0 de manera similar se calculan los elementos matriciales de los otros operadores, el resultado es (J1 ) J2
(1/2)
(1/2)
= =
~ 0 2 1 3 2 ~ 4
1 0
(1/2)
~ 1 0 −i (1/2) ; (J3 ) = i 0 2 0 0 1 0 =~ ; (J− )(1/2) = ~ 0 0 1
~ = 2
; (J2 ) 1 0 ; (J+ )(1/2) 0 1
0 −1 0 0
(10.60) (10.61)
10.6. REPRESENTACIONES MATRICIALES DE LOS OPERADORES MOMENTO ANGULAR
10.6.4.
325
Representaciones matriciales en la base est´ andar para j = 1
Los subespacios E (j = 1, k) son de dimensi´ on 2 (1) + 1 = 3. Las matrices son de dimensi´ on 3 × 3. Ordenaremos los vectores base con m1 = 1, m2 = 0, m3 = −1. on muestra que los t´erminos de la Calculemos por ejemplo la representaci´ on de J2 usando (10.59), esta ecuaci´ diagonal son cero as´ı como aquellos en donde los ´ındices difieren en m´ as de una unidad, por tanto (1)
(1)
(1)
(1)
(1)
(J2 )11 = (J2 )22 = (J2 )33 = (J2 )13 = (J2 )31 = 0 para los otros elementos usamos (10.59) con j = 1, k = k′ , y omitimos k q q ~ h1, mp | J2 |1, mq i = 1 (1 + 1) − mq (mq + 1) δmp ,mq +1 − 1 (1 + 1) − mq (mq − 1) δmp ,mq −1 2i q q ~ h1, mp | J2 |1, mq i = 2 − mq (mq + 1) δmp ,mq +1 − 2 − mq (mq − 1) δmp ,mq −1 2i
teniendo en cuenta adem´ as que la matriz asociada a J2 es antisim´etrica, solo tendremos que calcular dos t´erminos i √ ~ h√ ~ ~ (1) (J2 )12 = h1, m1 | J2 |1, m2 i = h1, 1| J2 |1, 0i = 2 δ1,0+1 − 2 δ1,0−1 = √ [δ1,1 − δ1,−1 ] = √ 2i 2i 2i i~ (1) (1) (J2 )12 = − √ = − (J2 )21 2 (1)
(J2 )23
(1)
(J2 )23
(1)
(J2 )23
~ hp = h1, m2 | J2 |1, m3 i = h1, 0| J2 |1, −1i = 2 − (−1) [(−1) + 1] δ0,−1+1 2i p − 2 − (−1) [(−1) − 1] δ0,−1−1 ~√ = 2⇒ 2i i~ (1) = − √ = − (J2 )23 ⇒ 2
la matriz queda entonces (J2 )(1)
0 −i 0 ~ = √ i 0 −i 2 0 i 0
de manera similar se obtienen las otras matrices resultando 0 1 0 ~ ~ (J1 )(1) = √ 1 0 1 ; (J2 )(1) = √ 2 2 0 1 0 1 0 0 (1) (J3 )(1) = ~ 0 0 0 ; J2 = 2~2 0 0 −1 √ 0 2 √0 (J+ )(1) = ~ 0 0 2 ; (J− )(1) = ~ 0 0 0
0 −i 0 i 0 −i 0 i 0 1 0 0 0 1 0 0 0 1 0 0 √0 2 √0 0 0 2 0
se puede verificar que las representaciones matriciales constru´ıdas obedecen las reglas de conmutaci´ on (10.6). (1/2) Se puede verificar que los autovalores de las matrices (Ji ) son todos iguales y est´ an dados por ±~/2. Si(1) milarmente, los valores propios de las matrices (Ji ) son todos iguales y corresponden a +~, 0, −~. En s´ıntesis todas las caracter´ısticas generales discutidas al final de la secci´ on 10.6.1 se cumplen para las matrices calculadas expl´ıcitamente.
Cap´ıtulo 11
Propiedades de los momentos angulares orbitales Aplicaremos la teor´ıa general desarrollada en el cap´ıtulo 10 al caso del momento angular orbital que sirvi´ o originalmente para encontrar el ´ algebra con la cual se defini´ o un momento angular generalizado. Utilizaremos la base {|ri} para mostrar que los valores propios de L2 son de la forma l (l + 1) ~2 con l entero no negativo. Es decir las consideraciones f´ısicas excluir´ an a los valores semienteros en tanto que todos los valores enteros no negativos aparecen en el espectro. Encontraremos tambi´en las funciones propias en la base {|ri} y sus principales propiedades. En la representaci´ on {|ri} los observables R y P corresponden a multiplicaci´ on por r y al operador diferencial −i~∇ respectivamente. La cuantizaci´ on de las tres componentes del momento angular en la base {|ri} se representa como L = R × P = −i~r × ∇ ~ ∂ ∂ ~ ∂ ∂ ~ ∂ ∂ L1 = x2 − x3 ; L2 = x3 − x1 ; L3 = x1 − x2 i ∂x3 ∂x2 i ∂x1 ∂x3 i ∂x2 ∂x1 L± ≡ L1 ± iL2
(11.1) (11.2)
ser´ a m´ as conveniente trabajar en coordenadas polares esf´ericas, ya que m´ as adelante veremos que el operador momento angular solo operar´ a sobre los ´ angulos θ, ϕ y no sobre la variable r. x1 = r sin θ cos ϕ ; x2 = r sin θ sin ϕ ; x3 = r cos θ r ≥ 0 ; 0 ≤ θ ≤ π ; 0 ≤ ϕ < 2π
(11.3)
un elemento de volumen d3 r = dx dy dz en coordenadas esf´ericas est´ a dado por d3 r = r 2 dr dΩ ; dΩ = sin θ dθ dϕ donde dΩ es un elemento diferencial de ´ angulo s´ olido en la direcci´ on de los ´ angulos θ y ϕ. A partir de (11.3) calculamos las derivadas parciales ∂x1 ∂r ∂x2 ∂r ∂x3 ∂r
∂x1 ∂x1 = r cos θ cos ϕ ; = −r sin θ sin ϕ ∂θ ∂ϕ ∂x2 ∂x2 = sin θ sin ϕ ; = r cos θ sin ϕ ; = r sin θ cos ϕ ∂θ ∂ϕ ∂x3 ∂x3 = cos θ ; = −r sin θ ; =0 ∂θ ∂ϕ = sin θ cos ϕ ;
326
(11.4)
327 y las relaciones entre derivadas parciales esf´ericas y cartesianas nos dan ∂ ∂r ∂ ∂θ ∂ ∂ϕ
= = =
en forma matricial
∂x2 ∂ ∂x3 ∂ ∂ ∂ ∂ ∂x1 ∂ + + = sin θ cos ϕ + sin θ sin ϕ + cos θ ∂r ∂x1 ∂r ∂x2 ∂r ∂x3 ∂x1 ∂x2 ∂x3 ∂x2 ∂ ∂x3 ∂ ∂ ∂ ∂ ∂x1 ∂ + + = r cos θ cos ϕ + r cos θ sin ϕ − r sin θ ∂θ ∂x1 ∂θ ∂x2 ∂θ ∂x3 ∂x1 ∂x2 ∂x3 ∂x1 ∂ ∂x2 ∂ ∂x3 ∂ ∂ ∂ + + = −r sin θ sin ϕ + r sin θ cos ϕ ∂ϕ ∂x1 ∂ϕ ∂x2 ∂ϕ ∂x3 ∂x1 ∂x2
∂r sin θ cos ϕ sin θ sin ϕ cos θ ∂1 ∂θ = r cos θ cos ϕ r cos θ sin ϕ −r sin θ ∂2 ∂ϕ −r sin θ sin ϕ r sin θ cos ϕ 0 ∂3
calculando la inversa de esta matriz se obtiene
cos ϕ sin θ ∂1 ∂2 = sin θ sin ϕ ∂3 cos θ
cos θ cos ϕ r cos θ sin ϕ r − sinr θ
ϕ − rsin sin θ cos ϕ r sin θ
0
∂r ∂θ ∂ϕ
(11.5)
reemplazando (11.3, 11.5) en (11.1) obtenemos i sin θ cos θ sin ϕ cos ϕ L1 = x2 ∂3 − x3 ∂2 = r sin θ sin ϕ cos θ ∂r − ∂θ − r cos θ sin θ sin ϕ ∂r + ∂θ + ∂ϕ ~ r r r sin θ cos θ cos ϕ ∂ϕ = − sin2 θ sin ϕ ∂θ − cos2 θ sin ϕ ∂θ − sin θ i cos ϕ L1 = − sin ϕ ∂θ − ∂ϕ (11.6) ~ tan θ y se proceden de forma similar con las otras componentes i cos θ cos ϕ sin ϕ sin θ L2 = x3 ∂1 − x1 ∂3 = r cos θ cos ϕ sin θ ∂r + ∂θ − ∂ϕ − r sin θ cos ϕ cos θ ∂r − ∂θ ~ r r sin θ r sin ϕ = cos2 θ cos ϕ ∂θ − cos θ ∂ϕ + sin2 θ cos ϕ ∂θ sin θ i sin ϕ L2 = cos ϕ ∂θ − ∂ϕ (11.7) ~ tan θ i cos θ sin ϕ cos ϕ L3 = x1 ∂2 − x2 ∂1 = r sin θ cos ϕ sin θ sin ϕ ∂r + ∂θ + ∂ϕ ~ r r sin θ cos θ cos ϕ sin ϕ −r sin θ sin ϕ cos ϕ sin θ ∂r + ∂θ − ∂ϕ r r sin θ
= sin θ cos θ cos ϕ sin ϕ∂θ + cos2 ϕ ∂ϕ − sin θ cos θ sin ϕ cos ϕ ∂θ + sin2 ϕ ∂ϕ
i L3 = ∂ϕ ~
(11.8)
con las Ecs. (11.6, 11.7, 11.8), se puede evaluar L2 = L21 + L22 + L23 , lo cual es m´ as sencillo si lo ponemos actuar sobre una funci´ on arbitraria ψ (r, θ, ϕ)
CAP´ITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES
328
2
L ψ = =
=
=
2 2 ∂ cos ϕ ∂ ∂ sin ϕ ∂ ∂ 2 + + i~ sin ϕ ψ + i~ − cos ϕ ψ + −i~ ψ ∂θ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ ∂ cos ϕ ∂ ∂ cos ϕ ∂ + sin ϕ + ψ −~2 sin ϕ ∂θ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂ ∂2ψ sin ϕ ∂ ∂ sin ϕ ∂ 2 −~ − cos ϕ + − cos ϕ + ψ − ~2 2 ∂θ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ ∂ ∂ψ cos ϕ ∂ψ cos ϕ ∂ ∂ψ cos ϕ ∂ψ sin ϕ + − ~2 sin ϕ + −~2 sin ϕ ∂θ ∂θ tan θ ∂ϕ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂ ∂ψ sin ϕ ∂ψ ∂ψ sin ϕ ∂ψ ∂2ψ 2 2 sin ϕ ∂ +~ cos ϕ + + − cos ϕ −~ − cos ϕ − ~2 2 ∂θ ∂θ tan θ ∂ϕ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ ∂ ∂ψ ∂ψ ∂ 1 cos ϕ ∂ ∂ψ −~2 sin ϕ sin ϕ + cos ϕ + ∂θ ∂θ ∂ϕ ∂θ tan θ tan θ ∂θ ∂ϕ cos ϕ ∂ψ ∂ ∂ ∂ψ 1 ∂ψ ∂ cos ϕ ∂ ∂ψ 2 −~ sin ϕ + sin ϕ + cos ϕ + tan θ ∂θ ∂ϕ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ tan θ ∂ϕ ∂ϕ ∂ ∂ψ ∂ψ ∂ 1 sin ϕ ∂ ∂ψ +~2 cos ϕ − cos ϕ + sin ϕ + ∂θ ∂θ ∂ϕ ∂θ tan θ tan θ ∂θ ∂ϕ ∂ψ ∂ ∂ ∂ψ 1 ∂ψ ∂ sin ϕ ∂ ∂ψ ∂2ψ 2 sin ϕ −~ − cos ϕ − cos ϕ + sin ϕ + − ~2 2 tan θ ∂θ ∂ϕ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ tan θ ∂ϕ ∂ϕ ∂ϕ
∂2ψ ∂ψ ∂ 1 sin ϕ cos ϕ ∂ ∂ψ L ψ = −~ sin ϕ 2 + sin ϕ cos ϕ + ∂θ ∂ϕ ∂θ tan θ tan θ ∂θ ∂ϕ 2 cos ϕ sin ϕ ∂ ∂ψ cos ϕ sin ϕ ∂ψ cos2 ϕ ∂ 2 ψ 2 cos ϕ ∂ψ + − + −~ tan θ ∂θ tan θ ∂ϕ ∂θ tan2 θ ∂ϕ tan2 θ ∂ϕ2 2 ∂ψ ∂ 1 cos ϕ sin ϕ ∂ ∂ψ 2 2 ∂ ψ +~ − cos ϕ 2 + cos ϕ sin ϕ + ∂θ ∂ϕ ∂θ tan θ tan θ ∂θ ∂ϕ 2 2 sin ϕ cos ϕ ∂ ∂ψ sin ϕ cos ϕ ∂ψ sin2 ϕ ∂ 2 ψ 2 sin ϕ ∂ψ 2∂ ψ −~ − + + − ~ tan θ ∂θ tan θ ∂ϕ ∂θ tan2 θ ∂ϕ tan2 θ ∂ϕ2 ∂ϕ2 2
2
2
agrupando derivadas se tiene L2 ψ −~2
2 ∂2ψ cos2 ϕ ∂ 2 ψ sin2 ϕ ∂ 2 ψ ∂ 2 ψ 2 ∂ ψ + cos ϕ + + + ∂θ 2 ∂θ 2 tan2 θ ∂ϕ2 tan2 θ ∂ϕ2 ∂ϕ2 sin ϕ cos ϕ ∂ ∂ψ sin ϕ cos ϕ ∂ ∂ψ cos ϕ sin ϕ ∂ ∂ψ cos ϕ sin ϕ ∂ ∂ψ + − + − tan θ ∂θ ∂ϕ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂θ tan θ ∂θ ∂ϕ 2 ∂ψ ∂ 1 ∂ψ ∂ 1 cos ϕ ∂ψ sin2 ϕ ∂ψ + sin ϕ cos ϕ − cos ϕ sin ϕ + + ∂ϕ ∂θ tan θ ∂ϕ ∂θ tan θ tan θ ∂θ tan θ ∂θ cos ϕ sin ϕ ∂ψ sin ϕ cos ϕ ∂ψ − + tan2 θ ∂ϕ tan2 θ ∂ϕ
= sin2 ϕ
L2 ψ −~2 L2 ψ −~2
∂2ψ 1 ∂2ψ ∂2ψ 1 ∂ψ + + + 2 2 2 2 ∂θ ∂ϕ tan θ ∂θ tan θ ∂ϕ 2 2 ∂ 1 ∂ 1 ∂ = + +1 + ψ ∂θ 2 tan2 θ ∂ϕ2 tan θ ∂θ 2 ∂ 1 ∂2 1 ∂ = + + ψ ∂θ 2 sin2 θ ∂ϕ2 tan θ ∂θ =
(11.9)
11.1. MOMENTOS ANGULARES ORBITALES COMO OPERADORES DIFERENCIALES
11.1.
329
Momentos angulares orbitales como operadores diferenciales en coordenadas esf´ ericas
Las Ecs. (11.6, 11.7, 11.8) nos dicen que las componentes del momento angular en coordenadas esf´ericas se escriben en la forma
L1 L2 L3
∂ cos ϕ ∂ + = i~ sin ϕ ∂θ tan θ ∂ϕ ∂ sin ϕ ∂ = i~ − cos ϕ + ∂θ tan θ ∂ϕ ~ ∂ = i ∂ϕ
y las Ecs. (11.9, 11.2) nos dicen que los operadores L2 , L± quedan 2 ∂ 1 ∂ 1 ∂2 2 2 L = −~ + + ∂θ 2 tan θ ∂θ sin2 θ ∂ϕ2 ∂ ∂ iϕ L+ = ~e + i cot θ ∂θ ∂ϕ ∂ ∂ −iϕ L− = ~e − + i cot θ ∂θ ∂ϕ
(11.10) (11.11) (11.12)
(11.13) (11.14) (11.15)
en la representaci´on {|ri} las funciones propias asociadas a los valores propios l (l + 1) ~2 de L2 y m~ de L3 cumplen (11.16) L2 ψ (r, θ, ϕ) = l (l + 1) ~2 ψ (r, θ, ϕ) ; L3 ψ (r, θ, ϕ) = m~ψ (r, θ, ϕ) y al reemplazar (11.13, 11.12) en las Ecs. (11.16) estas u ´ltimas se convierten en ecuaciones diferenciales parciales cuya soluci´ on son las funciones propias 2 ∂ 1 ∂ 1 ∂2 − + + ψ (r, θ, ϕ) = l (l + 1) ψ (r, θ, ϕ) (11.17) ∂θ 2 tan θ ∂θ sin2 θ ∂ϕ2 ∂ −i ψ (r, θ, ϕ) = m~ψ (r, θ, ϕ) (11.18) ∂ϕ donde l es en general entero o semientero no negativo y m toma solo los valores −l, −l + 1, . . . , l − 1, l. N´ otese que en las ecuaciones (11.17, 11.18) no hay operador derivada asociado a r. Por tanto r se puede considerar un par´ ametro y asumir una separaci´ on de variables de la forma ψlmk (r, θ, ϕ) = f (r) Ylm (θ, ϕ) insertando (11.19) en las ecuaciones diferenciales (11.17, 11.18) queda 2 ∂ 1 ∂ 1 ∂2 − + + Ylm (θ, ϕ) = l (l + 1) Ylm (θ, ϕ) ∂θ 2 tan θ ∂θ sin2 θ ∂ϕ2 ∂ −i~ Ylm (θ, ϕ) = m~Ylm (θ, ϕ) ∂ϕ que est´ an expresando la ecuaci´ on de valores propios L2 Ylm (θ, ϕ) = l (l + 1) Ylm (θ, ϕ) ; L3 Ylm (θ, ϕ) = m~Ylm (θ, ϕ)
(11.19)
(11.20) (11.21)
CAP´ITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES
330
f (r) es una funci´ on de r que aparece como constante de integraci´ on para las ecuaciones diferenciales (11.17, 11.18). Es importante tener en cuenta que f (r) debe ser tal que ψl,m,k (r, θ, ϕ) = f (r) Ylm (θ, ϕ) sea de cuadrado integrable. El hecho de que f (r) sea arbitrario nos indica que L2 y L3 no forman un C.S.C.O. en el espacio Er de funciones de r es decir de funciones en r, θ, ϕ. En virtud de esto deber´ıamos introducir un ´ındice adicional en las Ecs. (11.20, 11.21) para las soluciones indicando la posible degeneraci´ on de ´estas. Sin embargo, veremos que estas soluciones ser´ an u ´nicas para l y m dados salvo por un factor constante. Esto indica que toda la degeneraci´ on estar´ a en el factor f (r) en la Ec. (11.19). Para normalizar la funci´ on completa ψlmk (r, θ, ϕ) es conveniente normalizar la parte angular Ylm (θ, ϕ) y la parte radial f (r) separadamente. Estas relaciones de normalizaci´ on se manifestar´ an en ecuaciones de la forma Z 2π Z dϕ sin θ |Ylm (θ, ϕ)|2 dθ = 1 0 Z ∞ r 2 |f (r)|2 dr = 1 0
11.2.
Valores permitidos de l y m
La Ec. (11.21) para Ylm (θ, ϕ) muestra que Ylm (θ, ϕ) es igual a Ylm (θ, ϕ) = Flm (θ) eimϕ
(11.22)
podemos cubrir todo el espacio barriendo ϕ entre 0 y 2π. N´ otese que si Ylm (θ, ϕ) no fuera cont´ınua en alg´ un valor 2 de θ, ϕ, no ser´ıa diferenciable y no podr´ıa ser funci´ on propia de los operadores diferenciales L3 y L . En particular la continuidad en ϕ = 0 nos lleva a Ylm (θ, ϕ = 0) = Ylm (θ, ϕ = 2π) que implica adem´ as e2imπ = 1
(11.23)
m solo puede ser entero o semientero. Si m es semientero se puede parametrizar como m = (n + 1/2) con n = 0, 1, 2, . . ., en este caso se tiene 1 e2imπ = e2(n+ 2 )iπ = e2niπ eiπ = −1 de modo que si m es semientero viola la condici´ on (11.23). Por otro lado, sabemos que l y m son ambos enteros o ambos semienteros. En consecuencia, tanto m como l solo pueden tomar valores enteros. La siguiente pregunta natural es si l puede tomar todos los valores enteros no negativos. Para ello tendremos en cuenta que seg´ un la teor´ıa general (lema 6, P´ ag. 314) se debe satisfacer L+ Yll (θ, ϕ) = 0
(11.24)
ahora reemplazando (11.14) y (11.22), en la Ec. (11.24) tenemos i ∂ ∂ h iϕ ~e + i cot θ Fll (θ) eilϕ = 0 ∂θ ∂ϕ ∂Fll (θ) + i (il) cot θ Fll (θ) eilϕ = 0 ∂θ finalmente
teniendo en cuenta que
d − l cot θ Fll (θ) = 0 dθ cot θ dθ =
d (sin θ) sin θ
(11.25)
(11.26)
´ ´ 11.3. PROPIEDADES FUNDAMENTALES DE LOS ARMONICOS ESFERICOS la soluci´ on general de la ecuaci´ on es
Fll (θ) = cl (sin θ)l
331
(11.27)
siendo cl una constante de normalizaci´ on. Se puede demostrar inversamente que esta funci´ on es funci´ on propia de L2 y L3 con autovalores l (l + 1) ~2 y l~. Usando (11.12) y (11.22) vemos que L3 Yll (θ, ϕ) =
i il~ ~ ∂ h Fll (θ) eilϕ = Fll (θ) eilϕ i ∂ϕ i
L3 Yll (θ, ϕ) = l~Yll (θ, ϕ)
(11.28)
multiplicando (11.24) por L− y usando (10.17) resulta L− L+ Yll (θ, ϕ) y usando (11.28) mostramos que
L2 − L23 − ~L3 Yll (θ, ϕ) = 0 ⇒ ⇒ L2 Yll (θ, ϕ) = L23 + ~L3 Yll (θ, ϕ) = (L3 + ~) L3 Yll (θ, ϕ) =
0 ⇒
L2 Yll (θ, ϕ) = (L3 + ~) (l~) Yll (θ, ϕ) = (l~ + ~) (l~) Yll (θ, ϕ) L2 Yll (θ, ϕ) = l (l + 1) ~2 Yll (θ, ϕ) por tanto para cada valor entero no negativo de l, existe una funci´ on Yll u ´nica dentro de factores constantes de la forma Yll (θ, ϕ) = cl (sin θ)l eilϕ adicionalmente, el factor cl se determina por normalizaci´ on. Es usual adem´ as elegir una fase 0 para l par y π para l impar, de modo que r 1 (2l + 1)! |cl | = l ; cl = (−1)l |cl | 2 l! 4π quedando finalmente r (2l + 1)! l 1 Yll (θ, ϕ) = (−1) l (sin θ)l eilϕ (11.29) 2 l! 4π y a trav´es de la acci´ on iterativa de L− podemos constru´ır Yl,l−1 , . . . , Yl,m , . . . , Yl,−l . En s´ıntesis, para cada par (l, m) con l entero no negativo y m entero con la condici´ on −l ≤ m ≤ l; existe una y solo una funci´ on Ylm (θ, ϕ) (dentro de factores constantes), que se puede calcular de (11.29) y que es funci´ on propia de L2 y L3 con valores propios l (l + 1) ~2 y m~. A estas autofunciones se les denomina arm´ onicos esf´ ericos. La forma general de estas funciones viene dada por s 2l + 1 (l − m)! m Ylm (θ, ϕ) = P (cos θ) eimϕ (11.30) 4π (l + m)! l Plm (x) =
l+m l (−1)m 2 m/2 d 1 − x x2 − 1 l l+m 2 · l! dx
(11.31)
donde las funciones Plm (x) se conocen como polinomios asociados de Legendre.
11.3.
Propiedades fundamentales de los arm´ onicos esf´ ericos
Algunas de las propiedades de los arm´ onicos esf´ericos se pueden extraer de la teor´ıa general. Por ejemplo, de la Ec. (10.47) tenemos que p L± Ylm (θ, ϕ) = ~ l (l + 1) − m (m ± 1)Yl,m±1 (θ, ϕ) (11.32)
CAP´ITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES
332
utilizando las expresiones diferenciales de L± Ecs. (11.14, 11.15) junto con (11.22), expresamos esta propiedad en forma diferencial p ∂ iϕ e l (l + 1) − m (m + 1)Yl,m+1 (θ, ϕ) − m cot θ Ylm (θ, ϕ) = ∂θ p ∂ l (l + 1) − m (m − 1)Yl,m−1 (θ, ϕ) e−iϕ − − m cot θ Ylm (θ, ϕ) = ∂θ
11.3.1.
Ortonormalidad y completez
Las Ecuaciones (11.20, 11.21) determinan a los arm´ onicos esf´ericos salvo por un factor multiplicativo. Podemos escoger este factor de manera que se normalicen estas autofunciones. La condici´ on de ortonormalidad se escribe como1 Z Yl∗′ m′ (θ, ϕ) Ylm (θ, ϕ) dΩ = δll′ δmm′
teniendo en cuenta la expresi´ on del ´ angulo s´olido (11.4) esta se escribe como Z
2π
dϕ 0
Z
π 0
sin θ dθ Yl∗′ m′ (θ, ϕ) Ylm (θ, ϕ) = δll′ δmm′
(11.33)
es un hecho adem´as que cualquier funci´ on de θ y ϕ que sea de cuadrado integrable, se puede expandir en t´erminos de los arm´ onicos esf´ericos f (θ, ϕ) =
∞ X +l X
l=0 m=−l
clm Ylm (θ, ϕ) ; clm = hlm| f i =
Z
2π
dϕ 0
Z
π 0
∗ sin θ dθ Ylm (θ, ϕ) f (θ, ϕ)
por tanto los arm´onicos esf´ericos son una base ortonormal en el espacio EΩ de funciones de θ y ϕ. Esto se expresa con relaciones de completez que aplican en este espacio ∞ X +l X
l=0 m=−l
δ (θ − θ ′ ) δ (ϕ − ϕ′ ) ∗ Ylm (θ, ϕ) Ylm θ ′ , ϕ′ = δ cos θ − cos θ ′ δ ϕ − ϕ′ = sin θ
la inclusi´ on de δ (cos θ − cos θ ′ ) en la relaci´ on de completez se debe a que el elemento diferencial de ´ angulo s´ olido se escribe como dΩ = sin θ dθ dϕ = −d (cos θ) dϕ. N´ otese que la completez no est´ a garantizada por la teor´ıa general cuando el espacio vectorial es de dimensi´ on infinita, es de hecho una hip´ otesis de trabajo que debe ser demostrada expl´ıcitamente.
11.3.2.
Propiedades de paridad y conjugaci´ on
El cambio r → −r en coordenadas cartesianas se expresa como (x1 , x2 , x3 ) → (−x1 , −x2 , −x3 ). En coordenadas esf´ericas esta transformaci´ on de paridad se expresa en la forma r →r , θ →π−θ , ϕ→π+ϕ se puede demostrar que Ylm (π − θ, π + ϕ) = (−1)l Ylm (θ, ϕ) 1
(11.34)
La constante de normalizaci´ on para Ylm (θ, ϕ) arbitrario se puede calcular determinando la constante de normalizaci´ on para Yll (θ, ϕ) en la Ec. (11.29) y usando la Ec. (10.38) de la P´ ag. 318, que garantiza la normalizaci´ on de cada Ylm (θ, ϕ) generado a trav´es de L− a partir de Yll (θ, ϕ). La ortogonalidad en l y m est´ a garantizada por el hecho de que si l 6= l′ tenemos dos vectores propios asociados a valores propios diferentes del operador herm´ıtico L2 , y si m 6= m′ tenemos dos vectores propios asociados a dos valores propios diferentes del operador herm´ıtico L3 .
´ ´ 11.3. PROPIEDADES FUNDAMENTALES DE LOS ARMONICOS ESFERICOS
333
de modo que los arm´ onicos esf´ericos tienen paridad definida, la cual es independiente de m. Si l es par (impar) todos sus 2l + 1 arm´ onicos esf´ericos asociados son pares (impares). Tambi´en se puede demostrar que bajo conjugaci´ on los arm´ onicos esf´ericos tienen la propiedad ∗ (θ, ϕ) = (−1)m Yl,−m (θ, ϕ) Ylm
11.3.3.
(11.35)
Arm´ onicos esf´ ericos de la forma Yl,0 (θ) y polinomios de Legendre
Para m = 0, los arm´ onicos esf´ericos se vuelven independientes de ϕ, y adquieren la forma r (−1)l 2l + 1 dl Yl,0 (θ) = (sin θ)2l 2l l! 4π d (cos θ)l r (−1)l dl 2l + 1 2 l 1 − u Yl,0 (θ) = Pl (cos θ) ; Pl (u) ≡ l 4π 2 l! dul
(11.36) (11.37)
Pl (u) se denomina el polinomio de Legendre de grado l. Estos polinomios son ortogonales Z
+1
−1
du Pl (u) Pl′ (u) =
Z
0
π
sin θ dθ Pl (cos θ) Pl′ (cos θ) =
2 δll′ 2l + 1
(11.38)
y generan una base para generar cualquier funci´ on de θ de cuadrado integrable f (θ) =
∞ X l=0
cl Pl (cos θ)
;
2l + 1 cl = 2
Z
π
sin θ dθ Pl (cos θ) f (θ)
(11.39)
0
por tanto, cuando el problema tiene simetr´ıa azimutal i.e. es independiente de ϕ, es usual utilizar polinomios de Legendre o arm´ onicos esf´ericos del tipo Yl,0 (θ). De hecho, en una expansi´ on de una funci´ on f (θ) en arm´ onicos esf´ericos Yl,m (θ, ϕ), solo contribuir´ an los arm´ onicos con m = 0. Otras propiedades de los polinomios de Legendre son (11.40) Pl (1) = 1 ; Pl (−u) = (−1)l Pl (u) n´ otese que la paridad est´ a definida con respecto a la variable u. Al hacer u = cos θ esta propiedad de paridad se manifiesta en la variable espacial θ en la forma Yl,0 (π − θ) = (−1)l Yl,0 (θ) que es un caso especial de (11.34). La Ec. (11.38) nos muestra que los polinomios de Legendre son ortogonales pero no est´ an normalizados. En contraste, las funciones Yl,0 (θ) son ortonormales.
11.3.4.
Teorema de adici´ on de los arm´ onicos esf´ ericos
Consideremos dos direcciones arbitrarias en el espacio cuyas orientaciones est´ an especificadas por los ´ angulos (θ1 , ϕ1 ) y (θ2 , ϕ2 ), as´ı como por los vectores unitarios u1 (θ1 , ϕ1 ) y u2 (θ2 , ϕ2 ). El ´ angulo entre los vectores u1 y u2 lo denotamos por α. Para esta situaci´ on hay una relaci´ on espec´ıfica entre los arm´ onicos esf´ericos asociados a (θ1 , ϕ1 ) y (θ2 , ϕ2 ) y los polinomios de Legendre asociados a α l l X X 2l + 1 m ∗ Pl (cos α) = (−1) Ylm (θ1 , ϕ1 ) Yl,−m (θ2 , ϕ2 ) = Ylm (θ1 , ϕ1 ) Yl,m (θ2 , ϕ2 ) 4π m=−l
(11.41)
m=−l
donde hemos utilizado tambi´en la propiedad (11.35). Esta relaci´ on se conoce como teorema de adici´ on de los arm´ onicos esf´ ericos.
CAP´ITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES
334
11.4.
Construcci´ on de bases est´ andar de la funci´ on de onda espacial de una part´ıcula sin esp´ın
En general L2 y L3 no forman un C.S.C.O. de modo que los subespacios Er (l, m) no son en general unidimensionales. Por tanto aplicaremos el algoritmo descrito en la secci´ on 10.4.1 para construir una base est´ andar para Er . Comenzamos entonces por el subespacio Er (l, l) que ser´ıa el espacio de las autofunciones de L2 y L3 con valores propios l (l + 1) ~2 y l~. El punto de partida es constru´ır una base ortonormal en Er (l, l) que denotaremos por {ψl,l,k (r)} donde k es el ´ındice que recorre la base cuando L2 y L3 no forman un C.S.C.O. El siguiente paso consiste en aplicar iterativamente el operador L− sobre todos los elementos {ψl,l,k (r)} de Er (l, l) para generar una base ortonormal sobre los subespacios Er (l, l − 1) , Er (l, l − 2) , . . . , Er (l, m) , . . . , Er (l, −l + 1) , Er (l, −l) Todos los elementos de estas bases cumplen con las Ecs. (10.19, 10.47), que en este contexto se escriben como L2 ψl,m,k (r) = l (l + 1) ~2 ψl,m,k (r) ; L3 ψl,m,k (r) = m~ψl,m,k (r) p L± ψl,m,k (r) = ~ l (l + 1) − m (m ± 1)ψl,m±1,k (r)
(11.42) (11.43)
pero ya hemos visto que todas las funciones propias de L2 y L3 correspondientes a un par espec´ıfico (l, m) poseen la misma dependencia angular denotada por Ylm (θ, ϕ). Es decir la variaci´ on de k para l, m fijos, solo hace que var´ıe la dependencia radial de ψl,m,k (r). De las Ecuaciones (11.19) ya dedujimos que las funciones propias ψl,m,k (r) tienen la forma ψl,m,k (r) = Rl,m,k (r) Ylm (θ, ϕ) (11.44) uan sobre la apliquemos el operador L± sobre la Ec. (11.44) teniendo en cuenta que tales operadores solo act´ componente angular p L± ψl,m,k (r) = Rl,m,k (r) L± Ylm (θ, ϕ) = ~ l (l + 1) − m (m ± 1)Rl,m,k (r) Yl,m±1 (r) comparando con la Ec. (11.43) vemos que la funci´ on radial debe satisfacer para todo r la condici´ on Rl,m±1,k (r) = Rl,m,k (r) la aplicaci´ on sucesiva de L± nos lleva a que R (r) no puede depender de m. Este resultado se puede enunciar de la siguiente manera: Si {ψl,m,k (r)} constituye una base est´ andar de Er , su funci´ on radial asociada no puede depender de m de modo que estas funciones se escriben como ψl,m,k (r) = Rl,k (r) Ylm (θ, ϕ)
(11.45)
Podr´ıamos estar tentados a pensar que la funci´ on radial solo depende de la degeneraci´ on k. Sin embargo, la funci´on radial tambi´en depende en general de l por la siguiente raz´ on: una funci´ on de la forma f (r) g (θ, ϕ) solo puede ser cont´ınua en el origen (r = 0, θ y ϕ arbitrarios) si g (θ, ϕ) se reduce a una constante o si f (r) tiende a cero cuando r → 0 con f (0) = 0. Para ver esto, basta con observar que si g (θ, ϕ) es no trivial, entonces el l´ımite de f (r) g (θ, ϕ) cuando r → 0 depender´ a de la direcci´ on por la cual nos aproximemos al origen si f (r) no tiende a cero cuando r → 0. De lo anterior vemos que si requerimos que ψl,m,k (r) sea cont´ınuo, entonces solo las funciones radiales con l = 0 pueden ser no nulas en el origen (puesto que Y00 es constante). Si adem´ as requerimos diferenciabilidad hasta cierto orden en el origen obtendremos condiciones sobre Rl,k (r) que dependen de l. Las relaciones de ortonormalidad de estas funciones se escriben en la forma Z Z ∞ ∗ ∗ d3 r ψl,m,k (r) ψl′ ,m′ ,k′ (r) = r 2 dr Rl,k (r) Rl′ ,k′ (r) 0 Z 2π Z π ∗ × dϕ sin θ dθ Ylm (θ, ϕ) Yl′ m′ (θ, ϕ) = δkk′ δll′ δmm′ 0
0
´ PARA SISTEMAS EN UN ESTADO |L, M, Ki 11.5. VALORES ESPERADOS Y DISPERSION
335
y dado que los arm´ onicos esf´ericos son ortonormales Ec. (11.33) tenemos que Z
0
∞
2
r dr
∗ Rl,k
(r) Rl′ ,k′ (r)
Z
2π
dϕ 0
Z
π
∗ Ylm (θ, ϕ) Yl′ m′
(θ, ϕ) = δkk′ δll′ δmm′
sin θ dθ Z ∞ ∗ δll′ δmm′ r 2 dr Rl,k (r) Rl′ ,k′ (r) = δkk′ δll′ δmm′ 0
(11.46)
0
Z
∞
0
∗ r 2 dr Rl,k (r) Rl,k′ (r) = δkk′
(11.47)
de modo que las funciones radiales Rl,k (r) est´ an normalizadas con respecto a r y dos funciones radiales asociadas al mismo valor de l pero con diferente valor de k son ortogonales. N´ otese que la relaci´ on (11.47) proviene del hecho de que las funciones ψl,l,k (r) = Rl,k (r) Yll (θ, ϕ) que se escogieron como base en el subespacio Er (l, l) son ortonormales. Por tal raz´ on, es esencial que el ´ındice l sea el mismo en ambas funciones radiales de la ecuaci´ on (11.47). Si l 6= l′ entonces ψl,m,k y ψl′ ,m′ ,k′ deben ser ortogonales puesto que corresponden a funciones propias de L2 con diferente valor propio, pero la ortogonalidad de los arm´ onicos esf´ericos ya garantiza la ortogonalidad de las ψ ′ s cuando l 6= l′ , de modo que en general la integral a la izquierda de (11.47) toma cualquier valor, esto se puede apreciar haciendo l 6= l′ en (11.46).
11.5.
Valores esperados y desviaciones medias cuadr´ aticas de observables cuando el sistema est´ a en un estado |l, m, ki
Supongamos que una part´ıcula sin esp´ın est´ a en el estado |l, m, ki que es autoestado de L2 y L3 con valores 2 propios l (l + 1) ~ y m~. Por tanto, el cuadrado de su momento angular y su proyecci´ on a lo largo de X3 est´ an bien definidos. Supongamos ahora que queremos medir las proyecciones a lo largo de los otros dos ejes L1 y L2 ; puesto que estos observables no conmutan con L3 , los estados |l, m, ki no son en general autoestados de L1 ni de L2 , por tanto las predicciones sobre sus autovalores ser´ an solo probabil´ısticas. Calculemos entonces los valores esperados y las ra´ıces de las desviaciones medias cuadr´ aticas de L1 y L2 . Para ello expresamos estos observables en t´erminos de los operadores escalera L± invirtiendo las Ecs. (11.45) L1 =
1 1 (L+ + L− ) ; L2 = (L+ − L− ) 2 2i
por tanto L1 |l, m, ki es una combinaci´ on lineal de los estados |l, m + 1, ki y |l, m − 1, ki, similarmente ocurre con L2 |l, m, ki, esto nos lleva por tanto a que hl, m, k| L1 |l, m, ki = hl, m, k| L2 |l, m, ki = 0 para calcular las desviaciones medias cuadr´ aticas debemos calcular los valores esperados de L21 , L22 hl, m, k| L21 |l, m, ki = =
1 hl, m, k| (L+ + L− ) (L+ + L− ) |l, m, ki 4 1 hl, m, k| L2+ + L2− + L+ L− + L− L+ |l, m, ki 4
1 hl, m, k| L22 |l, m, ki = − hl, m, k| (L+ − L− ) (L+ − L− ) |l, m, ki 4 1 = − hl, m, k| L2+ + L2− − L+ L− − L− L+ |l, m, ki 4
(11.48)
336
CAP´ITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES
los t´erminos con L2± no contribuyen puesto que L2+ |l, m, ki = c± |l, m ± 2, ki. Por tanto ambos valores esperados son id´enticos. Usando la Ec. (10.17) se obtiene 1 hl, m, k| [L+ L− + L− L+ ] |l, m, ki 4 1 ~2 hl, m, k| 2L2 − 2L23 |l, m, ki = l (l + 1) − m2 4 2
hl, m, k| L21 |l, m, ki = hl, m, k| L22 |l, m, ki = = las desviaciones medias cuadr´ aticas son
(∆L1 )2 = (∆L2 )2 = hl, m, k| L21 |l, m, ki − [hl, m, k| L1 |l, m, ki]2 =
(11.49)
~2 l (l + 1) − m2 2
en resumen cuando la part´ıcula est´ a en el estado |l, m, ki, los valores esperados y ra´ıces de las desviaciones medias cuadr´ aticas de L1 y L2 son hl, m, k| L1 |l, m, ki = hl, m, k| L2 |l, m, ki = 0 r 1 ∆L1 = ∆L2 = ~ [l (l + 1) − m2 ] 2
(11.50) (11.51)
Este alogo cl´ asico: asumamos un momento angular cl´ asico de m´ odulo |L| = L = p resultado posee el siguiente an´ ~ l (l + 1) y cuya tercera componente L3 es igual a m~. Si graficamos a L en un espacio de configuraci´ on con ejes L1 , L2 , L3 colocando el vector L con la cola en el origen, podemos describir tal vector en coordenadas esf´ericas con ´angulo polar θ y ´ angulo azimutal ϕ L1 = L sin θ cos ϕ ; L2 = L sin θ sin ϕ ; L3 = L cos θ L21
+ L22 = L2 sin2 θ
de acuerdo con nuestras hip´ otesis por tanto
p L = ~ l (l + 1) ; L3 = m~
L21 + L22 = L2 − L23 = l (l + 1) ~2 − m2 ~2 = l (l + 1) − m2 ~2 q p L21 + L22 = L sin θ = ~ [l (l + 1) − m2 ]
y las componentes del momento angular son
p L1 = L sin θ cos ϕ = ~ [l (l + 1) − m2 ] cos ϕ p L2 = L sin θ sin ϕ = ~ [l (l + 1) − m2 ] sin ϕ p L3 = L cos θ = ~ l (l + 1) cos θ
asumamos ahora que los valores de L y θ son conocidos y que el ´ angulo azimutal ϕ es una variable aleatoria que puede tomar cualquier valor en el intervalo [0, 2π) con igual probabilidad en todo el rango. Si promediamos sobre ϕ tenemos Z 2π ~p L1 = [l (l + 1) − m2 ] cos ϕ dϕ = 0 2π 0 Z 2π ~p 2 L2 = [l (l + 1) − m ] sin ϕ dϕ = 0 2π 0 L1 = L2 = 0 (11.52)
11.6. PROBABILIDADES ASOCIADAS A LA MEDIDA DE L2 Y L3 EN UN ESTADO ARBITRARIO
337
adicionalmente L21 L22 L21
Z
2π
~2 l (l + 1) − m2 2 0 Z 2π ~2 l (l + 1) − m2 l (l + 1) − m2 = sin2 ϕ dϕ = 2 0 2 ~ = L22 = l (l + 1) − m2 2 =
~2 2π ~2 2π
l (l + 1) − m2
cos2 ϕ dϕ =
(11.53)
vemos que los promedios cl´ asicos de L1 , L2 , L21 , L22 dados por las Ecs. (11.52, 11.53) son id´enticos a los valores esperados cu´ anticos dados en las Ecs. (11.50,
para una part´ıcula en el estado |l, m, ki. Por tanto, en lo
11.51) antica en el estado |l, m, ki se comporta que concierne a los valores de hL1 i, hL2 i , L21 , L22 , una part´ıcula cu´ p de manera similar a una particula cl´ asica con momento angular de magnitud L = ~ l (l + 1) y con tercera on uniforme de probabilidad sobre el componente L3 = m~ para el cual ϕ es una variable aleatoria con distribuci´ intervalo [0, 2π). No obstante, este an´ alogo cl´ asico tambi´en tiene sus limitaciones. Por ejemplo en este modelo cl´ asico puesto que ϕ es aleatoria valor en el cont´ınuo nos lleva a que L1 y L2 puede tomar cualquier p y puede tomar cualquier p valor entre −~ [l (l + 1) − m2 ] y ~ [l (l + 1) − m2 ]. En contraste, para el caso cu´ antico los valores accesibles de todas las componentes para una medida individual de la part´ıcula en el estado |l, m, ki est´ an cuantizados. Espec´ıficamente, hemos visto que los valores accesibles de L1 y L2 coinciden con los de L3 , puesto que l es fijo hay 2l + 1 valores accesibles que son l~, (l − 1) ~, . . . , (−l + 1) ~, −l~.
11.6.
Probabilidades asociadas a la medida de L2 y L3 en un estado arbitrario
Consideremos una part´ıcula cuyo estado est´ a descrito por la funci´ on de onda normalizada dada por hr |ψi = ψ (r) = ψ (r, θ, ϕ) calcularemos ahora la probabilidad de obtener un valor espec´ıfico l (l + 1) ~2 de L2 y/o un valor espec´ıfico m~ de L3 . Puesto que L2 y L3 son variables compatibles, podemos hacer una medici´ on simult´ anea de estas cantidades. 2 Denotaremos PL2 ,L3 (l, m) la probabilidad de obtener los valores l (l + 1) ~ y m~ en una medici´on simult´ anea de dichas cantidades. Para ello expandimos ψ (r) en autoestados de L2 y L3 , para lo cual escogeremos una base est´ andar de la forma (11.45) ψl,m,k (r) = Rl,k (r) Ylm (θ, ϕ) esta expansi´ on es entonces ψ (r) =
XXX k
l
cl,m,k Rl,k (r) Ylm (θ, ϕ)
donde los coeficientes de Fourier de la expansi´ on son los usuales Z ∗ cl,m,k = hl, m, k |ψi = d3 r ψl,m,k (r) ψ (r) Z ∞ Z 2π Z π ∗ ∗ = r 2 dr Rl,k (r) dϕ sin θ dθ Ylm (θ, ϕ) ψ (r, θ, ϕ) 0
(11.54)
m
0
(11.55)
0
de acuerdo con los postulados, la probabilidad PL2 ,L3 (l, m) est´ a dada por PL2 ,L3 (l, m) =
X k
|cl,m,k |2
(11.56)
CAP´ITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES
338
si medimos L2 solamente, la probabilidad PL2 (l) de obtener l (l + 1) ~2 es l X
l X X
|cl,m,k |2
(11.57)
ahora, si medimos L3 u ´nicamente, la probabilidad de obtener m~ es X X X PL3 (m) = PL2 ,L3 (l, m) = |cl,m,k |2
(11.58)
PL2 (l) =
PL2 ,L3 (l, m) =
m=−l
k m=−l
k l≥|m|
l≥|m|
estrictamente la condici´ on l ≥ |m| se satisface autom´ aticamente ya que no hay coeficientes cl,k,m con l < |m|. Adicionalmente, si tenemos en cuenta que L2 , Li , L± son operadores diferenciales que solo act´ uan sobre las variables angulares, solo la dependencia angular en ψ (r) ser´ a relevante para calcular estas probabilidades. En consecuencia, r se puede ver como un par´ ametro para estos c´ alculos (cantidad arbitraria pero fija). Si consideramos que ψ (r, θ, ϕ) es funci´ on de las variables θ, ϕ y que r es un par´ ametro, entonces puesto que toda funci´ on de θ y ϕ se podr´ a expandir en arm´ onicos esf´ericos con coeficientes que dependen del par´ ametro r, tendremos XX al,m (r) Ylm (θ, ϕ) (11.59) ψ (r, θ, ϕ) = m
l
alm (r) = hlm| ψi =
Z
2π
dϕ 0
Z
π
0
∗ sin θ dθ Ylm (θ, ϕ) ψ (r, θ, ϕ)
(11.60)
si comparamos las expansiones (11.54, 11.59) vemos que los cl,m,k son los coeficientes de la expansi´ on de al,m (r) en las funciones Rl,k (r) X al,m (r) = cl,m,k Rl,k (r) (11.61) k
usando (11.55) y (11.60) se obtiene Z 2π Z ∞ Z π ∗ ∗ cl,m,k = r 2 dr Rl,k (r) dϕ sin θ dθ Ylm (θ, ϕ) ψ (r, θ, ϕ) 0 0 Z0 ∞ ∗ cl,m,k = r 2 dr Rl,k (r) al,m (r)
(11.62)
0
∗ (r), la Ec. (11.62) es la inversa de (11.61). De hecho la Ec. (11.62) se puede obtener multiplicando (11.61) por r 2 Rl,k integrando en r y utilizando la relaci´ on de ortonormalidad (11.47). Usando las Ecs. (11.47, 11.61) se obtiene " #" # Z ∞ Z ∞ X X 2 ∗ r 2 dr |al,m (r)| = r 2 dr c∗l,m,k Rl,k (r) cl,m,k′ Rl,k′ (r)
Z
Z
0
0
∞
0 ∞ 0
XX
r 2 dr |al,m (r)|2 = r 2 dr |al,m (r)|2 =
k
c∗l,m,k cl,m,k′
k′
k
X
k
Z
0
∞
k′
∗ r 2 dr Rl,k (r) Rl,k′ (r) =
X
c∗l,m,k cl,m,k′ δkk′
k,k ′
|cl,m,k |2
por lo tanto, la probabilidad PL2 ,L3 (l, m) descrita por la Ec. (11.56) se puede reescribir como Z ∞ PL2 ,L3 (l, m) = r 2 dr |al,m (r)|2
(11.63)
0
de lo cual se puede deducir las probabilidades PL2 (l) y PL3 (m) PL2 (l) =
Z l X
m=−l
∞ 0
2
2
r dr |al,m (r)|
; PL3 (m) =
X Z
l≥|m| 0
∞
r 2 dr |al,m (r)|2
(11.64)
11.6. PROBABILIDADES ASOCIADAS A LA MEDIDA DE L2 Y L3 EN UN ESTADO ARBITRARIO
339
en s´ıntesis, para calcular las probabilidades asociadas a las medidas de los observables L2 y L3 podemos considerar a la funci´ on de onda solo como funci´ on de las variables θ, ϕ y expandir dicha funci´ on en arm´ onicos esf´ericos como se v´e en la Ec. (11.59). Los coeficientes de esta expansi´ on se usan entonces para calcular las probabilidades como se v´e en las Ecs. (11.63, 11.64). Ahora bien, la Ec. (11.12) nos muestra que el operador L3 solo depende del ´ angulo azimutal ϕ. Por tanto, para el c´ alculo de PL3 (m) podemos considerar a ϕ como la u ´nica variable en ψ (r) siendo r y θ par´ ametros en la funci´on de onda. Para ver esto basta con observar que los arm´ onicos esf´ericos son el producto de una funci´ on de solo θ por una funci´ on de solo ϕ eimϕ Ylm (θ, ϕ) = Zlm (θ) √ (11.65) 2π con esta parametrizaci´ on cada una de las funciones del producto est´ a normalizada, esto se v´e teniendo en cuenta que Z 2π ′ e−imϕ eim ϕ √ dϕ √ = δmm′ 2π 2π 0 si sustitu´ımos esto en la relaci´ on de ortonormalidad para los arm´ onicos esf´ericos Ec. (11.33) encontramos que Z 2π Z π dϕ sin θ dθ Yl∗′ m′ (θ, ϕ) Ylm (θ, ϕ) = δll′ δmm′ 0 " 0 # Z 2π Z π −im′ ϕ e eimϕ ∗ dϕ sin θ dθ Zl′ m′ (θ) √ Zlm (θ) √ = δll′ δmm′ 2π 2π 0 0 #Z "Z 2π −im′ ϕ imϕ π e e √ √ dϕ sin θ dθ Zl∗′ m′ (θ) Zlm (θ) = δll′ δmm′ 2π 2π 0 0 Z π δmm′ sin θ dθ Zl∗′ m′ (θ) Zlm (θ) = δll′ δmm′ (11.66) 0
Z
π 0
∗ sin θ dθ Zl,m (θ) Zl′ ,m (θ) = δll′
(11.67)
n´ otese que en esta relaci´ on solo aparece un n´ umero cu´ antico m ya que si m 6= m′ ambos miembros en (11.66) se anulan para cualquier valor de la integral que aparece a la izquierda de (11.66), de modo que a priori esta integral puede tomar cualquier valor. on de onda ψ (r) como una funci´ on que solo depende de Tomaremos entonces para el c´ alculo de PL3 a la funci´ ϕ como variable y que depende solo param´etricamente de θ y r. Su expansi´ on de Fourier ser´ a Z 2π X eimϕ 1 ψ (r, θ, ϕ) = bm (r, θ) √ ; bm (r, θ) = √ dϕ e−imϕ ψ (r, θ, ϕ) (11.68) 2π 2π 0 m si reescribimos las Ecs. (11.59, 11.60) con la parametrizaci´ on (11.65) obtenemos XX
eimϕ al,m (r) Zlm (θ) √ 2π m l Z 2π Z π e−imϕ ∗ alm (r) = hlm| ψi = dϕ sin θ dθ Zlm (θ) √ ψ (r, θ, ϕ) 2π 0 0
ψ (r, θ, ϕ) =
(11.69) (11.70)
si comparamos las Ecs. (11.68) con las Ecs. (11.69, 11.70) vemos que los alm con m fijo son los coeficientes de la expansi´ on de bm (r, θ) sobre las funciones Zlm (θ) para tal valor de m Z π X ∗ bm (r, θ) = al,m (r) Zlm (θ) ; alm (r) = sin θ dθ Zlm (θ) bm (r, θ) (11.71) l
0
CAP´ITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES
340
multiplicando a ambos lados de (11.71) por sin θ dθ y por el conjugado de cada miembro e integrando resulta " #" # X X ∗ ∗ ∗ bm (r, θ) bm (r, θ) sin θ dθ = al,m (r) Zlm (θ) al′ ,m (r) Zl′ m (θ) sin θ dθ Z
l′
l
π
0
2
|bm (r, θ)|
sin θ dθ =
XX l
al,m (r)
Z
a∗l′ ,m (r)
l′
π
0
Zlm (θ) Zl∗′ m (θ) sin θ dθ
y usando (11.67) resulta Z Z
π 0 π 0
|bm (r, θ)|2 sin θ dθ = |bm (r, θ)|2 sin θ dθ =
XX l
X l
al,m (r) a∗l′ ,m (r) δll′
l′
|al,m (r)|2
(11.72)
y sustituyendo (11.72) en la segunda de las ecuaciones (11.64), la probabilidad PL3 (m) queda en la forma Z ∞ Z π 2 PL3 (m) = r dr sin θ dθ |bm (r, θ)|2 (11.73) 0
0
on de onda, las Por lo tanto, en lo que respecta al c´ alculo de PL3 (m) se puede considerar que para la funci´ cantidades r y θ son par´ ametros y la u ´nica variable es ϕ. Con esta consideraci´ on, la expansi´ on de Fourier se hace en la forma indicada en (11.68) y los coeficientes de la expansi´ on se utilizan para calcular PL3 (m) como se observa en la Ec. (11.73). Por otro lado, vemos que para calcular PL2 los dos ´ angulos θ y ϕ son relevantes ya que el operador diferencial asociado (11.13) depende de ambos ´ angulos. Por tanto la u ´nica cantidad que se puede considerar como par´ ametro para este c´ alculo es r y debemos emplear la f´ ormula (11.64).
11.7.
Ejemplos de c´ alculos de probabilidad para L2 y L3
11.7.1.
Funci´ on de onda parcialmente separable
Supongamos que la funci´ on de onda ψ (r) de una part´ıcula tiene la forma ψ (r, θ, ϕ) = f (r) g (θ, ϕ)
(11.74)
siempre es posible normalizar cada funci´ on por separado de modo que Z ∞ Z 2π Z π 2 2 r dr |f (r)| = 1 ; dϕ sin θ dθ |g (θ, ϕ)|2 = 1 0
0
(11.75)
0
la expansi´ on (11.59, 11.60) se escribe entonces en la forma f (r) g (θ, ϕ) =
XX
al,m (r) Ylm (θ, ϕ) ; alm (r) = f (r)
f (r) g (θ, ϕ) = f (r)
XX l
m
2π
dϕ
0
m
l
Z
Z
π 0
∗ sin θ dθ Ylm (θ, ϕ) g (θ, ϕ)
dl,m Ylm (θ, ϕ) ; alm (r) ≡ f (r) dlm
quedando entonces g (θ, ϕ) =
XX l
m
dl,m Ylm (θ, ϕ) ; dlm ≡
Z
0
2π
dϕ
Z
π 0
∗ sin θ dθ Ylm (θ, ϕ) g (θ, ϕ)
(11.76)
´ 11.7. EJEMPLOS DE CALCULOS DE PROBABILIDAD PARA L2 Y L3 usando la segunda Ec. (11.76), la probabilidad PL2 ,L3 dada en (11.63) queda en la forma Z ∞ Z ∞ 2 2 2 PL2 ,L3 (l, m) = r dr |al,m (r)| = |dl,m | r 2 dr |f (r)|2 0 0 Z 2π Z π ∗ PL2 ,L3 (l, m) = |dl,m |2 ; dlm ≡ dϕ sin θ dθ Ylm (θ, ϕ) g (θ, ϕ) 0
341
(11.77)
0
donde hemos usado la condici´ on de normalizaci´ on radial (11.75). Esta probabilidad es totalmente independiente de la parte radial de la funci´ on de onda f (r).
11.7.2.
Funci´ on de onda totalmente separable
Consideremos ahora el caso en el cual la funci´ on de onda admite una separaci´ on total ψ (r, θ, ϕ) = f (r) h (θ) k (ϕ) de nuevo asumimos que cada funci´ on est´ a normalizada por aparte Z π Z Z ∞ 2 2 2 r dr |f (r)| = sin θ dθ |h (θ)| = 0
0
2π 0
(11.78)
dϕ |k (ϕ)|2 = 1
(11.79)
Por supuesto la Ec. (11.78) es un caso especial de (11.74) de modo que los resultados precedentes son v´ alidos aqu´ı. Pero la separaci´ on adicional nos permite simplificar el c´ alculo de PL3 , pues la expansi´ on (11.68) queda en este caso en la forma Z 2π X eimϕ 1 f (r) h (θ) k (ϕ) = bm (r, θ) √ ; bm (r, θ) = √ f (r) h (θ) dϕ e−imϕ k (ϕ) 2π 2π 0 m X eimϕ f (r) h (θ) k (ϕ) = f (r) h (θ) cm √ ; bm (r, θ) ≡ cm f (r) h (θ) (11.80) 2π m quedando finalmente k (ϕ) =
X m
Z
eimϕ 1 cm √ ; cm ≡ √ 2π 2π
2π
dϕ e−imϕ k (ϕ)
(11.81)
0
ahora aplicando (11.80 y 11.81) a la Ec. (11.73) para el c´ alculo de PL3 se obtiene Z ∞ Z π Z ∞ Z π 2 2 2 PL3 (m) = r dr sin θ dθ |bm (r, θ)| = r dr sin θ dθ |cm f (r) h (θ)|2 0 0 0 Z ∞ 0 Z π = |cm |2 r 2 dr |f (r)|2 sin θ dθ |h (θ)|2 0
0
y usando las condiciones de normalizaci´ on (11.79) se tiene 1 PL3 (m) = |cm |2 ; cm ≡ √ 2π
11.7.3.
Z
2π
dϕ e−imϕ k (ϕ)
(11.82)
0
Comportamiento de la probabilidad con θ y ϕ
Hasta ahora solo se ha considerado una estructura espec´ıfica de separaci´ on de variables en la funci´ on de onda en forma de las Ecs. (11.74, 11.78). Tomaremos ahora ejemplos concretos que cumplan con alguna de estas ecuaciones, por ejemplo asumamos que la funci´ on de onda es de la forma (11.78) pero totalmente independiente de θ y ϕ 1 1 h (θ) = √ ; k (ϕ) = √ 2 2π
(11.83)
342
CAP´ITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES
con lo cual la Ec. (11.78) se convierte en 1 ψ (r) = f (r) √ = f (r) Y00 (θ, ϕ) 4π de modo que una medida de L2 y/o L3 da el valor cero con total certeza. Ahora modifiquemos solo la dependencia con θ r 3 1 cos θ ; k (ϕ) = √ h (θ) = 2 2π r 3 cos θ = Y10 (θ, ϕ) ψ (r) = f (r) 4π de nuevo tenemos certeza total sobre los valores de L2 y L3 en una medida (l = 1, m = 0). Para L2 obtenemos 2~2 y para L3 tendremos cero. Vemos que la modificaci´ on de la dependencia de θ no modifica las predicciones angulo ϕ. concernientes a L3 puesto que tales predicciones solo dependen del ´ Ahora modificamos la dependencia de ϕ (con respecto al primer problema) de modo que 1 eiϕ √ ; k (ϕ) = √ 2 2π iϕ e ψ (r) = f (r) √ 4π h (θ) =
(11.84)
la dependencia angular ya no est´ a dada por un solo arm´ onico esf´erico. Aplicando (11.82) vemos que PL3 (m) nos da Z 2π Z 2π 1 1 2 −imϕ PL3 (m) = |cm | ; cm ≡ √ dϕ e k (ϕ) = dϕ e−imϕ eiϕ = δm1 2π 0 2π 0 PL3 (m) = δm1 por tanto m solo puede tomar el valor m = 1, vemos entonces que las predicciones sobre L3 han cambiado por la introducci´ on de la dependencia azimutal. Las predicciones sobre L2 cambian tambi´en con respecto a las dadas √ por (11.83). Para calcular PL2 es necesario expandir eiϕ / 4π en arm´ onicos esf´ericos. Se puede verificar que todos los arm´ onicos con l impar y m = 1 aparecen en dicha expansi´ on. Por tanto, ya no hay certeza en la medida de L2 sino una distribuci´ on de probabilidad. Tal como ya se discuti´ o, la dependencia de ϕ entra en las predicciones sobre 2 L . N´ otese que la Ec. (11.84) nos describe una autofunci´ on de L3 que no es autofunci´ on de L2 . Esto no supone ninguna contradicci´ on, ya que est´ a garantizado que existe una base com´ un para ambos, pero esto no significa que no pueda existir una base (o en particular un vector) que consista de autovectores de solo uno de los operadores.
Cap´ıtulo 12
Interacciones centrales en mec´ anica cu´ antica En mec´ anica cu´ antica es frecuente encontrarse con el problema de dos part´ıculas interactuantes como es el caso de la interacci´ on electr´ on n´ ucleo en un ´ atomo hidrogenoide (sistema consistente en un n´ ucleo y un electr´ on). Cuando la interacci´ on entre las dos part´ıculas se puede describir por un potencial que solo depende de la posici´ on relativa entre ambas, es posible demostrar al igual que en mec´ anica cl´ asica, que el problema se puede reducir al estudio de una sola part´ıcula ficticia. Adem´ as cuando la interacci´ on entre las part´ıculas depende solo de la distancia entre ellas, el sistema equivalente es la part´ıcula ficticia sujeta a un potencial central. Una vez que el problema se reduce al problema equivalente de una part´ıcula, se considerar´ an las propiedades mecano cu´ anticas de una part´ıcula sujeta a un potencial central V (r). Este problema est´ a ´ıntimamente relacionado con el problema del momento angular, ya que el hecho de que V (r) sea invariante ante rotaciones alrededor del origen significar´ a que el Hamiltoniano H conmuta con todas las componentes del momento angular orbital L, es decir es un escalar. Esto simplificar´ a considerablemente el problema de valores propios ya que ser´ a posible constru´ır una base com´ un de funciones propias de H, L2 y L3 . Esto a su vez permitir´ a que la dependencia angular de la ecuaci´ on de valores propios se convierta en el problema de valores propios del momento angular orbital que ya se ha estudiado en detalle. Por tanto, el problema se reducir´ a a encontrar la dependencia radial.
12.1.
El problema de dos cuerpos y su reducci´ on al problema equivalente de una part´ıcula en Mec´ anica Cl´ asica
Consideremos un sistema de dos masas puntuales m1 y m2 como lo indica la Fig. 12.1, donde las u ´nicas fuerzas que act´ uan sobre ellas son las debidas al potencial mutuo U . La isotrop´ıa del espacio nos sugiere que si las masas no poseen alguna propiedad vectorial, la interacci´ on entre ellas debe ir dirigida a lo largo de la l´ınea que las une, esto indica que el potencial debe ser funci´ on del valor absoluto de la coordenada relativa1 r2 − r1 ≡ r. Este sistema tiene seis grados de libertad y por tanto requiere de seis coordenadas generalizadas. Quiz´ as el sistema de coordenadas generalizadas m´ as conveniente lo constituye las coordenadas de posici´ on del centro de masa R, y las coordenadas que determinan al vector relativo r. Estas coordenadas se pueden escribir en t´erminos de las coordenadas de posici´ on de las part´ıculas r1 y r2 r ≡ r2 − r1 ; R ≡ 1
m1 r1 + m2 r2 m1 + m2
(12.1)
Esto adicionalmente es compatible con la homogeneidad del espacio ya que un cambio de origen no debe cambiar la naturaleza de la interacci´ on. Efectivamente, el vector r = r2 − r1 es invariante ante un cambio de origen.
343
344
´ ´ CAP´ITULO 12. INTERACCIONES CENTRALES EN MECANICA CUANTICA
Figura 12.1: Variables de posici´ on fundamentales en el problema de dos cuerpos. estas ecuaciones se pueden invertir para obtener m2 r m1 + m2 m1 = R+ r m1 + m2
r1 = R − r2
(12.2)
tambi´en son u ´tiles las coordenadas de posici´ on de las part´ıculas relativas al centro de masa r′1 y r′2 r1 = R + r′1 ; r2 = R + r′2
(12.3)
con lo cual m2 r m1 + m2 m1 r m1 + m2
r′1 = − r′2 =
(12.4)
En esta secci´ on consideraremos una situaci´ on algo m´ as general en donde el potencial puede depender tambi´en de las derivadas temporales del vector relativo r. El Lagrangiano del sistema se puede escribir como ˙ r˙ − U (r, r˙ , ..) L = T R, es bien sabido que la energ´ıa cin´etica de un sistema cl´ asico de part´ıculas se puede escribir como la energ´ıa cin´etica del centro de masa mas la energ´ıa cin´etica con respecto al centro de masa
1 1 ˙2 ˙ r˙ = 1 m1 r˙ 21 + 1 m2 r˙ 22 = 1 m1 r˙ ′2 T R, ˙ ′2 (12.5) 1 + m2 r 2 + MR 2 2 2 2 2 donde M ≡ m1 + m2 . Usando (12.4) se puede escribir la energ´ıa cin´etica en t´erminos de las coordenadas genera˙ y r˙ lizadas elegidas i.e. las componentes de R T =
1 m1 m2 2 1 ˙ 2 r˙ + M R 2 M 2
el Lagrangiano queda de la forma L=
1 ˙ 2 1 m1 m2 2 MR + r˙ − U (r, r˙ , ..) 2 2 M
(12.6)
´ ´ 12.1. EL PROBLEMA DE DOS CUERPOS EN MECANICA CLASICA
345
se puede ver que las coordenadas de R son todas c´ıclicas, es decir no aparecen en el Lagrangiano pero s´ı aparecen ˙ Si elegimos como coordenadas generalizadas las tres componentes cartesianas de R, vemos las coordenadas R. ˙ = cte, de modo que los tres momentos lineales (que ser´ıan los momentos can´ onicos) son constantes y por tanto, R 2 que el centro de masa est´ a en reposo o movimiento rectil´ıneo uniforme ˙ R = R0 + Rt
(12.7)
si nuestro sistema original de referencia es inercial, entonces el sistema con origen en el centro de masa tambi´en lo es. Podemos entonces ver el movimiento a partir del centro de masa en cuyo caso el Lagrangiano queda L=
1 2 µ˙r − U (r, r˙ , ..) 2
(12.8)
donde hemos definido
m1 m2 (12.9) M como la masa reducida del sistema. El Lagrangiano (12.8) es el equivalente al Lagrangiano que se obtendr´ıa si tuvi´eramos una part´ıcula de masa µ sometida a una fuerza que apunta siempre hacia un punto fijo (fuerza central), y a una distancia r del centro de fuerza. Por lo tanto el problema de dos cuerpos sometidos a fuerzas centrales mutuas, se puede reducir a un problema de una sola part´ıcula que interact´ ua con un centro de fuerzas. No debemos olvidar sin embargo, que la part´ıcula equivalente a la cual est´ a asociada el Lagrangiano (12.8), NO existe, no hay ninguna part´ıcula de masa µ y las trayectorias que se encuentran son para esta part´ıcula imaginaria. Para encontrar la trayectoria de las part´ıculas originales con respecto al sistema inercial original, es necesario devolverse tomando las Ecs. (12.2, 12.7) junto con las soluciones que encontremos para r. No obstante, si ocurre que m1 ≪ m2 entonces tanto la trayectoria como la masa imaginarias van a ser muy semejantes a la trayectoria y masa real de m1 . Ahora queremos constru´ır un Hamiltoniano equivalente para cuantizar m´ as adelante. Usando (12.6) suponiendo que U solo depende de r, podemos calcular los momentos conjugados asociados a las componentes de R y de r, los cuales est´ an dados por ∂L ∂ 1 1 1 1 ˙ ˙ Pi = = M Xk Xk + µx˙ k x˙ k − V (r) = M δik X˙ k + M X˙ k δik = M X˙ i 2 2 2 ∂ X˙ i ∂ X˙ i 2 ∂L ∂ 1 1 pi = = M X˙ k X˙ k + µx˙ k x˙ k − V (r) = µx˙ i ∂ x˙ i ∂ x˙ i 2 2 µ≡
tenemos entonces que ˙ = m1 r˙ 1 + m2 r˙ 2 = p1 + p2 P = MR m1 m2 m1 m2 r˙ 2 − m2 m1 r˙ 1 m1 p2 − m2 p1 p = µ˙r = (˙r2 − r˙ 1 ) = = m1 + m2 m1 + m2 m1 + m2 p p2 p1 = − µ m2 m1
(12.10) (12.11) (12.12)
P es el momento total y p es el momento relativo de las dos part´ıculas. El Hamiltoniano cl´ asico se escribe como H (R, P, r, p) =
P2 p2 + + V (r) 2M 2µ
(12.13)
empleando las ecuaciones de Hamilton encontramos que ˙ = 0 ; p˙ = −∇V (r) P
(12.14)
2 Desde el punto de vista Newtoniano esto se puede ver por el hecho de que el sistema est´ a aislado, de modo que el centro de masa no puede estar acelerado. En t´erminos de simetr´ıas, se dice que el sistema tiene invarianza traslacional que conduce a la conservaci´ on del momento lineal.
346
´ ´ CAP´ITULO 12. INTERACCIONES CENTRALES EN MECANICA CUANTICA
la primera ecuaci´ on nos dice que el centro de masa tiene movimiento rectil´ıneo uniforme como ya se habia observado. La segunda ecuaci´ on es la segunda ley de Newton aplicada a la part´ıcula imaginaria de masa µ. Puesto que el centro de masa es tambi´en inercial, podemos ubicarnos all´ı para ver las ecuaciones de movimiento, en cuyo caso el Hamiltoniano queda p2 + V (r) (12.15) H (r, p) = 2µ que es el equivalente al Lagrangiano (12.8) para la part´ıcula µ con posici´ on r y momento p (excepto que ya asumimos que el potencial solo depende de r). N´ otese que el primer t´ermino a la derecha de las Ecs. (12.6, 12.13) junto con la primera de las Ecs. (12.14) nos permite interpretar al par R, P como variables conjugadas a una segunda part´ıcula imaginaria de masa M y que viaja a la velocidad constante del centro de masa ocupando para todo tiempo la posici´ on del centro de masa3 . Tambi´en se observa que la Ec. (12.12) nos dice que la velocidad p/µ de la part´ıcula imaginaria es igual a la diferencia entre la velocidades de las dos part´ıculas es decir su velocidad relativa, lo cual es consistente con derivar la primera de las Ecs. (12.1) con respecto al tiempo.
12.2.
Reducci´ on del problema de dos cuerpos en mec´ anica cu´ antica
Cuando se realiza un proceso de cuantizaci´ on no es obvio a priori que el problema de dos cuerpos se reduzca al problema de un solo cuerpo. La raz´ on estriba en que debemos cuantizar las variables asociadas a las part´ıculas reales, es decir debemos cuantizar (R1 , P1 ) y (R2 , P2 ), despu´es de esto podemos pasar a las coordenadas de centro de masa que denotamos por (RC , PC ) y las coordenadas relativas (Rr , Pr ). Sin embargo, para poder interpretar consistentemente estas nuevas coordenadas como equivalentes a dos part´ıculas imaginarias, es necesario que dichas nuevas coordenadas sean can´ onicas (es decir que obedezcan las reglas can´ onicas de conmutaci´ on). Adicionalmente, para que el movimiento de estas dos part´ıculas imaginarias se pueda desacoplar, es necesario que las variables (RC , PC ) conmuten con las variables (Rr , Pr ). Veremos sin embargo, que estas condiciones s´ı se satisfacen para el problema cu´ antico de dos cuerpos que interact´ uan con una fuerza central, de modo que la reducci´on al problema de dos cuerpos desacoplados tambi´en es posible en mec´ anica cu´ antica. on y el momento de las dos part´ıculas y Asociaremos los operadores R1 , P1 y R2 , P2 que describen la posici´ que satisfacen las relaciones can´ onicas h i h i h i (i) (i) (i) (k) (k) (k) Pj , Pm = Xj , Xm = 0 ; Xj , Pm = δjm δik i~ ; i, k = 1, 2 ; j, m = 1, 2, 3 (12.16)
donde i, k rotulan part´ıculas en tanto que j, m rotulan componentes. Definimos ahora los observables RC y Rr en forma an´ aloga a las Ecs. (12.1) m1 R1 + m2 R2 RC = ; Rr = R2 − R1 (12.17) m1 + m2 y los momentos tienen expresiones de la forma (12.10, 12.11) PC = P1 + P2 ; Pr =
m1 P2 − m2 P1 m1 + m2
(12.18)
los conmutadores entre las componentes de RC , Rr , PC , Pr se pueden calcular con base en las definiciones (12.17, 12.18) y las reglas de conmutaci´ on (12.16) y se obtiene h i h i h i (k) (k) (k) e (i) , X em e(i) , Pem e (i) , Pem X = P = 0 ; X = δjm δik i~ ; i, k = 1, 2 ; j, m = 1, 2, 3 j j j 3
e (1) ≡ (RC ) ; X e (2) ≡ (Rr ) ; Pe(1) ≡ (PC ) ; Pe(2) ≡ (Pr ) X j j j j j j j j
En s´ıntesis hemos cambiado el problema de dos cuerpos (reales) acoplados por el problema de dos cuerpos (imaginarios) totalmente desacoplados.
´ DEL PROBLEMA DE DOS CUERPOS EN MECANICA ´ ´ 12.2. REDUCCION CUANTICA
347
es decir tanto el par RC , PC , como el par Rr , Pr obedecen reglas can´ onicas de conmutaci´ on. Adem´ as todo observable del conjunto {RC , PC } conmuta con todo observable del conjunto {Rr , Pr }. Lo anterior nos permite interpretar al par RC , PC , y al par Rr , Pr como los observables posici´on y momento de dos part´ıculas ficticias distintas y desacopladas, al igual que en el caso cl´ asico.
12.2.1.
Autovalores y autofunciones del Hamiltoniano
Usando las reglas de cuantizaci´ on, el Hamiltoniano para dos cuerpos sometidos a una fuerza central est´ a dado por
P21 P2 + 2 + V (R2 − R1 ) 2m1 2m2 teniendo en cuenta que este Hamiltoniano no acopla observables de momento con observables de posici´ on, el c´ alculo asico puesto que para llegar del conjunto (R1 , P1 , R2 , P2 ) al conjunto (RC , PC , Rr , Pr ) es id´entico al del caso cl´ todos los productos que aparecen conmutan. El resultado es entonces totalmente an´ alogo a (12.13) H=
H=
P2C P2 + r + V (Rr ) 2M 2µ
este Hamiltoniano se puede separar en la forma P2C P2 ; Hr ≡ r + V (Rr ) 2M 2µ [HC , Hr ] = 0 ⇒ [HC , H] = 0 ; [Hr , H] = 0 H = HC + Hr ; HC ≡
Asumiendo que H, HC , Hr son observables, tal conjunto tendr´ a entonces una base com´ un de kets propios. HC |ϕi = EC |ϕi ; Hr |ϕi = Er |ϕi ; H |ϕi = E |ϕi H = HC + Hr ⇒ E = EC + Er
(12.19)
consideremos la base {|rC , rr i}, donde los elementos de esta base son vectores propios comunes a los observables RC y Rr . En esta base, un estado se representa por la funci´ on de onda ϕ (rC , rr ) que es funci´ on de seis variables. Los operadores RC y Rr se representan por multiplicaci´ on de las funciones de onda por las variables rC y rr respectivamente, en tanto que PC y Pr se representan por los gradientes ∂ ∂ ∂ PC → −i~∇C ≡ −i~ , , ∂xC,1 ∂xC,2 ∂xC,3 ∂ ∂ ∂ Pr → −i~∇r ≡ −i~ , , ∂xr,1 ∂xr,2 ∂xr,3 el espacio de estados E puede ser considerado como el producto tensorial E = Er C ⊗ Er r donde los espacios ErC , Err est´ an asociados a RC y Rr respectivamente. HC y Hr son entonces extensiones a E de Hamiltonianos originalmente definidos en ErC y Err respectivamente. Podemos entonces encontrar una base |ϕi que cumple las Ecs. (12.19) en la forma siguiente4 |ϕi = |ϕC i ⊗ |ϕr i ; |ϕC i ∈ ErC
; |ϕr i ∈ Err
HC |ϕC i = EC |ϕC i ; Hr |ϕr i = Er |ϕr i ; H |ϕi = (EC + Er ) |ϕi
(12.20) (12.21)
4 El hecho de que |ϕi sea el producto tensorial de un vector en EC por otro vector en Er , es consecuencia de que el estado resultante es una simple yuxtaposici´ on de los estados factor, debido a que las dos part´ıculas (ficticias) asociadas a cada estado |ϕC i y |ϕr i est´ an desacopladas, es decir no son interactuantes (ver secci´ on 6.1.1, p´ ag. 245).
´ ´ CAP´ITULO 12. INTERACCIONES CENTRALES EN MECANICA CUANTICA
348
las dos primeras ecuaciones se pueden escribir en la base {|rC i} y {|rr i} respectivamente y se obtiene
− −
~2 2 ∇ ϕC (rC ) = EC ϕC (rC ) 2M C
~2 2 ∇ + V (rr ) ϕr (rr ) = Er ϕr (rr ) 2µ r
(12.22) (12.23)
la Ec. (12.22) muestra que la part´ıcula equivalente para la descripci´ on del centro de masa es libre como en la mec´anica cl´ asica. Sus soluciones son del tipo onda plana ϕC (rC ) =
1 (2π~)
i
e ~ pC ·rC ; EC = 3/2
p2C ≥0 2M
el espectro de energ´ıa es no negativo y cont´ınuo y corresponde a la energ´ıa cin´etica del movimiento del sistema como un todo. La Ec. (12.23) describe la din´ amica de la part´ıcula imaginaria de masa µ con posici´ on equivalente a la posici´ on relativa entre las dos part´ıculas. Describe entonces el comportamiento del sistema de dos part´ıculas en el sistema on de este vector de referencia del centro de masa. Si el potencial solo depende de |r2 − r1 | y no de la direcci´ relativo, la part´ıcula µ estar´ a sujeta a un potencial central V (r). El problema se reduce entonces a resolver la din´ amica de la part´ıcula µ. El momento angular del sistema es J = L1 + L2 ; L1 = R1 × P1 ; L2 = R2 × P2 se puede demostrar que este momento angular total tambi´en se puede escribir como J = LC + Lr ; LC = RC × PC ; Lr = Rr × Pr Adicionalmente, se puede demostrar que LC y Lr satisfacen las reglas de conmutaci´ on de un momento angular. Naturalmente, las componentes de LC conmutan con las de Lr . Una vez m´ as, estas propiedades nos permiten anticas imaginarias interpretar consistentemente a LC y a Lr como momentos angulares de dos part´ıculas cu´ desacopladas.
12.3.
El problema cl´ asico de una part´ıcula sometida a una fuerza central
Asumamos una part´ıcula cl´ asica sometida a una fuerza de la forma5 F = −∇V (r) = −
dV ur dr
dado que la fuerza es paralela al vector posici´ on (siempre que el origen se elija en el centro de fuerza) tenemos que ~τ = r × F = 0 y puesto que ~τ = dL/dt, se tiene que L = cte. El momento angular cl´ asico es entonces una constante de movimiento para una part´ıcula cl´ asica sometida a una fuerza central. La trayectoria est´ a contenida entonces en un plano que pasa por el centro de fuerzas y que es perpendicular al momento angular. La velocidad se puede descomponer en una componente radial (paralela a r) y una transversal (perpendicular a r). La velocidad radial tiene como magnitud dr vr = dt y la magnitud de la velocidad tangencial est´a dada por |vθ | = |v sin δ| = |ur × v| = 5
1 |r × v| r
De aqu´ı en adelante simplificaremos la notaci´ on y usaremos r, p en lugar de rr y pr para las variables din´ amicas fundamentales del problema de una part´ıcula.
´ 12.3. EL PROBLEMA CLASICO DE UNA PART´ICULA SOMETIDA A UNA FUERZA CENTRAL
349
siendo δ el ´ angulo entre ur y v. El m´ odulo del momento angular es |L| = |r × µv| = µr |vθ | ⇒ |L| |vθ | = µr la energ´ıa total (cin´etica mas potencial) es E = E = E =
1 1 1 2 µv + V (r) = µvr2 + µvθ2 + V (r) 2 2 2 2 1 2 1 |L| + V (r) µv + µ 2 r 2 µr L2 1 2 + V (r) µvr + 2 2µr 2
(12.24)
El Hamiltoniano cl´ asico en coordenadas esf´ericas se escribe como H = L2 =
p2r 1 + 2µ 2µr 2 p2ϕ sin2 θ
p2ϕ sin2 θ
+
p2θ
!
+ V (r)
+ p2θ
La energ´ıa cin´etica en (12.24) se dividi´ o en dos t´erminos: la energ´ıa cin´etica radial y la transversal. N´ otese que la 2 dependencia angular del Hamiltoniano se puede absorber en L teniendo en cuenta que esta es una constante de movimiento p2 L2 H= r + + V (r) (12.25) 2µ 2µr 2 la absorci´ on de los ´ angulos y sus momentos conjugados en L2 est´ a relacionada con el hecho de que V (r) no depende de los ´ angulos. El Hamiltoniano es la energ´ıa del sistema en este caso como se aprecia al comparar (12.24) con ametro. (12.25). Podemos entonces tratar al Hamiltoniano como funci´ on solo de r y pr tomando a L2 como par´ Tenemos entonces solo dos ecuaciones de Hamilton r˙ =
∂H ∂H ; p˙ r = − ∂pr ∂r
tomando el Hamiltoniano (12.25) estas ecuaciones quedan dr dt d2 r dt2
= =
pr dpr L2 dV ; = 3− µ dt µr dr 2 2 1 dpr d r L dV ; µ 2 = 3− µ dt dt µr dr
si definimos el potencial efectivo Vef f (r) = V (r) +
(12.26)
L2 2µr 2
el Hamiltoniano (12.25) y las ecuaciones de movimiento (12.26) quedan H=
dVef f p2r d2 r + Vef f (r) ; µ 2 = − 2µ dt dr
que es equivalente a un problema unidimensional sujeto a la interacci´ on descrita por el potencial efectivo (teniendo en cuenta que r va entre 0 e ∞). Veremos como se traducen estas caracter´ısticas en la mec´ anica cu´ antica.
350
12.4.
´ ´ CAP´ITULO 12. INTERACCIONES CENTRALES EN MECANICA CUANTICA
Hamiltoniano cu´ antico
De aqu´ı en adelante nos concentraremos en la ecuaci´ on (12.23) de valores propios para el Hamiltoniano en la representaci´ on de la coordenada relativa {|rr i}. Por tanto simplificamos su notaci´ on en la forma 2 ~ − ∇2 + V (r) ϕ (r) = Eϕ (r) (12.27) 2µ puesto que el potencial V solo depende de la distancia r de la part´ıcula al origen, las coordenadas esf´ericas son m´ as adecuadas para el problema. El Laplaciano en coordenadas esf´ericas se escribe 2 1 ∂2 1 ∂ 1 ∂ 1 ∂2 2 ∇ = + r+ 2 + (12.28) r ∂r 2 r ∂θ 2 tan θ ∂θ sin2 θ ∂ϕ2 esta expresi´ on da el Laplaciano solo para r 6= 0 y no est´ a definida para r = 0, lo cual se debe a la posici´ on privilegiada del origen en coordenadas esf´ericas (el origen corresponde a r = 0 para cualquier valor de θ, ϕ), m´ as adelante impondremos condiciones sobre la funci´ on de onda en el origen. De la Ec. (11.13) vemos que el Laplaciano (12.28) se puede escribir en t´erminos de L2 ∇2 =
1 ∂2 L2 r − r ∂r 2 ~2 r 2
(12.29)
de modo que el Hamiltoniano cu´ antico se puede escribir ~2 2 ~2 1 ∂ 2 L2 H = − ∇ + V (r) = − r − 2 2 + V (r) 2µ 2µ r ∂r 2 ~ r 2 2 2 ~ ∂ L H = − r+ + V (r) 2 2µr ∂r 2µr 2
(12.30)
que es el an´ alogo del Hamiltoniano cl´ asico (12.25). El operador diferencial L2 contiene toda la dependencia angular. El problema de valores propios del Hamiltoniano queda escrito en la forma ~2 ∂ 2 L2 − r+ + V (r) ϕ (r, θ, ϕ) = E ϕ (r, θ, ϕ) (12.31) 2µr ∂r 2 2µr 2
12.5.
Soluci´ on general del problema de valores propios
Puesto que las componentes de L solo act´ uan en la variables angulares, conmutan con todos los operadores que solo dependan de r. Adem´ as, sabemos que Li conmuta con L2 . Por tanto de acuerdo con (12.30), las tres componentes de L conmutan con el Hamiltoniano y como no dependen expl´ıcitamente del tiempo, son todas constantes de movimiento en el sentido cu´ antico (secci´ on 5.8.2) ∂L d hLi = =0 ∂t dt por tanto H es un operador escalar con respecto a las rotaciones alrededor del origen, lo cual proviene de la invarianza del potencial bajo rotaciones alrededor del origen. Por supuesto H tambi´en conmuta con L2 . Sin embargo, aunque tenemos a nuestra disposici´ on cinco constantes de movimiento (L, L2 , H), no podemos usarlas todas para solucionar el problema de valores propios (12.31) ya que no todos estos operadores conmutan entre s´ı. Solo podremos usar L2 , L3 (u otra componente) y H. Si asumimos que H, L2 , L3 son observables, existir´ a una base com´ un de funciones propias en el espacio Er de una part´ıcula. Por lo tanto podemos sin retringir la generalidad del problema requerir que la funciones de onda en (12.31) tambi´en sean funciones de onda de L2 y L3 [H, L] = 0 ;
Hϕ (r) = Eϕ (r) ; L2 ϕ (r) = l (l + 1) ~2 ϕ (r)
;
L3 ϕ (r) = m~ϕ (r)
(12.32)
´ GENERAL DEL PROBLEMA DE VALORES PROPIOS 12.5. SOLUCION
351
pero ya conocemos la forma de la parte angular de las autofunciones comunes de L2 y L3 (secci´ on 11.4). La Ec. (11.45) nos indica que estas funciones son de la forma ϕ (r) = Rlk (r) Ylm (θ, ϕ)
(12.33)
donde este ϕ (r) es soluci´ on de las dos u ´ltimas ecuaciones (12.32) sin importar la forma de la parte radial. Por tanto, solo queda resolver el problema de determinar R (r) a fin de que ϕ (r) sea autofunci´ on del Hamiltoniano.
12.5.1.
La ecuaci´ on radial
Si sustitu´ımos (12.33) en la Ec. (12.31) de valores propios del Hamiltoniano L2 ~2 ∂ 2 r+ + V (r) Rlk (r) Ylm (θ, ϕ) = E Rlk (r) Ylm (θ, ϕ) − 2µr ∂r 2 2µr 2 ~2 ∂ 2 L2 Ylm (θ, ϕ) Ylm (θ, ϕ) − r + V (r) R (r) + R (r) = E Rlk (r) Ylm (θ, ϕ) lk lk 2µr ∂r 2 2µr 2 y teniendo en cuenta que los arm´ onicos esf´ericos son autofunciones de L2 con valor propio l (l + 1) ~2 se tiene ~2 ∂ 2 l (l + 1) ~2 Ylm (θ, ϕ) Ylm (θ, ϕ) − r + V (r) R (r) + R (r) = E Rlk (r) Ylm (θ, ϕ) lk lk 2µr ∂r 2 2µr 2 la ecuaci´ on radial toma finalmente la forma ~2 d2 l (l + 1) ~2 − r+ + V (r) Rlk (r) = El,k Rlk (r) 2µr dr 2 2µr 2
(12.34)
en realidad una soluci´ on de (12.34), sustitu´ıda en (12.33) no necesariamente representa una soluci´ on de la ecuaci´ on de valores propios (12.27) del Hamiltoniano. Esto se debe a que la expresi´ on (12.28) para el Laplaciano no es necesariamente v´ alida en r = 0. Debemos por tanto asegurarnos que la soluci´ on R (r) de (12.34) sea lo suficientemente regular en el origen para que (12.33) sea en realidad soluci´ on de (12.27). N´ otese adem´ as que aunque la Ec. (12.34) no depende de los ´ angulos, s´ı depende de l, en realidad para cada valor de l tenemos un operador diferente en (12.34). De las Ecs. (12.32), podemos decir que el problema de valores propios de L2 , L3 , H lo resolvemos para cada par de valores fijos de l y m. Esto implica que en el espacio de estados Er resolvemos el problema para cada subespacio E (l, m) asociado a valores fijos de l y m. La Ec. (12.34) nos muestra que cuando estudiamos la parte radial (que es la u ´nica desconocida) de las funciones propias del Hamiltoniano, la ecuaci´ on asociada depende de l pero no de m, es decir la ecuaci´ on (12.34) es id´entica para todos los 2l + 1 subespacios E (l, m) con l fijo. Denotaremos por El,k los autovalores del operador Hl definido por (12.34) y que corresponder´ a a los autovalores del Hamiltoniano dentro de un subespacio dado E (l, m). El ´ındice k (discreto o cont´ınuo) indica los diferentes valores propios asociados al mismo n´ umero cu´ antico l, los valores posibles de k indican la dimensionalidad de cada subespacio E (l, m). En (12.34) hemos denotado las funciones propias de Hl con los ´ındices Rl,k (r). Debe notarse sin embargo que los ´ındices de la funci´on radial no tienen que ser los mismos de los valores propios El,k puesto que podr´ıamos tener varias funciones radiales propias de Hl para un valor propio dado El,k en cuyo caso la funci´ on radial requerir´ıa un ´ındice adicional. Sin embargo, demostraremos m´ as adelante que para cada l, k solo existe una funci´ on radial linealmente independiente. Por otra parte, para la Ec. (12.34) ~2 d2 l (l + 1) ~2 − r+ + V (r) Rlk (r) = El,k Rlk (r) (12.35) 2µr dr 2 2µr 2 Definimos el cambio de variable
1 Rl,k (r) = ul,k (r) r
(12.36)
´ ´ CAP´ITULO 12. INTERACCIONES CENTRALES EN MECANICA CUANTICA
352
y multiplicamos a ambos lados por r l (l + 1) ~2 1 ~2 d2 1 r − r+ + V (r) ul,k (r) = rEl,k ul,k (r) 2 2 2µr dr 2µr r r 2 2 2 l (l + 1) ~ 1 1 ~ d 1 = El,k ul,k (r) r − r ul,k (r) + ul,k (r) + V (r) ul,k (r) 2µr dr 2 r 2µr 2 r r 2 2 ~ d l (l + 1) ~2 − ul,k (r) + ul,k (r) + V (r) ul,k (r) = El,k ul,k (r) 2µ dr 2 2µr 2 quedando finalmente
2 2 l (l + 1) ~2 ~ d + + V (r) ul,k (r) = El,k ul,k (r) − 2µ dr 2 2µr 2
(12.37)
de nuevo la Ec. (12.37) es an´ aloga a un problema unidimensional de un part´ıcula de masa µ sometida al potencial efectivo Vef f definido por l (l + 1) ~2 Vef f = V (r) + (12.38) 2µr 2 teniendo en cuenta que r solo puede tomar valores no negativos. El t´ermino l (l + 1) ~2 / 2µr 2 es siempre positivo de modo que si correspondiera a una interacci´ on real corresponder´ıa a una fuerza repulsiva, por este motivo se conoce como potencial centr´ıfugo. Debe tenerse en cuenta sin embargo, que el t´ermino centr´ıfugo no corresponde a una verdadera interacci´ on sino a una porci´ on de la energ´ıa cin´etica (energ´ıa cin´etica transversal). Cuando l = 0 el t´ermino centr´ıfugo est´ a ausente. Para una interacci´ on Coulombiana V (r) = −e2 /r, si l 6= 0 el t´ermino centr´ıfugo domina para valores peque˜ nos de r de modo que el potencial efectivo es repulsivo a cortas distancias.
12.5.2.
Comportamiento de la soluci´ on radial en el origen
Ya hemos mencionado que debemos examinar las soluciones R (r) de la ecuaci´ on radial (12.34) en el origen para garantizar que ´estas tambi´en sean soluciones de la Ec. (12.27) puesto que en el paso de (12.27) a (12.34) se ha usado el Laplaciano en coordenadas esf´ericas (12.28) que no est´ a definido en el origen. Asumiremos que el potencial V (r) es tal que l´ım r 2 V (r) = 0
(12.39)
r→0
es decir, permanece finito o diverge menos r´ apido que 1/r 2 . Esta hip´ otesis es v´ alida en la mayor´ıa de los casos y en particular para el potencial de Coulomb. Consideremos una soluci´ on de la Ec. (12.34) asumamos que en el origen se comporta en la forma l´ım Rl,k (r) ∼ Cr s (12.40) r→0
sustituyendo (12.40) en (12.34) tenemos ~2 d2 l (l + 1) ~2 − r+ + V (r) Cr s 2µr dr 2 2µr 2 ~2 d2 s+1 l (l + 1) ~2 s − r + r + V (r) r s 2µr dr 2 2µr 2 ~2 s−1 l (l + 1) ~2 s −s (s + 1) r + r + V (r) r s 2µr 2µr 2 ~2 l (l + 1) ~2 s−2 −s (s + 1) r s−2 + r + [V (r) − El,k ] r s 2µ 2µ ~2 l (l + 1) ~2 s−2 2 r −s (s + 1) + + [V (r) − El,k ] r 2µ 2µ
= El,k Cr s = El,k r s = El,k r s = 0 = 0
12.6. ESTADOS ESTACIONARIOS DE UNA PART´ICULA EN UN POTENCIAL CENTRAL
353
asumimos que r 6= 0 de modo que −s (s + 1)
~2 l (l + 1) ~2 + + [V (r) − El,k ] r 2 = 0 2µ 2µ
tomando el l´ımite cuando r → 0 y teniendo en cuenta la condici´ on (12.39) −s (s + 1) + l (l + 1) = 0 (l − s) (s + l + 1) = 0
(12.41)
por tanto tenemos dos soluciones posibles o´ s = − (l + 1)
s=l
(12.42)
es decir que para un valor propio dado El,k hay dos soluciones linealmente independientes de la ecuaci´ on de segundo orden (12.34), que se comportan como r l y como 1/r l+1 en la vecindad del origen respectivamente. La soluci´ on 1/r l+1 claramente diverge en el origen para todos los valores de l. Adicionalmente, se puede demostrar que la funci´ on Ylm (θ, ϕ) /r l+1 no es una soluci´ on de la ecuaci´ on de valores propios (12.27) para r = 0, esto se debe a que el laplaciano de Ylm (θ, ϕ) /r l+1 involucra la l−´esima derivada de δ (r). Por tales razones, la soluci´ on 1/r l+1 debe ser descartada. De lo anterior las soluciones aceptables para (12.37) deben ir a cero en el origen para todo l ya que l´ım ul,k (r) = l´ım [rRl,k (r)] ∼ Cr l+1
r→0
r→0
(12.43)
de modo que a la Ec. (12.37) se le debe agregar la condici´ on ul,k (0) = 0
(12.44)
en la Ec. (12.37) r va entre 0 e infinito. Sin embargo, es posible asumir el problema como un problema unidimensional equivalente en donde r tome todos los valores reales pero con potencial efectivo infinito para valores negativos de r. En tal caso, la funci´ on de onda toma valores id´enticamente ceros en la parte negativa de r y la condici´ on (12.44) asegura la continuidad de la funci´ on de onda en r = 0.
12.6.
Estados estacionarios de una part´ıcula en un potencial central
Hemos visto que cuando el potencial V (r) es independiente de θ y ϕ podemos requerir que las autofunciones del Hamiltoniano sean tambi´en autofunciones de L2 y L3 . Esto permite aseverar que la dependencia angular viene dada por las autofunciones de L2 y L3 es decir los arm´ onicos esf´ericos 1 ϕl,m,k (r) = Rl,k (r) Ylm (θ, ϕ) = ul,k (r) Ylm (θ, ϕ) r
(12.45)
por tanto, la ecuaci´ on de valores propios del Hamiltoniano que involucra a r, θ, ϕ puede ser reemplazada por una ecuaci´ on diferencial que solo involucra a r y que depende del par´ ametro l, Ec. (12.37), dicha ecuaci´ on junto con la condici´ on (12.44) nos dictamina la dependencia radial de la funci´ on de onda. N´ otese que estas caracter´ısticas emulan el comportamiento cl´ asico. Las funciones ϕl,m,k (r, θ, ϕ) deben ser de cuadrado integrable Z |ϕl,m,k (r, θ, ϕ)|2 r 2 dr dΩ = 1 la estructura de la funci´ on de onda Ec. (12.45) permite separar la parte radial y la angular Z Z ∞ Z 2 2 2 2 |ϕl,m,k (r, θ, ϕ)| r dr dΩ = r dr |Rl,m,k (r)| |Ylm (θ, ϕ)|2 dΩ = 1 0
´ ´ CAP´ITULO 12. INTERACCIONES CENTRALES EN MECANICA CUANTICA
354
y puesto que los arm´ onicos esf´ericos est´ an normalizados entonces la funci´ on radial est´ a normalizada por aparte Z ∞ Z ∞ r 2 dr |Rl,m,k (r)|2 = dr |ul,m,k (r)|2 = 1 (12.46) 0
0
en realidad es conveniente aceptar en algunos casos autofunciones que no sean de cuadrado integrable. Esto ocurre cuando al menos parte del espectro de H es cont´ınuo, en cuyo caso requerimos que las funciones de onda sean ortonormales en el sentido extendido es decir Z ∞ Z ∞ 2 ∗ r dr Rl,k′ (r) Rl,k (r) = dr u∗l,k′ (r) ul,k (r) = δ k − k′ (12.47) 0
0
siendo k un ´ındice cont´ınuo. En las Ecs. (12.46, 12.47), los integrandos convergen en su l´ımite inferior r = 0 debido a la condici´ on (12.44). Esto es f´ısicamente necesario ya que la probabilidad de encontrar a la part´ıcula en cualquier volumen de dimensi´ on 6 finita permanece finita (en particular para un volumen que contiene al origen) . Por tanto, es solo debido al comportamiento de la funci´ on de onda en r → ∞ que la integral (12.47) diverge en k = k′ cuando el espectro es cont´ınuo. Las Ecs. (12.45) nos dicen que las funciones propias del Hamiltoniano de una part´ıcula inmersa en un potencial central V (r) dependen de por lo menos tres ´ındices l, m, k (k podr´ıa representar varios ´ındices cont´ınuos o discretos). La funci´ on ϕl,m,k (r) en (12.45) es autofunci´ on simult´ anea de H, L2 , L3 con autovalores El,k , l (l + 1) ~2 y m~. A k se le conoce como n´ umero cu´ antico radial, l se denomina n´ umero cu´ antico azimutal y m el n´ umero on as´ı como el autovalor El,k no dependen del cu´ antico magn´etico. La parte radial Rl,k (r) = ul,k /r de la autofunci´ n´ umero cu´ antico magn´etico m y est´ an dadas por la ecuaci´ on radial (12.37) junto con la condici´ on (12.44). Por otro lado, la parte angular de la funci´ on de onda (arm´ onicos esf´ericos) depende de l y m pero no de k, dicha parte angular es independiente de la forma del potencial V (r).
12.6.1.
Degeneraci´ on de los niveles de energ´ıa
Consideraremos ahora el problema de la degeneraci´ on de los niveles de energ´ıa. Las 2l+1 funciones ϕl,m,k (r, θ, ϕ) con l y k fijos y m variando entre −l y l son autofunciones de H con el mismo valor propio El,k , dado que estas 2l +1 funciones corresponden a valores propios diferentes de L3 ser´ an claramente ortogonales. En consecuencia hay por lo menos un degeneraci´ on de orden 2l + 1 del valor propio El,k , tal degeneraci´ on es independiente de la forma del potencial y por esta raz´ on se denomina una degeneraci´ on esencial. La degeneraci´ on esencial se debe al hecho 2 de que H contiene a L pero no a L3 y a que el Hamiltoniano es siempre invariante rotacional (escalar). Puesto que H contiene a L2 pero no a L3 , se tiene que m no aparece en la ecuaci´ on radial que proviene del problema de valores propios del Hamiltoniano pero s´ı aparece l. No obstante, es posible que El,k correspondiente a la ecuaci´ on radial con operador Hl coincida con El′ ,k′ de otra ecuaci´ on radial (l 6= l′ ). Esto ocurre para ciertos potenciales, y se conoce como degeneraciones accidentales. En particular, el potencial de Coulomb que describe a los ´ atomos hidrogenoides exhibe degeneraciones accidentales. La ecuaci´ on radial (12.37) para un l fijo, al ser una ecuaci´ on de segundo orden posee a priori dos soluciones linealmente independientes. Sin embargo, la condici´ on (12.44) ha surgido de eliminar una de ellas puesto que se descart´ o el comportamiento del tipo l´ımr→0 Rl,k (r) = 1/r l+1 . Por tanto solo tenemos una soluci´on linealmente independiente para cada El,k . Debemos tambi´en considerar el comportamiento de las soluciones para r → ∞. Si V (r) → 0 cuando r → ∞ los valores de El,k para los cuales la soluci´ on cl´ asica es acotada ( y que cu´ anticamente cumplen la condici´ on 12.44) forman un conjunto discreto, como veremos m´ as adelante para el ´ atomo de Hidr´ ogeno. Si asumimos que los operadores H, L2 y L3 son observables, la discusi´ on anterior nos muestra que constituyen un C.S.C.O. ya que para valores fijos de El,k solo hay una funci´ on radial linealmente independiente, y para l y m fijos la funci´ on angular (arm´ onico esf´erico) es u ´nica. Por tanto, para un conjunto dado de autovalores 6
N´ otese que si no se hubiera descartado la posibilidad de que l´ımr→0 Rl,k (r) ∼ 1/r l+1 , hubi´esemos tenido comportamiento divergente en el origen.
12.6. ESTADOS ESTACIONARIOS DE UNA PART´ICULA EN UN POTENCIAL CENTRAL
355
El,k , l (l + 1) ~2 , m~ existe una u ´nica funci´ on normalizada (dentro de factores de fase) del tipo ϕl,m,k (r). El 2 autovalor de L dictamina la forma espec´ıfica de la ecuaci´ on radial, el autovalor de H nos determina la funci´ on radial Rl,k (r) de forma u ´nica y m determina junto con l el arm´ onico esf´erico (soluci´ on angular).
Cap´ıtulo 13
´ Atomos hidrogenoides El problema de mayor inter´es de la interacci´ on central entre dos cuerpos microsc´ opicos lo constituyen los ´ atomos Hidrogenoides consistentes en un n´ ucleo y un electr´ on. Tal es el caso del ´ atomo de Hidr´ ogeno y sus is´ otopos el deuterio y el tritio. As´ı mismo tambi´en son ´ atomos hidrogenoides los iones con un solo electr´ on como el He+ , Li++ etc. Veremos m´ as adelante que los ´ atomos alcalinos (con un solo electr´ on en el u ´ltimo nivel de energ´ıa) se pueden tratar tambi´en como Hidrogenoides si consideramos que los electrones internos act´ uan como un apantallamiento del n´ ucleo y que el sistema n´ ucleo-electrones internos act´ ua como un “n´ ucleo efectivo” para el electr´ on externo. De momento trabajaremos con el caso m´ as simple.
13.1.
El ´ atomo de Hidr´ ogeno
El ´ atomo de Hidr´ ogeno consiste en un electr´ on y un prot´ on que interact´ uan de manera esencialmente electrost´ atica, es decir bajo un potencial de la forma V (r) = −
q2 e2 =− 4πε0 r r
;
q2 ≡ e2 4πε0
siendo r la distancia entre el prot´ on y el electr´ on, q corresponde a la carga electr´ onica en unidades SI en tanto que e es el valor en unidades cgs. Num´ericamente tenemos los siguientes valores aproximados para la masa mp del on y la carga q del prot´ on prot´on, me del electr´ mp = 1,7 × 10−27 kg ; me = 0,91 × 10−30 kg ; q = 1,6 × 10−19 Coulombs puesto que se trata de dos part´ıculas sujetas a una interacci´ on central, podemos reducirlo al problema de una part´ıcula libre con masa mp + me y con la din´ amica del centro de masa, junto con una part´ıcula de masa µ sometida a una fuerza central y donde el vector posici´ on de la part´ıcula µ, es el vector posici´ on relativo entre las dos part´ıculas reales (las part´ıculas imaginarias est´ an desacopladas). Usaremos un Hamiltoniano del tipo (12.15) H (r, p) =
p2 e2 − 2µ r
(13.1)
a pr´ acticamente la masa del electr´ on puesto que mp ≫ me la masa reducida del sistema ser´ me mp me ∼ me ∼ µ≡ = = me me = me 1 − mp + me 1 + mp mp y el centro de masa del sistema est´ a pr´ acticamente en la posici´ on del prot´ on. Por tanto la part´ıcula imaginaria asociada al centro de masa, tiene pr´ acticamente las caracter´ısticas del prot´ on (la masa del prot´ on es casi la masa total del sistema y el centro de masa est´ a pr´ acticamente en la posici´ on del prot´ on). La part´ıcula imaginaria de 356
´ ´ 13.2. PROBLEMA DE VALORES PROPIOS DEL ATOMO DE HIDROGENO
357
masa reducida tiene pr´ acticamente las caracter´ısticas del electr´ on, ya que la masa reducida del sistema es casi la masa del electr´on y la posici´ on del electr´ on con respecto al centro de masa es pr´ acticamente su posici´ on con respecto al prot´ on. Adoptaremos la posici´ on de que el prot´ on est´ a en el centro de masa y que el electr´ on es la part´ıcula relativa. Con el fin de fijar el valor de ciertos par´ ametros, usaremos el modelo semi-cl´ asico de Bohr que si bien no es compatible con nuestros postulados, permitir´a definir conceptos y par´ ametros u ´tiles para el estudio de los espectros at´ omicos. Dentro de este modelo el electr´ on viaja en una ´ orbita circular de radio r alrededor del prot´ on, la energ´ıa total es la energ´ıa cin´etica m´ as la potencial electrost´ atica y obedece la segunda ley de Newton. Adicionalmente, el momento angular del electr´ on est´ a cuantizado en unidades de ~, estas suposiciones se condensan en E = E =
v2 1 2 e2 µv + V (r) ; µ = −∇V (r) ; l = n~ ; V (r) = − 2 r r v2 e2 1 2 e2 µv − ; µ = 2 ; µvr = n~ ; n entero positivo 2 r r r
las ´ orbitas posibles son solo aquellas que cumplen la regla de cuantizaci´ on del momento angular. Con este postulado Bohr explic´ o la existencia de niveles discretos de energ´ıa. Calculemos los valores cuantizados de En , rn y vn . Para ello primero se calcula la energ´ıa de ionizaci´ on EI que es la energ´ıa que se le debe dar al ´ atomo de Hidr´ ogeno en su estado base para remover su electr´ on. Tambi´en se pueden estimar con base en el modelo, el radio del ´ atomo para el estado base (radio de Bohr a0 ) y la velocidad del electr´ on v0 en el estado base, tales cantidades dan EI =
µe4 ~2 e2 ; a = ; v = 0 0 2~2 µe2 ~
(13.2)
con estos par´ ametros de entrada los valores cuantizados de En , rn y vn son En = −
1 1 EI ; rn = n2 a0 ; vn = v0 2 n n
(13.3)
los valores experimentales de EI y de los niveles de energ´ıa En estuvieron en concordancia con la teor´ıa de Bohr. Un estimativo de la energ´ıa de ionizaci´ on y del radio que caracteriza las dimensiones at´ omicas es EI ∼ = 13,6eV , a0 ∼ = 0,52 A puede verse que el principio de incertidumbre explica la existencia de un estado base estable y permite adem´ as la estimaci´ on del orden de magnitud de la energ´ıa base y de la extensi´ on espacial de su funci´ on de onda.
13.2.
Problema de valores propios del ´ atomo de Hidr´ ogeno
Dado que el potencial es central, podemos aplicar los resultados del cap´ıtulo 12. En la representaci´ on {|ri}, el Hamiltoniano (13.1) cuantizado est´ a dado por H =−
~2 2 e2 ∇ − 2m r
y la ecuaci´ on de valores propios del Hamiltoniano es ~2 2 e2 − ∇ − ϕ (r) = Eϕ (r) 2m r la funci´ on propia ϕ (r) admite la forma 1 ϕl,m,k (r) = ul,k (r) Ylm (θ, ϕ) r
(13.4)
´ CAP´ITULO 13. ATOMOS HIDROGENOIDES
358 donde ul,k (r) est´ a dado por la ecuaci´ on (12.37)
l (l + 1) ~2 e2 ~2 d2 − + − ul,k (r) = El,k ul,k (r) 2µ dr 2 2µr 2 r
(13.5)
a la cual le debemos agregar la condici´ on (12.44) ul,k (0) = 0
(13.6)
El espectro de H posee una parte discreta (energ´ıas negativas) y una parte cont´ınua (energ´ıas positivas). El espectro cont´ınuo est´ a asociado con el hecho de que para E > 0 la regi´ on accesible cl´ asica no est´ a acotada, en este caso las autofunciones asociadas no ser´an de cuadrado integrable. En contraste, para E < 0, la naturaleza discreta del espectro est´ a asociada con el hecho de que la regi´ on accesible cl´ asicamente es acotada, en tal caso las funciones propias son de cuadrado integrable. Es c´ omodo trabajar de modo que a0 y EI sean las unidades de longitud y energ´ıa, lo cual se logra introduciendo los par´ ametros adimensionales s El,k r ρ= ; λl,k = − (13.7) a0 EI Vamos a examinar los estados acotados de energ´ıa negativa por lo cual el signo negativo dentro del radical es de hecho necesario. Usando la primera de las Ecs. (13.7) en la ecuaci´ on radial (13.5), ´esta se escribe como 2 ~ d2 l (l + 1) ~2 e2 − + − ul,k (ρ) = El,k ul,k (ρ) 2µ d (a0 ρ)2 a0 ρ 2µ (a0 ρ)2 ~2 d2 l (l + 1) ~2 1 e2 + − − E − l,k ul,k (ρ) = 0 2µa20 dρ2 2µa20 ρ2 a0 ρ multiplicando la ecuaci´ on por −2µa20 /~2 se obtiene 2 d l (l + 1) 2µa0 e2 2µa20 − + 2 + 2 El,k ul,k (ρ) = 0 dρ2 ρ2 ~ ρ ~ y usando las Ecs. (13.2) (
d2 l (l + 1) 2µ − + 2 dρ2 ρ2 ~
~2 µe2
e2 2µ + 2 ρ ~
~2 µe2
2
El,k
)
ul,k (ρ) = 0
d2 l (l + 1) 2 2~2 − + + 4 El,k ul,k (ρ) = 0 dρ2 ρ2 ρ µe 2 El,k d l (l + 1) 2 − + − − ul,k (ρ) = 0 dρ2 ρ2 ρ EI
finalmente usando la segunda de las Ecs. (13.7) la ecuaci´ on radial queda 2 d l (l + 1) 2 2 − + − λl,k ul,k (ρ) = 0 dρ2 ρ2 ρ
(13.8)
Un an´ alisis asint´ otico cualitativo del comportamiento de ul,k (ρ) nos permitir´ a simplificar la forma de la Ec. (13.8). Cuando ρ → ∞, los t´erminos proporcionales a 1/ρ y 1/ρ2 se vuelven despreciables y la Ec. (13.8) se convierte en 2 d 2 − λl,k ul,k (ρ) = 0 dρ2
´ DE LA ECUACION ´ RADIAL POR SERIES DE POTENCIAS 13.3. SOLUCION
359
cuyas soluciones son e±ρλl,k . Sin embargo, m´ as adelante veremos que incluso en este l´ımite no se puede despreciar 2 completamente a los t´erminos 1/ρ y 1/ρ lo cual nos llevar´ a a soluciones del tipo ρn e±ρλl,k . No obstante, este an´ alisis asint´ otico cualitativo permite encontrar una forma aproximada de la soluci´ on esperada en la as´ıntota. N´ otese que la soluci´ on eρλl,k es divergente en ρ → ∞ lo cual nos permite predecir que este tipo de soluci´ on ser´ a descartada. Todo lo anterior nos induce a realizar el siguiente cambio de variable ul,k (ρ) = e−ρλl,k yl,k (ρ)
(13.9)
naturalmente este cambio de variable no significa ninguna p´erdida de generalidad, ni descarta ning´ un tipo de soluci´ on. Simplemente, parece simplificar a priori la forma funcional de la soluci´ on que de antemano consideramos como aceptable. Realizando el cambio de variable (13.9) en la Ec. (13.8) nos queda i l (l + 1) 2 d2 h −ρλl,k 2 e yl,k (ρ) + − + − λl,k e−ρλl,k yl,k (ρ) = 0 (13.10) dρ2 ρ2 ρ
calculamos la derivada
d −ρλl,k −ρλl,k dyl,k (ρ) −λl,k e yl,k (ρ) + e dρ dρ dyl,k (ρ) = (−λl,k )2 e−ρλl,k yl,k (ρ) − λl,k e−ρλl,k dρ 2 −ρλl,k dyl,k (ρ) −ρλl,k d yl,k (ρ) −λl,k e +e dρ dρ2 d d2 = e−ρλl,k λ2l,k − 2λl,k + 2 yl,k (ρ) dρ dρ
i d2 h −ρλl,k e y (ρ) = l,k dρ2
reemplazando esta derivada en (13.10) se obtiene d d2 l (l + 1) 2 2 e−ρλl,k λ2l,k − 2λl,k + 2− + − λ l,k yl,k (ρ) = 0 dρ dρ ρ2 ρ simplificando y reorganizando queda finalmente 2 d d 2 l (l + 1) − 2λl,k + − yl,k (ρ) = 0 dρ2 dρ ρ ρ2
(13.11)
y la condici´ on (13.6) queda yl,k (0) = 0
(13.12)
13.3.
Soluci´ on de la ecuaci´ on radial por series de potencias
13.3.1.
Serie de potencias radial y relaciones de recurrencia
Consideraremos la expansi´ on de yl,k (ρ) en series de potencias s
yl,k (ρ) = ρ
∞ X
cq ρq
q=0
donde por definici´on c0 es el primer coeficiente no nulo en la expansi´ on c0 6= 0
(13.13)
´ CAP´ITULO 13. ATOMOS HIDROGENOIDES
360
La condici´ on (13.12) implica que s es estrictamente positivo. De modo que s es la m´ımima potencia de ρ que aparece en la expansi´ on (13.13). Calculemos la primera y segunda derivada de la expansi´ on (13.13) ∞ ∞ X dyl,k (ρ) d X = cq ρq+s = (q + s) cq ρq+s−1 (13.14) dρ dρ q=0 q=0 ∞ ∞ 2 X X d yl,k (ρ) d q+s−1 = (q + s) cq ρ = (q + s) (q + s − 1) cq ρq+s−2 (13.15) dρ2 dρ q=0 q=0 reemplazando (13.13, 13.14, 13.15) en (13.11) resulta
d2 yl,k (ρ) dyl,k (ρ) 2 l (l + 1) − 2λl,k + − yl,k (ρ) = 0 dρ2 dρ ρ ρ2 ∞ ∞ ∞ X X 2 l (l + 1) X (q + s) (q + s − 1) cq ρq+s−2 − 2λl,k (q + s) cq ρq+s−1 + − cq ρq+s = 0 ρ ρ2 q=0
∞ X q=0
q=0
(q + s) (q + s − 1) cq ρq+s−2 − 2λl,k ∞ X q=0
∞ X
q=0
(q + s) cq ρq+s−1 +
q=0
∞ X q=0
2cq ρq+s−1 − l (l + 1)
[(q + s) (q + s − 1) − l (l + 1)] cq ρq+s−2 +
∞ X q=0
∞ X
cq ρq+s−2 = 0
q=0
[2 − 2λl,k (q + s)] cq ρq+s−1 = 0
escribiendo separadamente el primer t´ermino de la primera sumatoria s−2
0 = [s (s − 1) − l (l + 1)] c0 ρ +
∞ X q=0
+
∞ X q=1
[(q + s) (q + s − 1) − l (l + 1)] cq ρq+s−2
[2 − 2λl,k (q + s)] cq ρq+s−1
(13.16)
para la primera sumatoria hacemos q ′ = q − 1 de modo que ∞ X q=1
[(q + s) (q + s − 1) − l (l + 1)] cq ρq+s−2 =
∞ X
q ′ =0
′ q ′ + s + 1 q ′ + s − l (l + 1) cq′ +1 ρq +s−1
(13.17)
reemplazando (13.17) en (13.16) y teniendo en cuenta que los ´ındices son mudos resulta 0 = [s (s − 1) − l (l + 1)] c0 ρs−2 + +
∞ X q=0
∞ X q=0
[(q + s + 1) (q + s) − l (l + 1)] cq+1 ρq+s−1
2 [1 − λl,k (q + s)] cq ρq+s−1
[s (s − 1) − l (l + 1)] c0 ρs−2 +
∞ X q=0
{[(q + s + 1) (q + s) − l (l + 1)] cq+1 + 2 [1 − λl,k (q + s)] cq } ρq+s−1 = 0
para que la serie sea cero para todo ρ, es necesario y suficiente que cada coeficiente de la expansi´ on sea cero lo cual nos conduce a [s (s − 1) − l (l + 1)] c0 = 0
[(q + s + 1) (q + s) − l (l + 1)] cq+1 + 2 [1 − λl,k (q + s)] cq = 0 ;
q = 0, 1, . . . , ∞
´ DE LA ECUACION ´ RADIAL POR SERIES DE POTENCIAS 13.3. SOLUCION
361
que se pueden reescribir como (s − l − 1) (s + l) c0 = 0
(13.18)
[(q + s + 1) (q + s) − l (l + 1)] cq+1 = 2 [λl,k (q + s) − 1] cq ;
q = 0, 1, . . . , ∞
(13.19)
y teniendo en cuenta que c0 6= 0 por definici´on, la Ec. (13.18) nos dice que s solo puede tomar dos valores s = l + 1 o´ s = −l pero recordando que s debe ser estrictamente positivo para garantizar un comportamiento aceptable en el origen (condici´ on 13.12), el u ´nico valor aceptable como soluci´ on es s=l+1
(13.20)
Esto es consistente con la discusi´ on de la secci´ on 12.5.2, Eq. (12.43). Reemplazando s = l + 1 en (13.19) se obtiene [(q + l + 2) (q + l + 1) − l (l + 1)] cq+1 = 2 [λl,k (q + l + 1) − 1] cq ; haciendo q ′ = q + 1 esta relaci´ on se convierte en ′ q + l + 1 q ′ + l − l (l + 1) cq′ = 2 λl,k q ′ + l − 1 cq′ −1 ;
q = 0, 1, . . . , ∞ q ′ = 1, 2, . . . , ∞
teniendo en cuenta que q ′ es ´ındice mudo y reorganizando t´erminos se obtiene q (q + 2l + 1) cq = 2 [(q + l) λl,k − 1] cq−1 ;
q = 1, 2, . . . , ∞
(13.21)
la Ec. (13.21) define una relaci´ on de recurrencia para los coeficientes de la expansi´ on (13.13). Si fijamos c0 podemos calcular todos los dem´ as coeficientes con esta recurrencia. Por otro lado, de la Ec. (13.21) se obtiene 2 [(q + l) λl,k − 1] cq = cq−1 q (q + 2l + 1)
(13.22)
que claramente tiende a cero cuando q → 0, por tanto la serie converge para todo ρ (criterio del cociente para series). En consecuencia, hemos determinado para todo λl,k una soluci´ on de (13.11) que satisface la condici´ on (13.12).
13.3.2.
Condici´ on asint´ otica ρ → ∞ y truncamiento de la serie
Ya hemos mirado la condici´ on en el origen pero no en ρ → ∞. Si el t´ermino entre par´entesis a la derecha de (13.21) no es cero para ning´ un valor entero q, la expansi´ on (13.13) ser´ a una verdadera serie ya que la relaci´ on de recurrencia generar´ a infinitos coeficientes cq , para q grande podemos ver de (13.22) que cq
l´ım
q→∞ cq−1
=
2qλl,k 2λl,k → 2 q q
(13.23)
ahora la expansi´ on en series de potencias de la funci´ on e2ρλl,k es e2ρλl,k =
∞ X q=0
dq ρq
;
dq =
(2λl,k )q q!
⇒
2λl,k dq = dq−1 q
(13.24)
comparando (13.23) con (13.24) se puede demostrar que para valores grandes de ρ, la serie se comporta en la forma e2ρλl,k . De la Ec. (13.9), la funci´ on radial ul,k (r) se comporta como ul,k (ρ) ∼ eρλl,k
´ CAP´ITULO 13. ATOMOS HIDROGENOIDES
362
la cual no es f´ısicamente aceptable1 . Por tanto, no es aceptable una soluci´ on en serie (cantidad infinita de t´erminos no nulos). En consecuencia, es necesario que la expansi´ on (13.13) sea truncada y se convierta en una sumatoria (polinomio). En tal caso la Ec. (13.9) nos dice que el comportamiento asint´ otico de ul,k (r) es el producto de un polinomio por una funci´ on e−ρλl,k el cual es aceptable. on. Esto equivale a decir que existe un valor Definiremos ck como el primer coeficiente nulo de la expansi´ entero positivo k tal que ck−1 6= 0, pero el t´ermino entre par´entesis a la derecha de (13.21) es cero para q = k. En tal caso, la relaci´ on de recurrencia (13.21), nos indica que el coeficiente ck ser´ a nulo y que los t´erminos subsecuentes tambi´en ser´ an nulos. La expansi´ on (13.13) ser´ a un polinomio ya que la relaci´ on de recurrencia generar´ a un n´ umero finito de coeficientes cq . Para un valor fijo de l, rotulamos el correspondiente valor de λl,k con este entero k. Es claro que k ≥ 1, puesto que c0 6= 0. Igualando a cero el t´ermino entre par´entesis a la derecha de (13.21) cuando q = k se obtiene 1 λl,k = ; k = 1, 2, 3, . . . (13.25) l+k reemplazando estos valores permitidos de λl,k en la Ec. (13.7) para la energ´ıa se obtiene 1 l+k
=
s
El,k = −
−
El,k EI
EI ; k = 1, 2, 3, . . . (l + k)2
(13.26)
on yl,k (ρ) queda en la forma Tomando en cuenta (13.13, 13.20), y el hecho de que cq = 0 para q ≥ k, la funci´ l+1
yl,k (ρ) = ρ
k−1 X
cq ρq
(13.27)
q=0
tenemos entonces que yl,k (ρ) es un polinomio donde la menor potencia es ρl+1 y la m´ axima potencia es ρl+k .
13.3.3.
Coeficientes del polinomio radial en t´ erminos de c0
La relaci´ on de recurrencia (13.21) permite encontrar los coeficientes del polinomio a partir de c0 , reemplazando (13.25) en (13.21) la relaci´ on de recurrencia queda q (q + 2l + 1) cq q (q + 2l + 1) cq cq
1 2 (q + l) − 2 (l + k) = 2 (q + l) − 1 cq−1 = cq−1 l+k (l + k) 2q + 2l − 2l − 2k = cq−1 (l + k) 2 (k − q) = − cq−1 q (q + 2l + 1) (l + k)
(13.28)
demostraremos por inducci´ on que cq = (−1)q
2 l+k
q
(k − 1)! (2l + 1)! c0 (k − q − 1)! q! (q + 2l + 1)!
(13.29)
1 Esta funci´ on radial diverge cuando ρ → ∞. Adem´ as no es de cuadrado integrable, en tanto que para soluciones de energ´ıa negativa (acotadas cl´ asicamente), se esperan funciones de cuadrado integrable. Adem´ as, estas funciones ni siquiera son ortonormales en el sentido extendido.
´ DE LA ECUACION ´ RADIAL POR SERIES DE POTENCIAS 13.3. SOLUCION
363
primero para q = 1, la relaci´ on (13.28) nos dice que2 c1 c1 c1
2 (k − 1) 2 1 = − c0 = − (k − 1) c0 1 × (1 + 2l + 1) (l + k) l+k 1 × (1 + 2l + 1) 1 2 (k − 1)! (2l + 1)! 1 = (−1) c0 l+k (k − 2)! 1! × (1 + 2l + 1)! 1 2 (k − 1)! (2l + 1)! 1 = (−1) c0 l+k (k − 1 − 1)! 1! (1 + 2l + 1)!
(13.30)
comparando (13.30) con (13.29) vemos que (13.29) se cumple para q = 1. Ahora asumimos que se cumple para q y demostraremos que se cumple para q + 1. Usando (13.28) con q → q + 1 se obtiene 2 (k − q − 1) cq (q + 1) (q + 2l + 2) (l + k) (q + 1) (q + 2l + 2) (l + k) = − cq+1 2 (k − q − 1)
cq+1 = − cq
(13.31)
reemplazando (13.31) en (13.29) tenemos
cq −
(q + 1) (q + 2l + 2) (l + k) cq+1 2 (k − q − 1)
q 2 (k − 1)! (2l + 1)! = (−1) c0 l+k (k − q − 1)! q! (q + 2l + 1)! q (k − 1)! 2 (2l + 1)! = (−1)q c0 l+k (k − q − 1)! q! (q + 2l + 1)! q
q 2 2 (k − 1)! (k − q − 1) (2l + 1)! c0 (l + k) l + k (k − q − 1)! q! (q + 1) (q + 2l + 1)! (q + 2l + 2) q+1 (k − 1)! 2 (2l + 1)! = (−1)q+1 c0 l+k (k − q − 2)! (q + 1)! (q + 2l + 2)! q+1 (k − 1)! 2 (2l + 1)! = (−1)q+1 c0 l+k [k − (q + 1) − 1]! (q + 1)! [(q + 1) + 2l + 1]!
cq+1 = (−1) (−1)q cq+1 cq+1
(13.32)
comparando (13.32) con (13.29) vemos que si la relaci´ on (13.29) se cumple para q entonces se cumple para q + 1, lo cual demuestra la validez de (13.29).
13.3.4.
C´ alculo de c0 y de la funci´ on radial para l = 0, k = 1
Ahora falta evaluar a c0 , lo cual se logra con la ecuaci´ on de normalizaci´ on (12.46). N´ otese que la Ec. (13.25) nos dice que l = k = 0 est´ a prohibido, ya que k ≥ 1. Por tanto, calcularemos expl´ıcitamente la funci´ on radial m´ as simple que es ul=0,k=1 (r). Comenzaremos empleando las ecuaciones (13.27) con l = 0, k = 1 yl,k (ρ) = ρl+1
k−1 X q=0
cq ρq
⇒ y0,1 (ρ) = ρ0+1
0 X
cq ρq = c0 ρ
q=0
verifiquemos expl´ıcitamente que ck = c1 = 0. Usando (13.28) para l = 0 y q = k = 1 se obtiene cq = − 2
2 (k − q) 2 (1 − 1) cq−1 ⇒ c1 = − c0 = 0 q (q + 2l + 1) (l + k) 1 × [1 + 2 (0) + 1] (0 + 1)
Tambi´en podemos ver que para q = 0, la Ec. (13.29) conduce a c0 = c0 . Por tanto podemos comenzar la inducci´ on con q = 0.
´ CAP´ITULO 13. ATOMOS HIDROGENOIDES
364 ahora usando (13.9, 13.25) y la relaci´ on entre ρ y r Ec. (13.7) u0,1 (ρ) = e−ρλ0,1 y0,1 (ρ) ; λ0,1 = u0,1 (r) =
c0 −r/a0 re a0
1 = 1 ⇒ u0,1 (ρ) = c0 ρe−ρ 0+1
finalmente usamos la ecuaci´ on de normalizaci´ on (12.46) y elegimos c0 con fase cero (constante real positiva) Z ∞ Z ∞ Z c20 ∞ 2 −2r/a0 2 2 |ul,k (r)| dr = 1 ⇒ |u0,1 (r)| dr = 1 ⇒ 2 r e dr = 1 a0 0 0 0 Z ∞ ∞ 1 1 − 2 r r 2 e−2r/a0 dr = − a0 e a0 a20 + 2a0 r + 2r 2 = a30 ⇒ 4 4 0 0 c20 a30 4a20
c20 a0 =1 4
= 1⇒
(0,1)
c0
2 √ a0
=
(13.33)
on radial donde hemos tenido en cuenta que c0 en general depende de los valores de l y k. Finalmente la funci´ Rl,k (r) est´ a dada por (12.36), para el caso de l = 0, k = 1 se tiene que (0,1)
R0,1 (r) = R0,1 (r) =
13.3.5.
1 1 c0 2 1 −r/a0 u0,1 (r) = re−r/a0 = √ e r r a0 a0 a0 2 −r/a0 e 3/2 a0
C´ alculo de c0 y de la funci´ on radial para l = 0, k = 2
Calculemos ahora Rl,k (r) con l = 0, k = 2. Usando las Ecs. (13.27) con l = 0, k = 2 l+1
yl,k (ρ) = ρ
k−1 X q=0
q
cq ρ
0+1
⇒ y0,2 (ρ) = ρ
1 X
cq ρq = ρ (c0 + c1 ρ)
q=0
usando (13.28) para l = 0, k = 2, q = 1, 2 se obtiene 2 (k − q) 2 (2 − 1) 1 cq−1 ⇒ c1 = − c0 = − c0 ⇒ q (q + 2l + 1) (l + k) (1 + 1) (0 + 2) 2 2 (2 − 2) = − c1 = 0 2 (2 + 1) (0 + 2)
cq = − c2
verificando una vez m´ as que ck = c2 = 0. Con estos coeficientes y0,2 (ρ) queda 1 1 y0,2 (ρ) = ρ c0 − c0 ρ = c0 ρ 1 − ρ 2 2 y usando (13.9, 13.25, 13.7) −ρλ0,2
u0,2 (ρ) = e
1 1 1 1 = = ⇒ u0,2 (ρ) = c0 ρ 1 − ρ e− 2 ρ 0+2 2 2
y0,2 (ρ) ; λ0,2 r r − r u0,2 (r) = c0 1− e 2a0 a0 2a0
(13.34)
´ DE LA ECUACION ´ RADIAL POR SERIES DE POTENCIAS 13.3. SOLUCION
365
ahora debemos calcular el c0 que normaliza a u0,2 (r) de acuerdo con las Ecs. (13.34, 12.46) eligiendo fase cero para c0 Z ∞ Z ∞ 2 r r 2 − ar 2 2 |u0,2 (r)| dr = 1 ⇒ c0 e 0 dr = 1 1− a0 2a0 0 0 evaluando la integral Z ∞ 0
r a0
2
r 1− 2a0
2
∞ 1 − a1 r 4 3 2 2 4 dr = − 3 e 0 8a0 + 8a0 r + 4a0 r + r = 2a0 4a0 0
− ar
e
0
por tanto
(0,2)
c20 (2a0 ) = 1 ⇒ c0
1 =√ 2a0
reemplazando en (13.34) queda u0,2 (r) = R0,2 (r) =
13.3.6.
√
1 r 2a0 a0 2
(2a0 )3/2
r 1− 2a0
r 1− 2a0
− 2ar
e
− 2ar
e
0
=
2r (2a0 )3/2
r 1− 2a0
− 2ar
e
0
0
C´ alculo de c0 y de la funci´ on radial para l = k = 1
Como u ´ltimo ejemplo evaluamos Rl,k (r) para l = k = 1. Usando (13.27) con l = k = 1
l+1
yl,k (ρ) = ρ
k−1 X
q
1+1
cq ρ
; y1,1 (ρ) = ρ
q=0
2
y1,1 (ρ) = c0 ρ
0 X
cq ρq
q=0
usando (13.9, 13.25, 13.7) u1,1 (ρ) = e−ρλ1,1 y1,1 (ρ) ; λ1,1 =
1 r2 − r 1 = ⇒ u1,1 (r) = c0 2 e 2a0 1+1 2 a0
normalizando u1,1 (r) con las Ecs. (13.35, 12.46) con c0 positivo Z ∞ Z ∞ 4 r − ar 2 2 |u1,1 (r)| dr = 1 ⇒ c0 e 0 dr = 1 a40 0 0 evaluando la integral Z ∞ 0
r 4 − ar e 0 a40
con lo cual resulta
∞ 1 − ar 4 3 2 2 3 4 dr = − 3 e 0 r + 4r a0 + 12r a0 + 24ra0 + 24a0 = 24a0 a0 0 (1,1)
c20 (24a0 ) = 1 ⇒ c0
quedando u1,1 (r) =
=√
1 1 1 = √ 2 6a0 24a0
1 1 r 2 − 2ar 1 r 2 − 2ar 1 r 2 − 2ar 0 = 0 = √ √ √ e e e 0 √ 3/2 2 6a0 a20 a 2 2 3 a5/2 0 (2a ) 3 0 0
quedando finalmente R1,1 (r) =
1 3/2
(2a0 )
1 r − 2ar √ e 0 3 a0
(13.35)
´ CAP´ITULO 13. ATOMOS HIDROGENOIDES
366
13.3.7.
Estructura de los niveles de energ´ıa
La Ec. (13.26) nos muestra que en el ´ atomo de Hidr´ ogeno, l y k no definen un nivel de energ´ıa por separado, es conveniente introducir un n´ umero cu´ antico de la forma n≡l+k
(13.36)
de modo que n determina un´ıvocamente el valor de la energ´ıa seg´ un se observa en (13.26) ya que en tal caso tenemos EI En = − 2 ; n = 1, 2, 3, . . . n Puesto que determinar n y l es equivalente a determinar k y l, ser´ a m´ as conveniente reemplazar a k por n. En consecuencia, utilizaremos los n´ umeros cu´ anticos n, l, m en lugar de k, l, m de aqu´ı en adelante. En virtud de que n define la energ´ıa, se denomina el n´ umero cu´ antico principal, de aqu´ı en adelante citaremos los n´ umeros cu´ anticos usando primero el n´ umero cu´ antico principal, luego el n´ umero cu´ antico azimutal y finalmente el n´ umero cu´ antico magn´etico i.e. n, l, m.
13.4.
Par´ ametros at´ omicos
Las f´ ormulas para la funci´ on de onda han sido escritas tomando a a0 (radio de Bohr) como unidad de longitud que nos dar´ a una idea de la extensi´ on espacial de las funciones de onda de los estados acotados del ´ atomo de Hidr´ogeno. Similarmente, la energ´ıa de ionizaci´ on EI se utilizar´ a para obtener el orden de magnitud de los niveles de energ´ıa. Las ecuaciones (13.2) se pueden reescribir como EI =
µe4 µe4 c2 1 = 2 2 = 2 2~ 2~ c 2
e2 ~c
2
µc2 ; a0 =
~2 ~2 c ~c = 2 = 2 2 µe µe c e
~ µc
que se pueden reescribir como 1 1 e2 q2 ~ EI = α2 µc2 , a0 = λel ; α ≡ = ; λel ≡ 2 α ~c 4πε0 ~c µc
(13.37)
la constante adimensional α se conoce como constante de estructura fina. Por otro lado puesto que µ ≃ me se tiene que λel est´ a relacionada con la longitud de onda de compton del electr´ on λC [ver Ec. (2.11) P´ ag. 114]. Num´ericamente 1 λC ~ α≃ ; λel ≡ ≃ ≃ 3,8 × 10−3 A (13.38) 137 2π me c la segunda de las Ecs. (13.37) nos dice que el radio de Bohr (radio at´ omico t´ıpico) es unas dos ´ ordenes de magnitud mayor que la longitud de onda de Compton del electr´ on. La primera de las Ecs. (13.37) se escribe num´ericamente como 1 2 1 1 2 2 EI ≃ α me c ≃ me c2 ⇒ EI ≃ 2. 7 × 10−5 me c2 2 2 137 me c2 ≃ 0,5 × 106 eV
de modo que la energ´ıa de enlace t´ıpica de un ´ atomo es unas 10−5 veces menor que la energ´ıa en reposo del 2 electr´ on me c . EI ≪ me c2 esta relaci´ on es indispensable para poder justificar una aproximaci´ on no relativista al problema. Los efectos relativistas son peque˜ nos pero observables. Debido a que los efectos relativistas son peque˜ nos pueden calcularse a trav´es de la teor´ıa de perturbaciones.
13.5. RESUMEN DE RESULTADOS
13.5.
367
Resumen de resultados
Para el ´ atomo de Hidr´ ogeno, que es un problema de dos cuerpos (un prot´ on y un electr´ on) reducimos el problema al de una part´ıcula equivalente de masa aproximadamente igual a la masa me del electr´ on (masa reducida µ del sistema) y en donde el centro de masa est´ a aproximadamente en la posici´ on del prot´ on. Es conveniente expresar los resultados en t´erminos del radio de Bohr a0 y la energ´ıa de ionizaci´ on EI los cuales en t´erminos de las constantes f´ısicas universales vienen dados por µe4 1 2 2 ~2 1 ~ 1 EI = = α µc ; a0 = 2 = (13.39) ≃ λel 2 2~ 2 µe α µc α e2 ~ q2 α ≡ = ; λel ≡ (13.40) ~c 4πε0 ~c me c Siendo α la constante de estructura fina y λel la longitud de onda de Compton del electr´ on. Teniendo en cuenta la Ec. (13.36) n≡l+k enunciaremos los resultados en t´erminos de los n´ umeros cu´ anticos n, l, m. Un estado ser´ a rotulado usando el orden |n, l, mi, es decir usando primero el n´ umero cu´ antico principal n, luego el n´ umero cu´ antico azimutal l y finalmente el n´ umero cu´ antico magn´etico m. La funci´ on de onda asociada es de la forma un,l (r) Ylm (θ, ϕ) r r r En 1 eimϕ −ρλn un,l (ρ) = e yn,l (ρ) ; ρ ≡ ; λn ≡ − = ; Ylm (θ, ϕ) = Zl,m (θ) √ a0 EI n 2
ϕn,l,m (r, θ, ϕ) = Rn,l (r) Ylm (θ, ϕ) =
(13.41) (13.42)
y los valores de energ´ıa son
EI ; n = 1, 2, 3, . . . (13.43) n2 siendo Ylm (θ, ϕ) los arm´ onicos esf´ericos. La soluci´ on de la funci´ on radial yn,l (ρ) es un polinomio dado por En = −
yn,l (ρ) = ρl+1
n−l−1 X
cq ρq
(13.44)
q=0
donde los coeficientes cq se pueden encontrar a partir de c0 , con la siguiente f´ ormula de recurrencia 2 (n − l − q) cq−1 q (q + 2l + 1) n q 2 (n − l − 1)! (2l + 1)! q = (−1) c0 n (n − l − q − 1)! q! (q + 2l + 1)!
cq = −
(13.45)
cq
(13.46)
finalmente la constante c0 (que en general depende de los valores de n y l) se determina como constante de normalizaci´ on para la funci´ on radial un,l (r) Z ∞ |un,l (r)|2 dr = 1 (13.47) 0
a manera de ejemplo escribimos expl´ıcitamente algunas funciones radiales −3/2 −r/a0
Rn=1,l=0 (r) = 2 (a0 )
e
; R2,0 (r) = 2 (2a0 )
1 r − 2ar R2,1 (r) = (2a0 )−3/2 √ e 0 3 a0
−3/2
r 1− 2a0
− 2ar
e
0
(13.48) (13.49)
´ CAP´ITULO 13. ATOMOS HIDROGENOIDES
368
13.6.
Discusi´ on de los resultados
La Ec. (13.43) nos da el espectro de energ´ıas del ´ atomo de Hidr´ ogeno El,k = −
EI (l + k)2
; k = 1, 2, 3, ...
(13.50)
y nos muestra que para un l fijo existen infinitos valores de energ´ıa asociados a k = 1, 2, 3, .... Adicionalmente, para cada par l, k la energ´ıa posee al menos una degeneraci´ on de orden 2l + 1 debido a los diferentes valores de m asociados a l fijo, esta degeneraci´ on debida a la ausencia del n´ umero cu´ antico m en la ecuaci´ on radial, se denomina degeneraci´ on esencial puesto que es propia de cualquier interacci´ on central. No obstante, tambi´en est´ an presentes degeneraciones accidentales propias de la interacci´ on espec´ıfica, ya que la Ec. (13.50) nos dice que dos autovalores El,k y El′ ,k′ asociados a ecuaciones radiales distintas (l 6= l′ ) ser´ an iguales si l′ + k′ = l + k. Usando ahora los n´ umeros cu´ anticos n, l, m, la Ec. (13.50) queda En = −
EI n2
;
n = 1, 2, 3, . . .
(13.51)
utilizando la terminolog´ıa espectrosc´ opica un valor de n especifica una capa o nivel electr´ onico. Puesto que k es un entero positivo, hay un n´ umero finito de valores de l asociados a un valor dado de n. De la definici´ on de n Ec. (13.36) y los valores permitidos de k (1, 2, 3, ...) es claro que l = 0, 1, 2, ..., n − 1 ; n = 1, 2, 3, ... Cada combinaci´ on espec´ıfica n, l se denomina una subcapa o subnivel electr´ onico. Puesto que hay n valores de l para un n dado se dice que cada capa o nivel n contiene n subcapas o subniveles. Ahora bien, puesto que L2 , L3 y H forman un C.S.C.O. se tiene que un estado est´ a definido un´ıvocamente por una tripla (n, l, m). En consecuencia, cada subnivel (n, l) contiene 2l + 1 estados diferentes asociados a los diferentes valores de m para l fijo. Dado que n especifica un´ıvocamente a la energ´ıa y (n, l, m) especifica completamente al estado, la degeneraci´ on de la energ´ıa para un n dado es el n´ umero total de valores de l, m para dicho valor de n gn =
n−1 X l=0
gn = n2
(2l + 1) =
2
n−1 X l=0
l
!
+n=
2n (n − 1) +n 2
veremos m´ as adelante que la presencia del momento angular intr´ınseco del electr´ on nos duplica este valor. Si tenemos en cuenta adicionalmente el esp´ın del prot´ on, tendr´ıamos un factor de dos adicional. Usando una vez m´ as la notaci´ on espectrosc´ opica, los valores de l se denotan con una letra del alfabeto en la siguiente forma l=0↔s , l=1↔p , l=2↔d , l=3↔f , l=4↔g la notaci´ on espectrosc´ opica rotula un subnivel por el n´ umero n seguido por la letra que caracteriza al valor de l. Por ejemplo, para el nivel base n = 1 (que no es degenerado seg´ un la Ec. (13.51) y que se conoce como “nivel K”) solo l = 0 es posible, de modo que solo tiene el subnivel 1s. El primer estado excitado n = 2 (conocido como “nivel L”) permite l = 0, 1 de modo que contiene los subniveles 2s y 2p. El segundo estado excitado (“nivel M ”) posee los subniveles 3s, 3p, 3d. Hemos visto que un estado se especifica con los n´ umeros cu´ anticos n, l, m. Donde n, l especifica la dependencia radial y l, m la dependencia angular. Veamos ahora las caracter´ısticas de la dependencia angular.
´ DE LOS RESULTADOS 13.6. DISCUSION
13.6.1.
369
Dependencia angular
Si bien la funci´ on de onda eimϕ ϕ (r, θ, ϕ) = Rn,l (r) Ylm (θ, ϕ) = Rn,l (r) Zl,m (θ) √ 2 depende de ambos ´ angulos, puesto que la mayor´ıa de observables dependen del m´ odulo al cuadrado de la funci´ on odulo nos da de onda, debemos calcular la dependencia angular de |Ylm (θ, ϕ)|2 este m´ 2 eimϕ 1 √ |Ylm (θ, ϕ)| = Zl,m (θ) = |Zl,m (θ)|2 2 2 2
(13.52)
vemos entonces que este m´ odulo al cuadrado tiene simetr´ıa azimutal. Por tanto se obtiene una superficie de revoluci´ on alrededor del eje X3 de cuantizaci´ on. En particular, |Y00 |2 es constante y por tanto esf´ericamente 2 sim´etrico. |Y1m (θ, ϕ)|2 es proporcional a cos2 θ; |Y2m (θ, ϕ)|2 es proporcional a 3 cos2 θ − 1 etc. La funci´ on radial Rn,l (r) caracteriza a cada subnivel y se puede calcular con los resultados de la secci´ on 13.5 introduciendo nuestro cambio de notaci´ on de Rl,m,k (r) a Rn,l,m (r) . El comportamiento de Rn,l (r) en la vecindad del origen es del tipo r l , de modo que solo los estados que pertenecen a un subnivel s (l = 0) tienen una densidad de probabilidad diferente de cero en el origen. A medida que l aumenta, es mayor la regi´ on alrededor del prot´ on para la cual la probabilidad de encontrar el electr´ on es despreciable, es de esperarse que esto aumente el valor esperado del radio at´ omico3 . Esto tiene consecuencias en procesos f´ısicos tales como la captura de electrones por n´ ucleos y la estructura hiperfina de las l´ıneas espectrales. Vale la pena recordar que el concepto de subnivel aparece en el modelo semicl´ asico de Sommerfeld que asigna a cada valor de n (n´ umero cu´ antico de Bohr) un n´ umero n de ´ orbitas el´ıpticas de la misma energ´ıa y diferente momento angular. La ´ orbita asociada al m´ aximo momento angular para un n dado es circular. Puesto que el modelo semicl´ asico de Sommerfeld fu´e exitoso para predecir la degeneraci´ on de los niveles de energ´ıa, es l´ ogico pensar que el modelo de Bohr se reproduce para los estados con l = n − 1 (m´ aximo valor del momento angular para n dado). En particular vamos a mostrar que para l = n − 1 se obtiene la segunda expresi´on (13.3) para los radios de Bohr. La probabilidad de encontrar al electr´ on en un volumen dV que en coordenadas esf´ericas se caracteriza por dV = r 2 dr sin θ dθ dϕ = r 2 dr dΩ estar´ a dada por dPn,l,m (r, θ, ϕ) = |ϕn,l,m (r, θ, ϕ)|2 r 2 dr dΩ = |Rn,l (r)|2 r 2 dr × |Yl,m (θ, ϕ)|2 dΩ si queremos calcular la probabilidad de encontrar al electr´ on entre r y r + dr dentro de un cierto ´ angulo s´ olido, tenemos que esta probabilidad se obtiene usando (13.52) 1 dPn,l,m (r) = |Rn,l (r)| r dr × 2 2 2
2 2
Z
ϕ2
ϕ1
dϕ
Z
θ2 θ1
dPn,l,m (r) = Ml,m |Rn,l (r)| r dr ; Ml,m
|Zl,m (θ)|2 sin θ dθ
ϕ2 − ϕ1 ≡ 2
Z
θ2 θ1
|Zl,m (θ)|2 sin θ dθ
(13.53)
donde [ϕ1 , ϕ2 ] y [θ1 , θ2 ] definen el intervalo de los ´ angulos que generan el ´ angulo s´ olido dentro del cual se quiere evaluar la probabilidad. 3
Esto se asemeja al comportamiento cl´ asico en el cual el aumento de la magnitud del momento angular produce un aumento en el radio promedio de una ´ orbita cerrada. En particular, cl´ asicamente un momento angular nulo significa que la velocidad inicial “apunta” hacia el centro de interacci´ on, lo cual indica que la trayectoria de la part´ıcula es una l´ınea recta que pasa en principio por este punto (el origen), pero si el momento angular es no nulo, la trayectoria no pasa por el origen o centro de fuerzas. La contrapartida cu´ antica es el hecho de que solo para l = 0 tenemos una probabilidad no nula de que el electr´ on se encuentre en el origen.
´ CAP´ITULO 13. ATOMOS HIDROGENOIDES
370
Ahora evaluaremos esta probabilidad para l = n − 1. Aplicando l = n − 1 en (13.44) (n−1)+1
yn,n−1 (ρ) = ρ
0 X
cq ρq = c0 ρn
q=0
Con esto y usando la primera y la tercera de las Ecs. (13.42) se calcula la funci´ on radial 1 ; λn = n n r ρ r − un,n−1 (ρ) = c0 e− n ρn = c0 e a0 n a0 n r 1 c0 − a rn a0 r n r −a n 0 0 Rn,n−1 (r) = c0 e = e r a0 a0 r a0 n−1 c0 r − r Rn,n−1 (r) = e a0 n a0 a0 un,n−1 (ρ) = e−ρλn c0 ρn
(13.54)
finalmente la probabilidad se obtiene de (13.53) y (13.54) dPn,n−1,m (r) = Mn−1,m |Rn,n−1 (r)|2 r 2 dr ; Mn−1,m ≡ dPn,n−1,m (r) = Mn−1,m dPn,n−1,m (r) =
c20
"
c0 a0
r a0
− a2rn
Mn−1,m e
0
n−1
r a0
− a rn
e
0
2n
#2
2
r dr =
c20
ϕ2 − ϕ1 2
Z
Mn−1,m
θ2
|Zn−1,m (θ)|2 sin θ dθ
θ1
"
r a0
n−1
− a rn
e
0
#2
r a0
2
dr
dr
la densidad de probabilidad radial para l = n − 1 es dPn,n−1,m (r) ρn,n−1 (r) ≡ = c20 Mn−1,m dr
r a0
2n
− a2rn
e
0
esta densidad de probabilidad tiene un m´ aximo en r = rn = n2 a0 que es el radio de Bohr para una ´ orbita de energ´ıa En . La tabla 13.1, ilustra los niveles de energ´ıa y la degeneraci´ on de algunos estados. La tabla 13.2 muestra las expresiones de la funci´ on de onda para los primeros niveles de energ´ıa.
´ DE LOS RESULTADOS 13.6. DISCUSION
n→∞ n=4 n=3
E=0 4s 3s
E=0 4p 3p
n=2
2s
2p
E=0 4d 3d
371
E=0 4f
n = 1 (E = EI )
1s l = 0 (s) l = 1 (p) l = 2 (d) l = 3 (f ) Cuadro 13.1: Niveles de energ´ıa (negativos) para estados acotados del a ´tomo de hidr´ ogeno. Los niveles sobre una fila poseen la misma energ´ıa (mismo n´ umero cu´ antico principal n). En n = 1 la energ´ıa corresponde en valor absoluto a la energ´ıa de ionizaci´ on, y para n muy grande la energ´ıa tiende a cero por la izquierda. A medida que se incrementa n disminuye la brecha entre los valores de energ´ıa permitidos.
nivel 1s nivel 2s
ϕ1,0,0 (r) = √1 3 e−r/a0 πa0 1 ϕ2,0,0 (r) = √ 3 1 − 2ar 0 e−r/2a0 8πa0
ϕ2,1,1 (r) = − √1
r −r/2a0 e sin θ eiϕ πa30 a0 ϕ2,1,0 (r) = √1 3 ar0 e−r/2a0 cos θ 4 2πa0 ϕ2,1,−1 (r) = √1 3 ar0 e−r/2a0 sin θ e−iϕ 8 πa0 8
nivel 2p
Cuadro 13.2: Funciones de onda asociadas al estado base ( n = 1) y al primer estado excitado ( n = 2).
Cap´ıtulo 14
Corrientes de probabilidad en ´ atomos hidrogenoides, acoples con campos magn´ eticos 14.1.
Corrientes de probabilidad para las soluciones estacionarias del ´ atomo de Hidr´ ogeno
Siguiendo los resultados de la secci´ on 3.3.5, expresamos la funci´ on de onda estacionaria en forma polar ϕ (r) = α (r) eiξ(r) ; α (r) ≥ 0, 0 ≤ ξ (r) < 2π
(14.1)
de modo que la densidad de probabilidad ρ (r) y la densidad de corriente de probabilidad J (r) est´ an dadas por las Ecs. (3.34, 3.35) ~ ρ (r) = α2 (r) ; J (r) = α2 (r) ∇ξ (r) (14.2) µ Teniendo en cuenta la estructura de las soluciones estacionarias Ecs. (13.41, 13.42) el m´ odulo α (r) y la fase ξ (r) para las soluciones hidrogenoides estacionarias est´ an dadas por 1 αn,l,m (r) = |Rn,l (r)| |Ylm (θ, ϕ)| = √ |Rn,l (r)| |Zlm (θ)| 2
;
ξ (r) = mϕ
(14.3)
es importante tener en cuenta que µ denota la masa y m denota el autovalor m~ de L3 . Aplicando las Ecs. (14.2) y usando la expresi´ on para el gradiente en coordenadas esf´ericas tenemos que: ~ 2 ~ ∂ 1 ∂ 1 ∂ Jn,l,m (r) = α (r) ∇ξ (r) = ρn,l,m (r) ur + uθ + uϕ (mϕ) µ µ ∂r r ∂θ r sin θ ∂ϕ ~ m Jn,l,m (r) = ρn,l,m (r) uϕ (14.4) µ r sin θ donde uϕ es el vector unitario ortogonal al plano formado por r y u3 en el sentido en el cual se incrementa el ´ngulo azimutal ϕ. La Ec. (14.4) nos dice que el sentido de rotaci´ a on de la corriente est´ a dictaminado por el signo de m y de sin θ ya que las dem´ as cantidades son todas positivas. La Ec. (14.4) nos dice que la corriente en cada punto M definida por el vector posici´ on r, es perpendicular al plano definido por r y u3 . El flu´ıdo de probabilidad rota alrededor del eje X3 . Puesto que |J| no es proporcional a r sin θ ρ (r) el sistema no rota como un todo. Es decir, la velocidad angular de la corriente es diferente en cada punto. Si queremos ver la estructura de la corriente asociada a un estado estacionario para un plano perpendicular a u3 (es decir para θ fijo) vemos que si sin θ > 0, 372
´ ´ 14.1. CORRIENTES DE PROBABILIDAD PARA EL ATOMO DE HIDROGENO
373
tenemos rotaci´ on del flu´ıdo de probabilidad alrededor de u3 en el sentido antihorario (horario) si m > 0, (m < 0). Si m = 0 no hay corriente de probabilidad en ning´ un punto del espacio. Tomemos un elemento de volumen d3 r situado en el punto r, su contribuci´ on al momento angular con respecto al origen (en el centro del n´ ucleo) es: dL = r × dP = r × (dµ) v
donde dµ es la “fracci´ on de masa equivalente” que ocupar´ıa el volumen dV si la distribuci´ on de probabilidad fuese 1 una distribuci´ on de masa . En consecuencia, dµ = µ ρ dV con lo cual dL = µr × ρn,l,mv dV = µr × Jn,l,m (r) d3 r
(14.5)
el momento angular total se obtiene por integraci´ on de la Ec. (14.5). Por simetr´ıa todas las componentes en X1 y X2 se anulan y solo sobrevive la componente sobre X3 la cual vendr´ a dada por Z Z Z ρn,l,m (r) ρn,l,m (r) L3 = µ d3 r u3 · [r × Jn,l,m (r)] = m~ d3 r u3 · [r × uϕ ] = m~ d3 r uϕ · [u3 × r] r sin θ r sin θ Z Z Z 3 ρn,l,m (r) 3 = m~ d r uϕ · [r sin θ uϕ ] = m~ d r ρn,l,m (r) = m~ d3 r |ψ (r)|2 r sin θ L3 = m~ donde hemos usado la Ec. (14.4), la identidad a · (b × c) = c · (a × b), y la Ec. (3.27) para la densidad de probabilidad. De lo anterior se concluye que el autovalor m~ de L3 puede interpretarse como el momento angular cl´ asico asociado al movimiento rotacional del flu´ıdo de probabilidad.
14.1.1.
Efecto sobre la corriente debido a la introducci´ on de un campo magn´ etico
Asumamos ahora que al ´ atomo de Hidr´ ogeno se le aplica un campo magn´etico constante B. Tal campo puede ser descrito por el siguiente potencial vectorial 1 A (r) = − r × B (14.6) 2 estudiaremos la corriente de probabilidad asociada al estado base. Por simplicidad asumiremos que el campo magn´etico no modifica al estado base. Puesto que el Hamiltoniano H depende de B, esto no es del todo correcto, pero puede demostrarse que para B = Bu3 en el gauge descrito por la Ec. (14.6), las funciones ϕn,l,m (r) son auto funciones de H dentro de t´erminos de segundo orden en B, los cuales son despreciables para campos t´ıpicos de laboratorio. Aplicaremos entonces la expresi´ on de la densidad de corriente para una part´ıcula inmersa en un campo electromagn´etico descrita por las Ecs. (5.49, 5.50) donde hacemos φ (R, t) = 0, aplicaremos adem´ as las Ecs. (14.1, 14.2) 1 ~ 1 ∗ −iξ(r) ~ iξ(r) Jn,l,m = Re ϕn,l,m (r) ∇ − qA (r) ϕn,l,m (r) = Re α (r) e ∇ − qA (r) α (r) e µ i µ i h i 1 −iξ(r) ~ iξ(r) −iξ(r) iξ(r) = Re α (r) e ∇ α (r) e − qα (r) e A (r) α (r) e µ i 1 −iξ(r) iξ(r) ~ 2 −iξ(r) ~ iξ(r) 2 = Re α (r) e e ∇α (r) + α (r) e ∇e − qα (r) A (r) µ i i 1 ~ 2 −iξ(r) iξ(r) i~ 2 = Re α (r) ∇α (r) + α (r) e e ∇ξ (r) − qα (r) A (r) µ i i 1 = Re −i~α (r) ∇α (r) + ~α2 (r) ∇ξ (r) − qα2 (r) A (r) µ
1 Debe tenerse en cuenta sin embargo, que la nube electr´ onica en cu´ antica no es una distribuci´ on de masa que ocupa todo el espacio, sino una distribuci´ on de probabilidad de que la masa se encuentra en cierta regi´ on del espacio. No obstante, esta distribuci´ on de masa equivalente reproduce adecuadamente los valores de las cantidades globales (como las densidades volum´etricas equivalentes).
374
´ ´ CAP´ITULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNETICOS EN ATOMOS
y teniendo en cuenta que α (r) , ξ (r) y A (r) son cantidades reales, se obtiene que Jn,l,m = Jn,l,m =
α2 (r) {~ ∇ξ (r) − qA (r)} µ ρn,l,m [~ ∇ξn,l,m (r) − qA (r)] µ
(14.7)
a una corriente dada por sustituyendo (14.6) en la Ec. (14.7) con B = Bu3 , el estado base tendr´ ρ1,0,0 qB ρ1,0,0 ∂ (mϕ) 1 ∂ (mϕ) 1 ∂ (mϕ) J1,0,0 = ~ ∇ξ1,0,0 (r) + r × u3 = ~ ur + uθ + uϕ µ 2 µ ∂r r ∂θ r sin θ ∂ϕ m=0 qB r × u3 + 2 ~ [m]m=0 qB qB ρ1,0,0 = ρ1,0,0 +r× u3 − u3 × r = µ 2µ 2 µ ρ1,0,0 qB (~ ωc × r) ; ~ ωc ≡ − u3 (14.8) J1,0,0 = 2 µ on2 . La velocidad equivalente del donde hemos usado la Ec. (14.3). El vector ~ ωc es la frecuencia angular de ciclotr´ flu´ıdo est´ a dada por J1,0,0 = ρ1,0,0 v1,0,0 con lo cual la velocidad equivalente nos da v1,0,0 =
~c ω ×r≡ω ~f × r 2
(14.9)
La Ec. (14.8) nos muestra que la corriente de probabilidad en el estado base no es cero en presencia de un campo magn´etico, es claro que esta corriente se anula al hacer B = 0. Las Ecs. (14.8, 14.9) nos muestran que el flu´ıdo de probabilidad, gira como un todo3 alrededor de B (o de u3 ) con un frecuencia angular4 ~ ωf = ~ ωc /2. F´ısicamente, este resultado se debe a la presencia del campo el´ectrico E (r) transiente que se induce cuando se “enciende” el campo magn´etico. Bajo la influencia de este campo el´ectrico transitorio el electr´ on permanece aproximadamente en su estado base y comienza a rotar alrededor del prot´ on, con una velocidad angular que depende solo del valor de B y no de la forma precisa en que se enciende el campo magn´etico. Por supuesto, una vez que la corriente se genera (y desaparece el campo el´ectrico transitorio), el campo magn´etico permanente puede sostenerla via fuerza de Lorentz, ya que la carga ahora est´ a en movimiento. Es importante mencionar que si usamos un gauge diferente al dado por la Ec. (14.6) las funciones de onda ser´ıan diferentes, y en la Ec. (14.7) existir´ıan otras contribuciones a primer orden en B. Sin embargo, en cualquier gauge se debe reproducir la Ec. (14.8) a primer orden en B, puesto que los resultados f´ısicos no pueden depender del gauge. La Ec. (14.8), tambi´en se puede escribir en t´erminos de los par´ ametros at´ omicos usando la funci´ on de onda expl´ıcita del estado base del ´ atomo de Hidr´ ogeno que aparace en la tabla 13.2 p´ agina 371 |ϕ1,0,0 |2 e−2r/a0 qB qB e−2r/a0 − × r = − (r sin θ uϕ ) J1,0,0 = (~ ωc × r) = u 3 2 µ µ 2πa30 2πa30 J1,0,0 = −
qBe−2r/a0 r sin θ uϕ 2πµa30
(14.10)
aqu´ı vemos adem´ as que la densidad de corriente es proporcional a ρ (r) r sin θ, lo cual nos ratifica que el flu´ıdo de probabilidad gira como un todo. 2
La frecuencia angular de ciclotr´ on es la que tendr´ıa una carga q cl´ asica que se mueve en una trayectoria circular debido a su interacci´ on con un campo magn´etico constante, cuando la velocidad inicial de dicha carga es perpendicular al campo magn´etico. 3 Es claro de las Ecs. (14.8, 14.9), que la velocidad angular ~ ωf del flu´ıdo no depende de la posici´ on en este caso. 4 El hecho de que la corriente de la nube electr´ onica tenga la mitad de la frecuencia de ciclotr´ on, se debe al efecto adicional del campo el´ectrico generado por el n´ ucleo.
´ ´ ´ 14.2. ATOMO DE HIDROGENO EN UN CAMPO MAGNETICO UNIFORME
14.2.
375
´ Atomo de hidr´ ogeno en un campo magn´ etico uniforme: paramagnetismo, diamagnetismo y efecto Zeeman
Estudiaremos ahora los efectos que surgen cuando el ´ atomo de hidr´ ogeno est´ a inmerso en un campo magn´etico. Para los campos magn´eticos t´ıpicos de laboratorio, el gradiente de dichos campos es tal que B no var´ıa apreciablemente en distancias comparables a la escala at´ omica. Por tanto, para muchos casos tomar este campo como uniforme ser´ a una buena aproximaci´ on, y as´ı lo haremos de aqu´ı en adelante. Estudiaremos entonces el espectro de un electr´ on sujeto a la interacci´ on el´ectrica interna debida al n´ ucleo y a un campo magn´etico externo. Si bien la soluci´ on exacta de la ecuaci´ on de Schr¨ odinger es muy compleja en este caso, ´esta ser´ a soluble bajo ciertas aproximaciones. Una aproximaci´ on importante es la de ignorar los efectos debidos a la masa finita del n´ ucleo, esta aproximaci´ on est´ a justificada dado que el prot´ on es mucho m´ as pesado que el electr´ on. Es importante observar que bajo la influencia de un campo magn´etico no es rigurosamente posible reducir el problema de dos cuerpos acoplados al problema de dos cuerpos desacoplados uno en el centro de masa con la masa del sistema y otro con la masa reducida del sistema y la din´ amica del vector relativo5 . Por tanto, al tener en cuenta los efectos de masa finita del n´ ucleo no es suficiente con reemplazar la masa del electr´ on por la masa reducida del sistema. Usaremos adem´ as el hecho de que para campos magn´eticos t´ıpicos de laboratorio el corrimiento del espectro at´ omico debido al campo magn´etico externo es mucho menor al causado por el campo el´ectrico interno. Los corrimientos de los niveles at´ omicos son mucho menores que las separaciones entre niveles del ´ atomo libre. El estudio de los efectos de introducir un campo magn´etico nos permitir´ a comprender como surge el paramagnetismo y el diamagnetismo en la mec´ anica cu´ antica
14.2.1.
Hamiltoniano del sistema
Consideremos un electr´ on sin esp´ın de masa me y carga q sujeto a un potencial central V (r) y a un potencial vectorial magn´etico A (r). Su Hamiltoniano es H=
1 [P − qA (R)]2 + V (R) 2me
(14.11)
si el campo magn´etico B es uniforme, el potencial vectorial se puede escribir como 1 A (r) = − r × B 2
(14.12)
para introducir esta cantidad en el Hamiltoniano (14.11) calcularemos el siguiente factor h i2 q q2 q [P − qA (R)]2 = P + R × B = P2 + (R × B)2 + [P · (R × B) + (R × B) · P] 2 4 2
(14.13)
ahora bien, B es un vector constante y no un operador, por tanto conmuta con todos los operadores. Adicionalmente, tenemos que P · (R × B) = Pi εijk Rj Bk ; (R × B) · P = εijk Rj Bk Pi
; (R × P)i = εijk Rj Pk
suma sobre ´ındices repetidos. Los u ´nicos t´erminos no nulos de esta sumatoria corresponden a aquellos en donde todos los ´ındices son diferentes, por tanto Rj conmuta con Pi para los t´erminos no nulos, de modo que P · (R × B) = (R × B) · P
;
R × P = −R × P
5 Debe tenerse en cuenta que la reducci´ on del problema de dos cuerpos acoplados al de dos cuerpos desacoplados, solo es en general posible cuando la interacci´ on neta es central. Cuando superponemos el potencial Coulombiano debido al n´ ucleo con la fuerza de Lorentz generada por el campo magn´etico, la interacci´ on resultante deja de ser central.
376
´ ´ CAP´ITULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNETICOS EN ATOMOS
En consecuencia, a las expresiones anteriores se les puede aplicar las identidades vectoriales usuales. Utilizando a · (b × c) = c · (a × b)
(a × b) · (c × d) = (a · c) (b · d) − (a · d) (b · c) en la Ec. (14.13) queda q2 4 2 q = P2 + 4 2 q = P2 + 4
[P − qA (R)]2 = P2 +
[P − qA (R)]2
(R × B) · (R × B) +
q [2P · (R × B)] 2
[(R · R) (B · B) − (R · B) (B · R)] + q [B · (P × R)] i h R2 B2 − (R · B)2 − qB · (R × P)
(14.14)
Ahora bien, la proyecci´ on r⊥ de un vector arbitrario r sobre un plano perpendicular a B se escribe r2 B2 cos2 θ |r⊥ | = |r| sin θ ⇒ r2⊥ = r2 sin2 θ = r2 1 − cos2 θ = r2 − ⇒ B2 (r · B)2 r2⊥ = r2 − B2 donde θ es el ´ angulo entre r y B. Con base en esto definimos el operador vectorial R⊥ como la proyecci´ on de R sobre un plano perpendicular a B (R · B)2 (14.15) R2⊥ ≡ R2 − B2 en particular si B = Bu3 tenemos que R2⊥ = X12 + X22 reemplazando (14.15) en (14.14) y recordando que R × P es el momento angular orbital cu´ antico, tenemos [P − qA (R)]2 = P2 +
q2B 2 2 R⊥ − qL · B 4
(14.16)
reemplazando (14.16) en el Hamiltoniano (14.11) tenemos 1 q2B 2 2 2 H = P + R⊥ − qL · B + V (R) 2me 4 P2 µB q2B 2 2 H ≡ H0 + H1 + H2 ; H0 ≡ + V (R) , H1 ≡ − R [L · B] , H2 ≡ 2me ~ 8me ⊥ q~ (R · B)2 µB ≡ ; R2⊥ ≡ R2 − 2me B2
(14.17) (14.18)
donde H0 es el Hamiltoniano “no perturbado” asociado al ´ atomo de Hidr´ ogeno libre. N´ otese que cuando B 6= 0 el momento mec´ anico ya no es P sino [P − qA (R)], por tanto la energ´ıa cin´etica ser´ a [P − qA (R)]2 /2me . A´ un m´ as, 2 el t´ermino P /2me depende del gauge escogido. Puede demostrarse que en el gauge definido por la Ec. (14.12) ~ R es el momento mec´ P2 /2me es la energ´ıa cin´etica “relativa” Π2R /2me donde Π anico de la part´ıcula con respecto a un sistema rotante de Larmor que rota alrededor de B con velocidad angular ωL = −qB/2me . As´ı mismo, se puede demostrar que el t´ermino H2 corresponde a la energ´ıa cin´etica Π2E /2me relativa a la velocidad de arrastre ~R ·Π ~ E /me . de este marco de referencia, en tanto que el t´ermino H1 est´ a asociado al t´ermino cruzado Π
´ ´ ´ 14.2. ATOMO DE HIDROGENO EN UN CAMPO MAGNETICO UNIFORME
14.2.2.
377
Estimaci´ on num´ erica de las contribuciones H0 , H1 y H2
Haremos un estimativo num´erico de las diferencias de energ´ıa ∆E (y las frecuencias correspondientes ∆E/h), asociadas a cada Hamiltoniano. Hemos visto que las diferencias de energ´ıa ∆E0 asociadas a H0 (´ atomo de Hidr´ogeno libre) son del orden de magnitud de la energ´ıa de ionizaci´ on EI como se aprecia en la Ec. (13.43). Utilizando las Ecs. (13.39) se tiene que ∆E0 ∆E0
2 2 ~ me 4 me ≃ EI = 2 e = 2 2~ 2~ me a0 2 ~ ∆E0 ≃ ; ≃ 1014 Hz h 2me a20
ahora usando las Ecs. (14.17) para H1 y teniendo en cuenta que los momentos angulares son del orden de la constante de Planck, se obtiene ∆E1 h ∆E1 h
≃ ≃
µB [~B] B q~ B qB 1 qB = µB = = = ~ h h 2me h 4πme 2π 2me ωL qB ; ωL ≡ 2π 2me
donde hemos tenido en cuenta (14.18). La cantidad ωL se refiere a la velocidad angular de Larmor. Podemos ver on. Para campos t´ıpicos de laboratorio asumiremos B . 105 gauss, que ωL /2π es la mitad de la frecuencia de ciclotr´ con lo cual se obtiene ∆E1 ωL ≃ . 1011 Hz ⇒ h 2π ∆E1 ≪ ∆E0 ahora evaluaremos el orden de magnitud de ∆E2 asociado a H2 . Los elementos matriciales del operador R2⊥ = X12 + X22 son de dimensiones at´ omicas y por tanto del orden de magnitud de a0 (radio de Bohr). Por tanto, de la Ec. (14.17) se obtiene ∆E2 ≃ ∆E2 ∆E1 por otro lado
vemos que
≃
q2B 2 2 ∆E2 q 2 B 2 2 2π q 2 B 2 2 2π 2me a0 ⇒ ≃ a0 = a ⇒ 8me ∆E1 8me hωL 8me 0 h qB πqBa20 2h
∆E1 h qB 2me a20 qBa20 2πqBa20 ∆E2 ≃ = = =4 ∆E0 2π 2me ~2 ~ h ∆E1 ∆E2 1 ∆E1 ∼ ∆E1 4 ∆E0
de modo que las diferencias de energ´ıa presentan una clara jerarqu´ıa ∆E2 ≪ ∆E1 ≪ ∆E0 los efectos del campo magn´etico son en la pr´ actica mucho menores que los del campo el´ectrico interno, adem´ as ser´ a en general suficiente tener en cuenta solo el t´ermino H1 y el t´ermino H2 solo se tendr´ a en cuenta cuando H1 se anule. Aunque el t´ermino H1 es m´ as importante, analizaremos primero el t´ermino H2 ya que esto permitir´ a justificar algunas aproximaciones que se usan cuando solo se considera H1
378
´ ´ CAP´ITULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNETICOS EN ATOMOS
14.2.3.
T´ ermino diamagn´ etico
Hemos dicho que solo consideraremos el efecto de H2 cuando se anule el efecto de H1 . Tal es el caso cuando tenemos un estado de momento angular cero en el ´ atomo de Hidr´ ogeno. En la secci´ on 14.1.1 vimos que la presencia de un campo magn´etico uniforme modifica la corriente de probabilidad asociada al electr´ on. Esta corriente tiene simetr´ıa axial con respecto al eje B. La corriente gira como un todo alrededor de B en la direcci´ on horaria (antihoraria) cuando q > 0 (q < 0). La corriente el´ectrica que se genera tiene asociado un momento magn´etico hM2 i que como veremos es antiparalelo a B y por tanto est´ a asociado a una energ´ıa de acople positiva que explica el origen del t´ermino H2 . Para ver esto recurrimos a calcular cl´ asicamente el momento magn´etico M2 asociado a una carga q en movimiento circular de radio r. Si la velocidad de la carga es v su movimiento equivale a una corriente de la forma i=q
v 2πr
la superficie definida por el circuito es S = πr 2 de modo que el momento magn´etico est´ a dado por |M| = |i × S| =
qrv 2
(14.19)
ahora bien el momento angular ~λ viene dado por ~λ = r × me v = r × (P − qA (r)) = L ~ − qr × A (r) ~ es el momento angular can´ donde L onico. Puesto que la velocidad es tangencial, la magnitud de ~λ est´ a dada por ~ |λ| = L − qr × A (r) = me rv podemos escribir la Ec. (14.19) en la forma
~ = M
i q ~ q h~ L − qr × A (r) λ= 2me 2me
(14.20)
puesto que estamos estudiando el caso L = 0, usando el gauge (14.12) el momento magn´etico queda6 2 2 2 ~ 2 = − q r × A (r) = q r × (r × B) = q M (r · B) r − r2 B 2me 4me 4me
~ 2 es proporcional a B. Por otro lado, si bien M ~ 2 no es colineal con B, es f´ vemos que M acil ver que en el estado ~ ~ 2 ) es base del ´ atomo de hidr´ ogeno (en el cual L = 0), el valor esperado de M2 (donde M2 es la cuantizaci´ on de M 7 ~ 2 representa el momento magn´etico inducido por B en el ´ antiparalelo a B. En consecuencia, M atomo . Su energ´ıa de acople con B viene dada por 2 ~ 2 B′ · dB′ = − 1 M ~ 2 (B) · B = − 1 q M (r · B) r − r2 B · B 2 2 4me 0 " # 2 h i 2 2 2 q q B (r · B) r2 B2 − (r · B)2 = r2 − 8me 8me B2
W2 = − W2 = 6
Z
B
Debe tenerse en cuenta que cuando m = 0, el momento angular que se anula es el can´ onico y no el mec´ anico. Esto tiene que ver con el hecho de que es el momento angular can´ onico el que se cuantiza. 7 Vale recordar que la modificaci´ on de la corriente (con respecto a la que se genera para el ´ atomo libre) se forma gracias al campo el´ectrico transiente que se induce cuando se conecta el campo magn´etico. Adem´ as, en el estado base no hay corriente ni momento dipolar magn´etico permanente.
´ ´ ´ 14.2. ATOMO DE HIDROGENO EN UN CAMPO MAGNETICO UNIFORME
379
y usando la Ec. (14.18) tenemos W2 =
q2 2 2 r B 8me ⊥
cuya cuantizaci´ on conduce al Hamiltoniano H2 descrito en la Ec. (14.17). Vemos entonces que H2 describe el ~ 2 inducido por B en el ´ acople entre el campo B y el momento magn´etico M atomo. Puesto que de acuerdo con la ley de Lenz el momento inducido se opone al campo aplicado8 , la energ´ıa de acople es positiva. H2 se denomina el t´ermino diamagn´etico del Hamiltoniano.
14.2.4.
T´ ermino paramagn´ etico
~ = Asumiremos ahora que L 6 0 de modo que el Hamiltoniano H1 es el dominante (con respecto a H2 ). La ~ ˜ y el momento magn´etico M. relaci´ on (14.20) nos indica la relaci´ on general entre el momento angular can´ onico λ ~ ~ Por otro lado, hemos demostrado que la contribuci´ on de H2 sobre M est´ a dada por la Ec. (14.20) con L = 0. Por ~= tanto para L 6 0 tal ecuaci´ on se puede escribir como ~2 ~ =M ~ 1 +M M
;
~1≡ M
q ~ L , 2me
2 ~ 2 ≡ − q r × A (r) M 2me
pero el an´ alisis num´erico indica que para el ´ atomo de hidr´ ogeno, la contribuci´ on del Hamiltoniano H1 domina ~ 6= 0). Por lo tanto, si L ~ = 6 0 podemos sobre la contribuci´ on de H2 siempre que la primera sea no nula (i.e. L aproximar el momento magn´etico en la forma ~ ≃M ~1= M
q ~ L 2me
(14.21)
~ es pr´ ~ y ambos son perpendiculares al plano de la ´ de modo que L acticamente paralelo a M orbita cl´ asica. La energ´ıa de acople con B est´ a dada por ~1·B W1 = − M (14.22) Al cuantizar las relaciones (14.21, 14.22) se obtiene M1 =
q q L ; H1 = −M1 · B = − L·B 2me 2me
(14.23)
que coincide con la Ec. (14.17), de modo que el Hamiltoniano H1 corresponde al acople entre el campo magn´etico B y el momento magn´etico at´ omico permanente puesto que M1 es independiente de B, es decir M1 existe aunque no exista campo magn´etico. En consecuencia, M1 se genera a trav´es de la corriente asociada al ´ atomo de Hidr´ ogeno libre (ver secci´ on 14.1). De acuerdo con la Ec. (14.23), los autovalores del operador M1 vienen dados por q (14.24) m~ ≡ mµB 2me de modo que µB es el “cuanto fundamental” de momento magn´etico como lo es ~ del momento angular. Es este hecho lo que le da relevancia al magnet´ on de Bohr µB . M´ as adelante veremos que adem´ as del momento angular orbital L, el electr´on posee un momento angular intr´ınseco o esp´ın S, que tambi´en posee un momento magn´etico asociado MS proporcional a S en la forma µB MS = 2 S ~ de hecho la necesidad de introducir este momento magn´etico adicional para explicar la estructura fina del ´ atomo de Hidr´ ogeno, es una de las evidencias experimentales de la existencia del esp´ın del electr´ on (ver secci´ on 15.4.2). 8
En realidad se opone al cambio de flujo, pero cuando el campo se conecta aumenta desde cero hacia B de modo que el aumento de flujo va en la direcci´ on del campo.
380
´ ´ CAP´ITULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNETICOS EN ATOMOS
Finalmente, es importante mencionar que el dominio de los efectos paramagn´eticos sobre los diamagn´eticos (cuando los primeros son no nulos) se debe al peque˜ no tama˜ no del radio at´ omico, que a su vez genera una superficie y un flujo muy peque˜ nos. Por ejemplo, para un electr´ on libre sometido a un campo magn´etico, las contribuciones paramagn´etica y diamagn´etica tienen la misma importancia relativa.
14.3.
Efecto Zeeman
Hemos visto los nuevos t´erminos que aparecen en el Hamiltoniano del ´ atomo de Hidr´ ogeno cuando se introduce un campo magn´etico uniforme. A continuaci´ on veremos como estos nuevos t´erminos modifican el espectro del ´ atomo de Hidr´ ogeno. En particular, examinaremos la forma en que se modifica la emisi´ on de la l´ınea ´ optica conocida o
como la “l´ınea de resonancia” (λ ≃ 1200A) con la inclusi´ on del campo magn´etico. Veremos que no solo se cambia la frecuencia sino tambi´en la polarizaci´ on de las l´ıneas at´ omicas. Esto se conoce como efecto Zeeman. Sin embargo, es necesario aclarar que para predecir el espectro real es necesario inclu´ır el momento angular intr´ınseco o esp´ın del electr´ on (e incluso del prot´ on) del cual surge la estructura fina e hiperfina del espectro y modifica sustancialmente las componentes de la l´ınea de resonancia. A esto se le conoce usualmente como efecto Zeeman an´ omalo. No obstante, la discusi´ on que realizaremos aqu´ı ser´ a v´ alida cualitativamente.
14.3.1.
Corrimiento de los niveles at´ omicos con la correcci´ on paramagn´ etica
Estudiaremos la transici´ on entre el estado base y el estado m´ as bajo con momento angular no nulo es decir entre los niveles 1s (n = 1, l = m = 0) y 2p (n = 2, l = 1, m = 1, 0, −1)9 . Esta transici´ on corresponde a la l´ınea de resonancia del ´ atomo de hidr´ ogeno. Aunque el momento angular en el estado base es cero, no lo es en el estado 2p, por tanto despreciaremos la respuesta diamagn´etica cuando se coloca un campo magn´etico B, incluyendo solo las correcciones de H1 . Si denotamos |ϕn,l,m i los estados comunes de H0 , L2 y L3 , se puede ver de inmediato que si B = Bu3 entonces |ϕn,l,mi tambi´en es autoestado del Hamiltoniano perturbado H0 + H1 µB µB L · B |ϕn,l,m i = H0 − BL3 |ϕn,l,m i (H0 + H1 ) |ϕn,l,m i = H0 − ~ ~ (H0 + H1 ) |ϕn,l,m i = (En − mµB B) |ϕn,l,m i por tanto si ignoramos el t´ermino diamagn´etico, los |ϕn,l,m i son a´ un estados estacionarios de H0 + H1 , y solo se modifican los valores de energ´ıa. Adicionalmente, vemos que el espectro se modifica de tal forma que depende ahora de dos n´ umeros cu´ anticos n y m, removiendo parcialmente la degeneraci´ on (a´ un existe degeneraci´ on en l). El hecho de que el corrimiento de la energ´ıa (con respecto a la energ´ıa en ausencia de campo magn´etico) dependa del n´ umero cu´ antico m y del campo B, es la raz´ on para denominar a m como n´ umero cu´ antico magn´ etico. Calculemos el espectro de los estados involucrados en la l´ınea de resonancia (H0 + H1 ) |ϕ1,0,0 i = E1 |ϕ1,0,0 i = −EI |ϕ1,0,0 i (H0 + H1 ) |ϕ2,1,m i = (E2 − mµB B) |ϕ2,1,m i =
EI − − mµB B |ϕ2,1,m i 4
el nivel de energ´ıa 2p en presencia de B suele escribirse en la forma EI 3 q~ 3EI qB = − − mµB B = −EI + EI − m B = −EI + ~ + m~ − 4 4 2me 4~ 2me 3E E − E I 2 1 B E2p = −EI + ~ (Ω + mωL ) ; Ω ≡ = 4~ ~ donde Ω es claramente la frecuencia de la l´ınea de resonancia en ausencia de B. En tanto que en presencia de B tal frecuencia de resonancia es (Ω + mωL ). B E2p
9
La transici´ on m´ as baja corresponde al paso de 1s a 2s, pero en este caso la respuesta diamagn´etica es dominante, ya que el momento angular es cero en ambos estados.
14.3. EFECTO ZEEMAN
14.3.2.
381
Oscilaciones dipolares el´ ectricas
El momento dipolar el´ectrico cuantizado del ´ atomo est´ a dado por D = qR para calcular el valor esperado hDi calculamos los elementos matriciales de D. Bajo paridad el operador D se transforma a −D (ya que bajo paridad R → −R y q → q). El momento dipolar es por tanto un operador impar. Adicionalmente los estados ϕn,l,m (r) tiene paridad bien definida en la base |ri, esto se debe a que los arm´ onicos esf´ericos tiene paridad definida teniendo paridad +1 (−1) para l par (impar). En particular se tiene que
hϕ1,0,0 | D |ϕ1,0,0 i = ϕ2,1,m′ D |ϕ2,1,m i = 0 ; ∀m, m′ (14.25) los elementos de matriz no nulos asociados a la l´ınea de resonancia son entonces no-diagonales. Para calcular los elementos de matrix hϕ2,1,m | D |ϕ1,0,0 i = q hϕ2,1,m | R |ϕ1,0,0 i escribiremos a x1 , x2 , x3 en t´erminos de arm´ onicos esf´ericos r 2π x1 = r sin θ cos ϕ = r [Y1,−1 (θ, ϕ) − Y1,1, (θ, ϕ)] (14.26) 3 r 2π x2 = r sin θ sin ϕ = ir [Y1,−1 (θ, ϕ) + Y1,1 (θ, ϕ)] (14.27) 3 r 4π x3 = r cos θ = r Y1,0 (θ, ϕ) (14.28) 3 el c´ alculo de los elementos matriciales involucra una integral radial y una angular, en virtud de la separabilidad de las funciones de onda estacionarias. La integral radial la definimos como una cantidad χ Z ∞ χ≡ R2,1 (r) R1,0 (r) r 3 dr (14.29) 0
la parte angular consiste en productos escalares de arm´ onicos esf´ericos que se pueden calcular f´ acilmente debido a sus propiedades de ortogonalidad. Por ejemplo, calculemos el elemento matricial hϕ2,1,1 | Dx1 |ϕ1,0,0 i en la base {|ri}, para lo cual aplicamos la Ec. (5.3) Z hϕ2,1,1 | Dx1 |ϕ1,0,0 i = q hϕ2,1,1 | X1 |ϕ1,0,0 i = q ϕ∗2,1,1 (r) x1 ϕ1,0,0 (r) d3 r ( r ) Z 2π ∗ = q R2,1 (r) Y1,1 (θ, ϕ) r [Y1,−1 (θ, ϕ) − Y1,1, (θ, ϕ)] [R1,0 (r) Y0,0 (θ, ϕ)] r 2 dr dΩ 3 r Z Z ∞ 2π 3 ∗ = q R2,1 (r) R1,0 (r) r dr dΩ Y1,1 (θ, ϕ) [Y1,−1 (θ, ϕ) − Y1,1, (θ, ϕ)] Y0,0 (θ, ϕ) 3 0 r Z ∗ 1 2π ∗ = q χ dΩ Y1,1 (θ, ϕ) Y1,−1 (θ, ϕ) − Y1,1 (θ, ϕ) Y1,1, (θ, ϕ) √ 3 4π q = √ χ {δ1,1 δ1,−1 − δ1,1 δ1,1 } 6 q hϕ2,1,1 | Dx1 |ϕ1,0,0 i = − √ χ 6 donde hemos usado las Ecs. (14.26, 14.29) y la ortonormalidad de los arm´ onicos esf´ericos. Procediendo de manera similar con los otros elementos matriciales se obtiene qχ hϕ2,1,1 | Dx1 |ϕ1,0,0 i = − hϕ2,1,−1 | Dx1 |ϕ1,0,0 i = − √ ; hϕ2,1,0 | Dx1 |ϕ1,0,0 i = 0 (14.30) 6 iqχ hϕ2,1,1 | Dx2 |ϕ1,0,0 i = hϕ2,1,−1 | Dx2 |ϕ1,0,0 i = √ ; hϕ2,1,0 | Dx2 |ϕ1,0,0 i = 0 (14.31) 6 qχ hϕ2,1,1 | Dx3 |ϕ1,0,0 i = hϕ2,1,−1 | Dx3 |ϕ1,0,0 i = 0 ; hϕ2,1,0 | Dx3 |ϕ1,0,0 i = √ (14.32) 3
´ ´ CAP´ITULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNETICOS EN ATOMOS
382
se concluye que si el sistema est´ a en un estado estacionario, la cantidad hDi es cero ya que los elementos diagonales se anulan. Supondremos entonces que el sistema est´ a inicialmente en una superposici´ on del estado base 1s y uno de los estados 2p. ψ (0) = cos α |ϕ1,0,0 i + sin α |ϕ2,1,m i donde m asume uno de sus valores permitidos 1, 0, −1. Consideraremos a α como un par´ ametro real, aplicando la evoluci´ on temporal de un sistema conservativo calculamos la evoluci´ on temporal de este estado |ψm (t)i = eiEI = eiEI
t/~
cos α |ϕ1,0,0 i + ei[EI −~(Ω+mωL )] t/~ sin α |ϕ2,1,m i n o t/~ cos α |ϕ1,0,0 i + e−i(Ω+mωL ) t sin α |ϕ2,1,m i
|ψm (t)i = cos α |ϕ1,0,0 i + e−i(Ω+mωL ) t sin α |ϕ2,1,m i
(14.33)
donde hemos omitido la fase global irrelevante en el u ´ltimo paso. Calcularemos hDi cuando el sistema est´ a en el estado |ψm (t)i en el tiempo t. Usando las Ecs. (14.25, 14.30, 14.31, 14.32, 14.33), obtendremos el valor esperado de D para los casos m = 1, 0, −1. Para m = 1 obtenemos h i hψm=1 (t)| Dx1 |ψm=1 (t)i = cos α hϕ1,0,0 | + ei(Ω+ωL ) t sin α hϕ2,1,1 | Dx1 h i × cos α |ϕ1,0,0 i + e−i(Ω+ωL ) t sin α |ϕ2,1,1 i = cos2 α hϕ1,0,0 | Dx1 |ϕ1,0,0 i + e−i(Ω+ωL ) t cos α sin α hϕ1,0,0 | Dx1 |ϕ2,1,1 i
+ei(Ω+ωL ) t sin α cos α hϕ2,1,1 | Dx1 |ϕ1,0,0 i + sin2 α hϕ2,1,1 | Dx1 |ϕ2,1,1 i qχ qχ = − √ e−i(Ω+ωL ) t sin 2α − √ ei(Ω+ωL ) t sin 2α 2 6 2 6 " # −i(Ω+ω ) t L qχ + ei(Ω+ωL ) t e = − √ sin 2α 2 6 qχ hψm=1 (t)| Dx1 |ψm=1 (t)i = − √ sin 2α cos [(Ω + ωL ) t] 6 y se procede de manera similar com m = 0, −1. Los resultados son: qχ qχ hDx1 im=1 = − √ sin 2α cos [(Ω + ωL ) t] ; hDx2 im=1 = − √ sin 2α sin [(Ω + ωL ) t] ; hDx3 i1 = 0 (14.34) 6 6 qχ hDx1 im=0 = hDx2 im=0 = 0 ; hDx3 im=0 = √ sin 2α cos Ωt (14.35) 3 qχ qχ hDx1 im=−1 = √ sin 2α cos [(Ω − ωL ) t] ; hDx2 im=−1 = − √ sin 2α sin [(Ω − ωL ) t] ; hDx3 im=−1 = (14.36) 0 6 6 estas ecuaciones muestran que: (a) El vector hDim=1 (t) rota en el plano X1 X2 alrededor de X3 , en direcci´ on antihoraria con velocidad angular Ω + ωL .(b) El vector hDim=0 (t) oscila a lo largo de X3 con frecuencia angular Ω. (c) El vector hDim=−1 (t) rota en el plano X1 X2 alrededor de X3 pero en direcci´ on horaria con velocidad angular Ω − ωL .
14.3.3.
Frecuencia y polarizaci´ on de la radiaci´ on emitida
En los tres casos m = 1, 0, −1; el valor medio del dipolo el´ectrico es una funci´ on oscilante del tiempo. Por lo tanto, dicho dipolo debe radiar. Puesto que las dimensiones at´ omicas son mucho menores que la longitud de onda ´ optica, la radiaci´ on de los atomos a grandes distancias se puede tratar como la de un dipolo puntual. Asumiremos que la radiaci´ ´ on emitida o absorbida por el ´ atomo durante la transici´ on entre el estado |ϕ2,1,m i y el estado base, se puede predecir
14.3. EFECTO ZEEMAN
383
correctamente utilizando la teor´ıa cl´ asica de la radiaci´ on. Un tratamiento riguroso del problema requiere la cuantizaci´ on del campo electromagn´etico (electrodin´ amica cu´ antica), que predice el comportamiento de los fotones y la forma en que estos se emiten en la radiaci´ on. Sin embargo, los resultados obtenidos por el m´etodo semi-cl´ asico que abordaremos (en donde la materia se trata cu´ anticamente y la radiaci´ on se trata cl´ asicamente), predicen la distribuci´ on de la radiaci´ on en muy buena aproximaci´ on. Supondremos que tenemos una muestra que contiene un gran n´ umero de ´ atomos de hidr´ ogeno y que los 10 on de los ´ atomos es isotr´ opica excitamos de alguna manera al estado 2p. En la mayor´ıa de experimentos la excitaci´ y los tres estados |ϕ2,1,m i ocurren con la misma probabilidad. En primer lugar, estudiaremos la distribuci´ on angular de la radiaci´ on y de la polarizaci´ on para cada m fijo, y posteriormente se superponen los resultados para encontrar el espectro que se observa. Cuando m = 1, la frecuencia angular de la radiaci´ on emitida es Ω + ωL seg´ un la Ec. (14.34). De modo que el campo magn´etico corre ligeramente la frecuencia de la l´ınea ´ optica (recordemos que Ω es la frecuencia de la l´ınea ´ optica en ausencia de B). De acuerdo con la teor´ıa electromagn´etica cl´ asica, un dipolo rotante como hDi1 (t) emite radiaci´ on en la direcci´ on u3 con polarizaci´ on circular de helicidad positiva σ+ . Por otro lado, la radiaci´ on emitida en el plano X1 X2 est´ a linealmente polarizada (paralela a este plano) en otras direcciones la polarizaci´ on es el´ıptica. Para m = 0, el dipolo oscila linealmente en la direcci´ on u3 . Las Ecs. (14.35) muestran que la frecuencia angular es Ω, es decir igual a la asociada a la ausencia de B, esto se debe a que el corrimiento de la frecuencia debida al campo es proporcional a m. En este caso la electrodin´ amica cl´ asica predice que su polarizaci´on es lineal en on todas las direcciones. En particular, para una direcci´ on de propagaci´ on sobre el plano X1 X2 , esta polarizaci´ es paralela a u3 (polarizaci´ on π). Adem´ as no se emite radiaci´ on en la direcci´ on u3 , ya que un dipolo que oscila linealmente no rad´ıa en la direcci´ on de su eje de oscilaci´ on. En el caso m = −1, las Ecs. (14.36) muestran que la frecuencia angular de la radiaci´ on emitida es Ω − ωL . La distribuci´ on angular de la radiaci´ on es similar al caso m = 1. Sin embargo, puesto que el dipolo hDim=−1 gira en la direcci´ on opuesta a hDim=1 , la polarizaci´on el´ıptica y circular tiene helicidad opuesta a la correspondiente a m = 1. Si ahora asumimos que hay un n´ umero igual de ´ atomos con m = 1, 0, −1, tenemos que se emiten tres frecuencias bien definidas en todas direcciones (Ω+mωL con m = 1, 0, −1). La polarizaci´ on asociada a m = 0 es lineal y la de las otras dos es en general el´ıptica. N´ otese que en la direcci´ on de propagaci´ on perpendicular a B las tres polarizaciones son lineales, la de m = 0 est´ a polarizada en la direcci´ on de B y las otras dos en direcci´ on perpendicular a B. Las Ecs. (14.34, 14.35, 14.36) nos muestran adem´ as que la intensidad de la l´ınea central m = 0 es dos veces la de cada una de las l´ıneas corridas. En la direcci´ on paralela a B solo hay radiaci´ on debida a m = ±1 con frecuencias (Ω ± ωL ) /2π, ambas asociadas a polarizaci´ on circular pero de helicidad opuesta σ± . Hemos visto que un campo magn´etico constante remueve parcialmente la degeneraci´ on asociada a la energ´ıa de un ´ atomo de hidr´ ogeno, ya que la energ´ıa ahora depende de los n´ umeros cu´ anticos n y m. Es este efecto el que le da el nombre de n´ umero cu´ antico magn´etico al valor propio de L3 (y de cualquier momento angular J3 ).
10
Por ejemplo, haciendo incidir un haz de luz muy monocrom´ atica cuyos fotones tengan una energ´ıa igual a la necesaria para realizar la transici´ on 1s → 2p.
Cap´ıtulo 15
Momento angular intr´ınseco 15.1.
Comportamiento cl´ asico de ´ atomos paramagn´ eticos inmersos en un campo magn´ etico
Asumamos que el ´ atomo bajo estudio es neutro de modo que no est´ a sujeto a la fuerza de Lorentz cuando se le aplica un campo magn´etico B. Para una gran cantidad de ´ atomos neutros inmersos en un campo magn´etico B, es posible demostrar que cuando domina el t´ermino paramagn´etico, el momento dipolar magn´etico electr´ onico (primer t´ermino en la expansi´ on multipolar magn´etica de la distribuci´ on) es proporcional al momento angular electr´ onico para un nivel at´ omico dado1 ~ = γL M (15.1) la constante de proporcionalidad se denomina factor giromagn´etico del nivel bajo consideraci´ on2 . La fuerza resultante F sobre el ´ atomo neutro paramagn´etico, se puede obtener de la energ´ıa potencial W dada en la Ec. (14.22) ~ ·B ; F=∇ M ~ ·B W = −M El torque asociado (tomando el origen en la posici´ on del centro del ´ atomo) es ~ ×B ~τ = M y puesto que el teorema del momento angular nos dice que dL = ~τ dt se tiene que
dL ~ × B = γL × B =M dt esto nos muestra que L es perpendicular a su raz´ on de cambio y adicionalmente, la raz´ on de cambio es perpendicular al campo magn´etico B. Si B es constante en el tiempo en el punto donde se eval´ ua, esto indica que L no cambia de magnitud y precesa alrededor del eje definido por el campo magn´etico, el ´ angulo θ entre B y L permanece ~ es paralelo a L y sus constante y la velocidad angular de precesi´ on es ω = γ |B|. Ahora bien, puesto que M ~ conserva su magnitud y precesa magnitudes est´ an relacionadas por una constante, conclu´ımos que tambi´en M con el mismo ´ angulo θ y la misma velocidad angular ω alrededor de B. Si definimos al eje X3 a lo largo de B, para calcular la fuerza F podremos en buena aproximaci´ on despreciar en W los t´erminos proporcionales a M1 y M2 tomando a M3 como constante. Esto se debe a la tendencia natural 1 Hemos visto esta caracter´ıstica para ´ atomos de Hidr´ ogeno en la secci´ on 14.2.4. Sin embargo, esto se puede extrapolar para ´ atomos de varios electrones. 2 Antes del advenimiento de la teor´ıa cu´ antica, la espectroscop´ıa permit´ıa distinguir entre diferentes estados de un ´ atomo.
384
15.2. EXPERIMENTO DE STERN-GERLACH
385
de los ´ atomos a alinear su momento magn´etico con el campo magn´etico, si bien existen componentes “laterales” M1 y M2 estas tienden a cancelarse cuando se toma un promedio temporal que comprenda muchos periodos de precesi´ on y dado que las frecuencias de precesi´ on son tan altas, solo estos promedios temporales de M1 y M2 juegan un papel en W y estos promedios son cero, ya que todas las direcciones ocurren en la precesi´ on con igual magnitud. Adicionalmente, cuando se tiene en cuenta el efecto sobre muchas part´ıculas, la cancelaci´ on estad´ıstica funciona a´ un mejor. La fuerza ser´ a entonces aproximadamente F = ∇ (M3 B3 ) = M3 ∇B3 n´ otese que la fuerza resultante ser´ıa cero si el campo es uniforme independientemente de su intensidad. Por tanto, una fuerza significativa requiere un alto gradiente del campo. Si asumimos por simplicidad que B3 solo var´ıa a lo atomo ser´ a paralela al eje X3 y proporcional largo de X3 , es decir si ∂B3 /∂x1 = ∂B3 /∂x2 = 0 la fuerza sobre el ´ a M3 . Si asumimos que tenemos una gran cantidad de ´ atomos, se espera que los momentos magn´eticos de ´estos est´en orientados aleatoriamente antes de la aplicaci´ on del campo, pues tales orientaciones estar´ an dictaminadas por fluctuaciones t´ermicas que son de naturaleza aleatoria3 . Por tanto, antes de la aplicaci´ on del campo todos ~ puede tomar los valores de M3 entre − |M| y |M| est´ an presentes, en otras palabras, el ´ angulo θ entre B y M cualquier valor entre 0 y π.
15.2.
Experimento de Stern-Gerlach
Figura 15.1: (a) En el experimento de Stern-Gerlach, los ´ atomos de plata que se emiten a alta temperatura del horno E son colimados en F para luego ser deflectados por el gradiente de campo magn´etico creado por el electroim´ an A. Finalmente, el ´ atomo es registrado en el punto N de la pantalla P. (b) Vista frontal del electroim´ an. El haz incide sobre el eje X2 perpendicular al papel. 3
Esto implica despreciar posibles correlaciones entre los diferentes momentos magn´eticos de los ´ atomos.
386
CAP´ITULO 15. MOMENTO ANGULAR INTR´INSECO
Stern y Gerlach realizaron un experimento en 1922 para estudiar la deflexi´ on de un haz de ´ atomos neutros paramagn´eticos en un campo magn´etico de alto gradiente. El montaje se muestra en la Fig. 15.1a. En un horno E se colocan ´ atomos neutros de plata (que son paramagn´eticos) y se calientan a alta temperatura, luego se dejan escapar por un peque˜ no agujero y se propagan en l´ınea recta en el alto vac´ıo del montaje. El agujero colimador permite solo el paso de ´ atomos en cierta direcci´ on que elegimos como eje X2 . El haz colimado en esta forma entra entonces a un electroim´ an A para ser deflectado antes de impactar la pantalla P . De acuerdo con la teor´ıa cl´ asica, si queremos producir una deflexi´ on apreciable, el electroim´ an debe producir un campo B de alto gradiente. Una forma de lograrlo es a trav´es de un im´ an configurado como se ilustra en la Fig. 15.1b. El campo magn´etico generado tiene un plano de simetr´ıa (el plano X2 X3 ) que contiene la direcci´ on inicial del haz colimado. Si despreciamos efectos de borde el campo magn´etico no tiene componente en la direcci´ on X2 , por tanto el efecto sobre el haz es el mismo en cualquier punto sobre el eje X2 dentro del electroim´ an. La componente m´ as grande de B es en la direcci´ on de X3 , adem´ as la variaci´ on del campo a lo largo de X3 es muy fuerte, esto ocurre gracias a la configuraci´ on angulosa del polo norte que produce una gran acumulaci´ on de l´ıneas de campo en la vecindad del ´ angulo, en tanto que en el polo sur la densidad de l´ıneas es mucho menor. Puesto que el campo magn´etico es solenoidal (∇ · B = 0), este debe adquirir una componente en la direcci´ on X1 que var´ıa con la distancia x1 al plano de simetr´ıa X2 X3 . La simetr´ıa del electroim´ an muestra claramente que ∂B3 /∂x2 = 0 ya que el campo magn´etico no depende de x2 . Adem´ as ∂B3 /∂x1 = 0 en todos los puntos del plano de simetr´ıa X2 X3 . En virtud de que el experimento re´ une todas las condiciones descritas en la secci´ on 15.1, conclu´ımos que la deflexi´ on HN de un ´ atomo que golpea la pantalla es proporcional a M3 y por tanto a L3 . En consecuencia, medir HN es equivalente a medir M3 ´ o L3 . Puesto que los momentos magn´eticos de los ´ atomos de plata estaban distribu´ıdos isotr´ opicamente antes de entrar en el electroim´ an, los valores de M3 toman todos los valores posibles (para una gran cantidad de ´ atomos) entre − |M| y |M|. Por tanto, esperamos que se forme sobre la pantalla un patr´ on cont´ınuo sim´etrico con respecto a H, sobre la pantalla P . En otras palabras, se espera que haya impactos sobre todos los puntos en el intervalo N1 , N2 de manera mas o menos uniforme, donde N1 (cota m´ axima) corresponde al caso en que M3 toma el valor m´ aximo M3 = |M| y N2 corresponde al caso en el cual M3 toma el on de las velocidades valor m´ınimo M3 = − |M|. Desde el punto de vista experimental efectos tales como la dispersi´ y el tama˜ no finito del colimador ocasionar´ an que ´ atomos con el mismo valor de M3 no golpeen en el mismo punto, sino en una vecindad de un punto que corresponde a la velocidad promedio de una part´ıcula que pasa por el centro del colimador. Por tanto el resultado cl´ asico predice una distribuci´ on como la l´ınea punteada de la Fig. 15.2, que va un poco m´ as all´ a de N1 y N2 por aspectos experimentales.
15.3.
Resultados del experimento y el momento angular intr´ınseco
En el experimento no se observ´ o una distribuci´ on homog´enea a lo largo de [N1 , N2 ] como predec´ıa el modelo cl´ asico. Lo que se observ´ o fueron dos manchas bien definidas centradas en N1 y N2 sim´etricas con respecto a H, como lo muestran las l´ıneas cont´ınuas de la Fig. 15.2. Puesto que el ancho de estas manchas era mucho menor que el ancho de N1 y N2 ; esto hac´ıa sospechar que la deflexi´ on estaba “cuantizada” en dos haces bien definidos. Este hecho se puede confirmar disminuyendo el tama˜ no del colimador y/o disminuyendo la dispersi´ on de velocidades del haz (con un filtro de velocidades colocado antes del electroim´ an). Si la cuantizaci´ on existe, lo anterior debe disminuir el ancho de las manchas alrededor de N1 y N2 . La formaci´ on de dos zonas de impacto “cuantizadas” est´ a en franca contradicci´ on con la teor´ıa cl´ asica. Podr´ıa pensarse por ejemplo que esta cuantizaci´ on proviene de la cuantizaci´ on del momento angular cl´ asico (que a su vez conducir´ıa a la cuantizaci´ on de M si asumimos que se mantiene la relaci´ on 15.1) hay varias razones para rechazar este hip´ otesis como veremos a continuaci´ on. En primer lugar, mostraremos que bajo las condiciones de este experimento no es necesario tratar los grados de libertad de posici´ on y momento cu´ anticamente. Para esto debemos verificar que para describir el movimiento de los atomos de plata, es posible constru´ır paquetes de onda cuyo ancho ∆x3 y cuya dispersi´ ´ on ∆p3 sean completamente
15.3. RESULTADOS DEL EXPERIMENTO Y EL MOMENTO ANGULAR INTR´INSECO
387
Figura 15.2: La l´ınea cont´ınua nos muestra las dos manchas bien localizadas alrededor de los puntos N1 y N2 , que se obtuvieron en el experimento de Stern-Gerlach. La l´ınea punteada nos muestra la predicci´ on cl´ asica. despreciables con respecto a la escala de longitudes y momentos que se manejan en el experimento. Estos anchos deben cumplir el principio de incertidumbre ∆x3 ∆p3 & ~ la masa M de un ´atomo de plata es de 1,8 × 10−25 kg. Los anchos ∆x3 y ∆v3 = ∆p3 /M deben ser tales que ∆x3 ∆v3 &
~ ≃ 10−9 M.K.S.A. M
(15.2)
ahora veamos cuales son las longitudes y velocidades t´ıpicas en el experimento. El ancho del colimador F es de unos 10−4 m, la separaci´ on entre N1 y N2 entre las manchas es de varios mil´ımetros. La distancia sobre la cual el campo magn´etico var´ıa apreciablemente se puede deducir de los valores del campo en medio del electroim´ an (B ≃ 104 gauss) y su gradiente (∂B/∂x3 ≃ 105 gauss/cm), que nos da B ≃ 10−3 mt ∂B/∂x3 ahora la velocidad de un ´ atomo de plata que abandona el horno a una temperatura de 103 K es del orden de 500m/s. Para haces bien colimados, la dispersi´ on de las velocidades a lo largo de X3 no es mucho menor a varios metros por segundo. De lo anterior, es posible encontrar valores de ∆x3 y ∆v3 que satisfagan la relaci´ on (15.2)
CAP´ITULO 15. MOMENTO ANGULAR INTR´INSECO
388
que proviene de la relaci´ on de incertidumbre, y que al mismo tiempo sean mucho menores que todas las escalas de longitud y velocidad del experimento. Por tanto, los observables r y p se pueden tratar como cl´ asicos y podemos pensar en paquetes casi puntuales que se mueven sobre trayectorias cl´ asicas. La cuantizaci´ on de estos observables (o de otros que dependan de ´estos como el momento angular) dar´ıa una enorme cantidad de valores propios que simular´ıan un cont´ınuo, esto estar´ıa muy lejos de explicar una cuantizaci´ on tan dr´ astica en tan solo dos estados. Una segunda raz´ on es que los momentos angulares orbitales cu´ anticos l (l + 1) ~2 solo pueden tener valores de l enteros. Esto implica que el n´ umero de proyecciones posibles a lo largo de X3 para un l dado, es siempre un n´ umero impar (2l + 1) como se observa en la Ec. (14.24) P´ ag. 379. Lo anterior entrar´ıa en conflicto con la idea de tener un n´ umero par de “auto resultados” que en este caso son dos. Si asumimos que la deflexi´ on a´ un se da por el acople del campo con un momento angular (es decir que a´ un hay un momento angular que cumpla la Ec. 15.1) este momento angular debe tener solo dos proyecciones posibles a lo largo de X3 , es decir 2j + 1 = 2 lo cual nos lleva a j = 1/2. De esto se concluye que si el observable asociado a la deflexi´ on observada es a´ un un momento angular, no puede ser un momento angular orbital, ya que para ´estos los valores semienteros est´ an exclu´ıdos por razones de periodicidad. El observable asociado no proviene entonces de la cuantizaci´ on de un momento angular cl´ asico y se conoce como momento angular intr´ınseco o esp´ın.
15.4.
Evidencia experimental del momento angular intr´ınseco del electr´ on
Existen numerosas evidencias experimentales de la existencia del esp´ın en los electrones. En particular, las propiedades magn´eticas de muchas sustancias requieren tener en cuenta esta propiedad. A manera de ejemplo, la explicaci´ on del ferromagnetismo requiere el esp´ın del electr´ on como componente esencial. En esta secci´ on solo citaremos dos propiedades a nivel at´ omico que evidencian la existencia de un momento angular intr´ınseco del electr´ on: La estructura fina de las l´ıneas espectrales at´ omicas y el efecto Zeeman an´ omalo
15.4.1.
Estructura fina de las l´ıneas espectrales
La teor´ıa del ´atomo de Hidr´ ogeno desarrollada en el cap´ıtulo 13 consider´ o al electr´ on como una part´ıcula puntual cuyo estado se puede describir con una funci´ on de onda espacial ϕ (x, y, z). Los resultados obtenidos en el cap´ıtulo 13 describen el espectro de emisi´ on y absorci´ on del ´ atomo de Hidr´ ogeno con buena precisi´ on, as´ı como los niveles de energ´ıa y las reglas de selecci´ on que nos indican las frecuencias de Bohr permitidas en el espectro. Sin embargo, un estudio de alta resoluci´ on del espectro nos revela ciertas diferencias que aunque peque˜ nas son observables. Estas diferencias se deben principalmente a dos aspectos: las correcciones relativistas y los efectos de introducir un campo magn´etico que interact´ ue con el ´ atomo. En lo que respecta a la estructura fina del espectro del ´ atomo de hidr´ ogeno, se observ´ o que cada l´ınea posee varias componentes, es decir para un nivel de energ´ıa dado n hay realmente varias energ´ıas muy cercanas entre s´ı. Por supuesto, las diferencias entre energ´ıas de un mismo nivel son mucho menores que las diferencias entre energ´ıas de niveles distintos, raz´ on por la cual la concordancia con los experimentos de baja resoluci´ on era buena. Por lo tanto, debe introducirse alguna correcci´ on a la teor´ıa desarrollada en el cap´ıtulo 13 para explicar el desdoblamiento de las l´ıneas espectrales all´ı predichas.
15.4.2.
Efecto Zeeman an´ omalo
En la secci´ on 14.3, vimos que cuando un ´ atomo se coloca en un campo magn´etico uniforme, cada una de las l´ıneas (es decir, cada componente de la estructura fina) se desdobla en ciertas l´ıneas equidistantes, donde la brecha es proporcional al campo magn´etico y al n´ umero cu´ antico magn´etico, esto se conoce como efecto Zeeman. Los desarrollos en la secci´ on 14.3, muestran que este efecto se puede explicar usando el formalismo cu´ antico hasta
´ 15.5. MOMENTO ANGULAR INTR´INSECO EN LA CUANTICA NO-RELATIVISTA
389
ahora descrito. La explicaci´ on te´ orica se basa en la relaci´ on del momento dipolar magn´etico M con el momento angular orbital del electr´ on µB q~ M= L ; µB = (15.3) ~ 2me on de Bohr”. Sin embargo, la teor´ıa presentada en el cap´ıtulo 14 solo est´ a donde µB se conoce como el “magnet´ en concordancia con el experimento en algunos casos que llamaremos “efecto Zeeman” normal. En otros casos, sin embargo aparece un “efecto Zeeman an´ omalo” que resulta particularmente sustancial en ´ atomos con n´ umero at´ omico impar (en particular, el ´ atomo de Hidr´ ogeno), ya que sus niveles se dividen en un n´ umero par de subniveles en tanto que la teor´ıa predice que el n´ umero de subniveles debe ser impar ya que es igual a 2l + 1 con l entero. Si asumimos que en el efecto Zeeman an´ omalo el desdoblamiento contin´ ua siendo generado por un momento angular J2 , es necesario que el valor propio j (j + 1) ~2 de este momento angular corresponda a j semi-entero para poder explicar que el n´ umero de subniveles 2j + 1 sea par. N´ otese que un experimento del tipo Stern-Gerlach no ser´ıa pr´ actico para la medici´ on del momento angular electr´ onico debido a que el electr´ on tiene carga neta (monopolo el´ectrico), y la interacci´ on del momento dipolar magn´etico del electr´ on con el campo es mucho m´ as d´ebil que la interacci´ on de Lorentz descrita por qv × B.
15.5.
Introducci´ on del momento angular intr´ınseco en el formalismo de la mec´ anica cu´ antica no relativista
Para poder introducir el momento angular intr´ınseco en el formalismo no relativista de la mecanica cu´ antica ser´ a necesario introducir algunos postulados adicionales. La teor´ıa no relativista para incorporar al esp´ın fu´e desarrollada por Pauli. M´ as adelante, Dirac desarroll´ o una teor´ıa relativista que desemboc´ o en la llamada ecuaci´ on de Dirac, en la cual el esp´ın aparece en forma natural debido a la covarianza de la ecuaci´ on con el grupo de transformaciones de Lorentz. Si bien, el esp´ın tambi´en se puede deducir de las transformaciones no relativistas del grupo de Galileo, la aparici´ on del esp´ın es mucho m´ as natural en las teor´ıas relativistas. Sin embargo, dado que la teor´ıa de Pauli es m´ as simple que la de Dirac y que estamos desarrollando una teor´ıa no relativista, introduciremos el esp´ın con los postulados de Pauli. Antes de Pauli, Uhlenbeck y Goudsmit en 1925 propusieron que el electr´ on pose´ıa un efecto de rotaci´ on que generaba un momento angular intr´ınseco que llamaron esp´ın (del ingl´es spin que significa rotaci´ on o giro). Se postula entonces que existe un momento dipolar magn´etico MS que esta asociado con el momento angular intr´ınseco o esp´ın (denotado por S) en la forma MS = 2
µB S ~
(15.4)
que tiene la misma estructura que la relaci´ on (15.3) para el momento angular orbital, pero con un factor de dos, que nos dice que el factor giromagn´etico de esp´ın es dos veces mayor que el factor giromagn´etico orbital. Esta relaci´ on se impuso por razones estrictamente fenomenol´ ogicas, con el fin de ajustar la concordancia teor´ıa experimento. M´ as adelante, Pauli estableci´ o una forma de incorporar este momento angular intr´ınseco en el formalismo de la mec´ anica cu´ antica no relativista agregando unos postulados sobre estos observables. Hasta el momento, hemos cuantizado solo observables que dependen de los observables b´ asicos R y P y que denominaremos observables orbitales, los cuales act´ uan en el espacio de estados Er que es isom´etrico e isomorfo con el espacio F de las funciones de onda. Similarmente denominamos espacio orbital de estados a Er . Dentro de los postulados de Pauli, a˜ nadiremos a estos observables orbitales un conjunto de observables de esp´ın en la siguiente forma (I) El operador de esp´ın S ≡ (S1 , S2 , S3 ) es un momento angular, es decir cumple con las reglas de conmutaci´ on (10.6) [Si , Sj ] = i~εijk Sk
CAP´ITULO 15. MOMENTO ANGULAR INTR´INSECO
390
(II) Estos operadores de esp´ın act´ uan en un espacio de estados de esp´ın Es , en el cual los observables S2 y S3 constituyen un C.S.C.O. Por tanto, Es es expandido por los estados propios comunes de S2 y S3 S2 |s, ms i = s (s + 1) ~2 |s, ms i ; S3 |s, ms i = ms ~ |s, ms i de acuerdo con la teor´ıa general del momento angular, sabemos que s debe ser entero o semientero y que ms toma todos los valores inclu´ıdos entre −s y s en saltos de unidad. Sabemos tambi´en que ms es entero (semi-entero) si y solo si s es entero (semi-entero). III) Una part´ıcula dada est´ a caracterizada por un valor u ´nico de esp´ın s y diremos que esta part´ıcula tiene esp´ın s. Puesto que {|s, ms i} con s fijo es una base para el espacio de estados de esp´ın Es , dicho espacio es de dimensi´ on 2 finita 2s + 1. N´ otese adem´ as que todos los elementos de Es son estados propios de S con el mismo valor propio s (s + 1) ~2 . IV) El espacio de estados E de una part´ıcula es el producto tensorial4 de Er con Es E = Er ⊗ Es consecuentemente, todos los observables de esp´ın conmutan con todos los observables orbitales. Adem´ as excepto para s = 0, esto implica que para la caracterizaci´ on del estado de una part´ıcula no ser´ a suficiente especificar un ket de Er . Por ejemplo, los observables X1 , X2 , X3 constituyen un C.S.C.O. en Er pero no en E, para formar un C.S.C.O. en E debemos agregar un C.S.C.O. del espacio Es , por ejemplo S2 y alg´ un Si (usualmente S3 ). Adicionalmente, de las propiedades del producto tensorial, el producto tensorial de los elementos de una base {|ϕn i} en Er con los elementos de una base {χi } en Es ser´ a una base de E = Er ⊗ Es {|ϕn , χi i} ≡ {|ϕn i ⊗ |χi i} Esto implica que todo estado de una part´ıcula es una combinaci´ on lineal de estos productos tensoriales XX XX |ψi = cn,i |ϕn , χi i = cn,i |ϕn i ⊗ |χi i ; cn,i = hϕn , χi |ψi n
n
i
i
debemos recordar sin embargo, que no todo estado |ψi ∈ E proviene del producto tensorial de un estado |ϕi ∈ Er con un estado |χi ∈ Es . Es decir que la relaci´ on |ψi = |ϕi ⊗ |χi ; |ϕi ∈ Er ; |χi ∈ Es
; |ψi ∈ E
(15.5)
no es v´ alida en general. Sin embargo, cuando la relaci´ on (15.5) es v´ alida para un cierto |ψi es claro que XX |ψi = cn,i |ϕn , χi i ; cn,i = hϕn |ϕi hχi |χi n
i
Estos postulados conciernen a una teor´ıa general de esp´ın. El siguiente postulado est´ a dirigido m´ as especificamente al esp´ın del electr´ on (V) El electr´ on es una part´ıcula de esp´ın 1/2 (s = 1/2) y su momento dipolar magn´etico intr´ınseco est´ a dado por µB µB MS = (2s + 1) S=2 S ~ ~ que coincide con (15.4). Adicionalmente, los constituyentes nucleares (protones y neutrones) tambi´en son part´ıculas de esp´ın 1/2 aunque su factor giromagn´etico es diferente al del electr´ on. Tambi´en existen part´ıculas de esp´ın 0, 1/2, 1, 3/2, 2, ... A priori podr´ıamos estar tentados a pensar que el esp´ın es un efecto del tama˜ no del electr´ on que genera la posibilidad de que esta part´ıcula produzca rotaciones. En tal caso, adem´ as de los observables de posici´ on (del 4
Para detalles sobre productos tensoriales ver secci´ on 1.32, page 70.
15.6. PROPIEDADES DE UN MOMENTO ANGULAR 1/2
391
centro de masa del electr´ on), ser´ a necesario a˜ nadir tres observables asociados a la rotaci´ on (por ejemplo una cuantizaci´ on adecuada de los ´ angulos de Euler). Sin embargo, las rotaciones espaciales deben cumplir relaciones de periodicidad similares a las que se imponen para los arm´ onicos esf´ericos, lo cual nos exige que s sea entero. La presencia de esp´ın semientero indica que este observable no tiene un origen rotacional, ni puede provenir de la cuantizaci´ on de un momento angular cl´ asico que sea funci´ on exclusiva de R y P. En el presente tratamiento, el electr´ on contin´ ua siendo una part´ıcula puntual y el esp´ın no tiene an´ alogo cl´ asico.
15.6.
Propiedades de un momento angular 1/2
Puesto que los electrones as´ı como los nucleones son part´ıcula de esp´ın 1/2, el espacio de estados Es=1/2 merece especial atenci´ on. En esta secci´ on nos ocuparemos de estudiar solo el espacio E1/2 y en el siguiente nos ocuparemos de caracterizar el espacio de estados completo E = E 1/2 ⊗ Er El espacio de estados E1/2 es de dimensi´ on dos. Los autoestados comunes de S2 y S3 , que conforman una base ortonormal en E1/2 est´ an dados por 1 1 1 1 s = 1 , ms = 1 , s = 1 , ms = − 1 ≡ , , , − 2 2 2 2 2 2 2 2 Simplificaremos la notaci´ on para estos autoestados comunes de S2 y S3 en la forma 1 1 1 1 , 2 2 ≡ |+i ; 2 , − 2 ≡ |−i
es com´ un referirse a los autoestados |±i, como estado con esp´ın “arriba” y “abajo” respectivamente5 . Es claro que 1 1 1 + 1 ~2 |±i ; S3 |±i = ± ~ |±i S2 |±i = 2 2 2 3 2 1 S2 |±i = ~ |±i ; S3 |±i = ± ~ |±i (15.6) 4 2 con relaciones de ortonormalidad y completez h+ |+i = h− |−i = 1 ; h+ |−i = 0 ; |+i h+| + |−i h−| = Is
(15.7)
el estado m´ as general de esp´ın es entonces una combinaci´ on lineal de esta base |χi = c+ |+i + c− |−i
(15.8)
siendo c± n´ umeros complejos. Dado que ambos estados |±i son autoestados de S2 con el mismo autovalor, cualquier combinaci´ on lineal de ellos tambi´en lo es. Por tanto, todos los estados de Es son autoestados de S2 con el mismo valor propio (3/4) ~2 , esto implica que S2 es proporcional al operador identidad de Es 3 S2 = ~2 Is 4
(15.9)
definiendo los operadores escalera Ec. (10.13), tenemos S± = S1 ± iS2
(15.10)
Invirtiendo la relaciones (15.10) escribimos S1 = 5
S+ + S− S+ − S− ; S2 = 2 2i
(15.11)
Este es por supuesto un abuso del lenguaje, ya que ambos estados poseen el mismo esp´ın y se diferencian solo en su momento magn´etico intr´ınseco.
CAP´ITULO 15. MOMENTO ANGULAR INTR´INSECO
392
La acci´ on de los operadores S± sobre los vectores base est´ a dada por las Ecs. (10.47) con j = s = 1/2 S+ |+i = S− |−i = 0
;
S+ |−i = ~ |+i
;
S− |+i = ~ |−i
(15.12)
algebra de cualquier momento angular Ecs. (10.14-10.17). Sin embargo, Los operadores Si , S2 , S± poseen el ´ hay algunas propiedades algebr´ aicas adicionales propias de j = s = 1/2. En lo que sigue tomaremos j = s = 1/2. Las expresiones (15.11) junto con (15.12) nos permiten demostrar ciertas propiedades de los Si y de S± . Calculemos primero S12 , S22 , S1 S2 , S2 S1 S12 = S1 S2 = S1 S2 = S1 S2 =
1 2 1 2 2 2 S+ + S− + S+ S− + S− S+ ; S22 = − S+ + S− − S+ S− − S− S+ 4 4 1 1 2 2 2 2 S+ − S+ S− + S− S+ − S− ; S2 S1 = S+ + S+ S− − S− S+ − S− 4i 4i 2 − [S , S ] − S 2 2 + [S , S ] − S 2 S+ S + − + − − − ; S2 S1 = + 4i 4i 2 − 2~S − S 2 2 S+ S 2 + 2~S3 − S− 3 − ; S2 S1 = + 4i 4i
(15.13)
(15.14)
donde hemos usado (10.16). Similarmente podemos calcular los otros productos S1 S3 = S2 S3 =
1 1 (S+ S3 + S− S3 ) ; S3 S1 = (S3 S+ + S3 S− ) 2 2 1 1 (S+ S3 − S− S3 ) ; S3 S1 = (S3 S+ − S3 S− ) 2i 2i
(15.15) (15.16)
un estado arbitrario de Es est´ a dado por (15.8). Por tanto la acci´ on de los operadores S± sobre un estado arbitrario de Es se obtiene combinando (15.12) con (15.8) 2 2 2 S+ |χi = S+ [c+ |+i + c− |−i] = c− S+ |−i = ~c− S+ |+i = 0 2 2 2 S− |χi = S− [c+ |+i + c− |−i] = c+ S− |+i = ~c+ S− |−i = 0
S+ S− |χi = S+ S− [c+ |+i + c− |−i] = c+ S+ S− |+i = ~c+ S+ |−i = ~2 c+ |+i = ~2 P+ |χi
S− S+ |χi = S− S+ [c+ |+i + c− |−i] = c− S− S+ |−i = ~c− S− |+i = ~2 c− |−i = ~2 P− |χi
(S+ S− + S− S+ ) |χi = ~2 [P+ + P− ] |χi = ~2 |χi y como |χi es arbitrario, se obtiene
2 2 S+ = S− = 0 ; S+ S− = ~2 P+ ; S− S+ = ~2 P−
; (S+ S− + S− S+ ) = ~2 Is
(15.17)
donde hemos definido los proyectores P± de modo que Es = E+ ⊕ E− ; |χi = |χi+ + |χi− ; |χi± ∈ E± , |χi ∈ Es
P± |χi = |χi± = c± |±i usando (15.17) en (15.13) se obtiene S12 S22 S32
1 1 2 2 S+ + S− + S+ S− + S− S+ = ~2 Is 4 4 1 2 1 2 2 = − S + + S − − S + S − − S − S + = ~ Is 4 4 3 1 1 1 = S2 − S12 − S22 = ~2 Is − ~2 Is − ~2 Is = ~2 Is 4 4 4 4 1 2 2 2 2 ⇒ S 1 = S 2 = S 3 = ~ Is 4 =
(15.18)
15.6. PROPIEDADES DE UN MOMENTO ANGULAR 1/2
393
Ahora utilizando (15.17) en (15.14) se obtiene i 2 ~ i 2 ~ 2 2 S1 S2 = − S+ − 2~S3 − S− = i S3 ; S2 S1 = − S+ + 2~S3 − S− = −i S3 4 2 4 2 i~ ⇒ S1 S2 + S2 S1 = 0 ; S1 S2 = S3 2 empleando (15.12) en (15.15) tenemos S1 S3 |χi = = = S1 S3 |χi =
1 1 (S+ S3 + S− S3 ) [c+ |+i + c− |−i] = (S+ + S− ) [c+ S3 |+i + c− S3 |−i] 2 2 ~ ~c+ ~c− (S+ + S− ) [c+ |+i − c− |−i] = (S+ + S− ) |+i − (S+ + S− ) |−i 4 4 4 ~2 c+ ~2 c− |−i − |+i 4 4 ~2 [c+ |−i − c− |+i] 4
(15.19)
(15.20)
1 c+ c− (S3 S+ + S3 S− ) [c+ |+i + c− |−i] = (S3 S+ + S3 S− ) |+i + (S3 S+ + S3 S− ) |−i 2 2 2 ~c+ ~c− ~2 c+ ~2 c− ~2 = S3 |−i + S3 |+i = − |−i + |+i = − [c+ |−i − c− |+i] 2 2 4 4 4 ~2 S3 S1 |χi = − [c+ |−i − c− |+i] (15.21) 4 comparando (15.20) con (15.21) teniendo en cuenta que |χi es arbitrario se obtiene S3 S1 |χi =
S1 S3 + S3 S1 = 0 ahora miremos la acci´ on de S2 sobre |χi
S+ − S− S+ − S− S+ − S− ~ ~ [c+ |+i + c− |−i] = c+ |+i + c− |−i = −c+ |−i + c− |+i 2i 2i 2i 2i 2i i~ S2 |χi = [c+ |−i − c− |+i] (15.22) 2 comparando (15.22) con (15.21) resulta i~ (15.23) S3 S1 = S2 2 similarmente se puede demostrar que S2 |χi =
S2 S3 + S3 S2 = 0 ; S2 S3 =
15.6.1.
i~ S1 2
(15.24)
Resumen de resultados
Los observables Si , S2 , S± poseen el ´ algebra de un momento angular Ecs. (10.14-10.17). Pero hay algunas propiedades algebr´ aicas adicionales espec´ıficas de j = s = 1/2. Definiendo el anticonmutador de dos operadores como {A, B} ≡ AB + BA
Este ´ algebra espec´ıfica est´ a dada por
2 2 S+ = S− = 0 ; S+ S− = ~2 P+ ; S− S+ = ~2 P− ; {S+ , S− } = ~2 Is (15.25) 1 i~ S12 = S22 = S32 = ~2 Is ; Si Sj = εijk Sk ; {Si , Sj } = 0 ; i 6= j (15.26) 4 2 vale la pena enfatizar que la u ´ltima de las relaciones (15.26) nos dice que para s = 1/2, los operadores de esp´ın Si son anticonmutantes.
CAP´ITULO 15. MOMENTO ANGULAR INTR´INSECO
394
15.6.2.
Representaci´ on matricial de los observables de esp´ın
Un operador que act´ ua en Es se puede representar en la base {|+i , |−i} con una matriz 2 × 2. En particular, usando (15.6, 15.10, 15.12) se puede constru´ır la representaci´ on matricial de los S± , Si y S2 (ver tambi´en las Ecs. 10.60, 10.61 Pag. 324). Esta representaci´ on matricial se puede resumir en la forma ~ 0 1 0 −i 1 0 σ ; σ1 = ; σ2 = ; σ3 = (S) = 1 0 i 0 0 −1 2 3 2 3 2 0 1 0 0 2 ~ Is ≡ ~ σ0 ; (S+ ) = ~ ≡ ~σ+ ; (S− ) = ~ ≡ ~σ− S = 0 0 1 0 4 4
puesto que las matrices (~/2) σi y las matrices ~σ± son representaciones de los operadores Si y S± deben cumplir el ´ algebra de ´estos operadores Ecs. (15.25, 15.26) [σi , σj ] = 2iεijk σk ; σ12 = σ22 = σ32 = 12×2 {σi , σj } = 0 ; σi σj = iεijk σk 2 σ+
=
2 σ−
f or i 6= j
= 0 ; σ+ σ− = P+ ; σ− σ+ = P− ; σ+ σ− + σ− σ+ = Is
(15.27)
estas relaciones se pueden verificar expl´ıcitamente. Tambi´en se puede verificar expl´ıcitamente que T rσi = 0 ; det (σi ) = −1 ; i = 1, 2, 3
(15.28)
Las Ecs. (15.28) son independientes de la base ya que la traza y el determinante son invariantes ante transformaciones de similaridad. Podemos verificar tambi´en la siguiente identidad (~σ ·A) (~σ ·B) = 12×2 (A · B) + i~σ · (A × B)
;
~σ ≡ (σ1 , σ2 , σ3 )
(15.29)
donde A y B son vectores arbitrarios u operadores vectoriales cuyas tres componentes conmutan con las componentes de S. No es necesario que A y B conmuten, pero si no conmutan, el orden de aparici´ on de los operadores en (15.29) debe ser estricto. La Ec. (15.29) se puede demostrar usando las propiedades (15.27) y la hip´ otesis de que las componentes de A y B conmutan con las σi . Usaremos s´ımbolos expl´ıcitos de sumatoria para efectos de claridad XX X XX (σm Am ) (σn Bn ) = (σm Am ) (σm Bm ) + (σm Am ) (σn Bn ) (~σ ·A) (~σ ·B) = m
=
X
n
m
2 σm Am Bm +
m
= 12×2
X m
XX
σm σn Am Bn =
m n6=m
Am Bm + i
X k
m n6=m
σk
XX
m n6=m
X
12×2 Am Bm +
m
" XX X m n6=m
εmnk Am Bn = 12×2 (A · B) + i
(~σ ·A) (~σ ·B) = 12×2 (A · B) + i~σ · (A × B)
X k
k
#
iεmnk σk Am Bn
σk (A × B)k
Finalmente, si definimos el conjunto de matrices σµ ≡ (σ0 , ~σ ) = (I, σ1 , σ2 , σ3 )
(15.30)
cualquier matriz compleja 2 × 2 se puede escribir como una combinaci´ on lineal compleja de estas cuatro matrices M2×2 = cµ σµ ; µ = 0, 1, 2, 3 sumando sobre ´ındices repetidos. Esto se debe a que las cuatro matrices σµ son linealmente independientes y se necesitan cuatro elementos (complejos) para determinar una matriz compleja 2 × 2. Por lo tanto, las cuatro
´ NO-RELATIVISTA DE PART´ICULAS CON ESP´IN 1/2 15.7. DESCRIPCION
395
matrices σµ forman una base para el espacio vectorial complejo de todas las matrices complejas 2 × 2. Para ver la independencia lineal de las matrices, basta con escribir cada matriz compleja 2 × 2 como si fuera un vector complejo de cuatro componentes 1 0 0 1 1 0 0 1 ↔ σ0 = 0 ; σ1 = 1 0 ↔ 1 0 1 1 0 0 1 −i 0 0 −i ; σ3 = 1 0 σ2 = ↔ ↔ 0 i 0 i 0 −1 0 −1 y calculando el determinante de la matriz compleja 1 0 0 1 det 0 1 1 0
4 × 4 que se forma con los vectores comlumna 0 1 −i 0 = −4i 6= 0 i 0 0 −1
de modo que los vectores columna (y por tanto las matrices complejas equivalentes) son linealmente independientes, de hecho son ortogonales, aunque no est´ an normalizados.
15.7.
Descripci´ on no relativista completa de operadores y estados de part´ıculas con esp´ın 1/2
Hemos visto como se describen los estados y operadores de Er y de Es por aparte. Pero la descripci´ on completa del sistema cu´ antico requiere constru´ır un u ´nico espacio de estados para el formalismo. El espacio de estados completo E para una part´ıcula de esp´ın 1/2, se construye como el producto tensorial de Er y Es E = Er ⊗ Es
15.7.1.
Construcci´ on de los estados
Si tenemos un operador definido en Er podemos extenderlo al espacio E mediante el producto tensorial con la identidad de Es . Si A es un operador que transforma sobre Er podemos extenderlo a un operador A′ que transforma sobre E en la forma A′ ≡ A ⊗ Is similarmente un operador B de Es se puede extender a un operador sobre E con la prescripci´ on B ′ = Ir ⊗ B Sin embargo, no cambiaremos la notaci´ on para estas extensiones y las seguiremos llamando A y B. En particular, podemos obtener un C.S.C.O. en E como la yuxtaposici´ on de un C.S.C.O. en Er con un C.S.C.O. en Es . Por 2 nadir un C.S.C.O. de Er para obtener un ejemplo, en Es el conjunto S , S3 forma un C.S.C.O. a esto le podemos a˜ C.S.C.O. de E. Como ejemplos tenemos X1 , X2 , X3 , S2 , S3 ; P1 , P2 , P3 , S2 , S3 ; L2 , L3 , H, S2 , S3 (15.31)
un tendr´ıamos un puesto que todos los kets de E son kets propios de S2 , este operador podr´ıa ser omitido y a´ C.S.C.O. en E. Esto se debe a que estrictamente S3 por s´ı solo ya forma un C.S.C.O. en Es . Sin embargo, es usual
CAP´ITULO 15. MOMENTO ANGULAR INTR´INSECO
396
dejar S2 dentro del C.S.C.O. ya que si bien es deseable que ´este contenga el m´ınimo de operadores posible, no es obligatorio que as´ı sea. Vamos a escribir las relaciones con el primero de los C.S.C.O. en la Ec. (15.31). Una base en E se obtiene como el producto tensorial de las bases en cada espacio |r, εi ≡ |x1 , x2 , x3 , εi = |ri ⊗ |εi , |εi ∈ Es las componentes xi var´ıan entre −∞ e ∞ y ε toma los valores +1 o −1 (´ındice discreto que realmente significa on {|r, εi} es una base de autovectores comunes a X1 , X2 , X3 , S2 , S3 en E ms = ±1/2). Por definici´ ~ ; S3 |r, εi = ε |r, εi ; ε ≡ ±1 2
3 Xi |r, εi = xi |r, εi ; S2 |r, εi = ~2 |r, εi 4
puesto que esto es un C.S.C.O. cada |r, εi es u ´nico salvo factores constantes. Dado que {|ri} es ortonormal en Er en el sentido extendido, y {|εi} es ortonormal en Es (ver Ecs. 15.7) entonces {|r, εi} es ortonormal en E en el sentido extendido
′ ′ hr′ ε′ |r, εi = r ⊗ ε (|ri ⊗ |εi) = hr′ |ri hε′ |εi hr′ ε′ |r, εi = δ r − r′ δεε′ la relaci´ on de completez que nos dice que {|r, εi} es una base en E es Z Z XZ d3 r |r, εi hr, ε| = d3 r |r, +i hr, +| + d3 r |r, −i hr, −| = IE ε
por tanto, todo estado |ψi ∈ E se puede expandir en {|r, εi} XZ |ψi = IE |ψi = d3 r |r, εi hr, ε| ψi |ψi =
XZ ε
ε
d3 r ψε (r) |r, εi
, ψε (r) ≡ hr, ε| ψi
(15.32)
donde ψε (r) son las coordenadas o componentes (transformadas de Fourier) en la base {|r, εi}. Estas coordenadas o componentes, dependen de tres ´ındices cont´ınuos r y del ´ındice discreto ε. Por tanto, una funci´ on de onda en E se especifica a trav´es de dos funciones de onda espaciales correspondientes a los dos estados de esp´ın ψ (r) = ψ+ (r) + ψ− (r)
ψ± (r) ≡ hr, ± |ψi
(15.33) (15.34)
como ψ+ (r) y ψ− (r) son estados ortogonales, es usual escribirlos en forma de un arreglo de dos componentes conocido como espinor ψ+ (r) [ψ] (r) = (15.35) ψ− (r) el bra hψ| asociado al espacio dual E ∗ se obtiene con el herm´ıtico conjugado de la Ec. (15.32) XZ hψ| = d3 r ψε∗ (r) hr, ε| ε
conjugando las Ecs. (15.33, 15.34) vemos que ∗ ∗ ψ ∗ (r) = ψ+ (r) + ψ− (r)
∗ ; ψ± (r) ≡ hψ |r, ±i
´ NO-RELATIVISTA DE PART´ICULAS CON ESP´IN 1/2 15.7. DESCRIPCION
397
∗ (r) que se pueden escribir en forma de espinor como nos dice que el bra hψ| est´ a representado por dos funciones ψ± el adjunto de (15.35) ∗ (r) ψ ∗ (r) [ψ]† (r) = ψ+ (15.36) −
el producto escalar entre dos estados |ψi y |ϕi, se puede escribir como " # Z XZ X 3 3 hψ |ϕi = hψ| IE |ϕi = d r hψ |r, εi hr, ε| ϕi = d r hψ |r, εi hr, ε| ϕi hψ |ϕi = hψ |ϕi =
Z
Z
ε
ε
d3 r [hψ |r, +i hr, +| ϕi + hψ |r, −i hr, −| ϕi] ∗ ∗ (r) ϕ+ (r) + ψ− (r) ϕ− (r) d3 r ψ+
esto tambi´en se puede escribir en la forma Z ϕ+ (r) 3 ∗ ∗ hψ |ϕi = d r ψ+ (r) ψ− (r) ϕ− (r) Z hψ |ϕi = d3 r [ψ]† (r) [ϕ] (r)
donde hemos usado (15.35, 15.36). Esta expresi´ on se asemeja a la que se obtiene para el producto interno de dos kets en Er , pero teniendo en cuenta que en vez de funciones de onda escalares tenemos espinores de dos componentes, de modo que se debe realizar la multiplicaci´ on matricial antes de integrar en el espacio. En particular la normalizaci´ on queda en la forma Z Z h i hψ |ψi = |ψ|2 = d3 r [ψ]† (r) [ψ] (r) = d3 r |ψ+ (r)|2 + |ψ− (r)|2 = 1 (15.37) hemos visto que un vector de E no necesariamente es el producto tensorial de un vector en Er por otro en Es . Sin embargo, esto es v´ alido para algunos vectores (en particular los vectores base |r, εi), si el vector |ψi en cuesti´ on es de este tipo |ψi = |ϕi ⊗ |χi ; |ϕi ∈ Er , |χi ∈ Es el espinor asociado tendr´ a una forma simple ya que Z |ϕi = d3 r ϕ (r) |ri
; |χi = c+ |+i + c− |−i
usando las Ecs. (15.33, 15.34) se tiene que
ψ± (r) ≡ hr, ± |ψi = [hr| ⊗ h±|] [|ϕi ⊗ |χi] = hr |ϕi h± |χi = ϕ (r) h±| [c+ |+i + c− |−i]
ψ± (r) = c± ϕ (r)
y los espinores dados en (15.35, 15.36) quedan [ψ] (r) =
c+ ϕ (r) c− ϕ (r)
[ψ]† (r) = ϕ∗ (r)
= ϕ (r)
c∗+ c∗−
si en particular |χi = |+i entonces c+ = 1, c− = 0. Resultando
c+ c−
|ψi = |ϕi ⊗ |+i ⇒ ψ+ (r) ≡ hr |ϕi h+ |+i = ϕ (r) ; ψ− (r) ≡ hr |ϕi h− |+i = 0 1 [ψ] (r) = ϕ (r) ; [ψ]† (r) = ϕ∗ (r) 1 0 0
similarmente, si |χi = |−i
[ψ] (r) = ϕ (r)
0 1
; [ψ]† (r) = ϕ∗ (r)
0 1
CAP´ITULO 15. MOMENTO ANGULAR INTR´INSECO
398
15.7.2.
Construcci´ on de operadores
Veremos como se puede caracterizar la acci´ on de los operadores en E. Para ello trabajaremos primero operadores originalmente definidos en Es , despu´es operadores definidos en Er y finalmente operadores mixtos. Operadores espinoriales a definido originalmente solo por su acci´ on sobre Es Asumamos que el operador As est´ ′ ′ As |εi = ε ; |εi , ε ∈ Es
Su extensi´ on como operador sobre E se escribe
A′s ≡ As ⊗ Ir
definimos la acci´ on del operador extendido en la forma A′s |ψi = ψ ′ ; |ψi , ψ ′ ∈ E expandiendo |ψi en la base |r, εi
|ψi = A′s |ψi = la acci´ on de A′s sobre |r, εi es muy clara, ya que
XZ ε
XZ ε
d3 r ψε (r) |r, εi d3 r ψε (r) A′s |r, εi
A′s |r, εi = (As ⊗ Ir ) [|ri ⊗ |εi] = (Ir |ri) ⊗ [As |εi] = |ri ⊗ ε′ A′s |r, εi = r,ε′ XZ ′ As |ψi = d3 r ψε (r) r,ε′ ε
la extensi´ on del operador solo afectar´ a a la parte espinorial de |r, εi y la transformar´ a de la misma forma que lo hace el operador original, en tanto que la parte espacial permanece intacta. Estos operadores se pueden representar como matrices 2×2 y de aqu´ı en adelante usamos A para denotar al operador extendido6 . Tomemos como ejemplo a S+ , este operador actuando sobre un estado arbitrario |ψi de E nos da Z XZ 3 S+ |ψi = d r ψε (r) [S+ |r,εi] = d3 r {ψ+ (r) [S+ |r,+i] + ψ− (r) [S+ |r,−i]} S+ |ψi =
Zε
d3 r ψ− (r) [S+ |r,−i]
donde hemos usado que S+ |+i = 0 y por tanto S+ |r,+i = 0. Y como S+ |−i = ~ |+i se tiene finalmente Z ′ ψ ≡ S+ |ψi = ~ d3 r ψ− (r) |r,+i
las componentes espinoriales de |ψ ′ i son entonces Z Z Z ′ ′ ′ 3 ′ ′ ′ 3 ′ ′ ψ+ (r) ≡ hr, + ψ = hr, +| ~ d r ψ− r r ,+ = ~ d r ψ− r hr, + r ,+ = ~ d3 r′ ψ− r′ hr r′ h+ |+i Z = ~ d3 r′ ψ− r′ δ r − r′ = ~ψ− (r) 6
Por supuesto la representaci´ on matricial de A′s es estrictamente de dimensi´ on infinita, pero dado que A′s = As ⊗ 1r , se tiene que la parte no trivial de la matriz es de dimensi´ on finita.
´ NO-RELATIVISTA DE PART´ICULAS CON ESP´IN 1/2 15.7. DESCRIPCION
399
′ (r), con lo cual resulta de manera similar podemos obtener ψ− ′ ′ ψ+ (r) ≡ hr, + ψ ′ = ~ψ− (r) ; ψ− (r) ≡ hr, − ψ ′ = 0 ′ ψ− (r) ψ (r) = ~ 0
pero esto tambi´en se puede escribir como
′ 0 1 ψ+ (r) ψ (r) = ~ ψ− (r) 0 0 ′ ψ (r) = ~σ+ [ψ] (r)
es decir la misma representaci´ on matricial sirve para definir a S+ tanto en Es como en E. ¿Cu´ al es la diferencia?. Formalmente, en Es cada elemento de la matriz es un n´ umero. En cambio en E cada elemento matricial representa a un operador que act´ ua sobre Er , por ejemplo, la matriz σ+ como representaci´ on extendida, rigurosamente significa lo siguiente 0r Ir ′ = σ+ 0r 0r
es decir cada elemento matricial representa a los operadores nulo e identidad del espacio Er . No obstante, desde el punto de vista pr´ actico, esta notaci´ on es innecesaria. Operadores orbitales El procedimiento es similar. Asumamos Ax que act´ ua sobre Er , definiendo su extensi´ on y su acci´ on sobre un ket |ψi de E obtenemos Ax |ri = r′ ; |ri , r′ ∈ Er A′x ≡ Ax ⊗ Is ; A′x |r, εi = r′ , ε |ψi =
XZ ε
d3 r ψε (r) |r, εi
X ′ ψ ≡ A′x |ψi = ′ ψ ≡ A′x |ψi =
Zε
Z
3
d r ψε (r)
A′x |r, εi
=
XZ ε
d3 r ψε (r) r′ , ε
d3 r ψ+ (r) A′x |r, +i + ψ− (r) A′x |r, −i
como A′x |r, +i act´ ua sobre un espacio id´entico a |ri (ya que act´ ua sobre un subespacio unidimensional de Es ), podemos escribir Ax |r, +i. Igual ocurre para Ax |r, −i XZ XZ ′ ψ+ (r) ≡ hr, + ψ ′ = hr, +| Ax |ψi = hr, +| Ax d3 x ψε (x) |x, εi = d3 x hr, +| Ax ψε (x) |x, εi =
=
XZ Zε
ε
bx (r) {ψε (x) hr, +| x, εi} = d xA 3
Z
ε
bx (r) {ψ+ (x) hr, +| x, +i + ψ− (x) hr, +| x, −i} d xA 3
bx (r) ψ+ (x) δ (r − x) = A bx (r) ψ+ (r) d3 x A
′ (r) de bx (r) denota la forma del operador Ax en la base {|ri}, con un procedimiento similar se obtiene ψ− donde A modo que ′ bx (r) ψ+ (r) ψ+ (r) ≡ hr, + ψ ′ = A ′ bx (r) ψ− (r) ψ− (r) ≡ hr, − ψ ′ = A
CAP´ITULO 15. MOMENTO ANGULAR INTR´INSECO
400
!
bx (r) A 0 bx (r) 0 A
′ ψ (r) =
ψ+ (r) ψ− (r)
h i bx (r) ⊗ Is [ψ] (r) = A
que nos muestra la forma correcta para la extensi´ on del operador Ax Por tanto, la representaci´ on matricial 2 × 2 del operador es proporcional a la identidad, puesto que no hay cambio en los estados espinoriales. Los operadores act´ uan sobre la parte espacial tal como lo hace el operador original. Tomemos como ejemplo a los operadores X1 , P1 ψε′ (r) = hr, ε| X1 |ψi = x1 ψε (r) ′′ ~ ∂ ψε (r) = hr, ε| P1 |ψi = ψε (r) i ∂x1 sus representaciones matriciales son [X1 ] =
x1 0 0 x1
~ ; [P1 ] = i
∂ ∂x1
0
0 ∂ ∂x1
!
de nuevo cada elemento de la matriz es un operador sobre Er aunque esta vez es un operador no trivial. En este caso el operador trivial es sobre los espinores y por eso la matriz es proporcional a la identidad7 . Operadores mixtos Si un operador es de car´ acter mixto, ser´ a una matriz 2 × 2 no trivial que act´ ua sobre Es y en donde cada elemento matricial es un operador no trivial sobre Er . Algunos ejemplos de operadores mixtos que aparecen en cu´ antica son L3 S3 , S · P. De acuerdo con la teor´ıa de representaciones, las representaciones matriciales deben manifestar la preservaci´ on del producto ~ ∂ ~ [L3 S3 ] = [L3 ] [S3 ] = Is Ir σ3 i ∂ϕ 2 " !# ∂ 0 ~ ~ 1 0 ∂ϕ = ∂ 0 ∂ϕ i 2 0 −1 ! ∂ 0 ~2 ∂ϕ [L3 S3 ] = ∂ 0 − ∂ϕ 2i [S · P] = [S1 P1 ] + [S2 P2 ] + [S3 P3 ] = [S1 ] [P1 ] + [S2 ] [P2 ] + [S3 ] [P3 ] ~ ~ ∂ ~ ~ ∂ ~ ~ ∂ = σ1 + σ2 + σ3 2 i ∂x1 2 i ∂x2 2 i ∂x3 2 ∂ ∂ ∂ ~ = σ1 + σ2 + σ3 2i ∂x1 ∂x2 ∂x3
7
[S · P] =
~2 2i
[S · P] =
~2 2i
[S · P] =
~2 2i
"
0 1 1 0
0 ∂ ∂x1
∂ ∂x1
∂ ∂x3
∂ + ∂x1 !
∂ ∂x1
0
+ i ∂x∂ 2
+
0 i ∂x∂ 2
− i ∂x∂ 2 − ∂x∂ 3
∂ ∂x1
∂ ∂ 1 0 + 0 −1 ∂x3 ∂x2 ! !# ∂ −i ∂x∂ 2 0 ∂x 3 + 0 0 − ∂x∂ 3 !
0 −i i 0
Para los operadores espinoriales, son los elementos de la matriz 2 × 2 los que son proporcionales a la identidad.
´ EN LA BASE |P, εi 15.8. REPRESENTACION
401
vale enfatizar que por construcci´ on, operadores de espacios distintos conmutan. En s´ıntesis, para un operador arbitrario A de E tal que A |ψi = ψ ′ podemos asociarle una matriz 2 × 2 en la forma ′ ψ (r) = [A] [ψ] (r)
donde la estructura de la matriz representa la transformaci´ on sobre el espacio de espines y cada elemento de la matriz representa un operador en el espacio de coordenadas. Un elemento matricial hψ| A |ϕi estar´ a dado por Z hψ| A |ϕi = d3 r [ψ]† (r) [A] [ϕ] (r) expresi´ on similar a la que se encuentra para el espacio de coordenadas, pero teniendo en cuenta que en vez de funciones de onda escalares aqu´ı tenemos espinores de dos componentes. Los productos matriciales deben hacerse para entonces evaluar la integral. Esta representaci´ on solo se usar´ a cuando sea particularmente simple. En general al igual que en Er suele ser mejor trabajar con los operadores y estados en abstracto hasta donde sea posible.
15.8.
Representaci´ on en la base |p, εi
Un tratamiento similar se puede desarrollar si escojemos los C.S.C.O como P1 , P2 , P3 , S2 , S3 . En tal caso la base es {|p, εi} el producto escalar con la base {|r, εi} nos da hr, ε p, ε′ = hr |pi hε ε′ =
ei
p·r ~
(2π~)3/2
δεε′
(15.38)
a cada vector |ψi se le asocia un espinor de dos componentes ψ¯+ (p) ψ¯ (p) ≡ ; ψ¯± (p) = hp, ± |ψi ψ¯− (p)
de acuerdo con (15.38) ψ¯± (p) es la transformada de Fourier de ψ± (r). XZ
¯ d3 r hp, ε r, ε′ r, ε′ ψi ψε (p) = hp, ε |ψi = ψ¯ε (p) =
XZ
d3 r
ε′
ψ¯ε (p) =
1
(2π~)
3/2
Z
ε′ −i p·r ~
e
(2π~)3/2 d3 r e−i
δεε′ ψε′ (r) p·r ~
ψε (r)
los operadores tambi´en se representan por matrices 2×2. Cuando el operador original es espinorial la representaci´ on matricial es id´entica a la que se encontr´ o para la base {|r, εi}.
15.9.
C´ alculos de probabilidad para estados de esp´ın 1/2
Aplicaremos los postulados de la mec´ anica cu´ antica para los observables sobre el espacio de estados E. Imaginemos que queremos medir simult´ aneamente la posici´ on y la componente del esp´ın de un part´ıcula de esp´ın 1/2 a lo largo de X3 . Puesto que R, S3 constituyen un C.S.C.O., hay un u ´nico estado asociado a cada medida de estos
CAP´ITULO 15. MOMENTO ANGULAR INTR´INSECO
402
observables, x1 , x2 , x3 , ± ~2 . La probabilidad dP (r, +) de que la part´ıcula se encuentre dentro de un volumen d3 r alrededor del punto r con su esp´ın “arriba” (que es una forma de designar el caso en el cual la componente del esp´ın a lo largo de X3 es +~/2), est´ a dada por dP (r, +) = |hr, +| ψi|2 d3 r = |ψ+ (r)|2 d3 r donde hemos asumido que la funci´ on de onda est´ a normalizada en la forma (15.37). Similarmente la probabilidad de que la part´ıcula se encuentre dentro de un volumen d3 r centrado en r con su esp´ın “abajo” (es decir con la componente del esp´ın a lo largo de X3 igual a −~/2), est´ a dada por dP (r, −) = |hr, −| ψi|2 d3 r = |ψ− (r)|2 d3 r Si lo que queremos es medir la componente del esp´ın a lo largo de X1 , debemos tener en cuenta que los autoestados (normalizados) de S1 vienen dados por 1 |±iS1 = √ [|r, +i ± |r, −i] 2
(15.39)
siendo |±i los autoestados de S3 . Podemos verificar que estos son autoestados de S1 en la siguiente forma S1 |±iS1 = S1 |±iS1 =
1 1 1 √ S1 [|r, +i ± |r, −i] = √ (S+ + S− ) [|r, +i ± |r, −i] = √ [S− |r, +i ± S+ |r, −i] 2 2 2 2 2 ~ ~ ~ √ [|r, −i ± |r, +i] = ± √ [|r, +i ± |r, −i] = ± |±iS1 2 2 2 2 2
La probabilidad de encontrar al electr´ on en el volumen d3 r centrado en r y con componente positiva de esp´ın a lo largo de X1 es 2 1 1 2 3 dPS1 (r, +) = |S1 hr, +| ψi| d r = √ [hr, +| + hr, −|] |ψi = |[hr, +| ψi + hr, −| ψi]|2 2 2 1 dPS1 (r, +) = |ψ+ (r) + ψ− (r)|2 d3 r (15.40) 2 Por supuesto, podemos estar interesados en calcular la probabilidad de que la part´ıcula posea un momento centrado en p en un volumen (de momento) d3 p y con componente de esp´ın a lo largo de X3 de ±~/2. Para ello usamos las componentes del estado |ψi en la base {|p, εi}, que nos da las transformadas de Fourier de ψ¯± (r) ψ¯± (p) ≡ hp, ± |ψi la probabilidad ya mencionada ser´ a entonces 2 dP (p, ±) = |hp, ± |ψi|2 d3 p = ψ¯± (p) d3 p
Por otro lado, podemos estar interesados en hacer mediciones incompletas en el sentido de que los observables asociados a las medidas no formen un C.S.C.O. es decir que las medidas no conducen a determinar el estado de manera u ´nica. Cuando las medidas son incompletas hay varios estados ortogonales asociados al mismo resultado y debe sumarse los cuadrados de los m´ odulos de las amplitudes correspondientes. Como ejemplo, si no nos interesa conocer el esp´ın, la probabilidad dP (r) de encontrar a la part´ıcula en el volumen d3 r centrado en r es igual a o o n n dP (r) = |hr, +| ψi|2 + |hr, −| ψi|2 d3 r = |ψ+ (r)|2 + |ψ− (r)|2 d3 r
dado que los dos estados ortogonales |r, +i y |r, −i est´ an asociados al mismo resultado r donde sus amplitudes de probabilidad son ψ+ (r) y ψ− (r).
´ 15.9. CALCULOS DE PROBABILIDAD PARA ESTADOS DE ESP´IN 1/2
403
Ahora supongamos que queremos saber la probabilidad de que la part´ıcula tenga componente S3 igual a +~/2, pero sin importar su ubicaci´ on ni el valor de las dem´ as variables orbitales. Hay un conjunto infinito de estados ortogonales {|r, +i} asociados a este resultado, cuyas probabilidades deben ser sumadas Z Z P+ = d3 r |hr, +| ψi|2 = d3 r |ψ+ (r)|2 si por ejemplo queremos encontrar la probabilidad de obtener un esp´ın +~/2 a lo largo de X1 , debemos integrar la Ec. (15.40) en todo el espacio.
Cap´ıtulo 16
Adici´ on de momentos angulares 16.1.
El problema cl´ asico de la adici´ on del momento angular
Cuando tenemos un sistema de part´ıculas el momento angular total del sistema es la suma de los momentos angulares individuales n X ri × pi (16.1) L= i=1
cuando no hay fuerzas externas, el torque externo sobre el sistema es cero, y el momento angular total es constante de movimiento. Algo similar ocurre cuando el torque neto con respecto a un origen dado es cero, ya que el momento angular alrededor del mismo origen ser´ a constante de movimiento. En el u ´ltimo caso sin embargo, hay que tener en cuenta que en general al cambiar el origen, el torque puede ser diferente de cero y el momento angular ya no ser´ a constante de movimiento. Cuando el sistema est´e aislado, el momento angular total se conserva, sin embargo no necesariamente se conservar´ a el momento angular de cada part´ıcula, si hay fuerzas internas ellas causar´ an un cambio en los momentos angulares individuales, de forma que la suma total sea constante. Solo cuando las part´ıculas no son interactuantes podemos garantizar la conservaci´ on de los momentos angulares individuales, ya que en este caso cada part´ıcula forma un sistema aislado. Otro escenario en donde se conserva el momento angular, es en fuerzas centrales. Si tenemos dos part´ıculas no interactuantes cada una interactuando con el mismo centro de fuerzas (originada por una tercera part´ıcula mucho m´ as masiva que las otras), el momento angular de cada part´ıcula se conserva puesto que cada una est´ a sometida a una fuerza central. Pero si hay una interacciona entre las dos part´ıculas, la fuerza neta sobre la part´ıcula 1 ya no es en general central, por tanto su momento angular ya no necesariamente es constante de movimiento, similarmente ocurre para la part´ıcula 2. No obstante, si se cumple el principio de acci´ on y reacci´on en su forma fuerte, el momento angular total de las dos part´ıculas se conserva por la cancelaci´ on de los torques internos. En conclusi´ on, en un sistema aislado de part´ıculas interactuantes solo el momento angular total se conserva pero no los momentos individuales. Veremos que este fen´ omeno tiene su contrapartida cu´ antica.
16.2.
Momento angular total en mec´ anica cu´ antica
16.2.1.
Dos part´ıculas sin esp´ın bajo una interacci´ on central
Trabajaremos el sistema de dos part´ıculas sin esp´ın en mec´ anica cu´ antica. Primero asumiremos que no son a dado por interactuantes. El Hamiltoniano en la base de {|r1 , r2 i} est´ H0 = H1 + H2 ~2 2 ~2 2 H1 = − ∇1 + V (r1 ) ; H2 = − ∇ + V (r2 ) 2µ1 2µ2 2 404
(16.2)
´ ´ 16.2. MOMENTO ANGULAR TOTAL EN MECANICA CUANTICA
405
donde µi son las masas, V (r) el potencial central al cual est´ an sometidas, y ∇2i indica el Laplaciano tomado con las coordenadas de la part´ıcula i. Del cap´ıtulo 12 sabemos que L(1) conmuta con H1 , y teniendo en cuenta que todos los observables relacionados con una part´ıcula conmutan con todos los observables relacionados con la otra, se obtiene h i h i L(1) , H1 = L(1) , H2 = 0 (16.3) argumento similar se tiene para L(2) . Estos nos indica que h i h i L(1) , H0 = L(2) , H0 = 0
y como L(α) no depende expl´ıcitamente del tiempo, se tiene que cada momento angular es constante de movimiento por aparte, tal como en el caso cl´ asico. Ahora asumimos que las dos part´ıculas interact´ uan por medio de un potencial W (|r2 − r1 |) que solo depende de la distancia entre las part´ıculas, esto implica por supuesto asumir la validez de la ley de acci´ on y reacci´ on. La distancia |r2 − r1 | se escribe r (1) (2) (1) (2) |r2 − r1 | = xi − xi xi − xi
(16.4)
suma sobre ´ındices repetidos, el Hamiltoniano se escribe como H = H1 + H2 + W (|r2 − r1 |)
(16.5)
con Hi dados por (16.2). Las relaciones (16.3) nos dan h i h i h i L(1) , H = L(1) , H1 + H2 + W (|r2 − r1 |) = L(1) , W (|r2 − r1 |) (1)
analicemos por ejemplo la componente L3 , para calcular el conmutador con W debemos aplicar el conmutador a una funci´ on de onda arbitraria ψ (r) ! ! i h ~ ~ (1) (1) ∂ (1) ∂ (1) ∂ (1) ∂ − x2 − x2 L3 , W ψ (r) = x1 (W ψ) − W x1 ψ (1) (1) (1) (1) i i ∂x2 ∂x1 ∂x2 ∂x1 ! ! ~ ~ (1) ∂W (1) ∂W (1) ∂ψ (1) ∂ψ = x1 − x2 ψ+ x1 − x2 W (1) (1) (1) i i ∂x1 ∂x2 ∂x1 ∂x2 ! ~ (1) ∂ψ (1) ∂ψ x1 − x2 −W (1) (1) i ∂x2 ∂x1 ! ~ (1) ∂W (1) ∂W = x1 − x2 ψ (r) (1) (1) i ∂x ∂x 2
1
y como ψ (r) es arbitraria se concluye que h
(1) L3 , W
i
~ (|r2 − r1 |) = i
(1) x1
∂W (1)
∂x2
−
(1) x2
∂W (1)
∂x1
!
esta expresi´ on no es necesariamente cero, de modo que L(1) no es en general constante de movimiento. Ahora bien, si definimos el momento angular total L con una expresi´ on an´ aloga al caso cl´ asico Ec. (16.1) tenemos L = L(1) + L(2)
´ DE MOMENTOS ANGULARES CAP´ITULO 16. ADICION
406
obtenemos un operador cuyas tres componentes son constantes de movimiento. Por ejemplo, se v´e que h i (1) (2) [L3 , H] = L3 + L3 , H ! ~ (1) ∂W (1) ∂W (2) ∂W (2) ∂W [L3 , H] = x1 − x2 + x1 − x2 (1) (1) (2) (2) i ∂x ∂x ∂x ∂x 2
1
2
(16.6)
1
y puesto que W solo depende de |r2 − r1 | dada por (16.4) tenemos que r (1) (2) (1) (2) ∂ xk − xk xk − xk ∂W ∂W ∂W ∂ |r2 − r1 | = = (1) (1) ∂ |r2 − r1 | ∂x(1) ∂ |r2 − r1 | ∂xi ∂xi i (1) (2) (1) (2) ∂ (1) (2) 2 xk − xk − x x x − x δik (1) k k k k ∂W ∂W ∂xi r r = = ∂ |r2 − r1 | ∂ |r2 − r1 | (1) (1) (2) (1) (2) (2) (1) (2) 2 xm − xm xm − xm xm − xm xm − xm ∂W
(1)
∂xi
(1)
=
(2)
xi − xi ∂W ∂ |r2 − r1 | |r2 − r1 | (2)
similarmente se calcula ∂W/∂xi
∂W (1)
∂xi
=
(1)
(2)
(2)
(1)
xi − xi ∂W ∂ |r2 − r1 | ∂W = ∂ |r2 − r1 | ∂x(1) ∂ |r2 − r1 | |r2 − r1 | i
∂W (2)
∂xi
se obtiene entonces
=
xi − xi ∂W ∂ |r2 − r1 | ∂W = (2) ∂ |r2 − r1 | ∂x ∂ |r2 − r1 | |r2 − r1 |
(16.7)
i
reemplazando (16.7) en (16.6), resulta [L3 , H] =
por tanto tenemos que
h ~ 1 ∂W (1) (1) (2) (1) (1) (2) x1 x2 − x2 − x2 x1 − x1 i |r2 − r1 | ∂ |r2 − r1 | i (2) (2) (1) (2) (2) (1) +x1 x2 − x2 − x2 x1 − x1 [L3 , H] = 0
y similarmente para las otras componentes. En consecuencia podemos escribir [L, H] = 0 ; L ≡ L(1) + L(2)
(16.8)
De modo que aunque L(1) y L(2) no son individualmente constantes de movimiento, s´ı lo es su suma L(1) + L(2) definida como el momento total del sistema, al igual que en el caso cl´ asico.
16.2.2.
Una part´ıcula con esp´ın bajo una interacci´ on central
En lo anterior asumimos que las part´ıculas no tienen esp´ın. Vamos a tomar como segundo ejemplo a una part´ıcula con esp´ın sujeta a una interacci´ on de tipo central. El Hamiltoniano para una part´ıcula sin esp´ın sometida a una fuerza central Ec. (12.27), conmuta con el momento angular orbital L de la part´ıcula, y como todos los operadores de esp´ın conmutan con todos los operadores orbitales, entonces S tambi´en conmuta con el Hamiltoniano. Por tanto, L y S son cada una constantes de movimiento, cuando el Hamiltoniano de una part´ıcula bajo una fuerza
´ ´ 16.2. MOMENTO ANGULAR TOTAL EN MECANICA CUANTICA
407
central es puramente orbital. Sin embargo, puede demostrarse que las correcciones relativistas introducen en el Hamiltoniano un acoplamiento esp´ın-´ orbita que es un t´ermino de la forma HSO = ξ (r) L · S siendo ξ (r) una funci´ on conocida de la variable r. Por el momento no analizaremos la procedencia f´ısica de este t´ermino, pero s´ı sus consecuencias. El Hamiltoniano ahora es H ′ = H + ξ (r) L · S Y se puede ver que ni L ni S conmutan con el nuevo Hamiltoniano L3 , H ′ = [L3 , H + HSO ] = [L3 , HSO ] = ξ (r) [L3 , L1 S1 + L2 S2 + L3 S3 ] L3 , H ′ = ξ (r) [L3 , L1 S1 + L2 S2 ] = ξ (r) [L3 , L1 ] S1 + ξ (r) [L3 , L2 ] S2 L3 , H ′ = i~ξ (r) {L2 S1 − L1 S2 }
similarmente
vemos entonces que
S3 , H ′ S3 , H
′
S3 , H
′
= [S3 , HSO ] = ξ (r) [S3 , L1 S1 + L2 S2 + L3 S3 ] = ξ (r) [S3 , L1 S1 + L2 S2 ] = ξ (r) L1 [S3 , S1 ] + ξ (r) L2 [S3 , S2 ] = i~ξ (r) {L1 S2 − L2 S1 } = − L3 , H ′
S 3 + L3 , H ′ = 0
e igualmente para las otras componentes. De esto se deduce que J≡L+S
es una constante de movimiento a pesar de que L y S no lo son. Llamaremos a J el momento angular total del sistema.
16.2.3.
An´ alisis general de dos momentos angulares asociados a una fuerza central
Hay varias semejanzas entre los dos ejemplos realizados. En ambos tenemos dos momentos angulares parciales J(1) y J(2) que conmutan entre s´ı. En ambos casos conocemos una base {|j1 , j2 ; m1 , m2 i} de autovectores de (1)
(2)
J2(1) , J3 , J2(2) , J3 . Tambi´en ocurre en los dos ejemplos que cada momento angular no es constante de movimiento (cuando los subsistemas uno y dos se acoplan) pero su suma s´ı lo es, definiendo J ≡ J(1) + J(2) (1)
(2)
J conmuta con el Hamiltoniano del sistema. N´ otese que la base de autovectores (conocida) de J2(1) , J3 , J2(2) , J3 (1)
(2)
no diagonaliza al Hamiltoniano puesto que ´este no conmuta con J3 ni con J3 . En contraste J2 y J3 s´ı conmutan con el Hamiltoniano, por tanto una base com´ un de J2 y J3 har´ a que la matriz del Hamiltoniano sea diagonal por 1 bloques , tantos bloques como autosubespacios asociados a los conjuntos de autovalores de J2 y J3 . Por tanto, la estructura de la matriz ser´ a m´ as simple en la base de vectores propios comunes a J2 y J3 que en la base de (1) (2) vectores comunes a J2(1) , J3 , J2(2) , J3 . (1)
(2)
Puesto que el punto de partida es la base conocida de vectores propios comunes de J2(1) , J3 , J2(2) , J3 nuestra tarea ser´ a entonces constru´ır a partir de ´esta, una nueva base de vectores comunes a J2 y J3 , esto nos enfrentar´ a con el problema de las reglas de adici´ on o composici´ on de los momentos angulares J(1) y J(2) . Comenzaremos por analizar algunas propiedades generales de la adici´ on de dos momentos angulares. 1
De hecho existir´ a una base que diagonaliza a los tres operadores simult´ aneamente.
´ DE MOMENTOS ANGULARES CAP´ITULO 16. ADICION
408
16.3.
La adici´ on de dos momentos angulares es otro momento angular
Si tenemos dos momentos angulares arbitrarios J(1) y J(2) ambos sobre espacios diferentes, la suma (de los operadores extendidos) es tambi´en un momento angular. Como cada J(α) es un momento angular, se tiene que h i h i (1) (1) (1) (2) (2) (2) Ji , Jj = iεijk Jk ; Ji , Jj = iεijk Jk ahora se tiene que
i h i h i (2) (1) (2) (1) (1) (2) (2) (1) (2) + Ji , Jj + Jj = Ji , Jj + Jj + Ji , Jj + Jj i h i h i h i h (1) (1) (1) (2) (2) (1) (2) (2) [Ji , Jj ] = Ji , Jj + Ji , Jj + Ji , Jj + Ji , Jj
[Ji , Jj ] =
h
(1)
Ji
dado que los momentos angulares J(1) y J(2) conmutan por ser de espacios diferentes, se tiene que h i h i h i (1) (1) (2) (2) (1) (2) (1) (2) [Ji , Jj ] = Ji , Jj + Ji , Jj = iεijk Jk + iεijk Jk = iεijk Jk + Jk [Ji , Jj ] = iεijk Jk
lo cual muestra que si J(1) y J(2) son dos momentos angulares arbitrarios que conmutan entre s´ı, entonces el operador J ≡ J(1) + J(2) tambi´en es un momento angular. Todas las propiedades generales de un momento angular ser´ an v´alidas entonces para J. Tendremos adem´ as otras propiedades para conmutadores mixtos (que involucren por ejemplo un momento angular total y un momento angular parcial). En particular, veamos las propiedades de conmutaci´on de J2 2 J2 = J(1) + J(2) = J2(1) + J2(2) + 2J(1) · J(2) (16.9)
donde hemos tenido en cuenta que J(1) y J(2) conmutan. El producto escalar se puede expresar en t´erminos de los (1) (2) (1) (2) operadores escalera J± , J± y los operadores J3 y J3 . (1) (2)
(1) (2)
(1) (2)
J(1) · J(2) = J1 J1 + J2 J2 + J3 J3 1 (1) 1 (1) (1) (2) (2) (1) (2) (2) (1) (2) = J+ + J− J+ + J− + 2 J+ − J− J+ − J− + J3 J3 4 4i 1 h (1) (2) (1) (2) (1) (2) (1) (2) (1) (2) (1) (2) = J J + J+ J− + J− J+ + J− J− − J+ J+ + J+ J− 4 + + i (1) (2)
J(1) · J(2) =
(1) (2)
(16.10)
(1) (2)
+J− J+ − J− J− + J3 J3 1 (1) (2) (1) (2) (1) (2) J+ J− + J− J+ + J3 J3 2
La idea ahora es comparar los conjuntos conmutantes n o (1) (2) J2(1) , J3 , J2(2) , J3 ; J2 , J3
(16.11)
(16.12)
con el fin de averiguar si al conjunto J2 , J3 de variables conmutantes, le podemos agregar algunos momentos angulares parciales de modo que a´ un formen un conjunto conmutante. Es claro que el primer conjunto de operadores en (16.12) consiste de momentos angulares parciales y el segundo de momentos angulares totales. Puesto que J(1) y J(2) conmutan con J2(1) y J2(2) , tambi´en conmuta J h
i h i J, J2(1) = J, J2(2) = 0
´ DE DOS MOMENTOS ANGULARES CON J(1) = J(2) = 1/2 16.4. ADICION
409
en particular J2 y J3 conmutan con J2(1) y J2(2) h
i J3 , J2(2) = 0 h i h i J2 , J2(1) = J2 , J2(2) = 0 J3 , J2(1)
(1)
i
=
h
(16.14)
(2)
por otro lado, es obvio que J3 conmuta con J3 y J3 h i h i (1) (2) J3 , J3 = J3 , J3 =0 (1)
(16.13)
(16.15)
(2)
pero J2 no conmuta ni con J3 ni con J3 , lo cual vemos usando (16.9, 16.10) h i h i h i (1) (1) (1) J2 , J3 = J2(1) + J2(2) + 2J(1) · J(2) , J3 = 2 J(1) · J(2) , J3 h i h i h i h i (1) (1) (2) (1) (2) (1) (1) (2) (1) (1) (2) (1) J2 , J3 = 2 J1 J1 + J2 J2 , J3 = 2 J1 J1 , J3 + 2 J2 J2 , J3 h i h i h i h i (1) (2) (1) (1) (1) (2) (1) (2) (1) (1) (1) (2) = 2J1 J1 , J3 + 2 J1 , J3 J1 + 2J2 J2 , J3 + 2 J2 , J3 J2 h i (1) (1) (2) (1) (2) J2 , J3 = −2i~J2 J1 + 2i~J1 J2
quedando finalmente
h
(1)
J2 , J3
i
h i (1) (2) (1) (2) = 2i~ J1 J2 − J2 J1
i
=0 ⇒
y puesto que J es un momento angular, se cumple que 2 J ,J = 0
y por tanto
h
(1)
(2)
J2 , J3 + J3
h
(1)
J2 , J3
i
(16.16)
h i (2) = − J2 , J3
el an´alisis anterior nos muestra que el siguiente conjunto de operadores conmuta entre s´ı n o J2 , J3 , J2(1) , J2(2)
Abordaremos inicialmente el problema de la adici´ on de dos momentos angulares con j(1) = j(2) = 1/2.
16.4.
Adici´ on de dos momentos angulares con j(1) = j(2) = 1/2 (k)
Cada espacio E1/2 asociado a j(k) fijo, es un espacio de dos dimensiones. Por tanto, su producto tenso(1)
(2)
rial E = E 1/2 ⊗ E1/2 ser´ a de 4 dimensiones. Denotaremos a la base ortonormal “natural” en este espacio por {|ε1 i ⊗ |ε2 i} ≡ {|ε1 , ε2 i} y en forma expl´ıcita escribimos {|ε1 , ε2 i} = {|+, +i , |+, −i , |−, +i , |−, −i} (1)
(16.17)
(2)
estos vectores son autoestados de los observables J2(1) , J3 , J2(2) , J3 . Estrictamente estos operadores deben ser las extensiones tensoriales de los operadores originales. J2(1) |ε1 , ε2 i = J2(2) |ε1 , ε2 i =
3 2 ~ |ε1 , ε2 i 4
~ ~ (1) (2) J3 |ε1 , ε2 i = ε1 |ε1 , ε2 i ; J3 |ε1 , ε2 i = ε2 |ε1 , ε2 i 2 2
(16.18) (16.19)
´ DE MOMENTOS ANGULARES CAP´ITULO 16. ADICION
410 el conjunto
(1)
(2)
J2(1) , J3 , J2(2) , J3 (1)
(16.20)
(2)
forma para el espacio E = E 1/2 ⊗ E1/2 , un C.S.C.O. “natural”, en el sentido de que este es el C.S.C.O. que se desprende de la base a compuesta por vectores propios n “natural” de E. oEn otras palabras, la base (16.17) est´ (1) 2 (2) 2 2 2 comunes al C.S.C.O. J(1) , J3 , J(2) , J3 . Estrictamente J(1) , J(2) pueden ser exclu´ıdos ya que son proporcionales a la identidad2 . Tambi´en hemos visto que los 4 observables
J2(1) , J2(2) , J2 , J3
(16.21) (1)
(2)
conmutan entre s´ı. Veremos ahora que este conjunto tambi´en es un C.S.C.O. en E = E 1/2 ⊗ E1/2 . Adicionar dos momentos angulares implica constru´ır el sistema ortonormal de autovectores comunes al conjunto (16.21). Este (1) (2) conjunto diferir´ a de (16.17) ya que J2 no conmuta con J3 , J3 . Denotaremos los vectores de la nueva base en la forma |J, M i donde los autovalores de J2(1) , J2(2) (que permanecen iguales) est´ an impl´ıcitos3 . Estos vectores satisfacen las relaciones 3 J2(1) |J, M i = J2(2) |J, M i = ~2 |J, M i 4 J2 |J, M i = J (J + 1) ~2 |J, M i
(16.22) (16.23)
J3 |J, M i = M ~ |J, M i
(16.24)
ya que J es un momento angular, entonces J debe ser entero o semientero no negativo, M debe estar entre −J y J variando en saltos unidad. El problema es entonces encontrar los valores que J y M pueden tomar con base en los valores de j1 , j2 y m1 , m2 , as´ı como expresar la base {|J, M i} en t´erminos de la base conocida (16.17). A continuaci´ on resolveremos el problema diagonalizando las matrices 4×4 que representan a J2 y a J3 en la base {|ε1 , ε2 i}. M´as adelante se emplear´ a un m´etodo m´ as general que se puede usar en espacios vectoriales de dimensi´ on arbitraria.
16.4.1.
Autovalores de J3 y su degeneraci´ on (1)
(2)
N´ otese que para los observables J2(1,2) todos los vectores en el espacio E = E 1/2 ⊗ E1/2 son autovectores, por tanto |J, M i ya son autovectores de estos observables. Por otro lado, las Ecs. (16.13, 16.15) nos dicen que J3 conmuta con los cuatro observables del C.S.C.O. dados por la Ec. (16.20). Por tanto, esperamos que los vectores base {|ε1 , ε2 i} sean autom´ aticamente autovectores de J3 . Usando (16.19) se encuentra que ~ (1) (2) J3 |ε1 , ε2 i = J3 + J3 |ε1 , ε2 i = (ε1 + ε2 ) |ε1 , ε2 i 2
vemos entonces que |ε1 , ε2 i es autovector de J3 con autovalor M~ =
1 (ε1 + ε2 ) ~ 2
(16.25)
puesto que ε1 y ε2 toman los valores ±1, vemos que M toma los valores +1, 0, −1. 2
N´ otese que la ecuaci´ on (16.18) nos dice que J2(1) = J2(2) , entendidos como extensiones sobre el espacio tensorial, ya que act´ uan de manera id´entica sobre todos los elementos de la base. Esto tambi´en se puede ver teniendo en cuenta que ambos son proporcionales a la identidad en sus respectivos espacios, y con la misma constante de proporcionalidad. En consecuencia, sus extensiones son 2 2 (1) J(1) = 3/4~ E ⊗ E (2) y J2(2) = E (1) ⊗ 3/4~2 E (2) de modo que J2(1) = J2(2) = 3/4~2 E (1×2) . 3 La notaci´ on completa ser´ıa J, M j(1) , j(2) = |J, M (1/2, 1/2)i.
´ DE DOS MOMENTOS ANGULARES CON J(1) = J(2) = 1/2 16.4. ADICION
411
Los valores M = ±1 son no degenerados. Solo un autovector corresponde a cada uno de ellos: |+, +i corresponde a +1 y |−, −i corresponde a −1. En otras palabras para que M = +1 solo hay una posibilidad ε1 = ε2 = +1, el caso M = −1 solo es posible si ε1 = ε2 = −1. En contraste, M = 0 tiene degeneraci´ on dos, a ´el corresponden los estados |+, −i y |−, +i. Esto se traduce en que hay dos soluciones para M = 0, ε1 = −ε2 = 1 y ε1 = −ε2 = −1. Cualquier combinaci´ on lineal de los vectores |+, −i y |−, +i es un autoestado de J3 con autovalor M = 0. Estos resultados se ven claramente en la representaci´ on matricial de J3 en la base {|ε1 , ε2 i}. Ordenando los vectores en la forma de la Ec. (16.17) esta matriz es
1 0 (J3 ) = ~ 0 0
16.4.2.
0 0 0 0 0 0 0 −1
0 0 0 0
Diagonalizaci´ on de J2
Aplicaremos J2 a los vectores de la base (16.17), para lo cual usaremos las Ecs. (16.9, 16.11) 2 (1) (2) (1) (2) (1) (2) J2 = J(1) + J(2) = J2(1) + J2(2) + J+ J− + J− J+ + 2J3 J3 (1)
(2)
los 4 vectores |ε1 , ε2 i son autovectores de J2(1) , J2(2) , J3 y J3 como se v´e en la Ecs. (16.18, 16.19), y la acci´ on 2 de los operadores escalera viene dada por la Ecs. (15.12), por tanto podemos evaluar J |ε1 , ε2 i para todos los elementos de la base {|ε1 , ε2 i} 2
J |+, +i =
3 2 3 2 1 ~ + ~ |+, +i + ~2 |+, +i 4 4 2
= 2~2 |+, +i 3 2 3 2 1 2 J |+, −i = ~ + ~ |+, −i − ~2 |+, −i + ~2 |−, +i 4 4 2
(16.26)
= ~2 [|+, −i + |−, +i] 3 2 3 2 1 J2 |−, −i = ~ + ~ |−, −i + ~2 |−, −i 4 4 2
(16.28)
= ~2 [|+, −i + |−, +i] 3 2 3 2 1 2 J |−, +i = ~ + ~ |−, +i − ~2 |−, +i + ~2 |+, −i 4 4 2
= 2~2 |−, −i
(16.27)
(16.29)
la matriz representativa de J2 en la base {|ε1 , ε2 i} en el orden dado por (16.17) est´ a dada por
2 0 J2 = ~2 0 0
0 1 1 0
0 1 1 0
0 0 0 2
puesto que J2 conmuta con J3 , la matriz tendr´ a elementos no cero solo entre autovectores de J3 asociados con el mismo autovalor, lo cual explica los ceros de la matriz. De acuerdo con los resultados de la secci´ on 16.4.1, 2 los u ´nicos elementos no diagonales de J que son diferentes de cero, son aquellos que relacionan a los vectores {|+, −i , |−, +i}, los cuales est´ an asociados al mismo valor de M (M = 0).
412
´ DE MOMENTOS ANGULARES CAP´ITULO 16. ADICION
Ahora para diagonalizar esta matriz podemos tener en cuenta que es diagonal por bloques parti´endose en tres submatrices A1×1 0 0 0 B2×2 0 0 0 C1×1
La matrices unidimensionales son las asociadas a los vectores |±, ±i que son autovectores de J2 , como se v´e en las Ecs. (16.26, 16.29). Los autovalores asociados son 2~2 . Ahora debemos diagonalizar la submatriz 1 1 B2×2 = ~2 1 1 que representa a J2 dentro del subespacio dos dimensional generado por {|+, −i , |−, +i}, es decir el autosubespacio de J3 que corresponde a M = 0. Los autovalores λ~2 = J (J + 1) ~2 de esta matriz se encuentran con la ecuaci´ on caracter´ıstica (1 − λ)2 − 1 = 0 cuyas ra´ıces son λ = 0 y λ = 2. Esto nos da los u ´ltimos autovalores de J2 : 0 y 2~2 , es decir J = 0 y 1. Los autovectores nos dan |J = 1, M = 0i = |J = 0, M = 0i =
1 √ [|+, −i + |−, +i] 2 1 √ [|+, −i − |−, +i] 2
(16.30) (16.31)
como siempre, se puede colocar una fase global si se desea. Vemos entonces que J2 tiene dos autovalores diferentes: 0 y 2~2 . El autovalor nulo es no degenerado y tiene on triple, ya que est´ a como u ´nico vector asociado a (16.31). Por otro lado, el valor propio 2~2 tiene degeneraci´ asociado a los vectores |+, +i , |−−i y a la combinaci´ on lineal (16.30).
16.4.3.
Autoestados de J2 y J3 : singlete y triplete
Hemos obtenido entonces los autovalores de J2 y J3 as´ı como un conjunto completo de autovectores comunes de J2 y J3 (que autom´ aticamente son autoestados de J2(1) y J2(2) ). Expresaremos los autoestados en la notaci´ on (16.22-16.24). El n´ umero cu´ antico J de (16.23) puede tomar dos valores: 0 y 1. El primero est´ a asociado con un u ´nico vector, que es tambi´en autovector de J3 con autovalor cero, el cual denotamos por 1 |0, 0i = √ [|+, −i − |−, +i] 2
(16.32)
en tanto que para J = 1 hay tres vectores asociados con tres valores distintos de M 1 |1, 1i = |+, +i ; |1, 0i = √ [|+, −i + |−, +i] ; |1, −1i = |−−i 2
(16.33)
se puede chequear f´ acilmente que los cuatro vectores dados en (16.32, 16.33) son ortonormales. La especificaci´ on 2 de J y M determina a un vector de esta base un´ıvocamente, de modo que J y J3 forman un C.S.C.O.. Aunque no es necesario, a este C.S.C.O se le pueden agregar los operadores J2(1) y J2(2) . Por tanto cuando adicionamos dos momentos angulares con j1 = j2 = 1/2 (por ejemplo dos esp´ınes), el n´ umero J que caracteriza al autovalor J (J + 1) ~2 del operador J2 puede ser igual a cero o igual a uno. Con cada uno de estos valores se asocia una familia de (2J + 1) vectores ortogonales (tres para J = 1, uno para J = 0) que corresponden a los 2J + 1 valores de M para J fijo.
´ ´ DE DOS MOMENTOS ANGULARES ARBITRARIOS 16.5. METODO GENERAL DE ADICION
413
A la familia (16.33) de tres vectores asociados a J = 1 se le denomina un triplete. Al vector |0, 0i asociado a J = 0 se le denomina un singlete. La Ec. (16.33) nos muestra que los estados del triplete son sim´etricos con respecto al intercambio de dos momentos angulares (por ejemplo esp´ınes), en tanto que el estado singlete Ec. (16.32) es antisim´etrico. Es decir si cada vector |ε1 , ε2 i se reemplaza por |ε2 , ε1 i, las expresiones (16.33) permanecen invariantes en tanto que (16.32) cambia de signo. Esto tendr´ a gran importancia cuando las part´ıculas cuyos espines se adicionan sean id´enticas. Adem´ as esto nos indica la combinaci´ on lineal de |+, −i con |−, +i que se requiere para completar el triplete (debe ser sim´etrica). La parte singlete ser´ıa entonces la combinaci´ on lineal antisim´etrica de |+, −i con |−, +i la cual es ortogonal a la parte sim´etrica y por supuesto a los dem´ as estados del triplete.
16.5.
M´ etodo general de adici´ on de dos momentos angulares arbitrarios
Consideraremos un sistema f´ısico descrito por el espacio E, y J un momento angular relativo a este sistema. J puede ser un momento angular parcial o el momento angular total del sistema. Vimos en la secci´ on 10.4.1, que 2 siempre es posible constru´ır una base est´ andar {|j, m, ki} compuesta de autovectores comunes a J y J3 J2 |j, m, ki = j (j + 1) ~2 |j, m, ki ; J3 |j, m, ki = m~ |j, m, ki
(16.34)
de modo que la acci´ on de los operadores escalera sobre esta base est´ andar est´ a dada por las Ecs. (10.47) p J± |j, m, ki = ~ j (j + 1) − m (m ± 1) |j, m ± 1, ki
(16.35)
denotamos como E (j, k) al autosubespacio expandido por vectores de la base est´ andar con j, k fijos. Este espacio es de dimensi´ on 2j + 1 correspondiente a los valores de m para un j dado. La dimensi´ on no depende de k. Las Ecs. (16.34, 16.35) nos dicen que los 2j + 1 vectores de la base para E (j, k) se transforman entre s´ı por medio de los operadores J2 , J3 , J+ , J− . Es decir, el autosubespacio E (j, k) es globalmente invariante bajo estos cuatro operadores y m´ as en general es globalmente invariante bajo la acci´ on de una funci´ on F (J). El espacio completo E se puede escribir como una suma directa de subespacios ortogonales E (j, k) como se v´e en la Ec. (10.46) E
= E (j1 , k = 1) ⊕ E (j1 , k = 2) ⊕ . . . ⊕ E (j1 , k = g (j1 )) ⊕ E (j2 , k = 1) ⊕ E (j2 , k = 2) ⊕ . . . ⊕ E (j2 , k = g (j2 )) ⊕
E (j3 , k = 1) ⊕ E (j3 , k = 2) ⊕ . . . ⊕ E (j3 , k = g (j3 )) ⊕ . . .
(16.36)
debido a la invariancia de estos subespacios bajo los operadores J2 , J3 , J+ , J− , F (J) estos operadores tendr´ an una representaci´ on matricial en la base est´ andar donde los elementos matriciales no nulos est´ an dentro de cada subespacio E (j, k). Adem´ as dentro de cada subespacio E (j, k) los elementos de matriz de una funci´ on del tipo F (J) son independientes de k. Recordemos adem´ as que si a J2 y J3 le agregamos los operadores necesarios para formar un C.S.C.O. podemos dar un significado f´ısico a k construyendo los vectores propios comunes a todo el C.S.C.O. si por ejemplo solo se requiere un operador A para formar el C.S.C.O. y asumimos que A conmuta con J (escalar), podemos requerir que los autovectores |j, m, ki tambi´en sean autovectores de A A |j, m, ki = aj,k |j, m, ki
(16.37)
de modo que la base est´ andar {|j, m, ki} estar´ a determinada por las Ecs. (16.34, 16.35, 16.37). Cada E (j, k) es tambi´en autosubespacio de A y el ´ındice k discrimina entre los diferentes autovalores aj,k asociados a cada valor de k. Cuando se requiere m´ as de un operador para formar el C.S.C.O. el ´ındice k corresponde realmente a varios ´ındices.
´ DE MOMENTOS ANGULARES CAP´ITULO 16. ADICION
414
16.5.1.
Formaci´ on del sistema a partir de dos subsistemas
Asumamos que nuestro sistema f´ısico se forma por la uni´ on de dos subsistemas (por ejemplo un sistema de dos part´ıculas o la uni´ on del sistema orbital con el de esp´ın para una sola part´ıcula). Usaremos los ´ındices (1) y (2) para denotar cantidades relativas a cada subsistema. Asumiremos que para el espacio de estados E1 del subsistema (1) conocemos una base est´ andar {|j1 , m1 , k1 i} (1) 2 de vectores propios comunes a J(1) y J3 siendo J(1) el momento angular asociado al subsistema (1) por tanto las Ecs. (16.34, 16.35) nos dan (1)
J2(1) |j1 , m1 , k1 i = j1 (j1 + 1) ~2 |j1 , m1 , k1 i ; J3 |j1 , m1 , k1 i = m1 ~ |j1 , m1 , k1 i p (1) J± |j1 , m1 , k1 i = ~ j1 (j1 + 1) − m1 (m1 ± 1) |j1 , m1 ± 1, k1 i
y similarmente para la base est´ andar {|j2 , m2 , k2 i} del espacio E2 asociado al subsistema (2) (2)
J2(2) |j2 , m2 , k2 i = j2 (j2 + 1) ~2 |j2 , m2 , k2 i ; J3 |j2 , m2 , k2 i = m2 ~ |j2 , m2 , k2 i p (2) J± |j2 , m2 , k2 i = ~ j2 (j2 + 1) − m2 (m2 ± 1) |j2 , m2 ± 1, k2 i
el espacio de estados del sistema completo es el producto tensorial de los espacios E1 y E2 E = E1 ⊗ E2
y sabemos que el producto tensorial de las bases de E1 y E2 formar´ a una base en E. Denotamos esta base como |j1 , m1 , k1 i ⊗ |j2 , m2 , k2 i ≡ |j1 , j2 ; m1 , m2 ; k1 , k2 i
(16.38)
los espacios E1 y E2 son sumas directas de subespacios del tipo E1 (j1 , k1 ) y E2 (j2 , k2 ) respectivamente. Estas sumas est´ an descritas por la Ec. (16.36) (1) (1) (1) (1) E1 = E1 j1 , k(1) = 1 ⊕ E1 j1 , k(1) = 2 ⊕ . . . ⊕ E1 j1 , k(1) = g j1 ⊕ (1) (1) (1) (1) E1 j2 , k(1) = 1 ⊕ E1 j2 , k(1) = 2 ⊕ . . . ⊕ E1 j2 , k(1) = g j2 ⊕ (1) (1) (1) (1) E1 j3 , k(1) = 1 ⊕ E1 j3 , k(1) = 2 ⊕ . . . ⊕ E1 j3 , k(1) = g j3 ⊕ ... (16.39) (m)
y similarmente para el sistema (2). En este caso la notaci´ on ji representa diversos valores de j para el subsistema m. No obstante, esta notaci´ on no ser´ a necesaria de aqu´ı en adelante y usaremos jm para denotar el valor de j asociado al subsistema m. Estas sumas las resumimos en la forma X X E1 = E1 (j1 , k1 ) ; E2 = E2 (j2 , k2 ) ⊕
⊕
por lo tanto E ser´ a la suma directa de subespacios E (j1 , j2 ; k1 , k2 ) obtenido por el producto tensorial de los subespacios E1 (j1 , k1 ) y E2 (j2 , k2 ) E=
X ⊕
E (j1 , j2 ; k1 , k2 ) ; E (j1 , j2 ; k1 , k2 ) = E1 (j1 , k1 ) ⊗ E2 (j2 , k2 )
(16.40)
a globalmente invariante ante la dimensi´ on del subespacio E (j1 , j2 ; k1 , k2 ) es (2j1 + 1) (2j2 + 1). Este subespacio ser´ cualquier funci´ on de F (J1 ) y F (J2 ), donde naturalmente J1 y J2 son las extensiones de los operadores definidos originalmente en cada subsistema.
´ ´ DE DOS MOMENTOS ANGULARES ARBITRARIOS 16.5. METODO GENERAL DE ADICION
16.5.2.
415
Momento angular total y sus relaciones de conmutaci´ on
Vimos en la secci´ on 16.3 que la suma de los momentos angulares J = J(1) + J(2) es tambi´en un momento angular siendo J(1) y J(2) las extensiones adecuadas. Por tanto J al igual que J(1) y J(2) satisface las propiedades algebr´ aicas de un momento angular. No obstante, tambi´en hay algunas relaciones de conmutaci´ on entre momentos angulares totales y parciales que son de importancia en nuestra discusi´ on (ver secci´ on 16.3). Vimos que J(1) y J(2) conmutan con J2(1) y J2(2) y por tanto tambi´en con J. En particular J2 y J3 (1)
conmutan con J2(1) y J2(2) . Adem´ as es inmediato que J3
(1)
sin embargo, J3
h
(2)
y J3
conmutan con J3 , por tanto
i h i h i h i h i h i (1) (2) J3 , J2(1) = J3 , J2(2) = J2 , J2(1) = J2 , J2(2) = J3 , J3 = J3 , J3 = 0 (2)
y J3
no conmutan con J2 lo cual se pudo ver partiendo de las Ecs. (16.9, 16.11) J2 = J2(1) + J2(2) + 2J(1) · J(2) J2 = J2(1) + J2(2) +
(1) (2) 2J3 J3
+
(16.42) (1) (2) J+ J−
+
(1) (2) J− J+
con lo cual se llega a la Ec. (16.16) h i h i h i (1) (2) (1) (2) (1) (2) J2 , J3 = − J2 , J3 = 2i~ J1 J2 − J2 J1
16.5.3.
(16.41)
(16.43)
(16.44)
Cambio de base a realizar
Un vector de la base {|j1 , m1 , k1 i ⊗ |j2 , m2 , k2 i} ≡ {|j1 , j2 ; m1 , m2 ; k1 , k2 i}
(16.45)
es autoestado simult´ aneo de los observables (1)
(2)
J2(1) , J2(2) , J3 , J3
con autovalores j1 (j1 + 1) ~2 , j2 (j2 + 1) ~2 , m1 ~, m2 ~. Se observa entonces que la base (16.45) es adecuada para el estudio de los momentos angulares individuales J(1) y J(2) de cada subsistema. Ahora bien, las Ecs. (16.41) nos dicen que el conjunto de observables J2(1) , J2(2) , J2 , J3 tambi´en conmutan entre s´ı. Obs´ervese que si constru´ımos una base com´ un a estos observables, ser´ıa m´ as adecuada para el estudio del momento angular total del sistema ya que un vector de esta base permitir´ıa extraer los valores propios de J2 y J3 . Esta base debe ser diferente a la anterior puesto que seg´ un la Ec. (16.44), J2 no conmuta con (1) (2) J3 ni con J3 . Una motivaci´ on adicional para encontrar una base com´ un a J2 y J3 , es el hecho de que para un sistema sujeto a una interacci´ on central que posee dos momentos angulares acoplados, se tiene que J total es constante de movimiento aunque los momentos angulares parciales no lo son (ver secciones 16.2.1, 16.2.2, 16.2.3). Adem´ as los n´ındices k1 y ko2 tienen un significado f´ısico que es extensi´ on natural del procedimiento para cada (1) 2 subsistema. Si A1 , J(1) , J3 forma un C.S.C.O. en E1 donde A1 conmuta con J(1) entonces podemos escoger una base est´ andar {|j1 , m1 , k1 i} consistente en los vectores ortonormales completos comunes a estos observables. n o (2) 2 Si algo similar ocurre con un conjunto de observables A2 , J(2) , J3 en E2 entonces el conjunto (1)
(2)
A1 , A2 ; J2(1) , J2(2) ; J3 , J3
´ DE MOMENTOS ANGULARES CAP´ITULO 16. ADICION
416
forma un C.S.C.O. en E cuyos autovectores est´ an dados por la Ec. (16.45). Por otro lado, puesto que A1 conmuta con J(1) y con J(2) entonces conmutar´ a con J. Esto a su vez implica que A1 conmuta con J2 y J3 . Lo mismo ocurre para el observable A2 , por tanto los observables en el conjunto A1 , A2 ; J2(1) , J2(2) ; J2 , J3 conmutan entre ellos. Puede demostrarse que adem´ as forman un C.S.C.O. y la nueva base que buscaremos es un sistema ortonormal de vectores propios comunes de este C.S.C.O. Ahora bien, el subespacio E (j1 , j2 ; k1 , k2 ) definido en (16.40) es globalmente invariante bajo la acci´ on de un operador que sea funci´ on de J(1) o que sea funci´ on de J(2) . Por tanto, es globalmente invariante ante la acci´ on de un F (J). Esto implica que los observables J2 y J3 que pretendemos diagonalizar, tienen elementos matriciales no nulos solo dentro de cada espacio E (j1 , j2 ; k1 , k2 ). Las matrices de dimensi´ on infinita que representan a J2 y J3 en la base (16.45) son diagonales por bloques y se pueden escribir como suma directa de submatrices cada una asociado a un subespacio de la forma E (j1 , j2 ; k1 , k2 ). Por tanto, el problema se reduce a diagonalizar las submatrices asociadas a cada subespacio E (j1 , j2 ; k1 , k2 ) cuya dimensi´ on es (2j1 + 1) (2j2 + 1). Por otro lado, los elementos matriciales en la base (16.45) para cualquier funci´ on F J(1) ´o F J(2) son independientes de k1 y k2 (solo los elementos matriciales de A1 dependen de k1 y los de A2 dependen de k2 ). Por tanto, esto tambi´en vale para J2 y J3 . En consecuencia, la diagonalizaci´ on de estos dos operadores dentro de todos los subespacios E (j1 , j2 ; k1 , k2 ) con el mismo valor de j1 y j2 , se realiza de forma id´entica. Por esta raz´ on hablamos de adici´ on de los momentos angulares sin hacer referencia a los otros n´ umeros cu´ anticos. Simplificaremos la notaci´ on omitiendo los ´ındices k1 y k2 escribiendo entonces E (j1 , j2 ) ≡ E (j1 , j2 ; k1 , k2 )
;
|j1 , j2 ; m1 , m2 i ≡ |j1 , j2 ; m1 , m2 ; k1 , k2 i
puesto que J es un momento angular y E (j1 , j2 ) es invariante ante F (J) entonces E (j1 , j2 ) es una suma directa de subespacios ortogonales E (J, k) cada uno de los cuales es invariante ante la acci´ on de J2 , J3 , J± X E (j1 , j2 ) = E (J, k) (16.46) ⊕
ales son los valores de J que contribuyen en la de aqu´ı surgen las siguientes preguntas, dado un par j1 y j2 ¿Cu´ suma directa (16.46)? y ¿Cu´ antos subespacios E (J, k) est´ an asociados con un J dado?. Dado que tenemos una base conocida (16.45) esta ser´ a nuestro punto de partida para llegar a la base asociada a J2 y J3 . Surge entonces el problema de expandir los autovectores de la base buscada asociados a E (j1 , j2 ) en t´erminos de los autovectores de la base conocida (16.45). Es importante mencionar que si tenemos m´ as momentos angulares podemos adicionar los dos primeros y al resultado le adicionamos un tercero y as´ı sucesivamente. Esto solo es posible puesto que el algoritmo de suma es conmutativo y asociativo como veremos m´ as adelante.
16.5.4.
Autovalores de J2 y J3 : Caso de dos espines j1 = j2 = 1/2.
En este caso cada espacio E1 y E2 contiene solo un subespacio invariante ya que est´ an asociados cada uno a un valor fijo de j. El producto tensorial E = E1 ⊗ E2 est´ a asociado a un solo subespacio E (j1 , j2 ) con j1 = j2 = 1/2. De acuerdo con la descomposici´ on (16.46), el espacio E (1/2, 1/2) es la suma directa de subespacios del tipo E (J, k) de dimensi´ on 2J + 1. Cada uno de estos subespacios contiene uno y solo un autovector de J3 asociado a cada uno de los valores de M tal que |M | ≤ J. Hemos visto en la secci´ on 16.4.1 que M solo toma los valores 1, 0, −1; donde el primero y el tercero no son degenerados en tanto que M = 0 es doblemente degenerado. De esto se concluye que: 1. Valores de J > 1 est´ an exclu´ıdos. Por ejemplo para que J = 2 fuera posible tendr´ıa que existir al menos un autovector de J3 con M = 2. Esto se debe a que la teor´ıa del momento angular nos dice que para un j dado los valores permitidos de m consisten en todos los valores enteros o semienteros que cubren el intervalo −j ≤ m ≤ j en saltos unidad.
´ ´ DE DOS MOMENTOS ANGULARES ARBITRARIOS 16.5. METODO GENERAL DE ADICION
417
2. E (J = 1, k) aparece solo una vez (es decir k es u ´nico), puesto que M = ±1 solo aparece una vez, es decir M = ±1 es no degenerado. 3. E (J = 0, k) aparece una sola vez. Esto se debe a que M = 0 es dos veces degenerado pero uno de los autovectores con M = 0 est´ a en el subespacio con J = 1, de modo que solo un autovector con M = 0 est´ a asociado a un subespacio con J = 0. Por tanto, el espacio 4-dimensional E (1/2, 1/2) se descompone en subespacios del tipo E (J, k) seg´ un la Ec. (16.46) en la forma 1 1 E , = E (J = 1) ⊕ E (J = 0) 2 2 que son de dimensi´ on 3 y 1 respectivamente. Veremos ahora como extender estas conclusiones al caso general.
16.5.5.
Autovalores de J3 y su degeneraci´ on: Caso general
Figura 16.1: (a) Ilustraci´ on de las reglas de adici´ on para momentos angulares en el caso general. (b) Pares de posibles valores de (m, m′ ) = (m1 , m2 ) para el caso espec´ıfico j = j1 = 2, j ′ = j2 = 1. En ambos casos, los puntos an localizados sobre una l´ınea recta de pendiente −1 asociados con un valor dado de M = m + m′ = m1 + m2 est´ pintada como l´ınea punteada. Hemos supuesto que j = j1 ≥ j ′ = j2 , con lo cual el ancho del rect´ angulo es mayor o igual a su altura. Consideremos un subespacio de la forma E (j1 , j2 ) de dimensi´ on (2j1 + 1) (2j2 + 1). Asumiremos que j1 y j2 est´ an rotulados de modo que j1 ≥ j2 (16.47) los vectores base {|j1 , j2 ; m1 , m2 i} de este subespacio (que se construyen con el producto tensorial de las bases de los espacios factor) ya son autovectores de J3 (1) (2) J3 |j1 , j2 ; m1 , m2 i = J3 + J3 |j1 , j2 ; m1 , m2 i = (m1 + m2 ) ~ |j1 , j2 ; m1 , m2 i ≡ M ~ |j1 , j2 ; m1 , m2 i
de modo que el correspondiente autovalor de M ~ es tal que M = m1 + m2
(16.48)
M = j1 + j2 , j1 + j2 − 1, j1 + j2 − 2, . . . , − (j1 + j2 )
(16.49)
de lo cual, M toma los valores
418
´ DE MOMENTOS ANGULARES CAP´ITULO 16. ADICION
Denotaremos el grado de degeneraci´ on de cada M en el subespacio E (j1 , j2 ), en la forma gj1 ,j2 (M ). Para encontrar esta degeneraci´ on usaremos el siguiente procedimiento geom´etrico: realizamos un diagrama en dos dimensiones asociando a cada vector |j1 , j2 ; m1 , m2 i un par ordenado donde el eje de abcisas se asocia con m1 y el eje de ordenadas con m2 |j1 , j2 ; m1 , m2 i ≡ (m1 , m2 ) todos los puntos asociados a estos vectores est´ an ubicados en el borde o interior de un rect´ angulo cuyos v´ertices est´ an en (j1 , j2 ) , (j1 , −j2 ) , (−j1 , −j2 ) y (−j1 , j2 ). La Fig. 16.1 representa los puntos asociados a una configuraci´ on arbitraria (izquierda) y una configuraci´ on con j1 = 2, j2 = 1 (derecha). Si partimos de un punto dado (vector) del tipo P = (m1 , m2 ) es claro que estados “vecinos” del tipo P± ≡ (m1 ± 1, m2 ∓ 1) poseen el mismo valor de M = m1 + m2 siempre y cuando existan los valores incrementados y decrementados de m1 y m2 . Cuando alguno de los valores incrementados o decrementados no exista, es por que el estado (m1 , m2 ) se encuentra en alguno de los bordes del rect´ angulo (o en una esquina). Para estados P en el interior del rect´ angulo, existe tanto P+ como P− . Dos puntos vecinos definidos con esta relaci´ on est´ an unidos por una recta de pendiente −1 pendiente =
(m2 ∓ 1) − m2 = −1 (m1 ± 1) − m1
En conclusi´ on, los puntos situados a lo largo de las l´ıneas punteadas de las Figs. 16.1a, y 16.1b, de pendiente −1, umero de puntos (vectores) unidos por una corresponden a los vectores con el mismo valor de M = m1 + m2 . El n´ l´ınea define el grado de degeneraci´ on gj1 ,j2 (M ) del valor de M asociado. Consideremos ahora los diferentes valores de M en orden descendente Ec. (16.49). Observaremos el patr´ on de las l´ıneas punteadas a medida que disminuye M . Empezando por el m´ aximo M = j1 + j2 vemos que este valor es no-degenerado, ya que la l´ınea que lo cruza pasa solo por la esquina superior derecha (es en realidad un punto), cuyas coordenadas son (j1 , j2 ). Vemos entonces que gj1 ,j2 (j1 + j2 ) = 1
(16.50)
para el siguiente M = j1 + j2 − 1 la degeneraci´ on es doble (a menos que j1 y/o j2 sean nulos), ya que la l´ınea correspondiente contiene los puntos (j1 , j2 − 1) y (j1 − 1, j2 ). Entonces gj1 ,j2 (j1 + j2 − 1) = 2 ,
si j1 6= 0 y j2 6= 0
(16.51)
La degeneraci´ on aumenta una unidad por cada decremento de M en una unidad, hasta que se alcanza la esquina inferior derecha (j1 , −j2 ) del rect´ angulo4 , que corresponde al valor M = j1 − j2 ≥ 0 ya que suponemos siempre que j1 ≥ j2 . El n´ umero de puntos llega entonces a su m´ aximo (que es el n´ umero de puntos que miden “la altura” del rect´ angulo) y es igual a gj1 ,j2 (j1 − j2 ) = 2j2 + 1 (16.52) si continuamos decrementando M , el n´ umero de puntos permanece constante en 2j2 + 1 siempre que la l´ınea asociada a M cruce al rect´ angulo tocando sus lados superior (m2 = j2 ) e inferior (m2 = −j2 ). Esto ocurre hasta que la l´ınea asociada alcanza la esquina superior izquierda (−j1 , j2 ) del rect´ angulo, para el cual M = −j1 + j2 ≤ 0. Por tanto, el n´ umero m´ aximo de puntos 2j2 + 1 se mantiene en un intervalo para M dado por gj1 ,j2 (M ) = 2j2 + 1 para
− (j1 − j2 ) ≤ M ≤ j1 − j2
(16.53)
finalmente, para valores de M menores que − (j1 − j2 ), la l´ınea asociada a cada M ya no intersecta la l´ınea superior del rect´ angulo (m2 = j2 ) y gj1 ,j2 (M ) decrece mon´ otonamente en la unidad por cada decremento unidad de M , 4 Como estamos asumiendo que j1 ≥ j2 , siempre se alcanza la esquina inferior derecha (j1 , −j2 ) antes que la esquina superior izquierda (−j1 , j2 ) en esta secuencia. A lo m´ as ocurre que las dos esquinas se alcanzan al mismo tiempo cuando j1 = j2 , en cuyo caso tenemos un cuadrado.
´ ´ DE DOS MOMENTOS ANGULARES ARBITRARIOS 16.5. METODO GENERAL DE ADICION
419
alcanzando el valor 1 nuevamente cuando M = − (j1 + j2 ), correspondiente a la esquina inferior izquierda del rect´angulo. Por lo tanto gj1 ,j2 (−M ) = gj1 ,j2 (M ) (16.54) estos resultados se resumen en la figura 16.2 para el caso j1 = 2 y j2 = 1, esta figura muestra g2,1 (M ) como funci´on de M .
Figura 16.2: Gr´ afica del grado de degeneraci´ on gj1 ,j2 (M ) versus M , para el caso j1 = 2, j2 = 1 ilustrado en la Fig. 16.1b. El grado de degeneraci´ on se obtiene por simple conteo del n´ umero de puntos que toca cada l´ınea punteada en la Fig. 16.1b. Adicionalmente, esta figura muestra la simetr´ıa expresada por la Ec. (16.54).
16.5.6.
Autovalores de J2 : caso general
De la Ec. (16.49) vemos que los valores de M son enteros si j1 y j2 son ambos enteros o ambos semi-enteros. As´ı mismo, los valores M son semi-enteros si uno de los ji es entero y el otro semientero. Por otro lado, la teor´ıa general del momento angular nos dice que J es entero (semi-entero) si y solo si M es entero (semi-entero). Podemos entonces distinguir dos situaciones (1) j1 y j2 son ambos enteros o semi-enteros, (2) Uno de los ji es entero y el otro semientero. El primer caso conduce a pares (J, M ) enteros y el segundo caso a pares (J, M ) semi-enteros. Puesto que el m´ aximo valor de M es j1 + j2 , tenemos que J > j1 + j2 no aparece en E (j1 , j2 ) y por tanto no aparece en la suma directa (16.46). Esto se debe a que para este valor J > j1 + j2 tendr´ıa que existir el correspondiente valor de M = J seg´ un la teor´ıa general del momento angular. Para J = j1 + j2 hay un subespacio invariante asociado E (J = j1 + j2 ), puesto que M = j1 +j2 existe, pero este subespacio es u ´nico ya que M = j1 +j2 es no-degenerado. En este subespacio hay uno y solo un vector asociado a M = j1 +j2 −1, y dado que M = j1 +j2 −1 es doblemente degenerado en E (j1 , j2 ), tenemos que J = j1 + j2 − 1 tambi´en est´ a presente y a ´el corresponde un u ´nico subespacio invariante E (J = j1 + j2 − 1). En un contexto general denotaremos como pj1 ,j2 (J) el n´ umero de subespacios E (J, k) de E (j1 , j2 ) asociados a un J dado. En otras palabras, este es el n´ umero de diferentes valores de k para el valor dado de J (siendo j1 y j2 fijos desde el principio). Veremos que pj1 ,j2 (J) y gj1 ,j2 (M ) est´ an asociados de manera sencilla. Consideremos un valor particular de M , a este valor de M est´ a asociado uno y solo un vector en cada subespacio E (J, k) siempre que J ≥ |M |. Su grado de degeneraci´ on est´ a dado entonces por gj1 ,j2 (M ) = pj1,j2 (J = |M |) + pj1 ,j2 (J = |M | + 1) + pj1 ,j2 (J = |M | + 2) + . . . + pj1 ,j2 (J = j1 + j2 )
´ DE MOMENTOS ANGULARES CAP´ITULO 16. ADICION
420
Invirtiendo esta relaci´ on, se obtiene a pj1 ,j2 (J) en t´erminos de gj1 ,j2 (M ) pj1 ,j2 (J) = gj1 ,j2 (M = J) − gj1 ,j2 (M = J + 1)
= gj1 ,j2 (M = −J) − gj1 ,j2 (M = −J − 1)
(16.55)
es de resaltar que en la Ec. (16.55), J es fijo y los valores de M no est´ an asociados al valor fijo de J, sino a todos los valores permitidos de M en E (j1 , j2 ). Por esta raz´ on, los valores de gj1 ,j2 (M = J + 1) y gj1 ,j2 (M = −J − 1) pueden ser no nulos. Teniendo en cuenta la degeneraci´ on de los valores de M estudiada en la secci´ on 16.5.5, podemos determinar los valores del n´ umero cu´ antico J que ocurren en E (j1 , j2 ) y el n´ umero de subespacios invariantes E (J, k) asociados con cada uno de ellos. En primer lugar tenemos que pj1 ,j2 (J) = 0
para J > j1 + j2
ya que gj1 ,j2 (M ) = 0 para |M | > j1 + j2 . Si ahora aplicamos las Ecs. (16.50, 16.51) tenemos que pj1 ,j2 (J = j1 + j2 ) = gj1 ,j2 (M = j1 + j2 ) − gj1 ,j2 (M = j1 + j2 + 1) pj1 ,j2 (J = j1 + j2 ) = gj1 ,j2 (M = j1 + j2 ) = 1
pj1 ,j2 (J = j1 + j2 − 1) = gj1 ,j2 (M = j1 + j2 − 1) − gj1 ,j2 (M = j1 + j2 ) = 2 − 1 pj1 ,j2 (J = j1 + j2 − 1) = 1
por tanto todos los valores de pj1 ,j2 (J) se pueden encontrar por iteraci´ on pj1,j2 (J = j1 + j2 − 2) = 1, . . . , pj1 ,j2 (J = j1 − j2 ) = 1 finalmente, aplicando la Ec. (16.53) tenemos pj1 ,j2 (J) = 0 para
J < j1 − j2 = |j1 − j2 |
la u ´ltima igualdad se obtiene recordando que hemos mantenido la suposici´ on j1 ≥ j2 en todo el tratamiento. Para el caso j2 ≥ j1 solo hay que invertir los ´ındices 1 y 2. En conclusi´ on, para valores fijos de j1 y j2 , es decir dentro de un subespacio E (j1 , j2 ) de dimension (2j1 + 1) (2j2 + 1), los autovalores de J2 son tales que J = j1 + j2 , j1 + j2 − 1, j1 + j2 − 2, . . . , |j1 − j2 |
(16.56)
y cada valor de J est´ a asociado a un u ´nico subespacio invariante E (J, k) en la suma directa dada por la Ec. (16.46), la cual se reduce a jX 1 +j2 E (j1 , j2 ) = E (J) (16.57) ⊕J=|j1 −j2 |
de modo que el ´ındice k es realmente innecesario. Esto implica en particular que si tomamos un valor fijo de J y un valor fijo de M compatible con J (|M | ≤ J), existe un u ´nico vector |J, M i (salvo constantes) en E (j1 , j2 ) asociado a estos n´ umeros cu´ anticos. La especificaci´ on de J es suficiente para determinar el subespacio invariante, y la especificaci´ on de M me lleva a un u ´nico vector (excepto por una constante) en dicho subespacio. En consecuencia J2 y J3 forman un C.S.C.O. en E (j1 , j2 ). A manera de consistencia, podemos mostrar que el n´ umero N de pares (J, M ) encontrados para E (j1 , j2 ) coincide con la dimensi´ on (2j1 + 1) (2j2 + 1) de E (j1 , j2 ), puesto que el conjunto {|J, M i} constituye una base
16.6. AUTOVECTORES COMUNES DE J2 Y J3
421
para E (j1 , j2 ). Asumiremos por simplicidad que j1 ≥ j2 . Puesto que cada subespacio E (J) es de dimensi´ on 2J + 1 (es decir tiene 2J + 1 valores diferentes de M ), la suma directa (16.57) nos dice que N=
jX 1 +j2
(2J + 1)
(16.58)
J=j1 −j2
si reemplazamos J = j1 − j2 + i podemos calcular (16.58) N
=
jX 1 +j2
(2J + 1) =
J=j1 −j2
2j2 X i=0
[2 (j1 − j2 + i) + 1] = [2 (j1 − j2 ) + 1]
2j2 X i=0
1+2
2j2 X
i
i=0
2j2 (2j2 + 1) = (2j1 − 2j2 + 1) (2j2 + 1) + 2j2 (2j2 + 1) 2 = [(2j1 − 2j2 + 1) + 2j2 ] (2j2 + 1) = (2j1 + 1) (2j2 + 1) = [2 (j1 − j2 ) + 1] (2j2 + 1) + 2
16.6.
Autovectores comunes de J2 y J3
La base “natural” de E (j1 , j2 ) es la base de los productos tensoriales entre las bases de E (j1 ) y E (j2 ) denotada (1) (2) por {|j1 , j2 , m1 , m2 i}. Esta es la base de vectores propios comunes a J2(1) , J3 , J2(2) , J3 . Ahora bien, los vectores propios comunes a J2 , J3 , J2(1) , J2(2) ser´ an denotados por |JM i. Estrictamente la notaci´ on deber´ıa incluir los valores j1 y j2 de donde proviene el producto tensorial. Sin embargo, esta notaci´ on se omitir´ a ya que j1 y j2 son fijos en todo el proceso. Por la misma raz´ on, se simplificar´ a la notaci´ on de la base natural escribi´endola simplemente como {|m1 , m2 i}. Cuando sea necesario se distinguir´ an ambas bases por un sub´ındice en la forma |JM iJ y |m1 , m2 ij . La transformaci´ on de la base {|m1 , m2 i} a la base {|JM i}, se debe realizar con una transformaci´ on unitaria, puesto que ambas bases son ortonormales. Como los {|JM i} son autovectores comunes de J2 , J3 , J2(1) , J2(2) tenemos que J2 |JM i = J (J + 1) ~2 |JM i
J2(1) |JM i
16.6.1.
2
; J3 |JM i = M ~ |JM i
= j1 (j1 + 1) ~ |JM i ; J2(2) |JM i = j2 (j2 + 1) ~2 |JM i
Caso especial j1 = j2 = 1/2
En la secci´ on 16.4, hemos encontrado los vectores propios |J, M i en E (1/2, 1/2) a trav´es de la diagonalizaci´ on de las representaciones matriciales. En este caso recurriremos a la generaci´ on de los diferentes vectores por medio de operadores escalera J± . La ventaja de este m´etodo es que es m´ as f´ acil de generalizar y de manejar cuando tenemos valores altos de los momentos angulares. En primer lugar el ket |1/2, 1/2i ≡ |++i es el u ´nico vector propio de J3 en E (1/2, 1/2) que corresponde a 2 M = 1. Puesto que J y J3 conmutan, y el valor M = 1 es no degenerado, el teorema 1.66 p´ agina 57 nos dice que |++i tambi´en tiene que ser autovector de J2 . Siguiendo los razonamientos de la secci´ on 16.5.4 el valor propio para J2 tiene que ser J = 1. Por tanto, podemos escoger la fase del vector |J = 1, M = 1i para que coincida con |++i |1, 1i = |++i
(16.59)
los otros estados del triplete J = 1 se obtienen por aplicaci´ on sucesiva del operador J− tal como se describi´ o en la secci´ on 10.4.1. Usando la Ec. (10.47), tenemos entonces p √ J− |1, 1i = ~ 1 (1 + 1) − 1 (1 − 1) |1, 0i = ~ 2 |1, 0i
´ DE MOMENTOS ANGULARES CAP´ITULO 16. ADICION
422 con lo cual se tiene
1 1 |1, 0i = √ J− |1, 1i = √ J− |++i ~ 2 ~ 2
para calcular |1, 0i en t´erminos de la base original {|m1 , m2 i} basta recordar que (1)
(2)
J− = J− + J− con lo cual |1, 0i = |1, 0i =
1 1 (1) (2) √ J− + J− |++i = √ (~ |−+i + ~ |+−i) ~ 2 ~ 2 1 √ (|−+i + |+−i) 2
´ltimo elemento |1, −1i del triplete. ahora aplicamos J− a |1, 0i para obtener el u √ J− |1, 0i = ~ 2 |1, −1i
(16.60)
(16.61)
combinando las Ecs. (16.60, 16.61) tenemos |1, −1i = = = |1, −1i =
1 1 1 (1) (2) √ J− |1, 0i = √ J− + J− √ (|−+i + |+−i) ~ 2 ~ 2 2 i h i 1 1 h (2) (1) (2) (1) (2) (1) J− + J− |−+i + J− + J− |+−i = J− |−+i + J− |+−i 2~ 2~ 1 [~ |−−i + ~ |−−i] 2~ |−−i
n´ otese que el estado |−−i se pudo haber extra´ıdo con un argumento similar al usado para encontrar |++i, ya que el estado con M = −1 al igual que el asociado a M = 1 es no degenerado. El procedimiento anterior tiene sin embargo la ventaja de mostrar el algoritmo general y adem´ as nos permite ajustar las convenciones de fases que podr´ıan aparecer en |1, 0i y |1, −1i. Existen dos lugares en el procedimiento en donde se fijan las fases, en la Ec. (16.59) se puede colocar una fase arbitraria, y en las Ecs. (10.47) para J± se pueden colocar fases que dependan de m. Finalmente, encontraremos el estado singlete |J = 0, M = 0i , que es el u ´nico vector del subespacio unidimensional E (J = 0). Este se puede encontrar dentro de fases constantes, con la condici´ on de ser ortonormal al triplete. Al ser ortonormal a |1, 1i = |++i y a |1, −1i = |−−i, se tiene que |0, 0i debe ser una combinaci´ on lineal de |+−i y |−+i |0, 0i = α |+−i + β |−+i 2
2
h0, 0 |0, 0i = |α| + |β| = 1
(16.62) (16.63)
en donde hemos agregado la condici´ on de normalizaci´ on. Teniendo en cuenta que |0, 0i tambi´en debe ser ortogonal a |1, 0i, las Ecs. (16.60, 16.62) nos dan h1, 0 |0, 0i β+α
1 √ [h−+| + h+−|] [α |+−i + β |−+i] = 0 2 ⇒ α h−+| + −i + β h−+| − +i + α h+−| + −i + β h+−| − +i = 0 =
=
0
(16.64)
16.7. AUTOVECTORES DE J2 Y J3 : CASO GENERAL
423
combinando las Ecs. (16.63, 16.64) tenemos 1 α = −β ⇒ |α|2 = |β|2 ⇒ 2 |α|2 = 1 ⇒ |α| = √ 2 con lo cual
1 α = −β = √ eiχ 2
siendo χ cualquier n´ umero real. Eligiendo χ = 0, tenemos 1 |0, 0i = √ [|+−i − |−+i] 2
(16.65)
es importante observar que con este m´etodo no fu´e necesario recurrir a las representaciones matriciales de los operadores, en particular de J2 (que fu´e la que se tuvo que diagonalizar).
16.7.
Autovectores de J2 y J3 : Caso general
Hemos visto en la secci´ on 16.5.6, Ec. (16.57) que la descomposici´ on de E (j1 , j2 ) como suma directa de subespacios invariantes E (J) est´ a dada por E (j1 , j2 ) = E (j1 + j2 ) ⊕ E (j1 + j2 − 1) ⊕ . . . ⊕ E (|j1 − j2 |)
(16.66)
determinaremos los vectores |J, M i para cada uno de estos subespacios
16.7.1.
Determinaci´ on de los vectores |JMi del subespacio E (j1 + j2 )
El ket |m1 = j1 , m2 = j2 i es el u ´nico autovector de J3 en E (j1 , j2 ) con M = j1 + j2 . Puesto que J2 y J3 conmutan y M = j1 + j2 es no-degenerado, el teorema 1.66 p´ agina 57 nos dice que |m1 = j1 , m2 = j2 i tambi´en tiene que ser autovector de J2 . De acuerdo con (16.66) el valor asociado de J solo puede ser J = j1 + j2 . Podemos escoger el factor de fase de manera que |J = j1 + j2 , M = j1 + j2 i = |m1 = j1 , m2 = j2 i que tambi´en denotaremos por |j1 + j2 , j1 + j2 iJ = |j1 , j2 ij
(16.67)
la aplicaci´ on reiterada de J− permitir´ a encontrar todos los vectores del tipo |J, M i asociados a J = j1 + j2 . Aplicando las Ecs. (10.47), tenemos p J− |j1 + j2 , j1 + j2 iJ = ~ 2 (j1 + j2 ) |j1 + j2 , j1 + j2 − 1iJ 1 p |j1 + j2 , j1 + j2 − 1iJ = J− |j1 + j2 , j1 + j2 iJ (16.68) ~ 2 (j1 + j2 ) para escribir el vector |j1 + j2 , j1 + j2 − 1iJ en t´erminos de la base original |m1 , m2 ij , debemos escribir el t´ermino (1)
(2)
de la derecha en la Ec. (16.68) en la base original, para lo cual tenemos en cuenta que J− = J− + J− y que |j1 + j2 , j1 + j2 iJ = |j1 , j2 ij ; con lo cual la Ec. (16.68) queda (1) (2) √ √ J− + J− |j1 , j2 ij ~ 2j1 |j1 − 1, j2 ij + ~ 2j2 |j1 , j2 − 1ij p p |j1 + j2 , j1 + j2 − 1iJ = = ~ 2 (j1 + j2 ) ~ 2 (j1 + j2 )
´ DE MOMENTOS ANGULARES CAP´ITULO 16. ADICION
424 obteniendo finalmente |j1 + j2 , j1 + j2 − 1iJ =
s
j1 |j1 − 1, j2 ij + j1 + j2
s
j2 |j1 , j2 − 1ij j1 + j2
(16.69)
n´ otese adem´ as que la combinaci´ on lineal de vectores originales que me forma a |j1 + j2 , j1 + j2 − 1iJ est´ a autom´aticamente normalizada. Para obtener |j1 + j2 , j1 + j2 − 2iJ , aplicamos J− a ambos lados de la Ec. (16.69) escribiendo tal operador (1) (2) on. Podemos repetir este procedimiento sistem´ aticamente, hasta como J− = J− + J− a la derecha de dicha ecuaci´ llegar al estado |j1 + j2 , − (j1 + j2 )iJ , el cual se puede ver que es igual a |−j1 , −j2 ij por un argumento similar al que nos llev´ o a la Ec. (16.67), puesto que M = −j1 − j2 tambi´en es no-degenerado. Al finalizar este proceso hemos encontrado todos los 2 (j1 + j2 ) + 1 vectores de la forma |J = j1 + j2 , M i, los cuales expanden el subespacio E (J = j1 + j2 ) de E (j1 , j2 ).
16.7.2.
Determinaci´ on de los vectores |JMi en los otros subespacios
Definiremos ahora a G (j1 + j2 ) como el suplemento o complemento ortogonal de E (j1 + j2 ) en E (j1 , j2 ). De acuerdo con la Ec. (16.66), tal complemento ortogonal estar´ a dado por G (j1 + j2 ) = E (j1 + j2 − 1) ⊕ E (j1 + j2 − 2) ⊕ . . . ⊕ E (|j1 − j2 |) y aplicamos a G (j1 + j2 ) un an´ alisis an´ alogo al realizado en la secci´ on 16.7.1 para E (j1 + j2 ). En G (j1 + j2 ) el grado de degeneraci´ on gj′ 1 ,j2 (M ) de un valor dado de M es menor en la unidad que la degeneraci´ on en el espacio completo E (j1 , j2 ) gj′ 1 ,j2 (M ) = gj1 ,j2 (M ) − 1
(16.70)
esto se debe a que E (j1 + j2 ) posee uno, y solo un vector asociado a cada valor accesible de M en E (j1 , j2 ). Es decir, para cada M en el intervalo − (j1 + j2 ) ≤ M ≤ j1 + j2 hay uno y solo un vector en E (j1 + j2 ). En particular, M = j1 + j2 ya no existe en G (j1 + j2 ), y por tanto el valor m´ aximo de M en G (j1 + j2 ) es M = j1 + j2 − 1, como este era doblemente degenerado en E (j1 , j2 ), ser´ a no-degenerado en G (j1 + j2 ). Por argumentos similares a los de la secci´ on 16.7.1, el vector asociado a M = j1 + j2 − 1 en este subespacio, debe ser proporcional a |J = j1 + j2 − 1, M = j1 + j2 − 1i. Queremos ahora encontrar su expansi´ on en t´erminos de la base {|m1 , m2 i}. En virtud del valor de M = j1 + j2 − 1, la expansi´ on debe ser de la forma |j1 + j2 − 1, j1 + j2 − 1iJ = α |j1 , j2 − 1ij + β |j1 − 1, j2 ij ; |α|2 + |β|2 = 1
(16.71)
donde adem´ as requerimos la normalizaci´ on. Adicionalmente, este estado debe ser ortogonal a |j1 + j2 , j1 + j2 − 1iJ ∈ E (j1 + j2 ), i.e. al estado del complemento ortogonal de G (j1 + j2 ) con el mismo valor de M = j1 + j2 − 1. Usando las expresiones (16.69, 16.71) para este vector, dicha ortogonalidad se escribe como "s
j1 j1 + j2 β
j
hj1 − 1, j2 | +
s
j1 j1 + j2
j
s
J hj1
j2 j1 + j2
+ j2 , j1 + j2 − 1 |j1 + j2 − 1, j1 + j2 − 1iJ = 0 # h i hj , j − 1| α |j , j − 1i + β |j − 1, j i = 0 j 1 2 1 2 1 2 j j s
hj1 − 1, j2 | j1 − 1, j2 ij + α
j2 j1 + j2 β
j
hj1 , j2 − 1| j1 , j2 − 1ij
s
s j1 j2 +α j1 + j2 j1 + j2
= 0 = 0
(16.72)
´ DE LA BASE DESACOPLADA A LA BASE ACOPLADA 16.8. TRANSFORMACION
425
la condici´ on de normalizaci´ on (16.71) junto con la Ec. (16.72) nos permiten encontrar α y β dentro de un factor de fase. Escogiendo α real y positivo, la Ec. (16.72) nos dice que β es real y toma el valor s j2 j2 j1 + j2 β = −α ⇒ α2 + β 2 = α2 1 + = 1 ⇒ α2 =1 j1 j1 j1 s s s j1 j2 j2 α = ; β = −α =− j1 + j2 j1 j1 + j2 Con lo cual la Ec. (16.71) queda |j1 + j2 − 1, j1 + j2 − 1iJ =
s
j1 |j1 , j2 − 1ij − j1 + j2
s
j2 |j1 − 1, j2 ij j1 + j2
(16.73)
este es el primer vector de una nueva familia caracterizada por J = j1 +j2 −1, de forma similar al vector asociado a on 16.7.1. Los otros vectores de esta nueva familia se pueden generar por aplicaci´ on sucesiva J = j1 + j2 en la secci´ del operador J− . De esta forma, obtenemos [2 (j1 + j2 − 1) + 1] vectores del tipo |J = j1 + j2 − 1, M i donde J y M toman los valores J = j1 + j2 − 1 ; M = j1 + j2 − 1, j1 + j2 − 2, . . . , − (j1 + j2 − 1) estos vectores nos permiten expandir al subespacio E (j1 + j2 − 1). Ahora bien, si j1 +j2 −2 ≥ |j1 − j2 | podemos formar el suplemento de la suma directa E (j1 + j2 )⊕E (j1 + j2 − 1) en el espacio E (j1 , j2 ) G (j1 + j2 , j1 + j2 − 1) = E (j1 + j2 − 2) ⊕ E (j1 + j2 − 3) ⊕ . . . ⊕ E (|j1 − j2 |) en el suplemento G (j1 + j2 , j1 + j2 − 1), la degeneraci´ on de cada valor de M decrece en una unidad con respecto a la degeneraci´ on en el suplemento anterior G (j1 + j2 ). En particular, el m´ aximo valor de M es ahora M = j1 +j2 −2 y es no-degenerado. El vector asociado en G (j1 + j2 , j1 + j2 − 1) ser´ a |J = j1 + j2 − 2, M = j1 + j2 − 2i. Para calcular al vector |j1 + j2 − 2, j1 + j2 − 2iJ en t´erminos de la base |m1 , m2 i, basta notar que ´este debe ser una combinaci´ on lineal de tres vectores |j1 + j2 − 2, j1 + j2 − 2iJ = α1 |j1 , j2 − 2ij + α2 |j1 − 1, j2 − 1ij + α3 |j1 − 2, j2 ij
(16.74)
los tres coeficientes se fijan dentro de un factor de fase por la condici´ on de normalizaci´ on y de ortogonalidad con los vectores (ya conocidos) dados por: |j1 + j2 , j1 + j2 − 2i , |j1 + j2 − 1, j1 + j2 − 2i. Es decir, los vectores en el complemento ortogonal de G (j1 + j2 , j1 + j2 − 1), con el mismo valor de M = j1 + j2 − 2. Una vez determinados los coeficientes en (16.74), podemos encontrar los dem´ as vectores de esta tercera familia, por aplicaci´ on sucesiva de J− . Estos vectores nos permiten expandir a E (j1 + j2 − 2). El procedimiento se puede repetir hasta abarcar todos los valores de M mayores o iguales a |j1 − j2 |, y en virtud de la Ec. (16.54) tambi´en todos los valores correspondientes a M menores o iguales a − |j1 − j2 |. De esta forma determinamos todos los vectores {|J, M i} en t´erminos de la base original {|m1 , m2 i}.
16.8.
Transformaci´ on de la base desacoplada a la base acoplada y coeficientes de Clebsch-Gordan (1)
(2)
En el espacio E (j1 , j2 ), los autovectores comunes a J2(1) , J3 , J2(2) , J3 , y que denotamos (en notaci´ on completa) por {|j1 , j2 ; m1 , m2 i} forman una base ortonormal conocida como la base “desacoplada” en el sentido de que esta base nos da informaci´ on directa de los n´ umeros cu´ anticos individuales de cada part´ıcula (o de cada grado de
´ DE MOMENTOS ANGULARES CAP´ITULO 16. ADICION
426
libertad). Por otra parte, los autovectores comunes a J2 , J3 , J2(1) , J2(2) , y que denotamos (en notaci´ on completa) por {|j1 , j2 ; J, M i} forman una base ortonormal conocida como la base “acoplada” ya que esta base nos da informaci´ on directa de los n´ umeros cu´ anticos asociados al sistema como un todo. La transformaci´ on que nos lleva desde la base desacoplada hasta la base acoplada es unitaria puesto que es una transformaci´ on de una base ortonormal a otra base tambi´en ortonormal. Esta transformaci´ on unitaria se escribe f´ acilmente usando la completez en E (j1 , j2 ) de la base desacoplada |j1 , j2 ; J, M i =
j2 X
j1 X
m1 =−j1 m=−j2
|j1 , j2 ; m1 , m2 i hj1 , j2 ; m1 , m2 | J, M i
(16.75)
cambiaremos ligeramente la notaci´ on para los coeficientes de esta expansi´ on en la forma hj1 , j2 ; m1 , m2 | J, M i ≡ hm1 , m2 (j1 , j2 ) J, M i
(16.76)
con lo cual la expansi´ on (16.75) se escribe como |j1 , j2 ; J, M i =
j1 X
j2 X
m1 =−j1 m=−j2
|j1 , j2 ; m1 , m2 i hm1 , m2 (j1 , j2 ) J, M i
(16.77)
los coeficientes hm1 , m2 (j1 , j2 ) J, M i de la expansi´ on, que son elementos de la matriz unitaria de transformaci´ on, se conocen como coeficientes de Clebsch-Gordan. Los n´ umeros cu´ anticos de la izquierda indican un ket de la base desacoplada, los de la derecha indica un ket de la base acoplada y los n´ umeros cu´ anticos (j1 , j2 ) del centro, indican los momentos angulares j1 y j2 que se est´ an acoplando. Un aspecto importante es que la notaci´ on original |j1 , j2 ; m1 , m2 ; k1 , k2 i , |j1 , j2 ; J, M ; k1 , k2 i para las bases no es necesaria dado que los productos internos son independientes de k1 y k2 , y dentro del espacio E (j1 , j2 ) los k′ s toman un solo valor, de modo que dentro de este subespacio este n´ umero cu´ antico no discrimina diferentes estados. No es posible dar expresiones generales para los coeficientes de Clebsch-Gordan. Estos coeficientes se pueden generar con el algoritmo explicado en las secciones anteriores. Adicionalmente, existen tablas num´ericas de estos coeficientes. Por ejemplo, las Ecs. (16.67, 16.69, 16.73) nos permiten encontrar algunos coeficientes de ClebschGordan hj1 , j2 (j1 , j2 ) j1 + j2 , j1 + j2 i = 1 s
hj1 − 1, j2 (j1 , j2 ) j1 + j2 , j1 + j2 − 1i = hj1 , j2 − 1 (j1 , j2 ) j1 + j2 , j1 + j2 − 1i =
s s
j1 j1 + j2 j2 j1 + j2
j1 j1 + j2 s j2 hj1 − 1, j2 (j1 , j2 ) j1 + j2 − 1, j1 + j2 − 1i = − j1 + j2 hj1 , j2 − 1 (j1 , j2 ) j1 + j2 − 1, j1 + j2 − 1i =
Es importante mencionar que para determinar estos coeficientes en forma u ´nica, deben escogerse ciertas convenciones de fases. Lo usual es definir estos coeficientes como reales. Sin embargo, la escogencia de ciertas fases dictamina el signo de algunos coeficientes. Por supuesto, los signos relativos de los coeficientes que aparecen en la expansi´ on del mismo vector |J, M i est´ an fijos, solo se puede escoger en forma arbitraria el signo global. Adicionalmente, la reglas de adici´ on que hemos obtenido muestran que estos coeficientes tienen unas reglas de selecci´ on: el coeficiente hj1 , j2 ; m1 , m2 | J, M i ≡ hm1 , m2 (j1 , j2 ) J, M i es diferente de cero solo si M = m1 + m2 ; |j1 − j2 | ≤ J ≤ j1 + j2
(16.78)
´ DE LA BASE DESACOPLADA A LA BASE ACOPLADA 16.8. TRANSFORMACION
427
donde J debe ser del mismo tipo (entero o semi-entero) que los valores j1 + j2 y |j1 − j2 |. La segunda condici´ on en (16.78) se conoce usualmente como “regla del tri´ angulo” ya que expresa el hecho de que si la condici´ on se satisface, debe poderse formar un tri´ angulo con tres segmentos de longitud j1 , j2 y J. En otras palabras, la segunda ecuaci´ on (16.78) expresa el conocido teorema que nos dice que un lado J de un tri´ angulo es menor que la suma de los otros dos lados y mayor que su diferencia. Naturalmente la relaci´ on inversa de la expresada en (16.77) se puede obtener usando la completez de la base acoplada |j1 , j2 ; m1 , m2 i =
jX 1 +j2
J X
J=j1 −j2 M =−J
|J, M i hJ, M |j1 , j2 ; m1 , m2 i ≡
jX 1 +j2
J X
J=j1 −j2 M =−J
|J, M i hJ, M (j1 , j2 ) m1 , m2 i
(16.79) dado que los coeficientes de C-G son elementos de una matriz unitaria y se eligen como reales, la matriz ser´ a ortogonal real, por tanto se cumple la condici´ on hm1 , m2 (j1 , j2 ) J, M i = hJ, M (j1 , j2 ) m1 , m2 i
(16.80)
En s´ıntesis, los coeficientes de Clebsch-Gordan determinan la transformaci´ on de la base desacoplada a la base acoplada y viceversa.
Cap´ıtulo 17
Propiedades generales de los sistemas de dos estados Si por ejemplo consideramos los estados propios de los operadores de esp´ın S2 y S3 para una part´ıcula de esp´ın s = 1/2, tenemos que hay solo dos autoestados de S2 y S3 que usualmente denotamos |±i. Si estamos interesados en informaci´ on concerniente solo a variables de esp´ın, por ejemplo la probabilidad de que el momento magn´etico de esp´ın sea +1/2 en una medida de esp´ın (sin importar los valores que tomen las variables espaciales), entonces podemos por simplicidad considerar un espacio vectorial (espinorial) de solo dos dimensiones para realizar los c´ alculos, tal que los dos estados |±i formar´ an una base para dicho espacio. Existen otros escenarios en los cuales los sistemas de dos estados resultan relevantes en mec´ anica cu´ antica. Consideremos un sistema para el cual existen dos estados con energ´ıas muy cercanas entre s´ı, y que son muy diferentes a las energ´ıas de los otros autoestados de energ´ıa del sistema. Asumamos que queremos evaluar el efecto de una perturbaci´ on externa o de una perturbaci´ on interna previamente ignorada. Si la intensidad de la perturbaci´ on es suficientemente peque˜ na, se puede demostrar que su efecto sobre los dos estados “cercanos”, se puede calcular en primera aproximaci´ on ignorando los otros niveles de energ´ıa. De modo que todos los c´ alculos involucran un espacio de dos dimensiones.
17.1.
Formulaci´ on del problema
Consideremos un sistema f´ısico cuyo espacio de estados es de dos dimensiones. Como ya se mencion´ o esto es usualmente solo una aproximaci´ on, en la cual asumimos que hay un subespacio dos dimensional del espacio completo de estados que est´ a casi desacoplado de su complemento ortogonal. Es decir, la probabilidad de obtener valores de energ´ıa diferentes a las de los dos estados en una medici´ on es mucho menor que la probabilidad de obtener alguna de las dos energ´ıas de los dos estados en cuesti´ on. De acuerdo con el quinto postulado, esto implica que la probabilidad de que el sistema est´e en una combinaci´ on lineal que involucra solo a los dos estados es casi uno. Definamos un Hamiltoniano H0 que denominaremos Hamiltoniano no perturbado, y usaremos la base de sus vectores propios |ϕ1 i , |ϕ2 i para realizar los c´ alculos. Sus niveles de energ´ıa ser´ an E1 y E2 de modo que H0 |ϕ1 i = E1 |ϕ1 i
;
H0 |ϕ2 i = E2 |ϕ2 i
,
hϕi |ϕj i = δij , i, j = 1, 2
(17.1)
ahora queremos tener en cuenta una perturbaci´ on externa o interacci´ on interna previamente ignorada. Tal perturbaci´ on (tambi´en llamado acople) ser´ a simbolizada como W , y el Hamiltoniano perturbado H viene dado por H = H0 + W
(17.2)
denotaremos a los autoestados y autovalores de H como |ψ± i y E± respectivamente H |ψ+ i = E+ |ψ+ i
; 428
H |ψ− i = E− |ψ− i
(17.3)
17.2. EFECTO DEL ACOPLE SOBRE LA ENERG´IA Y LOS ESTADOS ESTACIONARIOS
429
asumiremos que W es independiente del tiempo. Expresaremos matricialmente a la perturbaci´ on W usando la base no perturbada |ϕ1 i , |ϕ2 i (i.e. la base de vectores propios del Hamiltoniano no perturbado H0 ) W =
hϕ1 | W |ϕ1 i hϕ1 | W |ϕ2 i hϕ2 | W |ϕ1 i hϕ2 | W |ϕ2 i
=
W11 W12 W21 W22
,
Wij = Wji∗
(17.4)
∗ . En ausencia del acople o perturbaci´ de modo que W11 y W22 son reales y W12 = W21 on W , las energ´ıas accesibles del sistema son E1 y E2 , siendo |ϕ1 i , |ϕ2 i los estados estacionarios del sistema, de modo que si en t = 0 el sistema est´ a en uno de estos dos estados, permanecer´ a en el indefinidamente. Veremos entonces como se modifican las energ´ıas y estados estacionarios cuando se introduce el acople W .
17.2.
Consecuencias de la introducci´ on del acople sobre los niveles de energ´ıa y los estados estacionarios
Al introducir el acople, el Hamiltoniano del sistema ser´ a el descrito en la Ec. (17.2). Por tanto, de acuerdo con los postulados, los niveles de energ´ıa y estados estacionarios ser´ an ahora los descritos en la Ec. (17.3). Una medida de la energ´ıa solo podr´ a dar alguno de los valores E+ ´ o E− y los estados estacionarios ser´ an sus autoestados asociados |ψ+ i y |ψ− i. Esto implica en particular que E1 y E2 ya no son energ´ıas permitidas en el sistema y los estados |ϕ1 i y |ϕ2 i ya no ser´ an estados estacionarios (pues estos no son en general autovalores ni autoestados del on de Hamiltoniano perturbado H). Esto implica que si el sistema est´ a inicialmente en el estado |ϕ1 i la introducci´ la perturbaci´ on genera una evoluci´ on temporal y por tanto hay cierta probabilidad P12 (t) de encontrar al sistema en el estado |ϕ2 i en el tiempo t. Decimos entonces que W induce transiciones entre los estados no perturbados. Por esta raz´ on decimos que W act´ ua como un acople entre |ϕ1 i y |ϕ2 i.
17.2.1.
Efecto del acople sobre los estados estacionarios del sistema
La representaci´ on matricial del Hamiltoniano perturbado en la base |ϕ1 i, |ϕ2 i ser´ a H=
∗ E1 + W11 W21 W21 E2 + W22
los valores y vectores propios de esta matriz se realizaron en detalle en la secci´ on 1.45.3. Las Ecs. (1.229, 1.230, 1.231) nos muestran tales autovalores y autovectores q 1 1 (E1 + W11 + E2 + W22 ) ± (E1 + W11 − E2 − W22 )2 + 4 |W12 |2 2 2 θ θ |ψ+ i = cos e−iϕ/2 |ϕ1 i + sin eiϕ/2 |ϕ2 i 2 2 θ −iϕ/2 θ |ψ− i = − sin e |ϕ1 i + cos eiϕ/2 |ϕ2 i 2 2 E± =
(17.5) (17.6) (17.7)
donde los ´ angulos θ y ϕ est´ an dados por la Ecs. (1.232) tan θ =
2 |W21 | , E1 + W11 − E2 − W22
W21 = |W21 | eiϕ ; 0 ≤ θ < π , 0 ≤ ϕ < 2π
(17.8)
Es f´ acil ver que si W12 = 0, los autoestados de H son los autoestados de H0 y los nuevos niveles de energ´ıa son simplemente E1 + W11 y E2 + W22 . Por tanto, los efectos interesantes surgen cuando W posee elementos ∗ . Para simplificar la discusi´ no-diagonales W12 = W21 on asumimos que la matriz de W en la base {|ϕ1 i , |ϕ2 i} es
430
CAP´ITULO 17. PROPIEDADES GENERALES DE LOS SISTEMAS DE DOS ESTADOS
puramente no-diagonal1 . Haciendo W11 = W22 = 0 en las Ecs. (17.5, 17.8) obtenemos q 1 1 (E1 − E2 )2 + 4 |W12 |2 E± = (E1 + E2 ) ± 2 2 2 |W21 | tan θ = , 0 ≤ θ < π ; W21 = |W21 | eiϕ E1 − E2
(17.9) (17.10)
es conveniente definir las siguientes variables Em ≡
1 (E1 + E2 ) 2
; ∆≡
1 (E1 − E2 ) 2
(17.11)
que corresponden al promedio y el desdoblamiento de los niveles no perturbados. Sustituyendo (17.11) en las Ecs. (17.9, 17.10) tenemos que q q |W21 | 2 2 E+ = Em + ∆ + |W21 | ; E− = Em − ∆2 + |W21 |2 ; tan θ = (17.12) ∆ Las Ecs. (17.12) muestran que cuando Em cambia, la variaci´ on de E± es equivalente a correr el origen a lo
Figura 17.1: Variaci´ on de las energ´ıas E± con respecto al desdoblamiento ∆ ≡ (E1 − E2 ) /2. Hemos definido el cero del eje de energ´ıa en Em . En ausencia de acoplamiento los niveles se cruzan en el origen como lo muestran las l´ıneas rectas punteadas. Al introducir el acople W no-diagonal, los dos niveles perturbados se “repelen uno a otro” y se obtienen curvas de E+ y E− que no se cruzan. Tales curvas son ramas hiperb´ olicas (l´ıneas s´ olidas en la figura) cuyas as´ıntotas son los niveles no perturbados. largo del eje de energ´ıa. Adicionalmente, las Ecs. (17.6, 17.7, 17.10, 17.12) muestran que los autovectores |ψ± i no dependen de Em sino solo del desdoblamiento ∆. Es interesante mostrar el comportamiento de las energ´ıas E1,2 y e1 = E1 + W11 y E e2 = E2 + W22 . Todos los resultados que se obtendr´ Si W11 y W22 son no nulos, podemos definir E an en esta e1 y E2 → E e2 . secci´ on ser´ an v´ alidos en este caso, haciendo los reemplazos E1 → E 1
17.2. EFECTO DEL ACOPLE SOBRE LA ENERG´IA Y LOS ESTADOS ESTACIONARIOS
431
E± en un diagrama de ∆ versus energ´ıa. La Fig. 17.1 muestra que tal diagrama para las energ´ıas E± corresponde a ramas hiperb´ olicas sim´etricas con respecto a los ejes coordenados (en donde el zero del eje vertical se ubic´ o en Em ), y cuyas as´ıntotas son las l´ıneas rectas punteadas que describen el comportamiento de las energ´ıas E1 y E2 . La Fig. 17.1 tambi´en muestra que la separaci´ on m´ınima entre las ramas hiperb´ olicas es 2 |W21 |. Puede verse entonces que en ausencia de acople, los niveles de energ´ıa E1 y E2 se cruzan en ∆ = 0 (como se v´e tambi´en en las Ecs. 17.11). Con la introducci´ on del acople, los niveles de energ´ıa “se repelen” es decir tienden a alejarse. Por as esta raz´ on se suele hablar de diagramas anti-cruzantes, para curvas del tipo mostrado por E± . Se observa adem´ que cuando W → 0 tenemos que E± → E1,2 si E1 > E2 en tanto que E± → E2,1 si E2 > E1 . De las Ecs. (17.11, 17.12) vemos que q |E+ − E− | = 2 ∆2 + |W21 |2 > 2∆ ; |E1 − E2 | ≡ 2∆ ⇒ (17.13) |E+ − E− | > |E1 − E2 |
(17.14)
donde el aumento en el desdoblamiento es mayor a medida que crece el acople. Vemos entonces que el acople separa la frecuencias normales, situaci´ on que aparece en muchos escenarios f´ısicos. Es necesario poder discriminar cuando podemos hablar de un acople “fuerte” o “d´ebil”. Para ello vemos que las Ecs. (17.12) se pueden reescribir como p W21 2 , ∆ 6= 0 E± = Em ± ∆ 1 + K ; K≡ (17.15) ∆ de modo que la intensidad del acople se puede medir en t´erminos de K W21 ≪ 1 ⇒ acople d´ K ≡ ebil ∆ W21 ≫ 1 ⇒ acople f uerte K ≡ ∆
17.2.2.
Efecto de un acople d´ ebil sobre los niveles de energ´ıa y estados estacionarios
El acople d´ebil est´ a caracterizado por |∆| ≫ |W21 |. La Fig. 17.1 nos muestra que en este l´ımite todas las energ´ıas se comportan aproximadamente como las as´ıntotas. Puesto que K ≪ 1, las Ecs. (17.15) se pueden expandir en series de potencias de K ! 1 W21 2 E± = Em ± ∆ 1 + + ... (17.16) 2 ∆
adicionalmente, la Ec. (17.12) nos dice que θ ≃ 0 en este l´ımite. Por tanto tan θ ≃ θ ≃ sin θ, de modo que a primer orden obtenemos θ θ θ tan θ |W21 | cos ≃ 1 ; sin ≃ ≃ = 2 2 2 2 2∆ reemplazando estas aproximaciones en las Ecs. (17.6, 17.7), los autoestados en el l´ımite de acople d´ebil quedan |W21 | iϕ/2 |W21 | −iϕ/2 |ψ+ i ≃ e−iϕ/2 |ϕ1 i + e |ϕ2 i ; |ψ− i ≃ − e |ϕ1 i + eiϕ/2 |ϕ2 i 2∆ 2∆ |W21 | iϕ |W21 | −iϕ |ψ+ i ≃ e−iϕ/2 |ϕ1 i + e |ϕ2 i ; |ψ− i ≃ − e |ϕ1 i + |ϕ2 i eiϕ/2 2∆ 2∆
(17.17) (17.18)
puesto que las fases globales son irrelevantes, vemos que un acople d´ebil genera estados perturbados muy similares a los estados no perturbados como era de esperarse. Por ejemplo, el estado |ψ+ i se puede ver como el estado |ϕ1 i ligeramente “contaminado” por una peque˜ na contribuci´ on del estado |ϕ2 i. Similarmente, |ψ− i es casi el estado |ϕ2 i con una peque˜ na contribuci´ on de |ϕ1 i.
CAP´ITULO 17. PROPIEDADES GENERALES DE LOS SISTEMAS DE DOS ESTADOS
432
17.2.3.
Efecto de un acople fuerte sobre los niveles de energ´ıa y estados estacionarios
El acople fuerte se caracteriza por |∆| ≪ |W21 |. La Fig. 17.1 nos muestra que este l´ımite corresponde al comportamiento de las energ´ıas alrededor de ∆ = 0. En particular, si tomamos ∆ = 0 el acople se considera fuerte para cualquier valor no nulo de W21 . En el l´ımite E1 = E2 i.e. ∆ = 0, las Ecs. (17.12) quedan en la forma E± = Em ± |W21 |
(17.19)
y vemos entonces que el efecto del acople es m´ as mucho m´ as importante cuando los dos niveles no perturbados tienen la misma energ´ıa (por ejemplo por degeneraci´ on). Las Ecs. (17.19) muestran que este efecto es de primer orden, en tanto que en el l´ımite de acople d´ebil el efecto es de segundo orden como se aprecia en la Ec. (17.16). Cuando ∆ = 0 vemos de (17.12) que θ = π/2 y los autoestados (17.6, 17.7) quedan π −iϕ/2 π π π e |ϕ1 i + sin eiϕ/2 |ϕ2 i ; |ψ− i = − sin e−iϕ/2 |ϕ1 i + cos eiϕ/2 |ϕ2 i 4 4 4 4 i h i 1 h −iϕ/2 1 √ e |ϕ1 i + eiϕ/2 |ϕ2 i ; |ψ− i = √ −e−iϕ/2 |ϕ1 i + eiϕ/2 |ϕ2 i 2 2
|ψ+ i = cos
(17.20)
|ψ+ i =
(17.21)
de modo que en el l´ımite de acople fuerte, los estados |ψ± i difieren radicalmente de |ϕ1,2 i como se esperaba. Vemos que |ψ± i son superposiciones de |ϕ1 i y |ϕ2 i con coeficientes del mismo m´ odulo. Podemos decir que |ψ± i son estados de “m´ axima mezcla” de los estados |ϕ1 i y |ϕ2 i.
17.3.
Evoluci´ on temporal del vector de estado: oscilaci´ on del sistema entre dos estados sin perturbar
La evoluci´ on del estado |ψ (t)i del sistema de dos estados est´ a governada por la ecuaci´ on de Schr¨ odinger i~
d |ψ (t)i = (H0 + W ) |ψ (t)i dt
(17.22)
y dado que |ψ (t)i es una superposici´ on de los estados |ϕ1 i y |ϕ2 i para todo tiempo tenemos que |ψ (t)i = a1 (t) |ϕ1 i + a2 (t) |ϕ2 i
(17.23)
insertando la expansi´ on (17.23) en la ecuaci´ on de Schr¨ odinger (17.22), aplicando el bra hϕ1 | y usando la Ec. (17.4) con W11 = W22 = 0, resulta i~ hϕ1 | i~
d [a1 (t) |ϕ1 i + a2 (t) |ϕ2 i] = hϕ1 | (H0 + W ) [a1 (t) |ϕ1 i + a2 (t) |ϕ2 i] dt
d [a1 (t) hϕ1 |ϕ1 i + a2 (t) hϕ1 |ϕ2 i] = a1 (t) hϕ1 | (H0 + W ) |ϕ1 i + a2 (t) hϕ1 | (H0 + W ) |ϕ2 i dt d i~ a1 (t) = a1 (t) (E1 + W11 ) + a2 (t) [E2 hϕ1 |ϕ2 i + W12 ] dt d i~ a1 (t) = E1 a1 (t) + W12 a2 (t) dt
donde hemos asumido que H0 es conservativo y por tanto |ϕ1 i es independiente del tiempo. Un procedimiento similar aplicando el bra hϕ2 | nos lleva a las ecuaciones d a1 (t) = E1 a1 (t) + W12 a2 (t) dt d i~ a2 (t) = W21 a1 (t) + E2 a2 (t) dt i~
(17.24) (17.25)
´ DEL VECTOR DE ESTADO: OSCILACION ´ ENTRE DOS ESTADOS 17.3. EVOLUCION
433
si W12 6= 0, tenemos una sistema de dos ecuaciones diferenciales homog´eneas acopladas. La evoluci´ on temporal de |ψ (t)i se puede obtener utilizando el m´etodo descrito en la secci´ on 5.8. Esto es, se escribe la expansi´on de |ψ (0)i en t´erminos de los autoestados |ψ± i del Hamiltoniano H |ψ (0)i = λ |ψ+ i + µ |ψ− i
(17.26)
de modo que la evoluci´ on temporal vendr´ a dada por |ψ (t)i = λe−iE+ t/~ |ψ+ i + µe−iE− t/~ |ψ− i
(17.27)
lo cual nos permite obtener a1 (t) y a2 (t) aplicando los bras hϕ1 | y hϕ2 | a ambos lados de la Ec. (17.27). Dado que los estados |ϕ1 i y |ϕ2 i ya no son estacionarios, es de esperarse que incluso si el estado inicial es por ejemplo |ϕ1 i el sistema evolucione temporalmente. Veremos de hecho que si el estado del sistema est´ a descrito por la Ec. (17.27), el sistema oscila entre los estados no perturbados |ϕ1 i y |ϕ2 i. Para verlo asumiremos que en t = 0 el sistema est´ a en el estado |ϕ1 i |ψ (0)i = |ϕ1 i
ahora debemos expandir este estado inicial en t´erminos de |ψ± i como en la Ec. (17.26). Para ello invertimos las Ecs. (17.6, 17.7). Esto se realiza multiplicando la Ec. (17.6) por cos (θ/2) y la Ec. (17.7) por − sin (θ/2) y sumando cos
θ θ θ θ |ψ+ i − sin |ψ− i = cos2 e−iϕ/2 |ϕ1 i + sin2 e−iϕ/2 |ϕ1 i = e−iϕ/2 |ϕ1 i 2 2 2 2 θ θ iϕ/2 cos |ψ+ i − sin |ψ− i |ϕ1 i = |ψ (0)i = e 2 2
(17.28)
comparando la Ec. (17.28) con la Ec. (17.26) vemos que λ = eiϕ/2 cos (θ/2) y µ = −eiϕ/2 sin (θ/2), con lo cual la Ec. (17.27) queda θ −iE+ t/~ θ −iE− t/~ iϕ/2 |ψ (t)i = e cos e |ψ+ i − sin e |ψ− i (17.29) 2 2 si el sistema evoluciona bajo el Hamiltoniano perturbado hasta el tiempo t, el sistema estar´ a en este tiempo en el estado |ψ (t)i descrito por la Ec. (17.29). Asumamos ahora que la perturbaci´ on W se “desconecta” en el tiempo t. Si justo despu´es de desconectar la perturbaci´ on medimos la energ´ıa, obtendremos E1 ´ o E2 (ya que estos vuelven a ser los valores de energ´ıa accesibles del sistema), y la probabilidad de obtener cada uno de estos valores viene dada por PEi = |hϕi |ψ (t)i|2 ; i = 1, 2 (17.30)
pero esto es equivalente a decir que esta es la probabilidad de que el sistema quede preparado en el estado |ϕi i. Por esta raz´ on, suele decirse que |hϕi |ψ (t)i|2 es la probabilidad de encontrar al sistema en el tiempo t en |ϕi i. No obstante, vale la pena mencionar que esta afirmaci´ on solo es v´ alida si: (a) Se desconecta la perturbaci´ on en el tiempo t y (b) Justo despu´es de desconectar la perturbaci´ on, se hace la medida del observable H (si se mide otro observable, el sistema queda preparado en un autoestado de ese otro observable). N´ otese que si la perturbaci´ on no se desconecta en t, una medici´ on del observable H solo puede dar E+ o E− lo cual a su vez implica que el sistema quedar´ a preparado en el estado |ψ+ i o en el estado |ψ− i y no hay posibilidad de que quede en el estado |ϕi i. De otra parte, si no se realiza ninguna medici´ on, el sistema evoluciona de acuerdo con la ecuaci´ on de Schr¨ odinger y no podemos hablar de la probabilidad de obtener un estado (ya que la ecuaci´ on de Schr¨ odinger es determinista). La anterior discusi´ on nos muestra que si no se realiza ninguna medida en el tiempo t, la cantidad hϕi |ψ (t)i ≡ ai es simplemente el coeficiente de Fourier de la expansi´ on de |ψ (t)i en t´erminos de |ϕ1 i y |ϕ2 i. En otras palabras, el coeficiente ai nos dice el “peso” con el cual contribuye cada estado |ϕi i al estado |ψ (t)i con la restricci´ on de que |a1 |2 + |a2 |2 = 1. Con estas aclaraciones interpretaremos de aqu´ı en adelante a |hϕ2 |ψ (t)i|2 como la probabilidad de encontrar al sistema en el tiempo t en |ϕ2 i. La amplitud de probabilidad asociada est´ a dada por θ −iE+ t/~ θ −iE− t/~ iϕ/2 hϕ2 |ψ (t)i = e cos e hϕ2 |ψ+ i − sin e hϕ2 |ψ− i (17.31) 2 2
CAP´ITULO 17. PROPIEDADES GENERALES DE LOS SISTEMAS DE DOS ESTADOS
434
de las Ecs. (17.6, 17.7) tenemos que θ θ θ θ hϕ2 |ψ+ i = cos e−iϕ/2 hϕ2 |ϕ1 i + sin eiϕ/2 hϕ2 |ϕ2 i ; hϕ2 |ψ− i = − sin e−iϕ/2 hϕ2 |ϕ1 i + cos eiϕ/2 hϕ2 |ϕ2 i 2 2 2 2 θ iϕ/2 θ iϕ/2 hϕ2 |ψ+ i = sin e ; hϕ2 |ψ− i = cos e (17.32) 2 2 reemplazando (17.32) en (17.31), la probabilidad de encontrar al sistema en el tiempo t en |ϕ2 i queda P12 (t) = = P12 (t) = =
iϕ/2 θ iϕ/2 θ −iE− t/~ θ iϕ/2 2 θ −iE+ t/~ |hϕ2 |ψ (t)i| = e sin e − sin e cos e cos e 2 2 2 2 iϕ h 2 i 2 1 e −iE+ t/~ −iE− t/~ 2 −iE+ t/~ −iE− t/~ sin θ e − sin θ e = sin θ − e e 2 4 1 h i 1 sin2 θ e−iE+ t/~ − e−iE− t/~ eiE+ t/~ − eiE− t/~ = sin2 θ 1 − e−i(E+ −E− )t/~ − ei(E+ −E− )t/~ + 1 4 4 n h io 1 (E+ − E− ) t 1 2 −i(E+ −E− )t/~ i(E+ −E− )t/~ 2 sin θ 2 − e +e = sin θ 2 − 2 cos 4 4 ~ 2
teniendo en cuenta que 1 − cos θ = 2 sin2 (θ/2), tenemos finalmente 1 (E+ − E− ) t 2 P12 (t) = sin θ 1 − cos 2 ~ (E+ − E− ) t P12 (t) = sin2 θ sin2 2~
(17.33)
usando la Ec. (1.223), P´ ag. 108, tenemos que sin2 θ = 1 − cos2 θ = 1 − sin2 θ =
(H11 − H22 )2 (E1 − E2 )2 = 1 − (H11 − H22 )2 + 4 |H21 |2 (E1 − E2 )2 + 4 |W21 |2
4 |W21 |2 (E1 − E2 )2 + 4 |W21 |2
(17.34)
reemplazando las Ecs. (17.34, 17.9) en la Ec. (17.33) podemos escribir P12 en t´erminos de los elementos matriciales Wij y de las energ´ıas no perturbadas E1 y E2 2
q
4 |W21 | P12 (t) = sin2 (E1 − E2 )2 + 4 |W21 |2
4 |W12 |2 + (E1 − E2 )2 2~
t
(17.35)
la Ec. (17.35) es conocida como F´ ormula de Rabi. La Ec. (17.33) nos muestra que P12 (t) oscila en el tiempo con una frecuencia (E+ − E− ) /h, que corresponde a la u ´nica frecuencia de Bohr del sistema. P12 (t) var´ıa desde cero hasta sin2 θ, este valor m´ aximo se alcanza para tiempos (2k + 1) π~ tk = , k = 0, 1, 2, . . . E+ − E− la frecuencia de oscilaci´ on y el m´ aximo sin2 θ de la probabilidad dependen de |W21 | y de ∆ ≡ E1 − E2 . Usando (17.12), con ∆ = 0 tenemos que ∆=0 ⇒
E+ − E− 2 |W21 | = , sin2 θ = 1 h h
´ DEL VECTOR DE ESTADO: OSCILACION ´ ENTRE DOS ESTADOS 17.3. EVOLUCION
435
a en el estado |ϕ2 i . En de modo que en un tiempo tk = (2k+1)π~ 2|W21 | el sistema (cuyo estado inicial es |ϕ1 i) estar´ consecuencia, todo acople entre dos estados de igual energ´ıa hace que el sistema oscile completamente de un estado a otro con una frecuencia proporcional al acople. N´ otese que este fen´ omeno es an´ alogo al que ocurre con dos p´endulos acoplados de la misma frecuencia natural. Si el p´endulo 1 se desplaza dejando fijo al p´endulo 2, el primero comienza a oscilar pero su oscilaci´ on disminuye en tanto que va aumentando la del p´endulo 2 hasta que se llega a la condici´ on opuesta para un cierto tiempo, en el cual el p´endulo 2 oscila y el p´endulo 1 est´ a instant´ aneamente en reposo. Luego comienza la transferencia de energ´ıa al p´endulo 1 de nuevo y as´ı sucesivamente. Similarmente, cuando aumenta el acople (constante del resorte que acopla a los p´endulos), disminuye el tiempo de transferencia. Por otro lado, cuando ∆ ≡ E1 − E2 aumenta, la frecuencia (E+ − E− ) /h tambi´en aumenta (ver Ecs. 17.13, 17.14) en tanto que sin2 θ disminuye como se aprecia en la Ec. (17.34). Para un acople d´ebil |∆| = |E1 − E2 | ≫ |W21 |, se observa de las Ecs. (17.13, 17.14) que el desdoblamiento E+ − E− de los niveles perturbados solo difiere ligeramente del desdoblamiento ∆ de los estados no perturbados. Se puede ver tambi´en de la Ec. (17.34) que la cantidad sin2 θ es muy peque˜ na en tal l´ımite. Esto es de esperarse ya que en el l´ımite de acople d´ebil |ψ+ i es muy similar a |ϕ1 i, con lo cual el sistema estar´ıa en t = 0 en un estado cuasi-estacionario.
Cap´ıtulo 18
Teor´ıa cu´ antica de la dispersi´ on Un experimento t´ıpico de dispersi´ on (scattering) consiste en un haz de part´ıculas que se utilizan como proyectiles (usualmente en un acelerador) y se proyectan sobre un blanco (otro conjunto de part´ıculas) que con frecuencia est´ a en reposo en el sistema de referencia de laboratorio1 . Este tipo de experimentos se realizan usualmente con alguno de estos objetivos: (a) Caracterizar la interacci´ on que hay entre los proyectiles y el blanco, ´ o (b) Conociendo el tipo de interacci´ on entre el proyectil y el blanco, obtener informaci´ on sobre la distribuci´ on de masa del blanco. Cualquiera de estos objetivos se realiza midiendo la desviaci´ on del haz de proyectiles despu´es de interactuar con el blanco. Primero describiremos brevemente el escenario cl´ asico de la teor´ıa de la dispersi´ on, puesto que los conceptos b´ asicos son m´ as f´ aciles de constru´ır y asimilar en un escenario cl´ asico. Para posteriormente mostrar la imagen cu´ antica del fen´ omeno.
18.1.
Teor´ıa cl´ asica de la dispersi´ on
Imaginemos una part´ıcula incidente (proyectil) sobre un centro dispersor (blanco) que viene desde una distancia considerable (r → ∞, t → −∞). Es decir la part´ıcula incidente es esencialmente libre en este r´egimen asint´ otico con r → ∞, t → −∞, y por tanto se mueve en l´ınea recta. Definiremos el origen O, sobre el blanco o centro dispersor, y el eje Z ser´ a una l´ınea paralela a la l´ınea de propagaci´ on de la part´ıcula incidente, que pasa por el origen O. El par´ ametro de impacto de la part´ıcula se define como la distancia entre la l´ınea de propagaci´ on asint´otica incidente de la part´ıcula y el eje Z. En el r´egimen asint´ otico incidente, la part´ıcula viene con una energ´ıa y momento lineal E y p, bien definidos, y con un par´ ametro de impacto b. A medida que la part´ıcula se acerca al blanco, la interacci´ on con ´este se vuelve considerable de modo que su trayectoria ya no es una l´ınea recta, a la regi´ on donde esta interacci´ on es considerable se le denomina la regi´ on de colisi´ on o regi´ on de dispersi´ on. Por convenci´ on, se asume que t ∼ 0 cuando el proyectil est´ a dentro de la regi´ on de colisi´ on. Cuando el proyectil se aleja bastante del blanco, ´este vuelve a ser libre y su trayectoria ser´ a nuevamente una l´ınea recta, la regi´ on asint´ otica saliente est´ a entonces caracterizada por r → ∞ y t → ∞. Sin embargo, la direcci´ on saliente ser´ a en general diferente a la direcci´ on incidente de la part´ıcula, ya que la interacci´ on con el blanco en la regi´ on de colisi´ on se manifiesta en una deflexi´ on de la trayectoria del proyectil. El ´ angulo θ entre la direcci´ on entrante (o incidente) y la direcci´ on saliente se denomina ´ angulo de dispersi´ on de la part´ıcula. Este ´ angulo es el que contiene informaci´ on sobre la dispersi´ on y que nos puede arrojar luces sobre la interacci´ on entre el proyectil y el blanco, o la distribuci´ on de masa del blanco. La Fig. 18.1 muestra la dispersi´ on de un proyectil por un blanco fijo. En un experimento real no utilizamos un solo proyectil ni un solo blanco, sino un haz de part´ıculas incidentes sobre una serie de blancos. A manera de ejemplo, en el experimento de Rutherford se utilizaron como proyectiles 1
En muchos experimentos reales con aceleradores de part´ıculas, no hay un blanco fijo con respecto al laboratorio, sino que se ponen a colisionar dos haces que se aproximan frontalmente. Esto se hace con el fin de aumentar la energ´ıa cin´etica total de la colisi´ on. Sin embargo, si los haces no presentan mucha dispersi´ on en sus velocidades, siempre es posible pasar a un sistema de referencia en el cual las part´ıculas de uno de los haces est´ an en reposo.
436
´ ´ 18.1. TEOR´IA CLASICA DE LA DISPERSION
437
Figura 18.1: Ilustraci´ on del par´ ametro de impacto b y del ´ angulo de dispersi´ on θ, en el problema cl´ asico de la dispersi´ on. un haz de part´ıculas α (n´ ucleos de He4 ) emitidos en un decaimiento radiactivo. Por otro lado, los blancos eran atomos de oro en forma de una delgada l´ ´ amina de dicho elemento. La distribuci´ on angular de las part´ıculas α, di´ o una evidencia clara de que la carga positiva del ´ atomo de oro estaba concentrada en un n´ ucleo donde se encontraba casi toda la masa de dicho a´tomo. En el caso del experimento de Rutherford, el objetivo era caracterizar la distribuci´ on de masa de los blancos asumiendo conocida la interacci´ on entre los proyectiles y los blancos (interacci´on de Coulomb). Es claro que la deflexi´ on de la part´ıcula va a depender tanto de la energ´ıa E como del par´ ametro de impacto b. Adicionalmente, puesto que no tenemos un solo proyectil, es importante caracterizar la intensidad (tambi´en denominada luminosidad o flujo) del haz incidente i.e. la cantidad de part´ıculas por unidad de ´ area por unidad de tiempo que cruzan un ´ area perpendicular a la direcci´ on de propagaci´ on del haz. Recordemos que por convenci´ on, la direcci´ on de propagaci´ on incidente es uz . Puesto que el haz posee un tama˜ no o ancho, tendremos proyectiles con diferentes par´ ametros de impacto (incluso si todos se preparan con la misma energ´ıa) y por tanto no tendremos un ´ angulo espec´ıfico de dispersi´ on, sino m´ as bien una distribuci´ on angular que se debe medir con alg´ un detector. El detector de las part´ıculas salientes debe estar ubicado a una distancia suficientemente lejana para que se pueda considerar que est´a en la regi´ on asint´ otica saliente (lejos de la regi´ on de colisi´ on). N´ otese que un haz muy intenso producir´ıa dispersi´ on debida a la interacci´ on entre los proyectiles, incluso en las “regiones asint´ oticas” incidente y saliente. Esto es indeseable para la mayoria de experimentos en donde se pretende caracterizar solo la interacci´ on proyectil-blanco. Por otro lado, haces de muy baja intensidad producir´ an una estad´ıstica muy pobre debido al bajo n´ umero de eventos detectados. Esto puede compensarse usando haces de baja intensidad enviando una serie de haces en tiempos prolongados, a fin de mantener baja la interacci´ on entre los proyectiles y al mismo tiempo acumular la estad´ıstica suficiente. Esto implica retos experimentales que no trataremos aqu´ı. La Fig. 18.2, muestra que las part´ıculas incidentes dentro de un “parche” infinitesimal de ´ area transversal dσ, se dispersar´ an en un ´ angulo s´ olido infinitesimal asociado dΩ centrado alrededor de cierta direcci´on Ω ≡ (θ, ϕ).
´ ´ CAP´ITULO 18. TEOR´IA CUANTICA DE LA DISPERSION
438
Figura 18.2: Las part´ıculas que inciden en el ´ area dσ, se dispersan dentro del ´ angulo s´ olido dΩ centrado en la direcci´ on (θ, ϕ). A mayor dσ le corresponder´ a un mayor ´ angulo s´ olido dΩ, al factor de proporcionalidad entre ambos D (Ω) se le conoce como la secci´ on eficaz diferencial2 en la direcci´ on Ω ≡ (θ, ϕ) dσ ≡ D (Ω) dΩ
; D (Ω) ≡
dσ dΩ
(18.1)
Adicionalmente, si dn es el n´ umero de part´ıculas que cruza el ´ area dσ por unidad de tiempo, por definici´ on de intensidad se tiene que dn I≡ ⇒ dn = I dσ dσ por lo tanto, la secci´ on eficaz diferencial se puede definir como el factor de proporcionalidad que conecta a dn con la intensidad del haz y el ´ angulo s´ olido dΩ (centrado en la direcci´ on Ω ≡ (θ, ϕ)) asociado a dn y dσ dn = I dσ = I D (Ω) dΩ
⇒ D (Ω) dΩ ≡
dn I
(18.2)
en palabras decimos que n´ umero de part´ıculas dispersadas por unidad de tiempo en un ´ angulo s´ olido dΩ centrado en la direcci´ on Ω ≡ (θ, ϕ) D (Ω) dΩ ≡ Intensidad incidente
(18.3)
dn tiene dimensiones de tiempo−1 , dΩ es adimensional, e I tiene dimensiones de area−1 × tiempo−1 . Por tanto, D (Ω) tiene dimensiones de ´ area. Para experimentos de dispersi´ on a escala at´ omica es usual tomar la unidad b´ asica barn como medida de la secci´ on eficaz diferencial 1barn = 10−24 cm2 La definici´ on (18.3) implica que se tiene en cuenta solo las part´ıculas que se deflectan. El flujo de estas part´ıculas al alcanzar el detector D es inversamente proporcional al cuadrado de la distancia entre el detector y el centro dispersor, ya que el detector (centrado en una direcci´ on dada (θ, ϕ)) tiene una superficie fija y por tanto el ´ angulo s´ olido ∆Ω que subtendiende con respecto a O, disminuye con la distancia al blanco como r −2 . En la pr´ actica, el ancho del haz est´ a acotado lateralmente, pero este ancho suele extenderse m´ as all´ a de la regi´ on de influencia de 2
El t´ermino secci´ on eficaz diferencial no es muy apropiado, puesto que D (Ω) definido en (18.3) no es una cantidad diferencial (infinitesimal) sino finita. Es una derivada mas no un diferencial.
18.2. DIFERENTES TIPOS DE COLISIONES
439
la interacci´ on, es decir que en los “bordes exteriores” del haz, no hay una interacci´ on considerable con el blanco y no hay deflexi´ on de los proyectiles. Sin embargo, el detector suele estar fuera de la trayectoria de estas part´ıculas que no se deflectan, de modo que solo recibe part´ıculas deflectadas. Con este arreglo experimental, no es posible medir la secci´ on eficaz en la direcci´ on frontal (θ = 0) ya que a ella contribuyen las part´ıculas con par´ ametro de impacto cero o muy grande (al menos para potenciales con simetr´ıa esf´erica). Usualmente la secci´ on eficaz frontal, se obtiene por extrapolaci´ on de los valores de D (θ, ϕ) para valores peque˜ nos de θ. Por otro lado, de la Fig. 18.2 vemos que el diferencial de ´ area dσ viene dado por dσ = b |db| dϕ siendo ϕ el ´ angulo azimutal (ya explicaremos la raz´ on para introducir el valor absoluto de db), y puesto que el diferencial del ´ angulo s´ olido es dΩ = sin θ dθ dϕ, la Ec. (18.1) nos da3 b db D (Ω) = (18.4) sin θ dθ
n´ otese que D (Ω) puede depender de θ y ϕ si el par´ ametro de impacto es funci´ on de θ y ϕ. En la expresi´ on (18.4) se ha colocado un valor absoluto debido a que b es t´ıpicamente una funci´ on decreciente de θ y por tanto, la derivada es t´ıpicamente negativa. Definiremos adem´ as la secci´ on eficaz total en la forma Z D (Ω) dΩ σ≡ Ω
dicho en t´erminos muy generales, σ corresponde al ´ area total del haz incidente que es dispersada por el blanco.
18.2.
Diferentes tipos de colisiones
En algunos experimentos de colisi´ on es posible que no se conserve el n´ umero y/o la identidad de las part´ıculas. Por ejemplo, en la colisi´ on algunas part´ıculas se pueden fusionar o fragmentar, de modo que cambia la identidad y tal vez el n´ umero de part´ıculas salientes. Esto ocurre en particular cuando las part´ıculas que forman el proyectil y/o el blanco no son elementales, sino que est´ an compuestas de otras part´ıculas m´ as peque˜ nas. En este tipo de colisiones, la energ´ıa interna de las part´ıculas involucradas cambia de modo que la energ´ıa cin´etica inicial es diferente a la energ´ıa cin´etica total final (colisiones inel´ asticas). De otra parte, en un r´egimen relativista, es posible que se creen o aniquilen part´ıculas a expensas de la energ´ıa de las part´ıculas entrantes gracias a la equivalencia masa-energ´ıa. Por ejemplo, en F´ısica de part´ıculas un electr´ on y un positr´ on (la antipart´ıcula del electr´ on) colisionando a altas energ´ıas se pueden convertir en un par mu´ on-antimu´ on. El mu´ on es una part´ıcula con caracter´ısticas similares al electr´ on pero con masa en reposo unas doscientas veces mayor, este proceso se simboliza como e− e+ → µ− µ+
(18.5)
en esta colisi´ on cambia la naturaleza de las part´ıculas salientes. N´ otese que el producto final es de part´ıculas mucho m´ as masivas, que se pueden crear a expensas de la energ´ıa cin´etica de las part´ıculas incidentes. Tambi´en existen en F´ısica de part´ıculas los decaimientos, en los cuales una part´ıcula se fragmenta en dos o m´ as. Por ejemplo, un mu´ on µ− puede decaer en dos electrones y un positr´ on µ− → e− e− e+ en particular es posible que se d´e el proceso (18.5) y el mu´ on resultante decaiga como en (18.6) resultando e− e+ → µ− µ+ → e− e− e+ µ+ 3
Para constru´ır dΩ, los diferenciales dϕ y dθ se definen positivos.
(18.6)
´ ´ CAP´ITULO 18. TEOR´IA CUANTICA DE LA DISPERSION
440 que en forma efectiva se puede ver como
e− e+ → e− e− e+ µ+ en esta colisi´ on cambi´ o tanto el n´ umero de part´ıculas como su naturaleza. Este tipo de colisiones las llamamos gen´ericamente reacciones. En la dispersi´ on o scattering el estado final y el inicial est´ an compuestos de las mismas part´ıculas en n´ umero y en identidad. Nos limitaremos a este tipo de reacciones. Sin embargo, el concepto de secci´ on eficaz puede extrapolarse a reacciones generales. Normalmente denominamos dispersi´ on o scattering a aquellas colisiones en las cuales el n´ umero y la identidad de las part´ıculas se conserva. Si adem´ as se conserva la energ´ıa cin´etica total, es decir si no hay cambios en la energ´ıa interna de las part´ıculas, decimos que la dispersi´ on es el´ astica. En el presente contexto nos limitaremos a estudiar el fen´ omeno de la dispersi´ on el´ astica.
18.3.
Ejemplos de dispersi´ on en mec´ anica cl´ asica
18.3.1.
Dispersi´ on el´ astica por esfera r´ıgida
Figura 18.3: Dispersi´ on de una masa puntual por una esfera r´ıgida. El ´ angulo de incidencia α, coincide con el ´ngulo de reflexi´ a on. Esta dispersi´ on puede simular la colisi´ on el´ astica de una esfera r´ıgida de masa m y radio r como proyectil, que choca con otra esfera r´ıgida en reposo de masa M ≫ m y de radio R ≫ r. Podemos por simplicidad tratar el proyectil como puntual, y considerar que el blanco no recula en el choque. Si la colisi´ on es el´ astica el ´ angulo de incidencia α es igual al ´ angulo de reflexi´ on (medidos con respecto a la normal a la superficie del blanco) como se v´e en la Fig. 18.3. Siendo θ el ´ angulo de dispersi´ on y b el par´ ametro de impacto, de la Fig. 18.3 son claras las relaciones b = R sin α ; θ = π − 2α siempre que b ≤ R
θ = 0 siempre que b > R Tendremos entonces que b = R sin
π θ − 2 2
= R cos
θ 2
(18.7)
´ EN MECANICA ´ ´ 18.3. EJEMPLOS DE DISPERSION CLASICA
441
n´ otese que para definir b como funci´ on de θ asignamos u ´nicamente el valor b = R para θ = 0. Tenemos entonces que db 1 θ = − R sin (18.8) dθ 2 2 puesto que θ est´ a entre cero y π, la derivada (18.8) es negativa como se anticip´ o. Sustituyendo (18.7) y (18.8) en la Ec. (18.4) nos queda D (θ) = D (θ) =
R cos θ2 sin θ R2 4
θ 2 1 − R sin θ = R cos 2 sin 2 2 2 sin θ
θ 2
=
R2 sin2 θ 2 sin θ
en este caso la secci´ on eficaz diferencial es independiente de θ. La secci´ on eficaz total estar´ a dada por Z
R2 D (Ω) dΩ = σ= 4 Ω
Z
dΩ = πR2
(18.9)
Ω
hab´ıamos dicho que en t´erminos muy generales, σ corresponde al ´ area total del haz incidente que es dispersada por el blanco. Efectivamente, en este caso σ es el ´ area transversal del blanco y solo proyectiles que incidan dentro de este ´ area golpear´ an el blanco y se dispersar´ an, los que vengan fuera de este ´ area (b > R) no se dispersan en lo absoluto. El lector puede verificar que si consideramos el tama˜ no del proyectil, definiendo R1 y R2 como los radios del blanco y el proyectil respectivamente, la secci´ on eficaz diferencial toma la forma D (θ) =
(R1 + R2 )2 ; σ = π (R1 + R2 )2 4
donde vemos que la expresi´ on para D (θ) es sim´etrica con respecto a los radios del proyectil y el blanco (ver por ejemplo la Ref. [6], Sec. 9.9).
18.3.2.
Dispersi´ on de Rutherford
Si un proyectil muy liviano de carga q1 y energ´ıa cin´etica E, se dispersa por un blanco fijo muy pesado de on4 . El par´ ametro de impacto en t´erminos del carga q2 , podemos utilizar la ley de Coulomb como ley de interacci´ angulo de dispersi´on y de la energ´ıa E est´ ´ a dado por b=
q1 q2 θ cot 8πǫ0 E 2
(18.10)
y la secci´ on eficaz diferencial viene dada por "
q1 q2 D (θ) = 16πǫ0 E sin2
θ 2
#2
(18.11)
al integrar sobre el ´ angulo s´ olido, puede verse que la secci´ on eficaz total es infinita. Esto se debe a que la interacci´ on coulombiana es de alcance infinito, de modo que para un haz de cualquier ´ area transversal todas sus part´ıculas son dispersadas. El c´ alculo de las ecuaciones (18.10, 18.11) es extenso y el lector lo puede consultar en cualquier texto de mec´anica cl´ asica (ver por ejemplo la Ref. [6], Sec. 9.10). 4
Esta es la situaci´ on por ejemplo, cuando los proyectiles son electrones y los blancos son n´ ucleos.
442
18.4.
´ ´ CAP´ITULO 18. TEOR´IA CUANTICA DE LA DISPERSION
Teor´ıa cu´ antica de la dispersi´ on
En escala at´ omica, nuclear o subnuclear, los efectos cu´ anticos son considerables y de hecho resulta inapropiado utilizar la teor´ıa cl´ asica. En los modelos cl´ asicos las part´ıculas poseen posici´ on y momento bien definidos, configurando trayectorias bien definidas. En el escenario cu´ antico, las part´ıculas y sus trayectorias son reemplazadas por funciones de onda que se propagan (usualmente en forma de paquetes de onda) y que adem´ as obedecen a un principio de incertidumbre que prohibe localizar el paquete y definir su momento simult´ aneamente, con precisi´ on indefinida. N´ otese que a pesar de que ya no tenemos trayectorias asociadas a las part´ıculas, s´ı tenemos direcciones de propagaci´ on de las ondas asociadas, lo cual nos permite definir a´ un un ´ angulo de dispersi´ on θ, de manera coherente. Un aspecto sobresaliente que surge de la cuantizaci´ on, es la posibilidad de que las ondas asociadas a las part´ıculas incidentes interfieran con las ondas asociadas a las part´ıculas salientes. Tal fen´ omeno de interferencia puede generar diferencias significativas con respecto a las predicciones cl´ asicas. Asumiremos el escenario m´ as simple de dispersi´ on el´ astica de part´ıculas incidentes que rotulamos con (1) debidas a la interacci´ on con part´ıculas blanco que denotamos por (2). Supondremos adem´ as que el blanco es mucho m´ as masivo que los proyectiles de modo que no recula. Es decir que asumiremos blanco fijo a lo largo de todo el proceso. Tambi´en haremos las siguientes aproximaciones adicionales. 1. Supondremos que las part´ıculas (1) y (2) no poseen esp´ın. Esto simplificar´ a considerablemente el problema. Sin embargo, en un escenario cu´ antico realista el esp´ın juega un papel muy importante en la dispersi´ on. 2. Asumiremos que el blanco es lo suficientemente delgado para que no ocurra dispersi´ on m´ ultiple. Es decir procesos en los que una part´ıcula incidente se dispersa varias veces antes de abandonar la regi´ on de colisi´ on. Por ejemplo, en el experimento de Rutherford (estrictamente, de Geiger y Marsden 1909), la l´ amina de oro pose´ıa un espesor de unos 10−4 cm. El n´ umero promedio de ´ atomos atravesados por la part´ıcula α, est´ a aproximadamente dado por el espesor de la l´ amina dividido por el di´ ametro de un ´ atomo (∼ 10−8 cm). Es decir que el proyectil atraviesa unos 104 ´ atomos de oro, de modo que es de esperarse que existan dispersiones m´ ultiples. Estas dispersiones m´ ultiples requieren un tratamiento estad´ıstico que no estudiaremos aqu´ı. 3. Ignoraremos la posibilidad de coherencia entre las ondas dispersadas por las diferentes part´ıculas que constituyen el blanco. Esta aproximaci´ on se justifica si el ancho del paquete asociado a las part´ıculas (1) es peque˜ no comparado con la distancia promedio entre las part´ıculas (2). De modo que solo tendremos en cuenta procesos de dispersi´ on de una part´ıcula (1) del haz por una part´ıcula (2) del blanco. Cuando estas coherencias son despreciadas, el flujo de part´ıculas detectadas es la suma de los flujos dispersados por cada una de las N part´ıculas del blanco. Es decir N veces el flujo dispersado por cualquiera de las part´ıculas del blanco. N´ otese que la posici´ on del proyectil dentro del blanco no es relevante siempre y cuando las dimensiones del blanco y de la regi´ on de colisi´ on sean mucho menores que la distancia entre el blanco y el detector. Esta condici´on asint´ otica de hecho es fundamental en los experimentos de dispersi´ on. Esta aproximaci´ on excluye por ejemplo el scattering coherente de electrones en un cristal (que forma los patrones de difracci´ on de Bragg)5 . 4. Supondremos que la interacci´ on entre proyectiles (1) y blancos (2) se describe mediante un potencial V (r) ≡ V (r1 − r2 ) que depende solo de la posici´ on relativa r entre las part´ıculas proyectil y blanco. No consideraremos la interacci´ on entre proyectiles o entre blancos. Como se vi´ o en las secciones 12.1, 12.2, en el sistema de referencia centro de masa, este problema se reduce al estudio de la dispersi´ on de una part´ıcula sometida a un potencial V (r) de masa m1 m2 µ= (m1 + m2 ) si asumimos que el blanco no recula, podemos asumir que el sistema de referencia del laboratorio y el del centro de masa son aproximadamente iguales. 5
En la difracci´ on de Bragg, las dimensiones t´ıpicas de la onda (longitud de onda), son comparables a la distancia promedio entre los blancos (distancias interat´ omicas en el cristal), de lo cual surge el fen´ omeno de la difracci´ on.
´ 18.5. ESTADOS ESTACIONARIOS DE DISPERSION
18.5.
443
Estados estacionarios de dispersi´ on
Asumiremos que se conoce la estructura del paquete de onda incidente, esto es para r → ∞ y t → −∞, ya que estas son las condiciones iniciales en las que se prepara el experimento. La interacci´ on de los proyectiles con el blanco se modelar´ a por medio de un potencial central V (r), y colocamos por conveniencia el origen en el centro dispersor. La idea es describir el scattering calculando la evoluci´ on temporal del paquete de onda del proyectil. Puesto que todo paquete de onda se puede escribir como una superposici´ on de estados estacionarios, la determinaci´ on de dichos estados ser´ a un buen punto de partida. Comenzaremos por tanto, estudiando la ecuaci´ on de valores propios del Hamiltoniano asociado al proyectil H = H0 + V (r) =
P2 + V (r) 2µ
estrictamente, basaremos nuestros razonamientos en el comportamiento de las soluciones estacionarias en lugar de los paquetes de ondas. Esta forma de razonamiento fu´e la que se utiliz´ o en las secciones 3.4-3.8, para potenciales “rectangulares” en una dimensi´ on, y consisti´ o en considerar el flujo estacionario de probabilidad asociado al estado estacionario, para estudiar las corrientes de probabilidad que genera. Aunque este tratamiento no es riguroso, es posible probar que se obtienen los mismo resultados que en el caso m´ as realista en el cual se estudia el comportamiento del paquete de onda completo6 . Puesto que el potencial V (r) no depende expl´ıcitamente del tiempo, existe un conjunto de soluciones ψ (r, t) de la ecuaci´ on de Schr¨ odinger, que admite separaci´ on de variables [ver secci´ on 3.2, Ecs. (3.15, 3.16) P´ ag. 159], en la forma (18.12) ψ (r, t) = η (r) e−iEt/~ donde η (r) es la soluci´ on de la ecuaci´ on de valores propios ~ 2 − ∇ + V (r) η (r) = Eη (r) 2µ
(18.13)
adem´ as los estados estacionarios (18.12) describen un autoestado de energ´ıa E. Asumiremos que el potencial decrece m´ as r´ apido que 1/r. Por tanto, la interacci´ on tipo Coulomb debe tratarse por aparte. Puesto que la colisi´ on es el´astica y los estados que consideraremos son de energ´ıa bien definida, tenemos que la energ´ıa se conserva y es igual a la energ´ıa de la part´ıcula incidente, la cual es puramente cin´etica. En consecuencia, estaremos interesados solo en las soluciones de energ´ıa positiva de (18.13), asociadas a part´ıcula libre E= redefiniendo el potencial en la forma V (r) =
~2 k2 2µ
(18.14)
~2 U (r) 2µ
(18.15)
podemos reescribir la Ec. (18.13) en t´erminos del n´ umero de onda k 2 ∇ + k2 − U (r) η (r) = 0
(18.16)
Para un valor fijo de k (i.e. de la energ´ıa), hay infinitas soluciones linealmente independientes para la Ec. (18.16), es decir cada valor positivo de la energ´ıa est´ a infinitamente degenerado7 . Debemos entonces seleccionar las soluciones que satisfagan las condiciones f´ısicas del problema en cuesti´ on. Este fu´e el procedimiento que se sigui´ o en las secciones 3.4-3.8. A manera de ejemplo, en la secci´ on 3.6 se supone que la onda reflejada solo surge en la interfase 6 Una demostraci´ on de este hecho para el scattering de una part´ıcula en un potencial unidimensional particular, se puede encontrar en el complemento JI del Volumen 1 de la Ref. [4]. 7 Adicionalmente, puesto que el problema es no acotado, el espectro es a priori cont´ınuo.
´ ´ CAP´ITULO 18. TEOR´IA CUANTICA DE LA DISPERSION
444
entre las dos regiones y por tanto, la soluci´ on estacionaria en la regi´ on II consta solo de una onda transmitida, esto nos lleva a su vez a la condici´ on descrita por la Ec. (3.63), P´ ag. 171. En el presente contexto la determinaci´ on de las soluciones f´ısicas ser´ a m´ as compleja debido a que es un problema tridimensional y adem´as el potencial es en principio arbitrario. A pesar de que usaremos soluciones estacionarias, utilizaremos algunas condiciones asociadas a las propiedades de los paquetes de onda. Los estados estacionarios que surjan cuando se impongan estas condiciones en las soluciones de la Ec. (18.16) se denominar´ an estados estacionarios de dispersi´ on, y su funci´on de onda espacial se denotar´ a por ηk (r). Para valores negativos grandes de t, el paquete de onda est´ a en sus condiciones iniciales. Lo usual es preparar el proyectil en un estado bien definido de momento, es decir una onda plana. Por tanto, en t → −∞, el estado estacionario η (r) que buscamos debe contener una onda incidente con momento bien definido que se propaga en direcci´ on Z, i.e. eikz . Cuando el paquete se aproxima a la regi´ on de dispersi´ on, se deforma de una manera en general compleja y que depende de la forma espec´ıfica del potencial. Sin embargo, para t → ∞, el paquete se ha alejado bastante de la regi´ on de dispersi´ on y por tanto su perfil se simplifica de nuevo. El paquete saliente debe poseer una onda eikz que contin´ ua propag´ andose en la direcci´ on positiva de Z (como si no existiera potencial), y un paquete dispersado por el potencial. Por tanto, el paquete de onda completo (al menos en las regiones asint´ oticas) que representa a la soluci´ on estacionaria de dispersi´ on para una energ´ıa dada E = ~2 k2 /2µ, ser´ a la superposici´ on de una onda plana y una onda dispersada (k)
(k) (k) l´ım ηk (r) → ηinc (r) + ηsc (r) = Ceikz + ηsc (r)
r→∞ (k)
(18.17)
(k)
on es donde ηinc (r), ηsc (r) representan la onda incidente y dispersada respectivamente. Puesto que esta soluci´ (k) v´ alida solo en las regiones asint´ oticas en donde el proyectil es libre, entonces ηsc (r) es soluci´ on de la ecuaci´ on (18.13)8 pero con V (r) = 0. Realizaremos un ansatz de separaci´ on de variables similar al de las Ecs. (12.33, 12.36), P´ ag. 351 uk (r) (k) ηsc (r) = fk (θ, ϕ) Rk (r) ≡ fk (θ, ϕ) (18.18) r la Ec. (18.13) en coordenadas esf´ericas est´ a dada por la Ec. (12.31) P´ ag. 350 ~2 ∂ 2 L2 − r + + V (r) η (r, θ, ϕ) = E η (r, θ, ϕ) (18.19) 2µr ∂r 2 2µr 2 insertando el ansatz (18.18) en (18.19), se obtiene L2 ~2 ∂ 2 r+ + V (r) fk (θ, ϕ) Rk (r) = E fk (θ, ϕ) Rk (r) − 2µr ∂r 2 2µr 2 ~2 ∂ 2 L2 fk (θ, ϕ) fk (θ, ϕ) − r + V (r) R (r) + R (r) = E fk (θ, ϕ) Rk (r) k k 2µr ∂r 2 2µr 2 ~2 ∂ 2 Rk (r) L2 fk (θ, ϕ) − r + V (r) R (r) + = E Rk (r) k 2µr ∂r 2 2µr 2 fk (θ, ϕ)
(18.20)
y teniendo en cuenta que L2 es un operador diferencial que solo involucra a los ´ angulos, podemos definir una funci´on angular L2 fk (θ, ϕ) Hk (θ, ϕ) ≡ (18.21) fk (θ, ϕ) con lo cual la Ec. (18.20) queda 8
−
~2 ∂ 2 Hk (θ, ϕ) r + V (r) + Rk (r) = E Rk (r) 2µr ∂r 2 2µr 2
Naturalmente, la soluci´ on completa de la ecuaci´ on (18.13) con V (r) = 0, debe ser (18.17). Pero dado que Ceikz ya es soluci´ on y puesto que esta ecuaci´ on es lineal, se deduce que cada sumando en (18.17) es soluci´ on de la Ec. (18.13) con V (r) = 0.
´ 18.5. ESTADOS ESTACIONARIOS DE DISPERSION
445
haciendo V (r) = 0 (ya que estamos buscando la soluci´ on en la regi´ on asint´ otica), y escribiendo Rk (r) = uk (r) /r, con un procedimiento similar al usado para llegar de la Ec. (12.35) a la Ec. (12.37) obtenemos9 2 2 ~ d Hk (θ, ϕ) − + uk (r) = Ek uk (r) 2µ dr 2 2µr 2
(18.22)
ahora, puesto que las soluciones que buscamos son para r → ∞, despreciaremos el t´ermino proporcional a 1/r 2 , de modo que buscaremos la soluci´ on de la ecuaci´ on −
~2 d2 uk (r) = Ek uk (r) 2µ dr 2
(18.23)
La soluci´ on de la Ec. (18.23) tiene la forma ikr
uk (r) = Ae
−ikr
+ Be
;
k≡
r
2µE ~2
(18.24)
de la Ec. (18.14) vemos que esta k corresponde efectivamente al n´ umero de onda asociado a part´ıcula libre. Teniendo en cuenta que la soluci´ on completa debe tener el t´ermino temporal e−iEt/~ , dicha soluci´ on es una superposici´ on i(±kr− Et ) ~ de los dos t´erminos e . Ahora bien, el estado asint´ otico saliente debe mantener fase constante, por tanto el t´ermino ±kr − Et/~ debe permanecer acotado para r → +∞ y t → +∞ (es claro que cuando el tiempo crece la distancia r al origen tambi´en crece), pero esto solo es posible eligiendo el t´ermino con signo positivo (el t´ermino con signo negativo claramente tiende a −∞ cuando el tiempo crece). En consecuencia, solo la parte con eikr corresponde a la onda dispersada. Las condiciones f´ısicas nos llevan entonces a uk (r) = Aeikr
;
k≡
r
2µE ~2
(18.25)
sustituyendo (18.25) en (18.18) y esta a su vez en (18.17) tenemos que (k)
(k) (r) = Ceikz + fk (θ, ϕ) l´ım ηk (r) → ηinc (r) + ηsc
r→∞
eikr r
(18.26)
donde el factor A de la Ec. (18.25) se absorbi´ o en la funci´ on angular fk (θ, ϕ). N´ otese que a pesar de la simetr´ıa esf´erica del potencial puede aparecer una dependencia angular en la funci´ on de onda estacionaria de dispersi´ on, debido a que la direcci´ on del haz rompe la simetr´ıa esf´erica del potencial, reduci´endola a una simetr´ıa cil´ındrica. No obstante, de la simetr´ıa cil´ındrica remanente se espera que la dependencia angular sea solo en θ, pero no en el angulo azimutal ϕ. Si adicionalmente el potencial no es central, tambi´en se rompe la simetr´ıa cil´ındrica y esperamos ´ que haya dependencia con el ´ angulo azimutal ϕ. De hecho la funci´ on fk (θ, ϕ) conocida como la amplitud de dispersi´ on es la u ´nica en la Ec. (18.26) que depende de la forma espec´ıfica del potencial. La Fig. 18.4 muestra las ondas planas incidentes, as´ı como las ondas esf´ericas salientes o dispersadas.
18.5.1.
Condiciones f´ısicas sobre el paquete de ondas
A pesar de que utilizaremos estados estacionarios, es necesario verificar que la soluci´ on real (paquete de ondas) satisface ciertas condiciones f´ısicas que analizaremos en forma semi-cuantitativa. Consideremos el paquete real 9
El procedimiento es similar al que nos llev´ o a la Ec. (12.37) P´ ag. 352, con V (r) = 0. Sin embargo, si se compara la ecuaci´ on (18.22) con la Ec. (12.37), vemos que en (18.22) no desaparece la dependencia angular en contraste con (12.37). Esto se debe a que en la separaci´ on de variables (18.18), las fk (θ, ϕ) no son funciones propias del operador momento angular, como s´ı ocurre en la separaci´ on de variables de las Ecs. (12.33, 12.36). De hecho para llegar a las ecuaciones (12.33, 12.36) se exigi´ o que las funciones en cuesti´ on fueran funciones propias simult´ aneas de H, L2 y L3 .
´ ´ CAP´ITULO 18. TEOR´IA CUANTICA DE LA DISPERSION
446
Figura 18.4: Dispersi´ on el´ astica de ondas planas incidentes por un potencial central. La figura ilustra las ondas planas incidentes y las ondas esf´ericas dispersadas o salientes. ψ (r, t) escrito en t´erminos de las soluciones estacionarias f´ısicas ψk (r, t) (autoestados del Hamiltoniano total H)10 l´ım ψ (r, t) →
r→∞
l´ım ψ (r, t) →
r→∞
Z Z
∞ ∞ 0
dk g (k) eikz
∞
dk g (k) ηk (r) e−iEk t/~ (18.27) Z ∞ eikr −iEk t/~ ~2 k2 −iEk t/~ e + dk g (k) fk (θ, ϕ) e ; Ek = (18.28) r 2µ 0
dk g (k) ψk (r, t) =
0
Z
0
para que estas sean soluciones v´ alidas en ambos reg´ımenes asint´ oticos (t → ∞ y t → −∞) es necesario probar que la onda dispersada tiende a cero para valores grandes de −t, ya que en el r´egimen incidente la onda todav´ıa no se ha dispersado con el potencial11 . Tomaremos como hip´ otesis que la funci´ on g (k) es real, con un pico muy pronunciado alrededor de k = k0 y sim´etrica alrededor de este punto. Es decir que la mayor parte de la contribuci´on est´ a en una regi´ on muy cercana a k = k0 . La posici´ on del m´ aximo de cada paquete se puede calcular utilizando la condici´ on de fase estacionaria discutida en las secciones 2.11.2, 2.1312 . Para el paquete de ondas planas la condici´ on de fase estacionaria nos dice que el m´ aximo del paquete est´ a ubicado en zM (t) = vG t ; vG = 10
~k0 µ
(18.29)
N´ otese que en este caso, hemos escrito el paquete en t´erminos de autoestados de H en lugar de ondas planas. Con respecto a tales estados, incluso la onda plana pura incidente es “policrom´ atica”. 11 Aqu´ı hemos despreciado una posible dispersi´ on en la orientaci´ on del vector de onda k. Es decir, hemos supuesto que la onda incidente va en direcci´ on uz perfectamente definida, y toda la dispersi´ on se la endilgamos al m´ odulo de k, o equivalentemente a la energ´ıa incidente. 12 Ver en particular las discusiones alrededor de las Ecs. (2.64, 2.83) P´ ags. 140, 149 respectivamente.
´ 18.5. ESTADOS ESTACIONARIOS DE DISPERSION
447
en tanto que para el paquete de ondas dispersadas, dicho m´ aximo en la direcci´ on (θ, ϕ) se ubica a una distancia del origen dada por dαk (θ, ϕ) rM (θ, ϕ, t) = − + vG t ; fk (θ, ϕ) = |fk (θ, ϕ)| eiαk (θ,ϕ) (18.30) dk k=k0
es importante tener presente que las Ecs. (18.29, 18.30) solo son v´ alidas para valores grandes de |t|. De la Ec. (18.30) se observa que para valores grandes de −t, necesariamente estamos muy lejos de la condici´ on de m´ aximo para r, ya que tal ecuaci´ on muestra que para lograr una interferencia constructiva que nos conduzca a un m´ aximo del paquete de ondas dispersadas en t → −∞, requerir´ıamos valores negativos de r los cuales est´ an fuera del dominio de la coordenada r. Por tanto, el paquete de onda (18.28) es tal que para t → −∞ solo contribuyen las ondas planas incidentes, y de acuerdo con la Ec. (18.29), el m´ aximo del paquete est´ a ubicado en zM → −∞ como debe ser. En cambio, para valores grandes positivos de t podemos encontrar m´ aximos tanto en el paquete de ondas planas como en el paquete de ondas dispersadas (naturalmente, ambos m´ aximos no necesariamente coinciden en el tiempo, y por tanto el m´ aximo de la suma podr´ıa estar a su vez en otro tiempo), mostrando que en el r´egimen asint´otico saliente ambas ondas son relevantes como esper´ abamos. Asumiendo que g (k) es aproximadamente gaussiano, podemos suponer (aproximadamente) paquetes de m´ınima incertidumbre. Por tanto, la extensi´ on espacial ∆z del paquete de ondas (18.27) est´ a relacionada con la dispersi´ on del momento p = ~k en la forma 1 ∆z ∆p ≃ ~ ⇒ ∆z ≃ ∆k hemos hecho la hip´ otesis de que g (k) es una distribuci´ on muy “aguda” i.e. ∆k muy peque˜ no. De hecho asumiremos 13 que ∆k es lo suficientemente peque˜ no para que ∆z sea mucho mayor que las dimensiones lineales de la regi´ on de dispersi´ on14 . Bajo estas condiciones, el paquete de onda que se mueve a una velocidad vG hacia el origen, cruzar´ a la regi´ on de dispersi´ on en un tiempo 1 ∆z ≃ (18.31) ∆T ≃ vG vG ∆k es razonable tomar este como un “tiempo caracter´ıstico de dispersi´ on”15 . Si definimos t = 0 cuando el paquete de ondas cruza el origen, podemos decir que existe onda dispersada para t & −∆T /2 que es cuando el extremo frontal del paquete incidente ha llegado a la regi´ on de influencia del potencial. Para t = 0, la parte m´ as distante al origen del paquete dispersado est´ a a una distancia del orden de ∆z/2. Cualitativamente, este problema se asemeja al siguiente: supongamos un potencial de la forma V (r) f (t), en el cual f (t) se incrementa lentamente desde 0 hasta 1 en el intervalo [−∆T /2, 0], y el potencial es cero para t < −∆T /2. Supongamos que la part´ıcula est´ a descrita por una onda plana en todo el espacio. La onda plana se empieza a modificar para t & ∆T /2, y se puede demostrar que la dispersi´ on en t = 0 se asemeja a la de nuestro problema. En nuestro problema tenemos dispersi´ on por un potencial constante en el tiempo y la amplitud del paquete se incrementa gradualmente entre −∆T /2 y cero. En el problema an´ alogo, la onda plana es de amplitud constante y lo que se aumenta gradualmente en el intervalo [−∆T /2, 0] es el m´ odulo del potencial. Esta analog´ıa es particularmente interesante cuando examinamos el l´ımite con ∆k → 0, de manera que g (k) → δ (k − k0 ). En este l´ımite, la descripci´ on de nuestro problema por estados estacionarios se vuelve exacta. Por otro lado, la Ec. (18.31) nos dice que en este l´ımite ∆T → ∞, y el comportamiento an´ alogo del potencial dependiente del tiempo corresponder´ a a que el “encendido” del potencial sea infinitamente lento i.e. “adiab´ atico”. Por esta 13 Puesto que las condiciones iniciales experimentales suelen ser preparar casi un autoestado de momento, esta suposici´ on es muy razonable si los coeficientes g (k) no cambian mucho en el tiempo. 14 Esto no necesariamente entra en contradicci´ on con nuestra suposici´ on de que el ancho del paquete incidente es peque˜ no comparado con la separaci´ on promedio entre las part´ıculas del blanco (ver P´ ag. 442). Es plausible que la distancia promedio d entre part´ıculas del blanco sea mucho mayor que la mayor longitud L asociada a la regi´ on de dispersi´ on. El ancho ∆z del paquete debe ser tal que L << ∆z << d, para que nuestros argumentos sean v´ alidos. 15 Esto nos permite definir tiempo grandes y peque˜ nos, el comportamiento asint´ otico se da entonces para |t| >> ∆T .
´ ´ CAP´ITULO 18. TEOR´IA CUANTICA DE LA DISPERSION
448
raz´ on, podemos decir que la descripci´ on de la dispersi´ on por medio de estados estacionarios es muy semejante a la que se obtiene imponiendo un potencial que se modula adiab´ aticamente sobre una onda plana libre.
18.6.
C´ alculo de la secci´ on eficaz usando corrientes de probabilidad
Ya hemos dicho que la dispersi´ on del paquete de ondas la simularemos como una dispersi´ on de estados estacionarios. Para calcular la secci´ on eficaz, debemos suplantar las trayectorias cl´ asicas que describen las propiedades de propagaci´ on de las part´ıculas, por alguna propiedad de propagaci´ on asociada a la ecuaci´ on de Schr¨ odinger. Cl´ asicamente, la intensidad era el n´ umero de part´ıculas por unidad de ´ area por unidad de tiempo que cruza un area perpendicular a la direcci´ ´ on de propagaci´ on, y se le puede asignar la direcci´ on de propagaci´ on de las part´ıculas incidentes. El an´ alogo cu´ antico, es la densidad de corriente de probabilidad que va en la direcci´on incidente y describe la propagaci´ on de la distribuci´ on de probabilidad. No obstante, debe tenerse en cuenta que los detectores no registran probabilidades sino part´ıculas, por lo cual debemos enlazar la densidad de corriente de probabilidad con una densidad de corriente (flujo) asociada a las part´ıculas. En virtud de lo anterior, consideraremos que los estados estacionarios describen un flujo de probabilidad estacionario, con lo cual calculamos la secci´ on eficaz para las corrientes incidente y dispersada. Este m´etodo es an´ alogo al que utilizamos en los problemas unidimensionales con potenciales rectangulares, en los cuales calculamos las corrientes incidentes, reflejadas y transmitidas para obtener los coeficientes de reflexi´ on y transmisi´ on. Ya hemos obtenido la expresi´ on para la densidad de corriente de probabilidad asociada a estados estacionarios Ec. (3.33), P´ ag. 164 1 ~ ∗ J (r) = Re η (r) ∇η (r) (18.32) µ i (k)
para la onda incidente tenemos que ηinc (r) = Ceikz con lo cual la densidad de corriente de probabilidad incidente Jinc vendr´ a dada por h i |C|2 ∂eikz |C|2 |C|2 −ikz ~ ikz −ikz ~ Re e ∇e Re e uz = uz Re e−ikz ~keikz Jinc (r) = = µ i µ i ∂z µ ~k Jinc (r) = |C|2 uz µ
(18.33)
puesto que |C|2 es la densidad de probabilidad de la onda incidente y p = ~k, esta corriente tiene la forma ρv, en (k) la direcci´ on uz de propagaci´ on. Para la onda dispersada tenemos ηsc (r) = fk (θ, ϕ) eikr /r, de modo que debemos expresar el gradiente en (18.32) en coordenadas esf´ericas Jsc = Jsc =
1 e−ikr ~ eikr Re fk∗ (θ, ϕ) ∇ fk (θ, ϕ) µ r i r 1 eikr ∗ −ikr ~ Re fk (θ, ϕ) e ∇ fk (θ, ϕ) µr i r
(18.34)
calcularemos cada componente de la densidad de corriente dispersada (18.34) por aparte (Jsc )r = = (Jsc )r =
1 ~ ∂ Re fk∗ (θ, ϕ) e−ikr fk (θ, ϕ) µr i ∂r 1 1 Re |fk (θ, ϕ)|2 ~ − + k = 2 µr ir ~k 1 |fk (θ, ϕ)|2 µ r2
ikr 1 ~ e ik eikr = Re |fk (θ, ϕ)|2 e−ikr − 2 + µr i r r ( ) 1 ~ |fk (θ, ϕ)|2 Re i + |fk (θ, ϕ)|2 ~k µr 2 r eikr r
(18.35)
´ ´ EFICAZ USANDO CORRIENTES DE PROBABILIDAD 18.6. CALCULO DE LA SECCION
(Jsc )θ = (Jsc )θ =
(Jsc )ϕ = (Jsc )ϕ =
449
ikr ∂f (θ, ϕ) 1 eikr 1 k ∗ −ikr ~ 1 ∂ ∗ −ikr ~ e Re fk (θ, ϕ) e fk (θ, ϕ) = Re fk (θ, ϕ) e µr i r ∂θ r µr i r2 ∂θ ~ 1 1 ∗ ∂fk (θ, ϕ) f (θ, ϕ) (18.36) Re µ r3 i k ∂θ 1 1 ∂ eikr 1 ~ 1 ∂fk (θ, ϕ) ∗ −ikr ~ ∗ Re fk (θ, ϕ) e fk (θ, ϕ) = Re fk (θ, ϕ) µr i r sin θ ∂ϕ r µr i r 2 sin θ ∂ϕ ~ 1 1 ∗ ∂fk (θ, ϕ) Re f (θ, ϕ) (18.37) µ r 3 sin θ i k ∂ϕ
A partir de las Ecs. (18.35, 18.36, 18.37), la densidad de corriente dispersada queda ~k 1 Jsc = (Jsc )r ur + (Jsc )θ uθ + (Jsc )ϕ uϕ ; (Jsc )r = |fk (θ, ϕ)|2 µ r2 1 ∗ ~ 1 1 ∗ ∂fk (θ, ϕ) ~ 1 ∂fk (θ, ϕ) (Jsc )θ = f (θ, ϕ) ; (Jsc )ϕ = Re f (θ, ϕ) Re µ r3 i k ∂θ µ r 3 sin θ i k ∂ϕ
(18.38) (18.39)
para valores muy grandes de r las componentes angulares son mucho menores que la radial ya que las primeras van como r −3 y la radial como r −2 . Por tanto en el r´egimen asint´ otico saliente, la corriente dispersada es pr´ acticamente radial ~k 1 l´ım J ≃ |fk (θ, ϕ)|2 ur (18.40) 2 r→∞ sc µ r t→∞ Ahora bien, el haz incidente consta de part´ıculas independientes ya que hemos despreciado la interacci´ on entre proyectiles. Puesto que asumimos que todos los proyectiles se preparan en el mismo estado inicial, enviar simult´aneamente un gran n´ umero de estos proyectiles es equivalente a repetir el mismo experimento con una sola part´ıcula un gran n´ umero de veces bajo las mismas condiciones iniciales. Si el estado estacionario en el que se preparan las part´ıculas es ηk (r), el flujo de part´ıculas incidente kFinc k (n´ umero de part´ıculas del haz incidente que cruzan una superficie unidad perpendicular a uz por unidad de tiempo) debe ser proporcional al flujo de probabilidad incidente kJinc k (probabilidad por unidad de ´ area por unidad de tiempo que se propaga en la direcci´ on uz ). Por supuesto ambos vectores son paralelos (en la direcci´ on de propagaci´ on uz de las part´ıculas y la probabilidad). Usando la Ec. (18.33) tenemos kFinc k
= ⇒
K kJinc k = K |C|2 Finc = K |C|2
~k µ
~k uz µ
(18.41)
ahora bien, si tenemos un detector ubicado a una distancia r del origen, un parche de superficie dS del detector normal a la direcci´ on ur , subtiende un ´ angulo s´ olido dΩ dado por dΩ =
dS r2
por otro lado, el n´ umero de part´ıculas dn que golpear´ a la superficie dS del detector por unidad de tiempo, es igual al flujo de part´ıculas que atravieza dicha superficie dn = Fsc · dS = K Jsc · dS donde hemos usado el hecho de que la constante de proporcionalidad entre flujo de probabilidad y flujo de part´ıculas es universal e independiente del valor de tales flujos. Si suponemos que el detector tiene superficie esf´erica con centro en el origen entonces dS = dS ur = r 2 dΩ ur (18.42)
´ ´ CAP´ITULO 18. TEOR´IA CUANTICA DE LA DISPERSION
450 y por tanto dn = K (Jsc )r dS = K
~k 1 |fk (θ, ϕ)|2 µ r2
r 2 dΩ = K
~k |fk (θ, ϕ)|2 dΩ µ
(18.43)
donde hemos usado (18.38, 18.42). Vale decir que incluso si el parche no es un sector esf´erico, para valores suficientemente grandes de r podemos usar la aproximaci´ on (18.40) y dn ser´ıa independiente de r. Esta condici´ on de hecho se debe cumplir en los experimentos. Insertando las Ecs. (18.41, 18.43) en la definici´ on de la secci´ on eficaz diferencial Ec. (18.2) resulta dn = kFinc k D (Ω) dΩ
⇒
K
~k ~k |fk (θ, ϕ)|2 dΩ = K |C|2 D (Ω) dΩ µ µ
de lo cual resulta
2 1 D (Ω) = fk (θ, ϕ) (18.44) C de modo que la secci´ on eficaz diferencial es esencialmente el cuadrado del m´ odulo de la amplitud de dispersi´ on. N´ otese que hemos omitido la contribuci´ on a la corriente asociada al estado estacionario ηk (r) que proviene de la interferencia entre la onda plana y la onda dispersada. De hecho la expresi´ on correcta para la densidad de corriente (18.32) involucra al t´ermino estacionario completo y debe escribirse en la forma 1 ~ 1 ~ ∗ ∗ ∗ J (r) = Re η (r) ∇η (r) = Re [ηinc (r) + ηsc (r)] ∇ [ηinc (r) + ηsc (r)] (18.45) µ i µ i de modo que en los c´ alculos hemos omitido los t´erminos de interferencia de la forma 1 ~ ~ ∗ ∗ J (r) = Re ηinc (r) ∇ηsc (r) + ηsc (r) ∇ηinc (r) µ i i sin embargo, veremos que esta interferencia solo contribuye en la direcci´ on frontal de dispersi´ on (θ = 0). La Fig. 18.5 muestra la colisi´ on en t´erminos de paquetes de onda. En esta figura se observa que en la pr´ actica, el paquete incidente tiene un ancho lateral finito. Inicialmente, el paquete se mueve hacia la regi´ on de dispersi´ on (Fig. 18.5.a), despu´es de la colisi´ on tenemos dos paquetes: el paquete de ondas planas que resulta de la propagaci´ on de la onda incidente como si no hubiese potencial dispersor, y el dispersado que se propaga desde el origen en todas direcciones. En consecuencia, la onda transmitida se forma con la interferencia entre el paquete plano y el dispersado. Sin embargo como ya se discuti´ o, el detector se coloca fuera de la secci´ on transversal del haz incidente de modo que no es golpeado por part´ıculas transmitidas, por tanto el detector solo observa el paquete de onda dispersado, por lo cual no se requiere considerar los t´erminos de interferencia entre la onda plana y la dispersada. La Fig. 18.5b. nos muestra que en la direcci´ on frontal debe tenerse en cuenta tal interferencia, ya que en este caso ambos paquetes ocupan la misma regi´ on del espacio, y la onda transmitida es el resultado de esta interferencia. Adicionalmente, la amplitud de la onda transmitida debe ser menor que la de la onda incidente por conservaci´ on de la probabilidad total (que se manifiesta en conservaci´ on del n´ umero de part´ıculas). Esto se puede ver teniendo en cuenta que las part´ıculas dispersadas abandonan el haz y por tanto el haz transmitido debe atenuarse con respecto al incidente. Tambi´en puede verse como que el flujo de probabilidad incidente se debe repartir en un flujo transmitido y otro dispersado, de modo que el flujo transmitido debe ser menor al incidente. Debe existir entonces una interferencia destructiva entre los paquetes plano y dispersado frontalmente, para dar cuenta de la conservaci´ on de la probabilidad i.e. del n´ umero total de part´ıculas.
18.7.
Ecuaci´ on integral de dispersi´ on
18.7.1.
Ecuaci´ on integral y funci´ on de Green
La ecuaci´ on (18.16) de valores propios de H ∇2 + k2 η (r) = U (r) η (r)
(18.46)
´ INTEGRAL DE DISPERSION ´ 18.7. ECUACION
451
Figura 18.5: (a) El frente de onda plano incidente se acerca a la regi´ on de dispersi´ on. Se observa que el ancho lateral del paquete es en la pr´ actica finito. (b) La onda transmitida se forma con la interferencia entre la onda plana que no se dispersa y la onda dispersada en la direcci´ on frontal. Se observa que t´ıpicamente el detector se coloca fuera de la regi´ on de la onda transmitida, en una regi´ on en la cual solo contribuye la onda dispersada. se puede resolver alternativamente utilizando la funci´ on de Green G (r) asociada a dicha ecuaci´on ∇2 + k2 G (r) = δ (r)
(18.47)
Es posible demostrar que si una funci´ on η (r) satisface la identidad Z η (r) = η0 (r) + d3 r′ G r − r′ U r′ η r′
(18.49)
en t´erminos eur´ısticos la funci´ on de Green asociada al operador ∇2 +k2 , puede verse como una especie de “inverso” de dicho operador, puesto que la funci´ on delta de Dirac act´ ua como una identidad en el cont´ınuo. Sea η0 (r) una soluci´ on de la ecuaci´ on homog´enea asociada a (18.46) ∇2 + k2 η0 (r) = 0 (18.48)
entonces esta funci´ on es soluci´ on de la Ec. (18.46). Rec´ıprocamente, puede demostrarse que toda soluci´ on de la Ec. (18.46) debe satisfacer (18.49). Para ver que la funci´ on definida en (18.49) es soluci´ on de la Ec. (18.46) aplicaremos el operador ∇2 + k2 a ambos lados de (18.49) asumiendo que dicho operador puede entrar en la integral. Debe tenerse en cuenta que ∇2 es una derivada con respecto a r pero no con respecto a r′ Z 2 2 2 2 ∇ + k η (r) = ∇ + k η0 (r) + d3 r′ ∇2 + k2 G r − r′ U r′ η r′ Z Z 2 3 ′ ′ ′ 2 ′ = d r U r η r ∇ + k G r − r = d3 r′ U r′ η r′ δ r − r′ ∇2 + k2 η (r) = U (r) η (r) donde hemos usado (18.47, 18.48). No probaremos rigurosamente que toda soluci´ on de (18.46) es de la forma (18.49). Sin embargo, vale la pena observar que la soluci´ on (18.49) consiste en la suma de la soluci´ on de la
´ ´ CAP´ITULO 18. TEOR´IA CUANTICA DE LA DISPERSION
452
ecuaci´ on homog´enea asociada (18.48), m´ as una soluci´ on particular de la ecuaci´ on inhomog´enea (18.46), como corresponde en la teor´ıa de ecuaciones diferenciales. Por tanto la ecuaci´ on diferencial (18.46) es equivalente a la ecuaci´ on integral (18.49). Por supuesto, ni la soluci´ on de η0 (r) de la ecuaci´ on homog´enea, ni la funci´ on de Green son u ´nicas, ya que no hemos fijado condiciones de frontera. En realidad, no determinaremos nuestra soluci´ on por condiciones de frontera sino por condiciones asint´ oticas. De hecho, la ventaja del uso de la formulaci´ on integral consiste en la facilidad on η (r) posea el comportamiento asint´ otico de escoger valores adecuados de η0 (r) y de G (r) para que la soluci´ deseado. Adicionalmente, la funci´ on de Green no depende de la parte inhomog´enea de la Ec. (18.46) como se v´e de su definici´ on Ec. (18.47).
18.7.2.
Determinaci´ on de la funci´ on de Green
En lo que sigue utilizaremos la identidad ∇
2
1 |r − r′ |
= −4πδ r − r′
(18.50)
y la forma del laplaciano en coordenadas esf´ericas para una funci´ on que solo depende de r 1 ∂ 2 2 ∂f (r) ∇ f (r) = 2 r (18.51) r ∂r ∂r obs´ervese que la ecuaci´ on de Green (18.47) nos dice que ∇2 + k2 G (r) debe ser cero en toda regi´ on que no incluya al origen. Por otro lado, el hecho de que f (θ, ϕ) eikr /r, se encontr´ o como soluci´ on de la Ec. (18.16) con U (r) = 0 16 , nos muestra que eikr =0 ; para r 6= 0 ∇2 + k 2 r y nos sugiere que dicha funci´ on puede ser la funci´ on de Green adecuada. Utilizando las identidades (18.50, 18.51), vemos que ±ikr ±ikr 1 ∂ e 1 ∂ 1 1 ∂ ±ikr 2 e 2 ∂ 2 ±ikr ∂ ∇ = r = 2 r e + e r r 2 ∂r ∂r r r ∂r ∂r r r ∂r 1 ∂ 1 ∂ ±ikr 1 ∂ 1 ∂ 2 ±ikr ∂ ±ikr 2 ∂ ±ikr = r e +r e = 2 e r ± ikre r 2 ∂r ∂r r ∂r r ∂r ∂r r ∂r i 1 1 1 ∂ h ±ikr i h ±ikr 2 ±ikr ∂ 2 ∂ 2 ∂ ±ikr = e ± (ik) re r +r e ± ike r2 ∂r ∂r r ∂r r ∂r h i e±ikr 1 ∂ 1 ±ikr 1 ∂ 2 ∂ ±ikr 2 = e r + ±ike ± ik ∓ k r r 2 ∂r ∂r r ∂r r r2 aplicando (18.51) a la funci´ on 1/r, y usando nuevamente (18.50), se tiene ±ikr i ike±ikr 1 h k2 e±ikr 2 e ±ikr 2 1 ∇ = e ∇ + − 2 ±ike±ikr ± − r r r r2 r ±ikr ±ikr e e ∇2 = −4πe±ikr δ (r) − k2 r r teniendo en cuenta que δ (r) = 0 para r 6= 0 y que e±ikr = 1 en r = 0, se deduce que e±ikr δ (r) = δ (r) 16
Ver comentarios arriba de la Ec. (18.18).
(18.52)
´ INTEGRAL DE DISPERSION ´ 18.7. ECUACION
453
Por tanto17 e±ikr e±ikr ∇ = −4πδ (r) − k2 r r ±ikr 2 e ∇ + k2 = −4πδ (r) r 2
(18.53)
Las Ecs. (18.47, 18.53) nos sugieren dos funciones de Green dadas por ∇2 + k2 G± (r) = δ (r)
;
G± (r) ≡ −
1 e±ikr 4π r
(18.54)
Por razones que veremos m´ as adelante, G+ y G− se denominan funci´ on de Green saliente y funci´ on de Green entrante respectivamente.
18.7.3.
Soluci´ on de la ecuaci´ on integral
El comportamiento asint´ otico que buscamos Ec. (18.26), nos sugiere usar la onda plana Ceikz como la soluci´ on 18 η0 (r) de la ecuaci´ on homog´enea , y la funci´ on de Green saliente G+ (r) en la Ec. (18.54) como la funci´ on de Green para nuestra ecuaci´ on integral. Con estas asignaciones la ecuaci´ on integral (18.49) queda en la forma ηk (r) = Ceikz +
Z
1 d3 r′ G+ r − r′ U r′ ηk r′ = Ceikz − 4π
Z
d3 r′
′
eik|r−r | U r′ ηk r′ ′ |r − r |
(18.55)
veremos que esta soluci´ on nos reproduce el comportamiento asint´ otico esperado Ec. (18.26). Por construcci´on esta ya es una soluci´ on de la ecuaci´ on diferencial (18.46). Probaremos ahora que cumple con el comportamiento asint´ otico requerido Ecs. (18.26). Para verlo definamos un punto M de posici´ on r en la regi´ on asint´otica, de modo que su distancia al origen O, es mucho mayor que todas las dimensiones lineales de la regi´ on de dispersi´ on (ver Fig. 18.6). Sea P un punto de posici´ on r′ dentro de la regi´ on de dispersi´ on. Si definimos a L como el orden de magnitud de la longitud lineal m´ axima de la regi´ on de dispersi´ on, tendremos que se cumplen las relaciones r ≫ L, r ′ . L, r ≫ r ′ si α es el ´ angulo entre M O y M P , es claro que α ≪ 1. Si M Q define la proyecci´ on de M P sobre M O, tenemos que |M Q| = |M P | cos α ≃ |M P | = r − r′
ahora bien si δ es el ´ angulo entre OP y OQ (i.e. entre r y r′ ), tenemos por otro lado |M Q| = |M O| − |QO| = r − r′ cos δ = r − ur · r′
combinando estas dos expresiones resulta
17
r − r′ ≃ r − ur · r′
;
r ≫ r′
Estrictamente, por el car´ acter de distribuci´ on de la delta de Dirac tenemos que Z ε Z ε l´ım e±ikr δ (r) f (r) dr = l´ım δ (r) f (r) dr ε→0+
−ε
ε→0+
−ε
de lo cual se deduce (18.52). 18 Se puede verificar que esta onda plana es soluci´ on de la Ec. homog´enea (18.48). De hecho, la onda plana es una soluci´ on de part´ıcula libre, i.e. con U (r) = 0.
´ ´ CAP´ITULO 18. TEOR´IA CUANTICA DE LA DISPERSION
454
Figura 18.6: M define un punto en la regi´ on asint´ otica, en tanto que P define un punto dentro de la regi´ on de dispersi´ on. Con respecto al origen O, la posici´ on de los puntos M y P se define por los vectores r y r′ respectivamente. por tanto para un punto de posici´ on r en la regi´ on asint´ otica y un punto r′ dentro de la regi´ on de dispersi´ on, se puede hacer la siguiente aproximaci´ on para la funci´ on de Green saliente: G+ r − r′ G+ r − r′
′
= − = −
1 eik|r−r | 4π |r − r′ | ik|r−r′ |
1 e 4π |r − r′ |
′
∼ −
r→∞
∼ −
r→∞
1 eik[r−ur ·r ] 1 eikr ′ e−ik(ur ·r ) = − 4π |r − ur · r′ | 4π r 1 − rr′ cos δ 1 eikr −ik(ur ·r′ ) e 4π r
insertando la aproximaci´ on (18.56) en la soluci´ on integral (18.55) resulta Z 1 eikr ′ ηk (r) ∼ Ceikz − d3 r′ e−ik(ur ·r ) U r′ ηk r′ r→∞ 4π r
(18.56)
(18.57)
n´ otese que la integral solo es funci´ on de r a trav´es del vector unitario ur . Precisamente el car´ acter unitario de ur me dice que este vector solo depende de la orientaci´ on de r i.e. ur = ur (θ, ϕ). Es claro entonces que la integral solo depende de θ y ϕ por tanto podemos escribir la Ec. (18.57) en la forma Z eikr 1 ′ ikz ηk (r) ∼ Ce + fk (θ, ϕ) ; fk (θ, ϕ) ≡ − d3 r′ e−ik(ur ·r ) U r′ ηk r′ (18.58) r→∞ r 4π
´ DE BORN 18.8. APROXIMACION
455
que claramente cumple las condiciones asint´oticas (18.26).
18.8.
Aproximaci´ on de Born
La aproximaci´on de Born es una estrategia para encontrar una soluci´ on aproximada a la ecuaci´ on integral de dispersi´ on. Definimos al vector de onda incidente ki como un vector en la direcci´ on del haz incidente de m´ odulo k tal que la energ´ıa de una part´ıcula incidente es E = ~2 k2 /2m ki ≡ kuz
⇒
eikz = eiki ·r
(18.59)
puesto que la colisi´ on es el´ astica, el vector de onda dispersado ks posee el mismo m´ odulo, pero su direcci´ on ur est´ a caracterizada por los ´ angulos θ, ϕ, siendo θ el ´ angulo de dispersi´ on y ϕ el ´ angulo azimuthal ks = kur
; ur ≡ ur (θ, ϕ)
(18.60)
finalmente, se puede definir el vector de onda de dispersi´ on o vector de onda transferido en la direcci´ on (θ, ϕ) como el vector diferencia entre los anteriores K = ks − ki a partir de la Ec. (18.59), podemos escribir la ecuaci´ on integral de dispersi´ on (18.55) en la forma Z ηk (r) = Ceiki ·r + d3 r1 G+ (r − r1 ) U (r1 ) ηk (r1 )
(18.61)
(18.62)
la idea es resolver la ecuaci´ on por iteraci´ on. Para ello hacemos el cambio de variables r → r1 , r1 → r2 en la Ec. (18.62) para escribir Z iki ·r1 ηk (r1 ) = Ce + d3 r2 G+ (r1 − r2 ) U (r2 ) ηk (r2 ) (18.63) Al reemplazar (18.63) en (18.62) resulta Z Z iki ·r 3 iki ·r1 3 ηk (r) = Ce + d r1 G+ (r − r1 ) U (r1 ) Ce + d r2 G+ (r1 − r2 ) U (r2 ) ηk (r2 ) Z ηk (r) = Ceiki ·r + C d3 r1 G+ (r − r1 ) U (r1 ) eiki ·r1 Z Z + d3 r1 d3 r2 G+ (r − r1 ) U (r1 ) G+ (r1 − r2 ) U (r2 ) ηk (r2 )
(18.64)
n´ otese que los dos primeros t´erminos a la derecha de (18.64) son conocidos, y solo el tercero contiene a la cantidad desconocida ηk (r2 ). Por supuesto, la iteraci´ on puede continuar hasta el orden deseado. Usando el cambio de variables r1 → r2 , r2 → r3 en la Ec. (18.63) y reemplazando en (18.64) obtenemos Z iki ·r ηk (r) = Ce + C d3 r1 G+ (r − r1 ) U (r1 ) eiki ·r1 + Z Z Z 3 3 iki ·r2 3 + d r1 d r2 G+ (r − r1 ) U (r1 ) G+ (r1 − r2 ) U (r2 ) Ce + d r3 G+ (r2 − r3 ) U (r3 ) ηk (r3 ) iki ·r
Z
+ C d3 r1 G+ (r − r1 ) U (r1 ) eiki ·r1 + ηk (r) = Ce Z Z 3 +C d r1 d3 r2 G+ (r − r1 ) U (r1 ) G+ (r1 − r2 ) U (r2 ) eiki ·r2 Z Z Z 3 3 + d r1 d r2 d3 r3 G+ (r − r1 ) U (r1 ) G+ (r1 − r2 ) U (r2 ) G+ (r2 − r3 ) U (r3 ) ηk (r3 )
(18.65)
´ ´ CAP´ITULO 18. TEOR´IA CUANTICA DE LA DISPERSION
456
en esta expresi´ on los tres primeros t´erminos de la derecha son conocidos y el t´ermino desconocido ηk (r3 ) solo aparece en el cuarto t´ermino de la derecha. Estas iteraciones constituyen la expansi´ on de Born del estado estacionario de dispersi´ on. Comparando las Ecs. (18.62, 18.64, 18.65), vemos que el t´ermino que posee la cantidad desconocida ηk , es proporcional a una potencia de U (r) m´ as alta en cada iteraci´ on19 . Si el potencial es d´ebil, cada potencia m´ as alta ser´ a menor que la anterior, de modo que para un n´ umero suficientemente grande de iteraciones, podemos despreciar el u ´ltimo t´ermino que contiene la cantidad desconocida, y calcular ηk (r) en t´erminos de cantidades conocidas. Ahora bien, si sustitu´ımos la expansi´ on de ηk (r) (hasta cierto orden de iteraci´ on), en la expresi´ on (18.58) para fk (θ, ϕ), obtendremos la expansi´ on de Born de la amplitud de dispersi´ on. En particular, si reemplazamos la iteraci´ on a orden cero Ec. (18.62) al lado derecho de (18.58) tenemos que Z Z 1 3 −ik(ur ·r1 ) iki ·r1 3 fk (θ, ϕ) ≡ − d r1 e U (r1 ) Ce + d r2 G+ (r1 − r2 ) U (r2 ) ηk (r2 ) 4π si queremos calcular solo a primer orden en U (r), esta expresi´ on queda Z C (B) fk (θ, ϕ) = − d3 r1 e−ik(ur ·r1 ) U (r1 ) eiki ·r1 4π
(18.66)
′
que equivale a reemplazar ηk (r′ ) por Ceiki ·r al lado derecho de (18.58). Usando las definiciones (18.60, 18.61) de n´ umero de onda dispersado y transferido tenemos que Z Z C C (B) 3 −iks ·r1 iki ·r1 fk (θ, ϕ) = − U (r1 ) e =− d r1 e d3 r1 e−i(ks −ki )·r1 U (r1 ) 4π 4π Z C (B) fk (θ, ϕ) = − d3 r1 e−iK·r1 U (r1 ) (18.67) 4π Esta es la aproximaci´ on de Born para fk (θ, ϕ). De las Ecs. (18.44, 18.67) podemos escribir la secci´ on eficaz diferencial en dicha aproximaci´ on 2 Z 2 2 Z 2 1 1 1 2µ (B) 3 −iK·r1 3 −iK·r1 ~ d r1 e Dk (Ω) = fk (θ, ϕ) = d r1 e U (r1 ) = U (r1 ) 2 C 4π 4π ~ 2µ Z 2 2 µ (B) Dk (Ω) = d3 r1 e−iK·r1 V (r1 ) ; K ≡ ks − ki (18.68) 2 4 4π ~
donde hemos usado la Ec. (18.15), para escribir D (Ω) en t´erminos del potencial V (r). Vemos que en aproximaci´ on de Born, la secci´ on eficaz diferencial es directamente proporcional a la norma al cuadrado de la transformada de Fourier del potencial. Las Ecs. (18.59, 18.60, 18.61) muestran que el vector de onda transferido K es funci´ on del m´ odulo k de los vectores ki y ks , as´ı como de la direcci´ on (θ, ϕ) de ks . Por tanto, para un valor fijo de k (y por (B) tanto, de la energ´ıa) Dk (Ω) var´ıa con la orientaci´ on Ω ≡ (θ, ϕ). Similarmente, para una orientaci´ on fija (θ, ϕ), la secci´ on eficaz diferencial cambia con k y por tanto con la energ´ıa. En consecuencia, la Ec. (18.68) nos dice que en (B) la aproximaci´ on de Born, el estudio de la dependencia de Dk (Ω) con la orientaci´ on y con la energ´ıa, nos puede dar informaci´ on sobre el potencial V (r). A la f´ ormula (18.64), podemos darle una interpretaci´ on f´ısica que nos brinda una vez m´ as una fuerte analog´ıa entre la mec´ anica cu´ antica y la ´ optica ondulatoria. Vamos a considerar a la regi´ on de influencia del potencial como un medio dispersivo cuya densidad es proporcional a U (r). La funci´ on de Green G+ (r − r1 ) dada por la Ec. (18.54), representa la amplitud en el punto r de la onda radiada desde el punto fuente en la posici´ on r1 . De esta forma, los dos primeros t´erminos a la derecha de (18.64) describen la onda total en el punto r que resulta de superponer la onda incidente eiki ·r con una infinidad de ondas provenientes de fuentes secundarias 19
Si definimos las Ecs. (18.62, 18.64) como las iteraciones de orden cero y uno respectivamente, entonces el t´ermino desconocido en la n−´esima iteraci´ on contiene U (r) a la potencia n + 1.
´ DE BORN 18.8. APROXIMACION
457
inducidas en el medio dispersivo por la onda incidente. Esto se v´e del hecho de que hay una integral sobre r1 , de modo que contribuyen las ondas secundarias que provienen de cada punto en la regi´ on de dispersi´ on. Sin embargo, en esta integral cada onda secundaria tiene un peso diferente, de hecho la amplitud de la onda secundaria generada en cada punto r1 es proporcional a la onda incidente en ese punto eiki ·r1 y la densidad del material dispersor U (r1 ) en dicho punto. Esta interpretaci´ on est´ a ilustrada en la Fig. 18.7a y nos evoca el principio de Huygens.
Figura 18.7: Interpretaci´ on F´ısica de la Ec. (18.64). (a) Los dos primeros t´erminos a la derecha en (18.64) corresponden a la onda incidente llegando directamente al punto r, m´ as la contribuci´ on de las ondas dispersadas desde alg´ un punto r1 interior a la regi´ on de dispersi´ on. En el segundo t´ermino de la Ec. (18.64) se integra sobre on de dispersi´ on. (b) Representaci´ on esquem´ atica r1 de modo que se toman todas las fuentes secundarias en la regi´ del tercer t´ermino en la Ec. (18.64) y que es de segundo orden en U (r) en la expansi´ on de Born. En tal t´ermino se consideran ondas que se dispersan dos veces en la regi´ on de dispersi´ on. Se integra sobre r1 y r2 es decir sobre todas las fuentes secundarias posibles que contribuyen a la doble dispersi´ on. Adicionalmente, hay un tercer t´ermino en (18.64). Puesto que el medio de dispersi´ on se extiende sobre cierta regi´ on, en la superposici´ on de la ondas sobre el punto r pueden contribuir ondas secundarias que han sido dispersadas dos veces por el potencial: la onda incidente es dispersada en el punto r2 y luego en el punto r1 (ambos dentro de la regi´ on de dispersi´ on) para finalmente llegar a r, como se ilustra en la Fig. 18.7b. Cada fuente r1 y r2 contribuye con su peso proporcional a eiki ·r y U (r) evaluados en cada punto. Si realizamos m´ as iteraciones, los t´erminos sucesivos de la expansi´ on de Born implicar´ an m´ as dispersiones dentro de la regi´ on del potencial. Si la densidad del medio dispersivo es baja [U (r) peque˜ no] entonces podemos despreciar la contribuci´ on de las ondas secundarias, o considerarlas solo en sus primeros ´ ordenes. Es importante no confundir esta interpretaci´ on de los t´erminos de alto orden en la expansi´ on de Born, con los procesos de dispersi´ on m´ ultiple que ocurren cuando el blanco es grueso. En nuestro contexto estamos considerando procesos de dispersi´ on de una part´ıcula del haz con una sola part´ıcula del blanco. La dispersi´ on m´ ultiple implica interacciones sucesivas de la misma part´ıcula incidente con varias (diferentes) part´ıculas del blanco.
18.8.1.
Rango de validez de la aproximaci´ on de Born
Un estimativo aproximado del rango de validez de la aproximaci´ on de Born (18.67) se puede obtener teniendo en cuenta que en (18.67) hemos reemplazado el estado asint´ otico completo ηk (r) por solo la parte incidente (k) ik ·r i ηinc (r) = Ce [ver comentario despu´es de la ecuaci´ on (18.66)]. Por tanto, requerimos que se cumpla la condici´ on η (k) (r) sc (k) ≪1 η (r) inc
´ ´ CAP´ITULO 18. TEOR´IA CUANTICA DE LA DISPERSION
458
dentro de la regi´ on de dispersi´ on, ya que la integral sobre r1 en (18.67) solo es significativa dentro de dicha regi´ on. Por definici´ on, la regi´ on de dispersi´ on est´ a alrededor de r = 0. Esta condici´ on ser´ a entonces aproximadamente equivalente a η (k) (0) sc (18.69) (k) ≪1 η (0) inc
si asumimos que el potencial es central, en el r´egimen de altas energ´ıas (k → ∞), la Ec. (18.69) nos lleva a la condici´ on V0 ≪1 (18.70) E es decir que la energ´ıa del haz incidente debe ser mucho mayor a la magnitud del potencial. As´ı mismo, para bajas energ´ıas (k → 0), la Ec. (18.69) conduce a µV0 L2 ≪1 (18.71) ~2 donde L es el rango o alcance del potencial. Sin embargo, en la pr´ actica la condici´ on (18.71) es mucho m´ as restrictiva que (18.70), raz´ on por la cual la aproximaci´ on de Born se utiliza principalmente en el r´egimen de altas energ´ıas. Para detalles sobre este an´ alisis el lector puede consultar la Ref. [8], secci´ on 13.2
18.8.2.
Aproximaci´ on de Born para el potencial de Yukawa
En 1935, Hideki Yukawa propuso un modelo para la interacci´ on entre los constituyentes del n´ ucleo at´ omico o nucleones. Seg´ un este modelo, la interacci´ on entre nucleones se da a trav´es de un cuanto (que hace el rol del fot´ on en la interacci´ on electromagn´etica), que se denomina el pi´ on o mes´ on π (descubierto en 1947 por C. Powell y sus colaboradores). Sin embargo, a diferencia de la interacci´ on electromagn´etica, esta interacci´ on es de corto alcance y la part´ıcula intermediaria tiene masa en reposo no nula. No entraremos en detalles sobre la construcci´ on del modelo de Yukawa, el lector interesado puede consultar la bibliograf´ıa asociada (por ejemplo las Refs. [1, 10]). De momento solo mencionaremos que las consideraciones fenomenol´ ogicas hechas por Yukawa, lo llevaron a modelar la interacci´ on entre nucleones con un potencial de la forma V (r) = V0
e−αr r
;
U (r) =
2µ e−αr V0 ~2 r
(18.72)
donde V0 y α son constantes reales. El potencial puede ser atractivo o repulsivo de acuerdo con el signo de V0 . La intensidad del potencial est´ a determinada por |V0 | y el alcance est´ a regulado por la constante positiva α. Para definir un alcance caracter´ıstico (y por tanto un orden de magnitud para las dimensiones lineales de la regi´ on de dispersi´ on), es usual tomar un r0 definido por 1 r0 = (18.73) α puede verse que el potencial ha decrecido sustancialmente y se hace pr´ acticamente cero para r & 2r0 . El alcance de las fuerzas que el potencial de Yukawa describe est´ a en el orden de los fermis (1f m = 10−15 m). Obs´ervese que para α = 0 se reproduce el potencial de Coulomb, que en este contexto se denomina el potencial de Yukawa de rango infinito. La presencia de α > 0, hace que el potencial de Yukawa decrezca mucho m´ as r´ apido que el de Coulomb. C´ alculo de la amplitud de dispersi´ on y la secci´ on eficaz con el potencial de Yukawa Asumiremos que la intensidad |V0 | caracter´ıstica del potencial es suficientemente peque˜ na para utilizar la aproximaci´ on de Born. Sustituyendo (18.72) en (18.67), obtenemos la amplitud de dispersi´ on para el potencial de Yukawa en aproximaci´ on de Born. Z Z −αr1 C µCV0 (B) 3 −iK·r1 3 −iK·r1 e fk (θ, ϕ) = − d r1 e U (r1 ) = − d r e (18.74) 1 4π 2π~2 r1
´ DE BORN 18.8. APROXIMACION
459
donde K es el n´ umero de onda transferido en la direcci´ on (θ, ϕ). La expresi´ on (18.74) es b´ asicamente la transformada de Fourier del potencial de Yukawa. Como este potencial solo depende de |r| = r, podemos aplicar la Ec. (1.196), P´ ag. 103. Para ello escribimos la Ec. (18.74) con P = ~K # 1/2 " Z Z P µCV0 2π 1 3/2 e−αr e−αr (B) 3 −i P 3 −i ·r ·r = −µCV0 fk (θ, ϕ) = − d re ~ d re ~ 2π~2 r ~ 2π~ r 1/2 Z 2π 1 2 ∞ e−αr Pr √ = −µCV0 r dr sin ~ P r ~ 2π~ 0 Z ∞ −αr 12 e = −µCV0 r dr sin Kr ~P 0 r ∞ −rα Z 2µCV0 ∞ 2µCV0 e −αr = − 2 dr e sin Kr = 2 (K cos Kr + α sin Kr) ~ K 0 ~ K K 2 + α2 0 −rα 2µCV e 2µCV K (B) 0 0 fk (θ, ϕ) = − 2 (K cos Kr + α sin Kr) =− 2 ~2 K K + α2 ~ K K 2 + α2 r=0
(B) fk (θ, ϕ)
obteni´endose finalmente
2µCV0 (18.75) ~2 (K 2 + α2 ) ahora bien teniendo en cuenta que K + ki = ks , y que kki k = kks k = k, los vectores K, ki , ks forman un tri´ angulo is´ osceles, donde el ´ angulo de dispersi´ on θ, es el ´ angulo entre los dos lados iguales. La Fig 18.8 nos muestra que (B)
fk
(θ, ϕ) = −
Figura 18.8: Los vectores K, ki y ks forman un tri´ angulo is´ osceles en donde el ´ angulo de dispersi´ on θ, es el ´ angulo entre los dos lados de igual longitud. Esta figura ilustra la validez geom´etrica de (18.76).
sin (B)
por tanto, podemos escribir fk en un experimento.
θ K/2 = 2 k
⇒ K = 2k sin
θ 2
(18.76)
(θ, ϕ) de la Ec. (18.75) en t´erminos de k y θ que son los par´ ametros que se miden (B)
fk
(θ) = −
~2
α2
2µCV0 + 4k2 sin2 θ2
y la secci´ on eficaz diferencial Ec. (18.44), P´ ag. 450, en aproximaci´ on de Born queda D (B) (θ) =
4µ2 V02
~4 α2 + 4k2 sin2
θ 2 2
(18.77)
´ ´ CAP´ITULO 18. TEOR´IA CUANTICA DE LA DISPERSION
460
esta secci´ on eficaz tiene simetr´ıa azimutal como se previ´ o para potenciales esf´ericamente sim´etricos. Ahora bien, para una energ´ıa dada (valor fijo de k), la secci´ on eficaz depende de θ. En particular la secci´ on eficaz frontal (θ = 0) es mayor que la secci´ on eficaz de retroceso (θ = π). Por otro lado, para un valor fijo de θ, la secci´ on eficaz es una funci´ on decreciente de la energ´ıa. Finalmente, puede verse que D (θ) no es sensible al signo de V0 i.e. no es sensible al car´ acter repulsivo o atractivo de la interacci´ on, al menos en la aproximaci´ on de Born. Podemos calcular la secci´ on eficaz total Z Z 2π Z π Z 4µ2 V02 π sin θ dθ σ (B) = D (B) (θ) dΩ = dϕ dθ sin θ D (B) (θ) = 2π 2 4 ~ 2 Ω 0 0 0 α + 4k2 sin2 θ2 Z 8πµ2 V02 π 8πµ2 V02 sin θ dθ 2 (B) σ = = h i 2 4 4 2 2 ~ ~ α (α + 4k2 ) 0 α4 1 + 4k 2 sin2 θ 2 α2 σ (B) =
16πµ2 V02 ~4 α2 (α2 + 4k2 )
(18.78)
vemos que en este caso la secci´ on eficaz total no diverge (en contraste con el caso de la interacci´ on coulombiana), debido a que este potencial decae mucho m´ as r´ apido que el coulombiano. En virtud de la convergencia de la secci´ on eficaz total, se suele decir que este potencial es de alcance finito, si bien estrictamente hablando no es exactamente cero para ning´ un valor de r. L´ımite de Coulomb, o de rango infinito Hemos visto que con α = 0, el potencial tipo Yukawa se convierte en un potencial tipo Coulomb. Para obtener on), debemos hacer el potencial tipo Coulomb entre dos part´ıculas de cargas Z1 q y Z2 q (siendo q la carga del electr´ las asignaciones q2 α = 0 ; V0 = Z1 Z2 e2 ; e2 = 4πǫ0 con lo cual la Ec. (18.77) se convierte en (B) DC (θ) (B)
=
DC (θ) =
4µ2 Z12 Z22 e4 Z12 Z22 e4 = ~4 16k4 sin4 θ2 16 sin4 2θ Z12 Z22 e4 16E 2 sin4
θ 2
2µ ~2 k2
2
Z 2 Z 2 e4 = 1 24 θ 16 sin 2
p2 2µ
−2 (18.79)
la expresi´ on (18.79) coincide con la f´ ormula de Rutherford Ec. (18.11) P´ ag. 441, que nos da la secci´ on eficaz asociada al potencial de Coulomb. Este es un resultado un tanto sorprendente ya que por un lado, la formulaci´ on −1 aqu´ı presentada solo vale para potenciales que decrecen m´ as r´ apido que r , de modo que la interacci´ on de Coulomb queda exclu´ıda de la formulaci´ on, y por otro lado el resultado para la interacci´ on de Yukawa est´ a en un contexto aproximado (aproximaci´ on de Born). La secci´ on eficaz total diverge cuando α = 0, como ocurre con el caso cl´ asico, tambi´en debido al alcance infinito de la interacci´ on. Sin embargo, en la realidad nunca se observa el potencial de Coulomb puro, ya que el potencial creado por una carga est´ a siempre modificado por la presencia de otras cargas alrededor, que usualmente son de carga opuesta de modo que generan un apantallamiento. En consecuencia, a´ un para una interacci´ on de tipo el´ectrico esperamos que para el potencial resultante (potencial efectivo), el apantallamiento decaiga m´ as r´ apido que 1/r y/o presente una carga efectiva menor que la del blanco.
Cap´ıtulo 19
Teor´ıa cu´ antica de la dispersi´ on II: Descomposici´ on en ondas parciales para la dispersi´ on por un potencial central Hemos visto que la aproximaci´ on de Born funciona primordialmente a altas energ´ıas (ver secci´ on 18.8.1). La expansi´ on por ondas parciales es un acercamiento alternativo que funciona mejor a bajas energ´ıas, por lo cual en cierto modo es complementario a la aproximaci´ on de Born. En la secci´ on 12.5 vimos que en el caso de un potencial central, el momento angular orbital es constante de movimiento ya que conmuta con el Hamiltoniano y no depende expl´ıcitamente del tiempo. Esto indica que existen autoestados comunes para los observables H, L2 y L3 . F´ısicamente, indica que existen estados estacionarios (de energ´ıa bien definida) en los cuales el momento angular tambi´en est´ a bien definido. Las funciones de onda asociadas a los estados estacionarios de momento angular bien definido, se denominan ondas parciales y las denotaremos por ϕk,l,m (r). Recordando que los resultados de la secci´ on 12.5 solo depend´ıan del car´ acter central del potencial, vemos que la dependencia angular de las ondas parciales estar´ a dada siempre por los arm´ onicos esf´ericos Ylm (θ, ϕ), y el potencial V (r) solo modifica la componente radial de tales estados. Es de esperarse que para valores grandes de r, el comportamiento de las ondas parciales sea similar al de los autoestados comunes a H0 , L2 y L3 , siendo H0 el hamiltoniano de part´ıcula libre. Comenzaremos entonces (0) estudiando las ondas parciales asociadas a part´ıcula libre ϕk,l,m (r), que denominaremos ondas libres esf´ericas. Su dependencia angular contin´ ua siendo descrita por los arm´ onicos esf´ericos ya que el potencial no afecta la dependencia angular. En cuanto a su dependencia radial, veremos que para valores grandes de r las ondas esf´ericas estar´ an constitu´ıdas por la superposici´ on de una onda entrante e−ikr /r y una onda saliente eikr /r con una diferencia de fase bien definida entre ambas. Por otro lado, las ondas parciales ϕk,l,m (r) asociadas al potencial V (r), tambi´en ser´ an la superposici´ on de una onda entrante y una saliente, pero la diferencia de fase entre estas dos ondas es diferente de la que se obtiene para las ondas esf´ericas libres. El potencial V (r) introduce un corrimiento de fase adicional δl . Veremos adem´ as que (0) este corrimiento extra δl es la u ´nica diferencia entre los estados asint´ oticos obtenidos con ϕk,l,m (r) y con ϕk,l,m (r). Ahora bien, con el fin de calcular la secci´ on eficaz expresaremos los estados estacionarios de dispersi´ on ηk (r), como una combinaci´ on lineal de ondas parciales con la misma energ´ıa pero diferentes momentos angulares. Veremos por argumentos f´ısicos y con un c´ alculo expl´ıcito que tales coeficientes coinciden con los de la expansi´ on de la ikz onda plana e en t´erminos de ondas esf´ericas libres. El uso de ondas parciales permitir´ a escribir la amplitud de dispersi´ on y la secci´ on eficaz en t´erminos de los corrimientos de fase δl . Veremos que el m´etodo es particularmente u ´til cuando el rango del potencial no es mucho mayor a la longitud de onda de la part´ıcula en movimiento, ya que en estos casos la secci´ on eficaz depender´ a de unos pocos corrimientos de fase δl . 461
462
19.1.
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
Estados estacionarios de part´ıcula libre
En mec´ anica cl´ asica, las part´ıculas libres se propagan en l´ınea recta con velocidad constante. Su energ´ıa, momento lineal y momento angular est´ an bien definidos y son constantes de movimiento. En mec´ anica cu´ antica los operadores P y L ≡ R×P, no conmutan y por tanto no pueden estar simult´ aneamente bien definidos. El Hamiltoniano de part´ıcula libre est´ a dado por H0 ≡
P2 2µ
an infinitamente degenerados1 . Por sin embargo, H0 no constituye un C.S.C.O. en el espacio Er , sus valores est´ otra parte, para el caso de part´ıcula libre, los observables H0 , P1 , P2 , P3
(19.1)
forman un C.S.C.O. y los estados estacionarios comunes a estos observables poseen momento bien definido. Por otro lado, si aplicamos los resultados de la secci´ on 12.5 para potencial cero, deducimos que para una part´ıcula libre los observables (19.2) H 0 , L2 , L3 tambi´en forman un C.S.C.O. En este caso los estados estacionarios poseer´ an momento angular bien definido. Vale decir que momento angular bien definido significa que los valores de L2 y de una de las componentes de L (usualmente L3 ) estar´ an bien definidos. Recordemos que las componentes del momento angular son incompatibles (ver Ec. 10.5, P´ ag. 309) y por tanto no pueden estar simult´ aneamente bien definidas. Es claro sin embargo que los estados estacionarios definidos por los C.S.C.O de las Ecs. (19.1) y (19.2) ser´ an diferentes puesto que los observables P y L son incompatibles2 . Vamos a estudiar estas bases y la manera de pasar de la una a la otra.
19.2.
Estados estacionarios de part´ıcula libre con momento bien definido: Ondas planas
Ya hemos visto que los observables P1 , P2 , P3 forman un C.S.C.O. en el espacio orbital de estados. Sus estados propios comunes {|pi} forman una hiperbase del espacio orbital P |pi = p |pi y puesto que H0 conmuta con estos observables, se puede agregar al C.S.C.O. y los estados |pi tambi´en son autoestados de H0 P2 p2 H0 |pi = |pi = |pi (19.3) 2µ 2µ el espectro de H0 es entonces cont´ınuo e incluye todos los valores no-negativos de energ´ıa. Cada autovalor es infinitamente degenerado, puesto que a un valor dado de energ´ıa le corresponden infinitos kets |pi linealmente independientes. Esto puede verse teniendo en cuenta que un valor dado de energ´ıa E solo impone la ligadura 2µE = p21 + p22 + p23 lo cual deja un un n´ umero infinito cont´ınuo de grados de libertad, i.e. todos los puntos de √ a´ una superficie esf´erica de radio 2µE. Por tanto un valor dado de la energ´ıa nos deja con el conjunto de todos los kets |pi cuyo m´ odulo es p |p| = 2µE 1
En este cap´ıtulo, cuando hablemos de un C.S.C.O. ser´ a con respecto al espacio orbital Er , puesto que no hemos inclu´ıdo al esp´ın en la formulaci´ on. 2 Desde el punto de vista experimental, es importante saber como se prepar´ o el sistema (cuales son las condiciones iniciales). Cu´ anticamente, podemos preparar un estado de part´ıcula libre con momento lineal bien definido, o con momento angular bien definido, pero no ambos al tiempo.
19.3. ESTADOS ESTACIONARIOS DE PART´ICULA LIBRE CON MOMENTO ANGULAR BIEN DEFINIDO: ONDAS las funciones de onda asociadas a estos estados |pi son las ondas planas (ver Ec. 1.182, P´ ag. 97) 1 3/2 ip·r/~ hr| pi = e 2π~ tambi´en podemos caracterizar estos estados estacionarios a trav´es del vector de onda k k=
p ~
|ki = ~3/2 |pi
;
estos estados poseen el mismo contenido f´ısico que los estados |pi, ya que para part´ıcula libre un vector de onda bien definido es equivalente a un momento bien definido H0 |ki =
~2 k2 |ki 2µ
;
P |ki = ~k |ki
los estados {|ki} son ortonormales y completos en el sentido extendido Z ′ ′ ; d3 k |ki hk| = I hk| k i = δ k − k
19.3.
Estados estacionarios de part´ıcula libre con momento angular bien definido: Ondas esf´ ericas libres.
En la secci´ on 12.5, ya caracterizamos los estados estacionarios comunes a H, L2 y L3 para un potencial central V (r). Podemos entonces retomar los resultados de dicha secci´ on para V (r) = 0 i.e. para H = H0 . Por tanto, los estados propios comunes a H0 , L2 y L3 (ondas esf´ericas libres) tienen la forma de la Ec. (12.33), P´ ag. 351 (0)
(0)
ϕk,l,m (r) = Rk,l (r) Ylm (θ, ϕ) donde la funci´ on radial es una soluci´ on de la Ec. (12.35), P´ ag. 351 con V (r) = 0 2 ~ 1 d2 l (l + 1) ~2 (0) (0) − r + Rk,l (r) = Ek,l Rk,l (r) 2µ r dr 2 2µr 2
(19.4)
(19.5)
(0)
siendo Ek,l el valor propio de H0 asociado a ϕk,l,m (r). Si hacemos un cambio de variable similar a la Ec. (12.36), P´ ag. 351 1 (0) (0) Rk,l (r) = uk,l (r) (19.6) r (0)
la funci´ on uk,l (r) est´ a dada por la Ec. (12.37) P´ ag. 352 con V (r) = 0 2 d l (l + 1) 2µEk,l (0) − + uk,l (r) = 0 dr 2 r2 ~2
(19.7)
y se debe cumplir la relaci´ on asint´ otica en el origen dada por la Ec. (12.44), P´ ag. 353 (0)
uk,l (0) = 0
(19.8)
La combinaci´ on de las Ecs. (19.7, 19.8) nos permite encontrar el espectro de H0 que como veremos coincide con el que se obtiene con las ondas planas Ec. (19.3). Dado que el m´ınimo de nuestro potencial es cero (de hecho el potencial es nulo), entonces no habr´ a estados estacionarios de energ´ıa negativa. Consideraremos entonces valores no-negativos de Ek,l en la Ec. (19.7), e introducimos el par´ ametro real k en la forma k=
1p 2µEk,l ~
(19.9)
464
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
en la regi´ on asint´ otica con r muy grande, el t´ermino centr´ıfugo l (l + 1) /r 2 se puede despreciar en la Ec. (19.7) para obtener 2 d (0) 2 + k uk,l (r) ≃ 0 (19.10) r→∞ dr 2 donde hemos tenido en cuenta la definici´ on (19.9). Ya examinamos la soluci´ on general de esta ecuaci´ on [Ver Ecs. (18.23, 18.24), P´ ag. 445] obteni´endose (0) (19.11) uk,l (r) ≃ Aeikr + Be−ikr r→∞
en la secci´ on 12.6 tambi´en se concluy´ o que la ecuaci´ on (19.7) junto con la condici´ on asint´ otica en el origen (19.8) nos lleva a una u ´nica soluci´ on. Por tanto, las Ecs. (19.7, 19.8) nos llevar´ an a una u ´nica soluci´ on del tipo (19.11). Vemos por otro lado, que la energ´ıa no depende de l, y por tanto omitiremos este ´ındice en los valores de la energ´ıa. Ahora bien, las soluciones aceptables del tipo (19.11) incluyen todos los valores positivos de k y por tanto de acuerdo con la Ec. (19.9), la energ´ıa toma todos los valores no negativos. Ek =
~2 k2 ; k≥0 2µ
cada energ´ıa dada es infinitamente degenerada. Para un valor fijo de k, existen soluciones f´ısicamente aceptables (0) on radial para todos los valores permitidos (enteros no-negativos) de l. Adicionalmente, la uk,l (r) de la ecuaci´ soluci´ on completa ϕk,l,m (r) en la Ec. (19.4) a˜ nade una degeneraci´ on (2l + 1) veces mayor, para una funci´ on (0) 2 radial uk,l (r) dada. Al igual que en la secci´ on 12.6, vemos que en este caso los observables H0 , L y L3 forman un on de los ´ındices k, l, m nos da la informaci´ on suficiente para determinar C.S.C.O. en Er , de modo que la especificaci´ de manera u ´nica el estado estacionario normalizado asociado (excepto por una fase irrelevante).
19.4.
Caracterizaci´ on de las ondas esf´ ericas libres
En la presente secci´ on construiremos las funciones propias de H0 , L2 y L3 , definiendo unos generadores que (0) permiten encontrar dichas funciones con base en la funci´ on esf´erica libre m´ as simple ϕk,0,0 (r). Una vez determinadas las ondas esf´ericas libres debidamente ortonormalizadas, se estudiar´ a su comportamiento asint´ otico (para r → 0 y para r → ∞), su relaci´ on con las ondas planas, y finalmente su interpretaci´ on f´ısica.
19.4.1.
´ Algebra de generadores de ondas esf´ ericas
Con una estrategia similar a la utilizada para construir los operadores escalera de momento angular [ver secci´ on 10.2, Ecs. (10.8), P´ ag. 310], construiremos una serie de operadores que permitir´ an generar las funciones propias comunes de H0 , L2 , L3 , a partir de las autofunciones asociadas al autovalor con l = 0 de L2 . Tendremos en cuenta que H0 conmuta con L y P [H0 , L] = 0 ; [H0 , P] = 0 (19.12) Comenzaremos definiendo el operador P+ ≡ P1 + iP2
(19.13)
queremos encontrar las relaciones de conmutaci´ on de este operador con los observables H0 , L2 , L3 , cuyas funciones propias comunes queremos encontrar. A partir de las relaciones can´ onicas de conmutaci´ on entre observables de posici´ on y momento [Ecs. (1.193), P´ ag. 101] podemos obtener las relaciones de conmutaci´ on entre Li y Pi [Li , Pj ] = [εimn Rm Pn , Pj ] = εimn [Rm Pn , Pj ] = εimn (Rm [Pn , Pj ] + [Rm , Pj ] Pn ) = εimn [Rm , Pj ] Pn = i~δmj εimn Pn [Li , Pj ] = i~εijn Pn
(19.14)
´ DE LAS ONDAS ESFERICAS ´ 19.4. CARACTERIZACION LIBRES
465
Con estas relaciones, se pueden obtener los conmutadores de L3 y L2 con P+ [Li , P+ ] = [Li , P1 + iP2 ] = [Li , P1 ] + i [Li , P2 ] = i~εi1n Pn + i (i~εi2k Pk ) [Li , P+ ] = ~ (iεi1n Pn − εi2k Pk ) para cada componente i = 1, 2, 3 se tiene [L1 , P+ ]
=
[L3 , P+ ]
= ⇒
−~ε123 P3 = −~P3 ;
[L2 , P+ ] = i~ε213 P3 = −i~P3
~ (iε312 P2 − ε321 P1 ) = ~ (iP2 + P1 ) = ~P+ [L1 , P+ ] = −~P3 ;
[L2 , P+ ] = −i~P3 ; [L3 , P+ ] = ~P+
(19.15)
tambi´en necesitaremos el conmutador de L+ con P3 para lo cual usamos las Ecs. (19.14) [L+ , P3 ] = [L1 + iL2 , P3 ] = [L1 , P3 ] + i [L2 , P3 ] = i~ε132 P2 + i (i~ε231 P1 ) = −i~P2 − ~P1 = −~ (iP2 + P1 )
[L+ , P3 ] = −~P+
(19.16)
finalmente calculamos el conmutador de L2 con P+ 2 L , P+ = [Li Li , P+ ] = Li [Li , P+ ] + [Li , P+ ] Li
= L1 [L1 , P+ ] + L2 [L2 , P+ ] + L3 [L3 , P+ ] + [L1 , P+ ] L1 + [L2 , P+ ] L2 + [L3 , P+ ] L3 = −~L1 P3 − i~L2 P3 + ~L3 P+ − ~P3 L1 − i~P3 L2 + ~P+ L3 = −~ (L1 + iL2 ) P3 + ~L3 P+ − ~P3 (L1 + iL2 ) + ~P+ L3 = −~L+ P3 − ~P3 L+ + ~L3 P+ + ~P+ L3
sumando y restando t´erminos adecuadamente y aplicando las Ecs. (19.15, 19.16), se obtiene 2 L , P+ = −~L+ P3 + (~P3 L+ − ~P3 L+ ) − ~P3 L+ + ~L3 P+ + (−~P+ L3 + ~P+ L3 ) + ~P+ L3 = −~L+ P3 + ~P3 L+ − 2~P3 L+ + ~L3 P+ − ~P+ L3 + 2~P+ L3 = −~ [L+ , P3 ] − 2~P3 L+ + ~ [L3 , P+ ] + 2~P+ L3
L2 , P+
= ~2 P+ − 2~P3 L+ + ~2 P+ + 2~P+ L3 = 2~ (P+ L3 − P3 L+ ) + 2~2 P+
(19.17)
Por comodidad, condensaremos las relaciones algebr´ aicas anteriores [H0 , L] = [H0 , P] = 0 ;
19.4.2.
[Li , Pj ] = i~εijn Pn ;
[L1 , P+ ] = −~P3 ; [L2 , P+ ] = −i~P3 ; 2 L , P+ = 2~ (P+ L3 − P3 L+ ) + 2~2 P+
P+ ≡ P1 + iP2
[L3 , P+ ] = ~P+ ;
[L+ , P3 ] = −~P+
(19.18) (19.19) (19.20)
Relaciones de recurrencia para las ondas esf´ ericas libres (0)
Teniendo en cuenta que ϕk,l,m (r) tiene la estructura dada en las Ecs. (19.4, 19.6) y que los operadores momento angular solo act´ uan sobre variables angulares, tenemos que p (0) L+ ϕk,l,m (r) = Rk,l (r) L+ Ylm (θ, ϕ) = ~ l (l + 1) − m (m + 1)Rk,l (r) Yl,m+1 (θ, ϕ) p (0) (0) L+ ϕk,l,m (r) = ~ l (l + 1) − m (m + 1)ϕk,l,m+1 (r)
donde hemos usado la forma en que L+ act´ ua sobre los autoestados de L2 y L3 Ec. (10.47), P´ ag. 321. Esta (0) (0) ecuaci´ on muestra que L+ ϕk,l,m = 0 si m = l. Para m 6= l, tenemos que L+ ϕk,l,m (r) es tambi´en autoestado de H0
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
466
y L2 con el mismo valor de energ´ıa Ek y de l (esto tambi´en se puede ver del hecho de que L+ conmuta con H0 (0) y con L2 usando el teorema 1.66, P´ ag. 57). As´ı mismo, L+ ϕk,l,m (r) es autoestado de L3 con autovalor (m + 1) ~. (0)
Similarmente es f´acil ver la acci´ on de L− , L3 y L2 sobre ϕk,l,m (r) (0)
(0)
(0)
(0)
L3 ϕk,l,m (r) = m~ϕk,l,m (r) ; L2 ϕk,l,m (r) = l (l + 1) ~2 ϕk,l,m (r) p (0) (0) L± ϕk,l,m (r) = ~ l (l + 1) − m (m ± 1)ϕk,l,m±1 (r)
(19.21) (19.22)
(0)
Ahora aplicamos el operador P+ sobre ϕk,l,m (r). Teniendo en cuenta que P+ conmuta con H0 , tenemos que (0)
P+ ϕk,l,m (r) es funci´ on propia de H0 con la misma energ´ıa Ek . Con respecto al operador L3 , el comportamiento de este estado, se obtiene aplicando la Ec. (19.19) (0)
(0)
[L3 , P+ ] ϕk,l,m (r) = ~P+ ϕk,l,m (r) (0)
(0)
⇒
(0)
(0)
(0)
L3 P+ ϕk,l,m (r) = P+ L3 ϕk,l,m (r) + ~P+ ϕk,l,m (r) (0)
L3 P+ ϕk,l,m (r) = m~P+ ϕk,l,m (r) + ~P+ ϕk,l,m (r) h i h i (0) (0) L3 P+ ϕk,l,m (r) = (m + 1) ~ P+ ϕk,l,m (r) (0)
de modo que P+ ϕk,l,m (r) es autofunci´ on de L3 con valor propio (m + 1) ~. El siguiente paso natural es caracterizar (0)
al estado P+ ϕk,l,m (r) con respecto a L2 . La presencia del t´ermino P3 L+ en el conmutador de L2 con P+ Ec. (19.20), (0)
(0)
nos dice que P+ ϕk,l,m (r) no es en general funci´ on propia de L2 . Sin embargo, debido a que L+ ϕk,l,l (r) = 0, el t´ermino P3 L+ se anula cuando m = l 2 (0) (0) (0) L , P+ ϕk,l,l (r) = 2~ (P+ L3 − P3 L+ ) ϕk,l,l (r) + 2~2 P+ ϕk,l,l (r) h i h i h i (0) (0) (0) (0) (0) L2 P+ ϕk,l,l (r) = P+ L2 ϕk,l,l (r) + 2~P+ L3 ϕk,l,l (r) − 2~P3 L+ ϕk,l,l (r) + 2~2 P+ ϕk,l,l (r) (0)
(0)
(0)
(0)
(0)
L2 P+ ϕk,l,l (r) = l (l + 1) ~2 P+ ϕk,l,l (r) + 2l~2 P+ ϕk,l,l (r) + 2~2 P+ ϕk,l,l (r) = [l (l + 1) + 2l + 2] ~2 P+ ϕk,l,l (r) (0)
(0)
L2 P+ ϕk,l,l (r) = (l + 1) (l + 2) ~2 P+ ϕk,l,l (r) (0)
por tanto, P+ ϕk,l,l (r) es funci´ on propia com´ un de H0 , L3 y L2 con valores propios Ek , (l + 1) ~ y (l + 1) (l + 2) ~2 respectivamente. Puesto que estos tres observables forman un C.S.C.O. en el espacio orbital, existe una u ´nica autofunci´ on espacial normalizada (excepto por una fase) asociada a estos tres valores propios (0)
(0)
P+ ϕk,l,l (r) = Mk,l ϕk,l+1,l+1 (r)
(19.23)
n o (0) usaremos las relaciones de recurrencia (19.22, 19.23) para construir la base ϕk,l,m (r) de ondas esf´ericas a partir (0)
de las funciones ϕk,0,0 (r), ya que el operador P+ permite incrementar el n´ umero cu´ antico l, en tanto que los operadores L± permiten generar las funciones para todos los valores posibles de m con k y l fijos. Para ello (0) primero tenemos que encontrar las funciones ϕk,0,0 (r) . Un comentario final, a priori podr´ıa pensarse que el operador P− ≡ P1 − iP2 , permite bajar el n´ umero cu´ antico l hasta cero. Sin embargo, este no es el caso, puede mostrarse con un procedimiento similar al aqu´ı mostrado que la acci´ on de P− est´ a dada por (0) ′ (0) P− ϕk,l,−l (r) = Mkl ϕk,l+1,−(l+1) (r) (19.24)
19.4.3.
Soluci´ on de la ecuaci´ on radial para l = 0 (0)
La funci´ on ϕk,0,0 (r) viene dada por 1 (0) 1 1 (0) (0) ϕk,0,0 (r) = uk,0 (r) Y00 (θ, ϕ) = √ u (r) r 4π r k,0
´ DE LAS ONDAS ESFERICAS ´ 19.4. CARACTERIZACION LIBRES
467
(0)
por tanto, debemos determinar la funci´ on radial uk,0 (r). Usando las Ecs. (19.7, 19.8) y (19.9) con l = 0 tenemos que 2 d (0) (0) 2 + k uk,0 (r) = 0 ; uk,0 (0) = 0 (19.25) dr 2 la soluci´ on del tipo (19.11) que se anula en el origen est´ a dada por (0)
uk,0 (r) = ak sin kr
(19.26)
(0)
de modo que la funci´ on de onda ϕk,0,0 (r) viene dada por 1 (0) ak sin kr (0) ϕk,0,0 (r) = uk,0 (r) Y00 (θ, ϕ) = √ r 4π r
(19.27)
la constante ak se escoge real positiva y de modo que la funci´ on de onda completa sea ortonormal en el sentido extendido, puesto que k es un ´ındice cont´ınuo Z (0)∗ (0) ′ hk, 0, 0| k , 0, 0i = d3 r ϕk,0,0 (r) ϕk′ ,0,0 (r) = δ k − k′ (19.28) reemplazando la Ec. (19.27) en la integral de la Ec. (19.28) tenemos que
Z Z Z ∞ a2 ∞ 2 sin kr sin k′ r (0)∗ (0) r dr dΩ = a2k dr sin kr sin k′ r d3 r ϕk,0,0 (r) ϕk′ ,0,0 (r) = k 4π 0 r r 0 ′ ′r ik r −ik Z ∞ Z −e e eikr − e−ikr a2 ∞ ′ ′ ′ ′ I = a2k dr =− k dr ei(k+k )r + e−i(k+k )r − ei(k−k )r − e−i(k−k )r 2i 2i 4 0 0 Z ∞ Z ∞ Z ∞ Z 2 2 2 a a a2 ∞ ak ′ ′ ′ ′ dr ei(k−k )r + k dr e−i(k−k )r − k dr ei(k+k )r − k dr e−i(k+k )r I = 4 0 4 0 4 0 4 0 I ≡
Z
haciendo el cambio de variable r → −r en la segunda y cuarta integral, tenemos que I
= = =
I
=
Z Z Z Z a2k ∞ a2k −∞ a2k ∞ a2k −∞ ′ i(k−k ′ )r i(k−k ′ )r i(k+k ′ )r dr e − dr e − dr e + dr ei(k+k )r 4 0 4 0 4 0 4 0 Z ∞ Z 0 Z ∞ Z 2 2 2 2 ak ak ak ak 0 ′ i(k−k ′ )r i(k−k ′ )r i(k+k ′ )r dr e + dr e − dr e − dr ei(k+k )r 4 0 4 −∞ 4 0 4 −∞ Z ∞ h i 2 a 1 ′ ′ 2π k dr ei(k−k )r − ei(k+k )r 4 2π −∞ π a2k δ k − k′ − δ k + k′ 2
donde hemos usado el equivalente unidimensional de la delta de Dirac de la Ec. (1.117), P´ ag. 68. Ahora bien, ′ ′ puesto que k y k son ambos positivos, k + k es siempre diferente de cero y por tanto δ (k + k′ ) no contribuye en la integral, quedando Z π (0)∗ (0) d3 r ϕk,0,0 (r) ϕk′ ,0,0 (r) = a2k δ k − k′ 2 p (0) y exigiendo la ortonormalidad extendida (19.28) tenemos que ak = 2/π, por tanto la funci´ on ϕk,0,0 (r) de la Ec. (19.27) queda finalmente 1 sin kr (0) ϕk,0,0 (r) = √ (19.29) π 2 r
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
468
19.4.4.
Generaci´ on de ondas esf´ ericas libres con l 6= 0, a trav´ es de P+ y L± (0)
(0)
La Ec. (19.23) nos permite generar ϕk,1,1 (r) a partir de ϕk,0,0 (r) (0)
(0)
(0)
(0)
P+ ϕk,0,0 (r) = Mk,1 ϕk,1,1 (r) ; (P1 + iP2 ) ϕk,0,0 (r) = Mk,1 ϕk,1,1 (r) escribiremos los operadores P1 y P2 en la base de las {|ri} ∂ ~ ∂ ∂ ∂ P+ = = −i~ +i +~ i ∂x1 ∂x2 ∂x1 ∂x2 y lo expresamos en coordenadas esf´ericas, para ello utilizamos la Ec. (11.5) P´ ag. 327 ϕ cos ϕ sin θ cos θrcos ϕ − rsin ∂1 ∂r sin θ cos ϕ ∂2 = sin θ sin ϕ cos θ sin ϕ ∂θ r r sin θ sin θ ∂3 ∂ϕ cos θ − r 0
(19.30)
con lo cual P+ en coordenadas esf´ericas queda
∂ cos θ cos ϕ ∂ sin ϕ ∂ ∂ cos θ sin ϕ ∂ cos ϕ ∂ − i~ + i~ + ~ sin θ sin ϕ +~ +~ ∂r r ∂θ r sin θ ∂ϕ ∂r r ∂θ r sin θ ∂ϕ ∂ ~ cos θ ∂ ~ ∂ = ~ sin θ (sin ϕ − i cos ϕ) + (sin ϕ − i cos ϕ) + (cos ϕ + i sin ϕ) ∂r r ∂θ r sin θ ∂ϕ ∂ ~ cos θ ∂ ~eiϕ ∂ = −i~ sin θ (i sin ϕ + cos ϕ) −i (i sin ϕ + cos ϕ) + ∂r r ∂θ r sin θ ∂ϕ ∂ i~ cos θ iϕ ∂ ~eiϕ ∂ = −i~ sin θ eiϕ − e + (19.31) ∂r r ∂θ r sin θ ∂ϕ
P+ = −i~ cos ϕ sin θ P+ P+ P+
de las Ecs. (19.31) y (19.29) se obtiene 1 sin kr 1 sin kr i~ sin θ iϕ k cos kr sin kr (0) iϕ ∂ √ √ P+ ϕk,0,0 (r) = P+ = −i~ sin θ e =− √ e − ∂r π 2 r r r2 π 2 r π 2 i~k2 cos kr sin kr (0) P+ ϕk,0,0 (r) = − √ sin θ eiϕ − kr π 2 (kr)2 es conveniente escribir el operador diferencial radial en coordenadas cartesianas ∂f (r) ∂f (r) P+ f (r) = −i~ sin θ eiϕ = −i~ sin θ (cos ϕ + i sin ϕ) ∂r ∂r r sin θ cos ϕ r sin θ sin ϕ ∂f (r) x1 x2 ∂f (r) P+ f (r) = ~ −i + = ~ −i + r r ∂r r r ∂r i~ ∂f (r) P+ f (r) = − (x1 + ix2 ) r ∂r (0)
(19.32) (0)
la expresi´ on (19.32) permite calcular P+2 ϕk,0,0 (r) de una manera muy simple, teniendo en cuenta que ϕk,0,0 (r) on de conmutaci´ on solo depende de r, y que P+ cumple la relaci´ [P+ , X1 + iX2 ] = [P1 + iP2 , X1 + iX2 ] = 0 en particular la relaci´ on (19.33) se cumple en la base {|ri}, de modo que (x1 + ix2 ) ∂ sin kr 1 ∂ sin kr (0) 2 sin kr ϕk,2,2 (r) ∝ P+ ∝ P+ = (x1 + ix2 ) P+ kr r ∂r kr r ∂r kr 2 1 ∂ 1 ∂ sin kr 1 ∂ sin kr ∝ (x1 + ix2 )2 = (x1 + ix2 )2 r ∂r r ∂r kr r ∂r kr
(19.33)
´ DE LAS ONDAS ESFERICAS ´ 19.4. CARACTERIZACION LIBRES
469
donde hemos omitido las constantes de proporcionalidad, debido a que estas se pueden absorber en la constante de normalizaci´ on. Aplicando sucesivamente P+ con este procedimiento, es f´ acil ver que l sin kr (0) l 1 ∂ ϕk,l,l (r) ∝ (x1 + ix2 ) (19.34) r ∂r kr (0)
la dependencia angular de ϕk,l,l (r) est´ a contenida en el factor cartesiano (x1 + ix2 )l = (r sin θ cos ϕ + ir sin θ sin ϕ)l = r l (sin θ)l (cos ϕ + i sin ϕ)l r 1 Y (θ, ϕ) (2l + 1)! ll l l l (x1 + ix2 ) = r l (sin θ) eilϕ = (−1) r l ; |cl | = l |cl | 2 l! 4π
(19.35)
donde hemos usado la Ec. (11.29) P´ ag. 331. Vemos que el factor angular es proporcional a Yl,l (θ, ϕ) como esper´ abamos. Sustituyendo (19.35) en (19.34) tendremos entonces que l 1 ∂ l sin kr kl 1 ∂ sin kr = (−1)l Yl,l (θ, ϕ) (kr)l r ∂r kr |cl | kr ∂ (kr) kr l 1 ∂ sin kr (0) ϕk,l,l (r) ∝ (−1)l Yl,l (θ, ϕ) (kr)l (19.36) kr ∂ (kr) kr (0)
ϕk,l,l (r) ∝ (−1)l
Yl,l (θ, ϕ) l r |cl |
Donde el factor kl / |cl | lo hemos absorbido en el factor de normalizaci´ on. Definiremos la funci´ on esf´ erica de Bessel de orden l, en la forma l sin ρ l l 1 d jl (ρ) ≡ (−1) ρ (19.37) ρ dρ ρ
es claro que para k, l dados, se pueden generar todas las autofunciones asociadas a todos los valores permitidos de m por medio de los operadores L± . Sin embargo, estos valores solo generan la dependencia angular que ya conocemos previamente (arm´ onicos esf´ericos). Por tanto, combinando las ecuaciones (19.36, 19.37), vemos que las ondas esf´ericas libres se escriben en la forma (0)
ϕk,l,m (r) = Ck,l jl (kr) Ylm (θ, ϕ)
(19.38)
donde la constante de normalizaci´ on no depende de m, puesto que los arm´ onicos esf´ericos ya est´ an adecuadamente normalizados. Solo queda encontrar la constante de normalizaci´ on en t´erminos de k y l asociada a las funciones de Bessel esf´ericas.
19.4.5.
Ondas esf´ ericas libres normalizadas
Definiremos a las Ck,l como constantes positivas. La constante de proporcionalidad la elegimos para que se cumpla la relaci´ on de ortonormalidad Z (0)∗ (0) d3 r ϕk,l,m (r) ϕk′ ,l′ ,m′ (r) = δ k − k′ δll′ δmm′ (19.39) y la relaci´ on de completez
Z
0
∞
dk
∞ X l X
l=0 m=−l
(0) (0)∗ ϕk,l,m (r) ϕk,l,m r′ = δ r − r′
(19.40)
La constante de normalizaci´ on da cuenta de la normalizaci´ on de las funciones esf´ericas de Bessel, puesto que los arm´onicos esf´ericos ya est´ an normalizados. Para encontrar esta constante de normalizaci´ on, comenzaremos por calcular el factor exacto en la Ec. (19.23), para ello necesitaremos calcular las derivadas de jl (kr) y de Yl,l (θ, ϕ), y algunas de sus propiedades
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
470
" # " # l i 1 d l sin ρ d h 1 d l sin ρ d sin ρ l l 1 d l l l l d (−1) ρ = (−1) ρ + (−1) ρ dρ ρ dρ ρ dρ ρ dρ ρ dρ ρ dρ ρ " # 1 d l sin ρ 1 d 1 d l sin ρ = (−1)l lρl−1 − (−1)l+1 ρl+1 ρ dρ ρ ρ dρ ρ dρ ρ 1 d l sin ρ 1 d l+1 sin ρ l l (−1)l ρl − (−1)l+1 ρl+1 = jl (ρ) − jl+1 (ρ) = ρ ρ dρ ρ ρ dρ ρ ρ
d jl (ρ) = dρ
∂Yll (θ, ϕ) ∂θ ∂Yll (θ, ϕ) ∂θ
= =
∂Yll (θ, ϕ) ∂ϕ ∂Yll (θ, ϕ) ∂ϕ
Yl+1,l+1 (θ, ϕ) = = Yl+1,l+1 (θ, ϕ) =
r r i l (−1)l (2l + 1)! (−1)l (2l + 1)! ilϕ ∂ h l e (sin θ) = cos θ eilϕ (sin θ)l−1 2l l! r 4π ∂θ 2l l! 4π l (−1)l (2l + 1)! cos θ ilϕ cos θ e (sin θ)l = l Yl,l (θ, ϕ) l 2 l! 4π sin θ sin θ
=
(−1)l 2l l!
r
(2l + 1)! ∂ ilϕ (−1)l (sin θ)l e = il l 4π ∂ϕ 2 l!
r
(2l + 1)! (sin θ)l eilϕ 4π
= ilYl,l (θ, ϕ)
(−1)l+1 2l+1 (l + 1)!
r
[2 (l + 1) + 1]! (sin θ)l+1 ei(l+1)ϕ 4π " # r p (−1) sin θ eiϕ (2l + 2) (2l + 3) (−1)l [2l + 1]! l ilϕ (sin θ) e 2 (l + 1) 2l l! 4π s p (−1) sin θ eiϕ (2l + 2) (2l + 3) (2l + 3) Yl,l (θ, ϕ) = (−1) sin θ eiϕ Yl,l (θ, ϕ) (2l + 2) (2l + 2)
condensaremos estas propiedades en la forma d jl (ρ) = dρ ∂Yll (θ, ϕ) ∂θ
l jl (ρ) − jl+1 (ρ) ρ
= l
cos θ Yl,l (θ, ϕ) sin θ
; ;
iϕ
Yl+1,l+1 (θ, ϕ) = (−1) sin θ e ∂Yll (θ, ϕ) = ilYl,l (θ, ϕ) ∂ϕ
s
(2l + 3) Yl,l (θ, ϕ) (2l + 2)
(19.41) (19.42)
Tomaremos como hip´ otesis que la constante de normalizaci´ on Ck,l en la Ec. (19.38) solo depende de k, i.e. Ck,l ≡ Ck , y demostraremos por inducci´ on que si ϕk,l,l (r) est´ a normalizado con este Ck , entonces ϕk,l+1,l+1 (r) tambi´en (0) lo estar´ a y puesto que para ϕk,0,0 (r) la constante de normalizaci´ on solo depend´ıa de k, esta misma constante (0)
normaliza a todos los ϕk,l,l (r). Usando la forma expl´ıcita de P+ y de ϕk,l,l (r), Ecs. (19.31, 19.38) junto con las
´ DE LAS ONDAS ESFERICAS ´ 19.4. CARACTERIZACION LIBRES
471
propiedades (19.41, 19.42), se obtiene i~ cos θ iϕ ∂ ~eiϕ ∂ (0) iϕ ∂ P+ ϕk,l,l (r) = Ck −i~ sin θ e − e + jl (kr) Yll (θ, ϕ) ∂r r ∂θ r sin θ ∂ϕ ∂ i~ cos θ iϕ ∂Yll (θ, ϕ) ∂Yll (θ, ϕ) ~eiϕ iϕ = Ck −i~Yll (θ, ϕ) sin θ e k jl (kr) − e jl (kr) + jl (kr) ∂ (kr) r ∂θ r sin θ ∂ϕ l i~ cos θ iϕ cos θ jl (kr) − jl+1 (kr) − e jl (kr) l Yl,l (θ, ϕ) = Ck −i~Yll (θ, ϕ) sin θ eiϕ k kr r sin θ ~eiϕ ilYl,l (θ, ϕ) +jl (kr) r sin θ Yll (θ, ϕ) iϕ = Ck i~k sin θ eiϕ Yll (θ, ϕ) jl+1 (kr) − i~ e jl (kr) l sin2 θ r sin θ Yl,l (θ, ϕ) iϕ Y (θ, ϕ) iϕ l,l 2 −i~ e jl (kr) l cos θ + i~ e jl (kr) l r sin θ r sin θ s ( " # ) Yll (θ, ϕ) iϕ (2l + 2) = Ck i~k (−1) Yl+1,l+1 (θ, ϕ) jl+1 (kr) − i~ e jl (kr) l sin2 θ + l cos2 θ − l (2l + 3) r sin θ s (2l + 2) (0) P+ ϕk,l,l (r) = −i~k Ck Yl+1,l+1 (θ, ϕ) jl+1 (kr) (2l + 3) quedando finalmente (0) P+ ϕk,l,l (r)
= −i~k
r
2l + 2 (0) ϕ (r) 2l + 3 k,l+1,l+1
(19.43)
con lo cual hemos encontrado el factor de proporcionalidad Mk,l de la Ec. (19.23).
19.4.6.
Ortonormalidad de las funciones esf´ ericas libres
En la relaci´ on de ortonormalidad (19.39) los factores δll′ δmm′ provienen de la ortonormalidad de las funciones (0) angulares (arm´ onicos esf´ericos) la cual ya est´ a garantizada. Como consecuencia, podemos ver que si ϕk,l,l (r) est´ a (0)
normalizada, entonces ϕk,l,m (r) tambi´en lo est´ a para todo m Z Z D E (0) (0) (0)∗ (0) ∗ ϕk,l,m ϕk′ ,l,m ≡ d3 r ϕk,l,m (r) ϕk′ ,l,m (r) = Ck2 r 2 dr dΩ jl∗ (kr) Yl,m (θ, ϕ) jl k′ r Yl,m (θ, ϕ) Z Z 2 2 ∗ ′ ∗ = Ck r dr jl (kr) jl k r Yl,m (θ, ϕ) Yl,m (θ, ϕ) dΩ Z D E (0) (0) r 2 dr jl∗ (kr) jl k′ r (19.44) ϕk,l,m ϕk′ ,l,m = Ck2
La Ec. (19.44) nos muestra que este producto interno no depende de m. Como caso particular, se tiene que Z D E D E (0) (0) (0) (0) 2 2 ∗ ′ ϕk,l,l ϕk′ ,l,l = ϕk,l,m ϕk′ ,l,m = Ck r dr jl (kr) jl k r (19.45)
y puesto que los arm´ onicos esf´ericos ya garantizan la ortogonalidad en los n´ umeros cu´ anticos l, m, ser´ a suficiente (0) mostrar la ortonormalizaci´ on en el sentido extendido sobre la variable k, para las funciones del tipo ϕk,l,l Il k, k
′
≡
Z
D E (0)∗ (0) (0) (0) d3 r ϕk,l,l (r) ϕk′ ,l,l (r) = ϕk,l,l ϕk′ ,l,l
(19.46)
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
472
demostraremos que si Il (k, k′ ) est´ a ortonormalizada entonces Il+1 (k, k′ ) tambi´en lo est´ a. Partimos entonces de la hip´ otesis D (0) (0) E ′ Il k, k = ϕk,l,l ϕk′ ,l,l = δ k − k′ (19.47)
utilizando (19.43) en la integral (19.46) para l + 1, tenemos que D E E 1 2l + 3 D (0) (0) (0) (0) Il+1 k, k′ = ϕk,l+1,l+1 ϕk′ ,l+1,l+1 = 2 ′ P+ ϕk,l,l P+ ϕk′ ,l,l ~ kk 2l + 2 D E 2l + 3 (0) (0) Il+1 k, k′ = Al,k,k′ ϕk,l,l P− P+ ϕk′ ,l,l ; Al,k,k′ ≡ 2 ′ ~ kk (2l + 2)
(19.48)
donde P+† ≡ P− = P1 − iP2 , vemos que
P− P+ = P12 + P22 = P2 − P32
(19.49)
(0)
puesto que las ondas esf´ericas libres ϕk,l,l (r), son autoestados de H0 = P2 /2µ, son tambi´en autoestados de P2 , con valor propio 2µEk = ~2 k2 . Adicionalmente, puesto que P3 es herm´ıtico, podemos escribir D D (0) E (0) E (0) (0) Il+1 k, k′ = Al,k,k′ ϕk,l,l P2 − P32 ϕk′ ,l,l = Al,k,k′ ϕk,l,l ~2 k′2 − P32 ϕk′ ,l,l D E D E (0) (0) (0) (0) = Al,k,k′ ~2 k′2 ϕk,l,l ϕk′ ,l,l − Al,k,k′ ϕk,l,l P3† P3 ϕk′ ,l,l D E (0) (0) Il+1 k, k′ = Al,k,k′ ~2 k′2 Il k, k′ − Al,k,k′ P3 ϕk,l,l P3 ϕk′ ,l,l (19.50) ahora debemos calcular la acci´ on de P3 sobre las funciones esf´ericas libres, para lo cual usamos las ecuaciones (19.30, 19.41, 19.42) ∂ sin θ ∂ (0) −i~ = −i~ cos θ − ϕk,l,l (r) ∂x3 ∂r r ∂θ ∂Yl,l (θ, ϕ) ∂jl (kr) sin θ −i~Ck k cos θ Yl,l (θ, ϕ) − jl (kr) ∂ (kr) r ∂θ l sin θ cos θ −i~Ck k cos θ Yl,l (θ, ϕ) jl (kr) − jl+1 (kr) − jl (kr) l Yl,l (θ, ϕ) kr r sin θ l l −i~Ck cos θ Yl,l (θ, ϕ) jl (kr) − k cos θ Yl,l (θ, ϕ) jl+1 (kr) − cos θ Yl,l (θ, ϕ) jl (kr) r r (0)
(0) P3 ϕk,l,l (r)
= = = =
(0)
∂ϕk,l,l (r)
P3 ϕk,l,l (r) = i~k cos θ Ck Yl,l (θ, ϕ) jl+1 (kr)
(19.51) (0)
Para prop´ ositos de la demostraci´ on es conveniente escribir el miembro derecho de (19.51) en t´erminos de ϕk,l+1,l (r). Para hacerlo debemos escribir el miembro derecho de (19.51) en t´erminos de Yl+1,l (θ, ϕ). De la Ec. (11.32), P´ ag. 331 con m = l se tiene p √ L− Yl,l (θ, ϕ) = ~ l (l + 1) − l (l − 1) Yl,l−1 (θ, ϕ) = ~ 2l Yl,l−1 (θ, ϕ) usando la forma expl´ıcita de L− en la base de las {|ri}, Ec. (11.15) P´ ag. 329, nos queda ∂Y (θ, ϕ) 1 1 cos θ ∂Yl,l (θ, ϕ) √ L− Yl,l (θ, ϕ) = √ ~e−iϕ − l,l Yl,l−1 (θ, ϕ) = +i ∂θ sin θ ∂ϕ ~ 2l ~ 2l −iϕ −iϕ e cos θ cos θ e cos θ = √ −l Yl,l (θ, ϕ) + i (ilYl,l (θ, ϕ)) = −2l √ Yl,l (θ, ϕ) sin θ sin θ 2l 2l sin θ √ cos θ Yl,l−1 (θ, ϕ) = − 2l e−iϕ Yl,l (θ, ϕ) sin θ
(19.52)
´ DE LAS ONDAS ESFERICAS ´ 19.4. CARACTERIZACION LIBRES
473
con la sustituci´ on l → l + 1 en la ecuaci´ on (19.52) y usando la Ec. (19.41) tenemos s # " p √ (2l + 3) −iϕ cos θ −iϕ cos θ iϕ Yl+1,l (θ, ϕ) = − 2 (l + 1) e Yl+1,l+1 (θ, ϕ) = − 2l + 2 e (−1) sin θ e Yl,l (θ, ϕ) sin θ sin θ (2l + 2) p (19.53) Yl+1,l (θ, ϕ) = cos θ (2l + 3)Yl,l (θ, ϕ) sustituyendo (19.53) en (19.51) se obtiene " (0) P3 ϕk,l,l (r) (0)
= i~k cos θCk
P3 ϕk,l,l (r) =
p
# Yl+1,l (θ, ϕ) i~k p jl+1 (kr) = p Ck Yl+1,l (θ, ϕ) jl+1 (kr) cos θ (2l + 3) (2l + 3)
i~k (0) ϕk,l+1,l (r) (2l + 3)
(19.54)
y ahora sustituyendo (19.54) en (19.50) tenemos que Il+1 k, k
′
′
= Al,k,k′ ~2 k′2 Il k, k − Al,k,k′ = Al,k,k′ ~2 k′2 Il k, k′ − Al,k,k′
*
+ ′ i~k i~k (0) (0) p ϕk,l+1,l p ϕ ′ (2l + 3) k ,l+1,l (2l + 3) ! D E i~k′ −i~k (0) (0) p p ϕk,l+1,l ϕk′ ,l+1,l (2l + 3) (2l + 3)
on (19.48), as´ı como la Ec. (19.45) tenemos que usando la forma expl´ıcita de Al,k,k′ , ecuaci´ 2 ′ D E 2l + 3 2l + 3 ~ kk (0) (0) ′ 2 ′2 ′ Il+1 k, k = ~ k I k, k − ϕ ϕ ′ ,l+1,l+1 l k,l+1,l+1 k ~2 kk′ (2l + 2) ~2 kk′ (2l + 2) (2l + 3) ′ k (2l + 3) 1 Il+1 k, k′ = Il k, k′ − Il+1 k, k′ k (2l + 2) (2l + 2) aplicando la hip´ otesis (19.47) resulta
Il+1 k, k′
=
1 1+ Il+1 k, k′ = (2l + 2) (2l + 2) + 1 Il+1 k, k′ = (2l + 2)
k′ (2l + 3) 1 δ k − k′ − Il+1 k, k′ k (2l + 2) (2l + 2) ′ k (2l + 3) δ k − k′ k (2l + 2) k′ (2l + 3) δ k − k′ k (2l + 2)
la anterior expresi´on muestra que Il+1 (k, k′ ) es cero si k 6= k′ por tanto 2l + 3 k (2l + 3) Il+1 k, k′ = δ k − k′ (2l + 2) k (2l + 2) ′ Il+1 k, k = δ k − k′
por tanto hemos demostrado que si Il (k, k′ ) est´ a ortonormalizado con el factor Ck , entonces Il+1 (k, k′ ) tambi´en lo (0) est´ a. Por u ´ltimo, hallamos el factor Ck por medio de la funci´ on esf´erica libre m´ as simple ϕk,0,0 (r). Comenzamos reescribiendo la Ec. (19.29) (que ya est´ a debidamente normalizada) en la forma r r k sin kr 2 sin kr 1 2 (0) √ =k √ ϕk,0,0 (r) = =k j0 (kr) Y00 (θ, ϕ) π kr π π 2 kr 4π r 2 (0) ϕk,0,0 (r) = Ck j0 (kr) Y00 (θ, ϕ) ; Ck ≡ k π
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
474
la expresi´ on final para las ondas esf´ericas libres Ec. (19.38), ser´ a entonces r 2 (0) ϕk,l,m (r) = k jl (kr) Ylm (θ, ϕ) π
19.4.7.
(19.55)
Comportamiento asint´ otico de las ondas esf´ ericas libres
Estudiaremos el comportamiento de jl (ρ) cerca al origen y para r muy grande. Utilizando la expansi´ on de sin ρ/ρ en serie de potencias ∞ sin ρ X ρ2p = (19.56) (−1)p ρ (2p + 1)! p=0
l
y aplicando el operador (−1)l ρl
un la definici´ on (19.37) ρ−1 ∂ρ obtenemos jl (ρ) seg´ l ∞ X sin ρ (−1)p 1 d l 2p l l 1 d l l jl (ρ) = (−1) ρ ρ = (−1) ρ ρ dρ ρ (2p + 1)! ρ dρ
(19.57)
p=0
podemos ver que 1 d l 2p 1 d l−1 1 d 1 d l−1 2(p−1) 2p ρ = ρ = 2p ρ ρ dρ ρ dρ ρ dρ ρ dρ 1 d l−2 1 d 1 d l−3 1 d 2(p−1) 2(p−2) ρ ρ = 2p = 2p [2 (p − 1)] ρ dρ ρ dρ ρ dρ ρ dρ 1 d l 2p 1 d l−3 2(p−3) ρ = 2p [2 (p − 1)] [2 (p − 2)] ρ ρ dρ ρ dρ de lo cual ya podemos ver la secuencia 1 d l 2p ρ = 2p [2 (p − 1)] [2 (p − 2)] · · · {2 [p − (l − 1)]} ρ2(p−l) ρ dρ 1 d l 2p ρ = 2p (2p − 2) (2p − 4) · · · [2p − 2 (l − 1)] ρ2(p−l) ρ dρ
(19.58)
sustituyendo (19.58) en (19.57) tenemos l
l
jl (ρ) = (−1) ρ
∞ X
(−1)p
p=0
2p (2p − 2) (2p − 4) · · · [2p − 2 (l − 1)] 2(p−l) ρ (2p + 1)!
(19.59)
es claro que el factor 2p (2p − 2) (2p − 4) · · · [2p − 2 (l − 1)] (2p + 1)! es nulo para p = 0, 1, 2, . . . , l − 1. Por tanto la Ec. (19.59) queda en la forma jl (ρ) = (−1)l ρl
∞ X p=l
(−1)p
2p (2p − 2) (2p − 4) · · · [2p − 2 (l − 1)] 2p−2l ρ (2p + 1)!
(19.60)
en el l´ımite cuando ρ → 0, podemos quedarnos solo con el primer t´ermino de la expansi´ on (19.60) jl (ρ) ∼ (−1)l ρl (−1)l ρ→0
2l (2l − 2) (2l − 4) · · · × 4 × 2 (2l + 1)!
2l (2l − 2) (2l − 4) · · · × 4 × 2 (2l + 1) (2l) (2l − 1) (2l − 2) · · · 3 × 2 × 1 ρl (2l + 1) (2l − 1) (2l − 3) · · · × 3 × 1
= ρl =
´ DE LAS ONDAS ESFERICAS ´ 19.4. CARACTERIZACION LIBRES
jl (ρ) ∼
ρ→0
475
ρl (2l + 1)!!
(19.61)
con lo cual ϕk,l,m (r) es proporcional a r l en el l´ımite de ρ = kr muy peque˜ no. Sustituyendo (19.61) en (19.55) resulta r 2 (kr)l (0) ϕk,l,m (r) ∼ k Ylm (θ, ϕ) (19.62) r→0 π (2l + 1)!! veamos ahora el l´ımite para ρ muy grande. De la definici´ on de jl (ρ) se tiene l
l
jl (ρ) = (−1) ρ
1 d ρ dρ
l
sin ρ = (−1)l ρl ρ
1 d ρ dρ
l−1
1 d ρ dρ
l−1 sin ρ cos ρ sin ρ l l 1 d = (−1) ρ − 3 ρ ρ dρ ρ2 ρ
el segundo t´ermino en par´entesis cuadrados es mucho menor que el primero cuando ρ → ∞. Tenemos entonces que l−1 l−1 cos ρ 1 d l l 1 d l l 1 d jl (ρ) ∼ (−1) ρ = (−1) ρ sin ρ ρ→∞ ρ dρ ρ2 ρ dρ ρ2 dρ Adicionalmente, al aplicar de nuevo el operador ρ−1 ∂ρ , tenemos l−2 1 d cos ρ sin ρ 2 cos ρ l l 1 d jl (ρ) ∼ (−1) ρ = (−1) ρ − 3 − ρ→∞ ρ dρ ρ2 ρ dρ ρ ρ4 l−2 l−2 1 d sin ρ 1 d 1 d2 sin ρ jl (ρ) ∼ (−1)l ρl − 3 = (−1)l ρl ρ→∞ ρ dρ ρ ρ dρ ρ3 dρ2 l
l
1 d ρ dρ
l−2
el t´ermino dominante contin´ ua siendo el t´ermino proveniente de la derivada de la funci´ on sin ρ. Por tanto, jl (ρ) se comporta en la forma l
l
jl (ρ) ∼ (−1) ρ
1
d dρ
l
ρl+1 l 1 d jl (ρ) ∼ (−1)l sin ρ ρ→∞ ρ dρ ρ→∞
y teniendo en cuenta que
obtenemos finalmente
d dρ
l
sin ρ
π sin ρ = (−1)l sin ρ − l 2
jl (ρ) ∼
ρ→∞
1 π sin ρ − l ρ 2
(19.63)
en este punto recalcamos la importancia de la condici´ on uk,l (0) = 0. Por ejemplo, si hacemos kr = ρ en la ecuaci´ on radial (19.5) obtenemos
~2 k2 d2 k2 l (l + 1) ~2 ~2 k2 (0) (0) − (kr) + R (ρ) = R (ρ) k,l 2µ kr d (kr)2 2µ k,l 2µ (kr)2 ~2 k2 1 d2 l (l + 1) (0) − ρ+ − 1 Rk,l (ρ) = 0 2µ ρ dρ2 ρ2 1 d2 l (l + 1) (0) ρ+1− Rl (ρ) = 0 2 2 ρ dρ ρ
(19.64)
476
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
en el u ´ltimo paso hemos suprimido la dependencia de k como n´ umero cu´ antico en Rk,l (ρ), puesto que dicho n´ umero cu´ antico se factoriz´ o por completo del operador (por supuesto Rl (ρ) depende de k a trav´es del factor de normalizaci´ on Ck y de la relaci´ on ρ ≡ kr). Por otro lado i 1 d d (0) 1 d (0) d (0) d2 (0) 1 d2 h (0) (0) Rl (ρ) + ρ Rl (ρ) = R (ρ) + Rl (ρ) + ρ 2 Rl (ρ) ρRl (ρ) = ρ dρ2 ρ dρ dρ ρ dρ l dρ dρ h i 2 2 1 d 2 d (0) d (0) (0) ρRl (ρ) = Rl (ρ) + 2 Rl (ρ) (19.65) 2 ρ dρ ρ dρ dρ
sustituyendo (19.65) en (19.64) queda finalmente 2 2 d d l (l + 1) (0) + + 1− Rl (ρ) = 0 2 2 dρ ρ dρ ρ
(19.66)
esta es la ecuaci´ on de Bessel esf´erica de orden l. Dicha ecuaci´ on posee dos soluciones linealmente independientes, que se pueden distinguir en particular por su comportamiento en el origen. Una de ellas es la funci´ on de Bessel esf´erica jl (ρ) que satisface las condiciones asint´ oticas (19.61, 19.63). Para la otra soluci´ on linealmente independiente se pueden elegir las funciones esf´ ericas de Neumann de orden l, denotadas por ηl (ρ), que poseen el siguiente comportamiento asint´ otico (2l − 1)!! 1 π ηl (ρ) ∼ ; η (ρ) ∼ cos ρ − l (19.67) l ρ→∞ ρ ρ→0 ρl+1 2 para ver si la soluci´ on es f´ısicamente aceptable, examinamos el l´ımite de r peque˜ no para uk,l (ρ) para el cual tendr´ıamos ρ (0) (2l − 1)!! (0) (0) l´ım uk,l (ρ) = l´ım rRk,l (ρ) = l´ım ηl (ρ) = ρ→0 ρ→0 ρ→0 k kρl este l´ımite no es nulo para ning´ un l, y de hecho diverge para l 6= 0. Por tanto, no se cumple la condici´ on (19.8) con lo cual la soluci´ on es f´ısicamente descartable.
19.4.8.
Relaci´ on entre las ondas esf´ ericas libres y las planas
n o n o (0) (0) Tanto las ondas esf´ericas libres ϕk,l,m (r) como las ondas planas ηk (r) son bases para el espacio orbital Er . Por tanto, cada base se puede expresar en t´erminos de la otra. Comenzaremos por expresar las ondas planas en (0) t´erminos de las ondas esf´ericas libres. Puesto que la onda plana ηk (r), es funci´ on propia de H0 con valor propio on solo incluir´ a a las ondas ϕk,l,m (r) que corresponden a esta energ´ıa, es decir aquellas que ~2 k2 /2µ, su expansi´ cumplen la condici´ on √ 2µE |k| = ~ de manera que la expansi´ on tendr´ a la forma (0) ηk (r)
ik·r
=e
=
∞ X l X
(0)
cl,m (k) ϕk,l,m (r)
(19.68)
l=0 m=−l
comenzaremos por simplicidad con el caso en el cual k = ku3 . Definiendo θ como el ´ angulo entre r y el eje Z, vamos a expandir la funci´ on eikz = eikr cos θ (19.69) puesto que esta funci´ on es independiente de ϕ, solo contribuyen los arm´ onicos esf´ericos con m = 0. Por tanto la Ec. (19.68) quedar´ a en la forma ikz
e
ikr cos θ
=e
=
∞ X l=0
(0) cl,0 (k) ϕk,l,0 (r)
=
∞ X l=0
cl (k) jl (kr) Yl,0 (θ)
(19.70)
´ DE LAS ONDAS ESFERICAS ´ 19.4. CARACTERIZACION LIBRES
477
si consideramos a eikr cos θ como funci´ on de θ, asumiendo a r como un par´ ametro, podemos considerar a cl (k) jl (kr) como un coeficiente y expandirlo en la base ortonormal de los arm´ onicos esf´ericos3 . Multiplicando la Ec. (19.70) ∗ por Yl,0 (θ) dΩ, integrando en el ´ angulo s´ olido y utilizando la ortonormalidad de los arm´ onicos esf´ericos, tenemos Z
∗ eikr cos θ Yl,0 (θ) dΩ =
∞ X
cl′ (k) jl′ (kr)
l′ =0
cl (k) jl (kr) =
Z
Z
∗ Yl′ ,0 (θ) Yl,0 (θ) dΩ =
∞ X
cl′ (k) jl′ (kr) δll′ = cl (k) jl (kr)
l′ =0
∗ eikr cos θ Yl,0 (θ) dΩ
(19.71)
por otro lado, Yl,0 (θ) se puede escribir en t´erminos de Yl,l (θ, ϕ) aplicando l−veces el operador escalera L−. . De la Ec. (11.32), P´ ag. 331 vemos que p L− Yl,m (θ, ϕ) = ~ l (l + 1) − m (m − 1)Yl,m−1 (θ, ϕ) que reescribiremos en la forma p p L− Yl,l−k (θ, ϕ) = ~ l (l + 1) − (l − k) (l − k − 1) Yl,l−k−1 (θ, ϕ) = ~ (2l − k) (k + 1) Yl,l−k−1 (θ, ϕ) p p L− Yl,l−k (θ, ϕ) = ~ (k + 1) (2l − k) Yl,l−k−1 (θ, ϕ) ; 0 ≤ k ≤ 2l (19.72)
si aplicamos l veces el operador L− al arm´ onico Yl,l (θ, ϕ) entonces k pasar´ a por los valores k = 0, 1, 2, . . . , (l − 3) , (l − 2) , (l − 1)
y combinando la Ec. (19.72) con (19.73) vemos que p p (L− )l Yl,l (θ, ϕ) = ~l 1 · 2 · . . . · (l − 1) · l (2l) (2l − 1) (2l − 2) . . . (l + 2) (l + 1) Yl,0 (θ, ϕ) p (L− )l Yl,l (θ, ϕ) = ~l (2l)! Yl,0 (θ, ϕ)
(19.73)
(19.74)
sustituyendo (19.74) en (19.71) se obtiene cl (k) jl (kr) = =
= cl (k) jl (kr) =
#∗ L− l dΩ = p Yl,l (θ, ϕ) eikr cos θ dΩ ~ (2l)! * " l #† 1 L− 1 L− l p (l, l) |ki = p hl, l| |ki ~ ~ (2l)! (2l)! " l #† Z 1 L − p Yl,l∗ (θ, ϕ) eikr cos θ dΩ ~ (2l)! " # l Z 1 L + p Yl,l∗ (θ, ϕ) eikr cos θ dΩ ~ (2l)!
Z
∗ Yl,0 (θ) eikr cos θ
1
Z "
(19.75)
(19.76)
donde hemos usado el hecho de que L+ es el adjunto de L− . Por otro lado, de la forma expl´ıcita de L± Ecs. (11.14, 11.15), P´ ag. 329 se puede probar que L± einϕ F (θ) = ∓~ei(n±1)ϕ (sin θ)1±n
a partir de lo cual se puede demostrar por recurrencia que
3
d (sin θ)∓n F (θ) d (cos θ)
(L± )p einϕ F (θ) = (∓~)p ei(n±p)ϕ (sin θ)p±n
dp ∓n F (θ) p (sin θ) d (cos θ)
De hecho, los arm´ onicos esf´ericos de la forma Yl,0 (θ) son una base ortonormal para funciones de la variable θ.
(19.77)
(19.78)
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
478
aplicando (19.78) con p = l y con n = 0, tenemos que L+ l ikr cos θ dl e = (−1)l eilϕ (sin θ)l eikr cos θ l ~ d (cos θ)
L+ ~
l
eikr cos θ
= (−1)l eilϕ (sin θ)l (ikr)l eikr cos θ s 4π l = (ikr) 2l l! Yl,l (θ, ϕ) eikr cos θ (2l + 1)!
(19.79)
donde hemos utilizado la expresi´ on (11.29) P´ ag. 331 para Yl,l (θ, ϕ). Aplicando la Ec. (19.79) en (19.76) resulta s Z 4π 2l l! p cl (k) jl (kr) = (ikr)l |Yl,l (θ, ϕ)|2 eikr cos θ dΩ (19.80) (2l + 1)! (2l)!
ahora bien, puesto que cl (k) es independiente de r podemos tomar cualquier valor dado de r para evaluar cl (k) en otico la expresi´ on (19.80). Tomaremos r → 0, con lo cual la funci´ on esf´erica de Bessel jl (kr) adquiere el valor asint´ (19.61). En este l´ımite, la Ec. (19.80) queda en la forma s Z (kr)l 4π 2l l! l p cl (k) = (ikr) |Yl,l (θ, ϕ)|2 dΩ (2l + 1)!! (2l + 1)! (2l)! s 4π 2l l! p cl (k) = il (2l + 1)!! (2l + 1)! (2l)!
donde hemos tenido en cuenta que los arm´ onicos esf´ericos est´ an normalizados. El coeficiente cl es entonces independiente de k y viene dado por s s 4π 2l + 1 l (2l + 1)!! p l cl = i (2l + 1)!! 2 l! = il 4π (2l + 1) 2l l! (2l + 1)! (2l + 1)! (2l + 1)! cl = il es f´ acil ver que
p
4π (2l + 1)
2l l! (2l)!!
(19.81)
(2l)!! = [2l] [2l − 2] [2l − 4] [2l − 6] ... [2l − 2 (l − 1)] = [2l] [2 (l − 1)] [2 (l − 2)] [2 (l − 3)] ... [2 (l − (l − 1))] = 2l · l (l − 1) (l − 2) (l − 3) ... (l − (l − 1))
(2l)!! = 2l · l!
con lo cual (19.81) se reduce a cl = il por tanto, la expansi´ on de eikz =
eikz
p
4π (2l + 1)
(19.82)
Ec. (19.70) queda en la forma
∞ ∞ X X p il 4π (2l + 1) jl (kr) Yl,0 (θ) = il (2l + 1) jl (kr) Pl (cos θ) l=0
(19.83)
l=0
donde Pl (cos θ) es el polinomio de Legendre de grado l. Es bien sabido que los polinomios de Legendre son una base para cualquier funci´ on del ´ angulo polar θ. Por otro lado, podemos escribir la expansi´ on (19.83) en t´erminos de las ondas esf´ericas libres (19.55) " r # r ∞ X p 1 π 2 eikz = il 4π (2l + 1) k jl (kr) Yl,0 (θ) k 2 π l=0 r ∞ 1 π X lp (0) ikz e = i 4π (2l + 1) ϕk,l,0 (r) (19.84) k 2 l=0
´ DE LAS ONDAS ESFERICAS ´ 19.4. CARACTERIZACION LIBRES
479
Ahora bien, podemos sin p´erdida de generalidad definir al vector k en la direcci´ on u3 . Por otro lado, θ es el angulo entre u3 y r o equivalentemente el ´ ´ angulo entre k y r. Adicionalmente, la expresi´ on (19.83) depende u ´nicamente del ´ angulo entre k y r sin importar la direcci´ on de los vectores individuales. Por conveniencia, redefinimos como α al ´ angulo entre k y r, de modo que la expresi´ on (19.83) para direcciones arbitrarias de k y r se escribe en la forma eik·r =
∞ X
il (2l + 1) jl (kr) Pl (cos α)
(19.85)
l=0
La direcci´ on (arbitraria) de k la definimos con los a ´ngulos (θk , ϕk ), y la direcci´ on arbitraria de r con los ´ angulos (θ, ϕ). Ahora bien, puesto que α es el ´ angulo entre k y r, podemos utilizar el teorema de adici´ on de los arm´ onicos esf´ericos Ec. (11.41), P´ ag. 333 para obtener ik·r
e
= 4π
∞ X l X
l
i jl (kr)
∗ Ylm (θk , ϕk )
l=0 m=−l
4π Yl,m (θ, ϕ) = k
r
∞ l πX X l ∗ (0) i Ylm (θk , ϕk ) ϕk,l,m (r) 2
(19.86)
l=0 m=−l
donde hemos utilizado la expresi´ on (19.55) para las ondas esf´ericas libres. Por supuesto, es posible invertir la Ec. (19.86), con el fin de obtener las ondas esf´ericas libres ϕk,l,m (r) en t´erminos de ondas planas. Multiplicando la Ec. (19.86) por Ylm (θk , ϕk ) dΩk , integrando y usando la ortonormalidad de los arm´ onicos esf´ericos, se tiene que Z
′
ik·r
e
Ylm (θk , ϕk ) dΩk = 4π
∞ l X X
i j (kr) Y l′
l′ ,m′
(θ, ϕ)
l′ =0 m′ =−l′ ′
= 4π Z
l′
∞ l X X
Z
Yl∗′ m′ (θk , ϕk ) Ylm (θk , ϕk ) dΩk
′
il jl′ (kr) Yl′ ,m′ (θ, ϕ) δll′ δmm′ = 4πil jl (kr) Ylm (θ, ϕ)
l′ =0 m′ =−l′ ik·r
e
Ylm (θk , ϕk ) dΩk =
4πil k
# r " r r π 2 4π π (0) k jl (kr) Ylm (θ, ϕ) = ϕk,l,m (r) l 2 π (−i) k 2
quedando finalmente (0) ϕk,l,m (r)
(−1)l il k = 4π
r Z 2 eik·r Ylm (θk , ϕk ) dΩk π
(19.87)
La Ec. (19.86) nos dice que un estado con momento lineal bien definido, involucra todos los valores posibles del momento angular orbital. Rec´ıprocamente, la Ec. (19.87) nos dice que un estado con momento angular orbital bien definido, involucra todas las ondas planas con la misma energ´ıa. Esto es, todas las ondas planas tales que √ ~ |k| = 2µE, incluyendo todas las direcciones posibles (θk , ϕk ).
19.4.9.
Interpretaci´ on f´ısica de las ondas esf´ erica libres
Hemos visto que la dependencia angular de la onda esf´erica est´ a dada por los arm´ onicos esf´ericos. Por lo tanto, la dependencia angular est´ a completamente fijada por los autovalores de L2 y L3 , pero es completamente independiente de k, y por tanto de la energ´ıa. Por ejemplo, una onda esf´erica libre tipo s (i.e. con l = 0) es isotr´ opica sin importar su energ´ıa. on Ω0 ≡ (θ0 , ϕ0 ). Cuando la part´ıcula Consideremos un ´ angulo s´ olido infinitesimal dΩ0 centrado en cierta direcci´ (0) est´ a en el estado ϕk,l,m (r) descrito por la Ec. (19.55), la probabilidad de encontrar a la part´ıcula en un intervalo radial entre r y r + dr y un intervalo angular dΩ0 est´ a dada por 2 2k2 2 2 d (kr) (0) dP = ϕk,l,m (r) r 2 dr dΩ0 = j (kr) |Yl,m (θ0 , ϕ0 )|2 r 2 dr dΩ0 = (kr)2 jl2 (kr) |Yl,m (θ0 , ϕ0 )|2 dΩ0 π l π k 2 ρ2 2 dP = j (ρ) |Yl,m (θ0 , ϕ0 )|2 dρ dΩ0 ; ρ ≡ kr (19.88) π k l
480
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
De la forma expl´ıcita de los arm´ onicos esf´ericos Eq. (11.30) p´ ag. 331, vemos que esta probabilidad es independiente de ϕ, de modo que tiene simetr´ıa azimutal. Adicionalmente, en virtud del comportamiento asint´ otico de jl (ρ) cerca al origen Ec. (19.61), vemos que la probabilidad (19.88) en la vecindad del origen se comporta en la forma 2 ρ2 ρ2l |Yl,m (θ0 , ϕ0 )|2 dρ dΩ0 r→0 π k [(2l + 1)!!]2 21 ρ2l+2 dP ∼ dρ |Yl,m (θ0 , ϕ0 )|2 dΩ0 r→0 π k [(2l + 1)!!]2
dP ∼
por tanto al incrementar l, disminuye m´ as r´ apidamente la probabilidad a medida que nos acercamos al origen. De la Ec. (19.88), es claro que el comportamiento radial de la probabilidad est´ a regulado por la funci´on ρ2 jl2 (ρ). El comportamiento de esta funci´ on se grafica en la Fig. 19.1. Tal figura muestra que esta funci´ on permanece peque˜ na en el intervalo p ρ < l (l + 1) podemos entonces asumir que la probabilidad es pr´ acticamente cero para
Figura 19.1: Comportamiento de ρ2 jl2 (ρ) con respecto a ρ. Aqu´ı se grafica para l = 4. r<
1p l (l + 1) k
(19.89)
lo anterior implica que una part´ıcula en el estado ϕk,l,m (r) pr´ acticamente no se afecta por lo que ocurra en el interior de la esfera centrada en el origen O y de radio bl (k) =
1p l (l + 1) k
(19.90)
lo anterior posee un interesante an´ alogo semi-cl´ asico. En mec´ anica cl´ asica una part´ıcula libre de momento p y momento angular L, se mueve en l´ınea recta con par´ ametro de impacto b=
|L| |p|
(19.91)
y el par´ ametro de impactopcrece con el m´ odulo de L y decrece con el m´ odulo de p (y por tanto con la energ´ıa). Si reemplazamos |L| por ~ l (l + 1) y |p| por ~k, la Ec. (19.91) se convierte en (19.90). Puesto que cl´ asicamente el par´ ametro de impacto es la distancia de m´ aximo acercamiento al origen, vemos que tambi´en cl´ asicamente, la “esfera de exclusi´ on” de la part´ıcula aumenta con el aumento del m´ odulo del momento angular y disminuye con el aumento de la energ´ıa (i.e. del m´ odulo de p).
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R)
481
A priori parece extra˜ no que exista una esfera de exclusi´ on alrededor del origen. Despu´es de todo, si las part´ıculas son libres el origen no es un punto privilegiado, ya que no hay un centro dispersor. Sin embargo, debe tenerse en cuenta que el momento angular es una cantidad que se mide con respecto a cierto origen. En el an´ alogo cl´ asico, un alto valor del momento angular (con respecto a un origen dado) significa un alto par´ ametro de impacto, es decir la distancia de mayor aproximaci´ on al origen es grande. Cu´ anticamente, esto se manifiesta en el crecimiento de la esfera de exclusi´ on cuando aumenta el momento angular. Como en cualquier experimento de dispersi´ on, el l´ımite m´ as importante es el l´ımite asint´ otico con r → ∞. (0) Usando tal l´ımite en la funci´ on esf´erica de Bessel Ec. (19.63), vemos que el comportamiento de ϕk,l,m (r) en este r´egimen asint´ otico, vendr´ a dado por r r π 2 21 (0) ϕk,l,m (r) = k jl (kr) Ylm (θ, ϕ) ∼ −k sin l − ρ Ylm (θ, ϕ) r→∞ π πρ 2 r r π π π π ei( 2 l−kr) − e−i( 2 l−kr) 2 1 ei( 2 l−ρ) − e−i( 2 l−ρ) 2 Ylm (θ, ϕ) = −k Ylm (θ, ϕ) = −k πρ 2i π 2ikr quedando finalmente r
π
π
2 e−ikr eil 2 − eikr e−il 2 −k Ylm (θ, ϕ) π 2ikr r −ikr ilπ 2 e e − eikr −il π (0) ϕk,l,m (r) ∼ −k Ylm (θ, ϕ) e 2 r→∞ π 2ikr (0) ϕk,l,m (r) ∼ r→∞
(19.92)
con lo cual en el infinito vemos que la funci´ on de onda esf´erica libre puede verse como la superposici´ on de una onda entrante r −1 e−ikr y una onda saliente r −1 eikr , cuyas amplitudes difieren por una diferencia de fase de lπ. Si se construye un paquete de ondas esf´ericas libres, todas correspondientes al mismo valor de l y m (es decir barriendo valores de k), podemos realizar una an´ alisis similar al de la secci´ on 18.5.1, y se concluye que para t → −∞, solo existe un paquete de ondas entrante y para t → ∞ solo existe un paquete de ondas saliente. De esta manera podemos pensar en la evoluci´ on temporal de una onda esf´erica libre en la siguiente forma: En t → −∞ tenemos una onda entrante que converje hacia el origen O. A medida que se aproxima al origen comienza a distorsionarse4 y vuelve sobre sus pasos cuando est´ a a una distancia del orden de bl (k) dada por (19.90), de lo cual surge una onda saliente con corrimiento de fase lπ con respecto a la onda entrante.
19.5.
Ondas parciales en el potencial V (r)
A continuaci´ on estudiaremos los estados propios simult´ aneos de H (el Hamiltoniano total con interacci´ on) L2 y L3 . Tales estados se denominan ondas parciales y se denotan por ϕk,l,m (r). Ya vimos que para un potencial central V (r) las ondas parciales tienen la forma 1 ϕk,l,m (r) = Rk,l (r) Ylm (θ, ϕ) = uk,l (r) Ylm (θ, ϕ) r siendo uk,l (r) la soluci´ on de la ecuaci´ on radial 2 2 ~ d l (l + 1) ~2 ~2 k2 − + + V (r) u (r) = uk,l (r) k,l 2µ dr 2 2µr 2 2µ uk,l (0) = 0
(19.93)
(19.94) (19.95)
este problema es an´ alogo al de un problema unidimensional de una part´ıcula de masa µ, bajo la influencia de un potencial efectivo. Es claro que la variable r es no negativa en coordenadas esf´ericas. Sin embargo, en el problema 4
Debemos tener en cuenta que esta distorsi´ on se debe a una barrera centr´ıfuga y no a un potencial real.
482
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
unidimensional equivalente, es conveniente ver a r como una variable que puede tomar valores negativos pero tal que hay una barrera de potencial de altura infinita para r < 0, que excluye esta regi´ on (tanto cl´ asica como cu´ anticamente). El potencial efectivo se escribir´ a entonces en la forma ( 2 V (r) + l(l+1)~ para r > 0 2 2µr Vef f (r) = ∞ para r < 0 para valores grandes de r, la Ec. (19.94) se reduce a 2 d 2 + k uk,l (r) ≃ 0 r→∞ dr 2
(19.96)
cuya soluci´ on general tiene la forma uk,l (r) ≃ Aeikr + Be−ikr r→∞
(19.97)
pero como uk,l (r) debe satisfacer la condici´ on (19.95) A y B no son independientes. En el problema unidimensional equivalente, la condici´ on (19.95) est´ a asociada al hecho de que al aproximarnos al origen nos aproximamos a la barrera infinita de potencial y la Ec. (19.97) representa en este problema equivalente la superposici´ on de una onda “incidente” plana e−ikr viniendo de la derecha (a lo largo del eje en el cual se mueve la part´ıcula unidimensional fictisia equivalente)5 , y una onda plana “reflejada” eikr que se propaga de izquierda a derecha. Puesto que no puede haber una onda “transmitida” (en r < 0) debido a la barrera infinita de potencial, la intensidad de la corriente “reflejada” debe ser igual a la “incidente”. En consecuencia, la condici´ on (19.95) implica que en la expresi´ on asint´otica (19.97) tenemos que |A| = |B| (19.98) aunque puede haber en general, una diferencia de fase entre ambas amplitudes A = |A| eiϕA ; B = |A| eiϕB con lo cual la Ec. (19.97) queda
(19.99)
h i uk,l (r) ≃ |A| eiϕA eikr + eiϕB e−ikr r→∞
que se puede reescribir en la forma
uk,l (r) ≃ C0 sin (kr − βl ) r→∞
(19.100)
donde la fase βl se puede determinar completamente imponiendo continuidad entre la soluci´ on asint´ otica (19.100) y la soluci´ on completa de (19.94) que se anula en el origen. En la secci´ on 19.4.9 vimos que para potencial nulo, βl era lπ/2. En consecuencia, es conveniente utilizar este valor como punto de referencia y reescribir la Ec. (19.100) en la forma π uk,l (r) ≃ C0 sin kr − l + δl (19.101) r→∞ 2 a la cantidad δl definida as´ı, se le denomina el corrimiento de fase de la onda parcial ϕk,l,m (r) con respecto a la (0) onda esf´erica libre ϕk,l,m (r). Este corrimiento de fase depende obviamente de k y l i.e. de la energ´ıa y el momento angular. De las Ecs. (19.93, 19.101) podemos escribir el comportamiento asint´ otico de la onda parcial en la forma 1 1 π ϕk,l,m (r) = uk,l (r) Ylm (θ, ϕ) ≃ C0 sin kr − l + δl Ylm (θ, ϕ) r→∞ r r 2 π π i(kr−l π2 +δl ) −i(kr−l π2 +δl ) C0 e e−i(kr−l 2 +δl ) − ei(kr−l 2 +δl ) −e = Ylm (θ, ϕ) = −C0 Ylm (θ, ϕ) r 2i 2ir 5
En mec´ anica cl´ asica ocurre un fen´ omeno similar. En el problema unidimensional equivalente al problema de Kepler podemos pensar en una part´ıcula fictisia que se mueve en una dimensi´ on en la coordenada r con puntos de retorno en r. Sin embargo, la part´ıcula real se mueve en dos dimensiones y los puntos de retorno son puntos en donde se invierte el crecimiento de la coordenada r, pero no implican un retorno en la trayectoria.
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R)
483 π
π
e−ikr ei(l 2 −δl ) − eikr e−i(l 2 −δl ) (19.102) r→∞ 2ikr la onda parcial al igual que la onda esf´erica libre est´ a constitu´ıda por la superposici´ on de una onda entrante y una saliente. Para facilitar la comparaci´ on entre las ondas parciales y las ondas esf´ericas libres, podemos modificar la onda entrante de (19.102) para que quede casi id´entica a la dada por la Ec. (19.92). Para ello definimos una nueva onda parcial ϕ ek,l,m (r) multiplicando ϕk,l,m (r) por una fase global eiδl que claramente no altera el contenido f´ısico del estado, y redefiniendo la constante C0 de modo que ϕk,l,m (r) ≃ −kC0 Ylm (θ, ϕ)
π
e−ikr eil 2 − eikr e−i(l 2 −2δl ) ϕ ek,l,m (r) ≡ e ϕk,l,m (r) ≃ −kC0 Ylm (θ, ϕ) r→∞ 2ikr "r # −i(l π2 −2δl ) il π2 −ikr ikr e 2¯ e −e e = −k C0 Ylm (θ, ϕ) π 2ikr π
iδl
p ahora bien, el factor k 2/π garantiza la normalizaci´ on de la funci´ on [ya que la funci´ on (19.55) est´a debidamente ¯ normalizada]. En consecuencia, C0 tiene m´ odulo unidad y por tanto es una fase global constante que se puede remover. Tenemos finalmente r −ikr ilπ 2 e − eikr e2iδl −il π e ϕ ek,l,m (r) ≃ −k Ylm (θ, ϕ) e 2 (19.103) r→∞ π 2ikr
comparando las Ecs. (19.92, 19.103), podemos entonces interpretar esta expresi´ on en la siguiente forma: Comenzamos con la misma onda entrante que en el caso de las ondas esf´ericas libres. A medida que se acerca al origen (regi´on de dispersi´on) esta onda entrante es cada vez m´ as perturbada por el potencial. Despu´es de reflejarse transformada en una onda saliente, ha acumulado un corrimiento de fase de 2δl , con respecto a la onda saliente libre que hubiera resultado en ausencia del potencial. Por tanto, el factor e2iδl (que var´ıa con l y k) sintetiza el efecto total del potencial sobre la part´ıcula de momento angular l y energ´ıa ~2 k2 /2µ. La anterior discusi´ on es v´ alida cuando tenemos un paquete de ondas compuesto por la superposici´ on de ondas parciales ϕk,l,m (r) todas con los mimos valores de l,m en las cuales la distribuci´ on de las k est´ a muy concentrada alrededor de cierto valor k0 . El an´ alisis de este tipo de paquete muestra que para t → −∞, solo tenemos un paquete de onda entrante que posteriormente interact´ ua con el potencial para dar paso al paquete saliente. Tambi´en se puede hacer una analog´ıa semejante a la realizada en la secci´ on 18.5.1. El fen´ omeno antes descrito es similar al que se obtendr´ıa si ponemos a interactuar a las ondas esf´ericas libres con un potencial dependiente del tiempo que se “enciende” lentamente (adiab´ aticamente), tal potencial generar´ıa las ondas parciales ϕk,l,m (r).
19.5.1.
Ondas parciales en potenciales de rango finito
Supongamos que tenemos un potencial de rango finito r0 definido por V (r) = 0
para
r > r0
(19.104)
(0)
ya hemos conclu´ıdo que las ondas esf´ericas libres ϕk,l,m (r) casi no penetran la zona interior a la esfera de radio bl (k) dada por la Ec. (19.90). Esto implica que el potencial definido por (19.104) pr´ acticamente no influye sobre los estados para los cuales bl (k) ≫ r0 (19.105) debido a que las ondas entrantes asociadas, retroceden antes de alcanzar la zona de influencia de V (r). Por tanto, para cada valor de la energ´ıa existe un momento angular cr´ıtico lM que de acuerdo con (19.90, 19.105) viene dado por p lM (lM + 1) ≃ kr0 (19.106) de modo que los corrimientos de fase δl solo son apreciables para valores de l del orden de lM o menores. Es claro que para potenciales de menor alcance, el valor de lM para una energ´ıa incidente dada es menor. As´ı mismo,
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
484
para un potencial dado, lM decrece a medida que decrece la energ´ıa incidente. Por tanto, puede ocurrir que los corrimientos de fase significativos sean solo aquellos que est´en asociados a las primeras ondas parciales. Para muy bajas energ´ıas puede ser razonable inclu´ır solo la onda s (i.e. l = 0), para energ´ıas un poco mayores se incluir´ıan las ondas parciales s y p (l = 0, 1) etc. Por esta raz´ on, el m´etodo de ondas parciales adquiere su importancia pr´ actica en un r´egimen de bajas energ´ıas, que conduzca a un valor de lM no mucho mayor a la unidad. Cuando esta condici´ on se cumple, pueden tomarse pocas ondas parciales en buena aproximaci´ on, y el m´etodo es manejable. Por otro lado, puesto que lM ∼ kr0 = 2πr0 /λ, vemos que lM es del orden del cociente entre el rango r0 del potencial y la longitud de onda de la part´ıcula incidente. Finalmente, el argumento aqu´ı presentado se puede extender al caso de potenciales de rango infinito si existe alguna longitud caracter´ıstica luego de la cual el potencial se pueda considerar despreciable. Tal longitud caracter´ıstica har´ıa las veces del rango r0 , y la discusi´ on anterior ser´ıa v´ alida aunque solo en forma aproximada. Este es el caso de la longitud r0 definida en la Ec. (18.73) P´ ag. 458, para el potencial de Yukawa.
19.5.2.
Secci´ on eficaz en t´ erminos de los corrimientos de fase δl
La informaci´ on de la interacci´ on con el potencial de estados con momento angular bien definido est´ a guardada en las fases δl . Ahora bien, si expresamos los estados estacionarios de dispersi´ on ηk (r) en t´erminos de ondas parciales, podemos calcular la amplitud de scattering y la secci´ on eficaz con tal expansi´ on. Como resultado, la interacci´ on con el potencial se ver´ a reflejada en la superposici´ on de los corrimientos de fase δl , presentes en la expansi´ on. Es importante mencionar que si existen estados acotados para la part´ıcula bajo el potencial V (r) (estados estacionarios de energ´ıa negativa como en el ´ atomo de hidr´ ogeno), el conjunto de las ondas parciales no constituir´ a una base para expandir estos estados, ya que las ondas parciales solo abarcan estados de energ´ıa positiva6 . En tal caso, ser´ a necesario a˜ nadir a las ondas parciales, funciones de onda de estados acotados. Ya que los estados estacionarios de dispersi´ on deben cumplir la condici´ on asint´ otica (18.26) P´ ag. 445, ser´ a necesario verificar que la superposici´ on de ondas parciales que los genera cumple dicha condici´ on. Puesto que los on de ηk (r) solo involucra estados estacionarios de dispersi´ on ηk (r), son autoestados del Hamiltoniano, la expansi´ ondas parciales con la misma energ´ıa ~2 k2 /2µ, de modo que no hay suma sobre k. Por otro lado, si el potencial es central el problema tiene simetr´ıa azimutal ya que es sim´etrico con respecto a la rotaci´ on alrededor del eje OZ. Por tanto, solo contribuir´ an ondas parciales con m = 0. Con estas consideraciones, tal expansi´ on toma la forma ηk (r) =
∞ X l=0
cl ϕ ek,l,0 (r)
(19.107)
ahora debemos encontrar los coeficientes cl . Comencemos considerando el caso en que V (r) = 0, de modo que (0) ηk (r) se reduce a la onda plana eikz , y las ondas parciales se reducen a ondas esf´ericas libres ϕk,l,m (r), en tal caso la expansi´ on (19.107) se convierte en la expansi´ on (19.84) r ∞ C π X lp (0) (0) ηk (r) = Ceikz = i 4π (2l + 1) ϕk,l,0 (r) (19.108) k 2 l=0
para el potencial no nulo V (r), se debe incluir la onda esf´erica dispersada adem´ as de la onda plana. Por otro lado, hemos visto que en su comportamiento asint´ otico, la onda parcial ϕ ek,l,0 (r) descrita por (19.103), difiere de (0) la onda esf´erica libre ϕk,l,m (r) descrita por (19.92) solo por la presencia de una onda esf´erica saliente, que tiene la misma dependencia radial que la onda dispersada. En consecuencia, es de esperarse que los coeficientes cl de la expansi´ on (19.107) sean id´enticos a los de la expansi´ on (19.108) esto es r ∞ C π X lp ηk (r) = i 4π (2l + 1) ϕ ek,l,0 (r) (19.109) k 2 l=0
6
En tal sentido las ondas parciales no son una base de Er .
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R)
485
esto tambi´en se puede ver con un argumento similar a los de las secciones 19.5, 18.5.1. Si tenemos una onda plana cuya expansi´ on viene dada por (19.108) y “encendemos” el potencial V (r) adiab´ aticamente, la onda plana (0) se transforma en la onda estacionaria de dispersi´ on ηk (r). Similarmente, cada onda esf´erica libre ϕk,l,0 (r) se transforma en la onda parcial ϕ ek,l,0 (r) cuando el potencial se activa, y teniendo en cuenta la linealidad de la ecuaci´ on de Schr¨ odinger, se tiene que cuando el potencial se activa la expresi´ on (19.108) se mantiene en la misma (0) (0) ikz forma reemplazando ηk (r) ≡ Ae por ηk (r) y cada onda esf´erica libre ϕk,l,m (r) por la onda parcial ϕ ek,l,0 (r). De esta forma obtenemos la expresi´ on (19.109). Ahora debemos verificar que (19.109) cumpla con los requisitos de un estado estacionario de dispersi´ on. En primer lugar, puesto que cada onda parcial en la suma corresponde a un estado de energ´ıa bien definida y on contin´ ua siendo un autoestado del todos corresponden a la misma energ´ıa ~2 k2 /2µ, tenemos que la superposici´ Hamiltoniano i.e. un estado estacionario. Adicionalmente, debemos verificar que la expansi´ on (19.109) cumple con las condiciones asint´ oticas (18.26) P´ ag. 445, para estados estacionarios de dispersi´ on. Para verlo, utilizaremos la Ec. (19.103) C ηk (r) = k
r
π π ∞ ∞ X p e−ikr eil 2 − eikr e−il 2 e2iδl π X lp l i 4π (2l + 1) ϕ ek,l,0 (r) ≃ −C i 4π (2l + 1) Yl,0 (θ) (19.110) r→∞ 2 2ikr
l=0
l=0
para examinar este l´ımite asint´ otico usaremos la identidad
e2iδl = 1 + 2ieiδl sin δl y separando los t´erminos que son independientes de δl se obtiene " # ∞ −ikr eil π2 − eikr e−il π2 1 + 2ieiδl sin δ X p e l ηk (r) ≃ −C il 4π (2l + 1) Yl,0 (θ) r→∞ 2ikr l=0 " # π ∞ −ikr eil 2 − eikr e−il π2 ikr e−il π2 eiδl sin δ X p e 2ie l ηk (r) ≃ −C il 4π (2l + 1) Yl,0 (θ) − r→∞ 2ikr 2ikr l=0 " # π π ∞ X p e−ikr eil 2 − eikr e−il 2 1 eikr −il π iδl l ηk (r) ≃ −C i 4π (2l + 1) Yl,0 (θ) − e 2 e sin δl r→∞ 2ikr k r
(19.111)
(19.112)
l=0
teniendo en cuenta las Ecs. (19.92, 19.84) la expresi´ on (19.112) queda C ηk (r) ≃ r→∞ k ηk (r) ≃
r→∞
C k
r r
∞ ∞ X p π X lp 1 eikr −il π iδl (0) i 4π (2l + 1) ϕk,l,0 (r) + C il 4π (2l + 1) Yl,0 (θ) e 2 e sin δl 2 k r l=0
l=0
∞ ∞ X π l p π X lp 1 eikr −il π iδl (0) i 4π (2l + 1) ϕk,l,0 (r) + C ei 2 4π (2l + 1) Yl,0 (θ) e 2 e sin δl 2 k r l=0 eikr
l=0
∞ π C X il π p ikz ηk (r) ≃ Ce + e 2 4π (2l + 1) Yl,0 (θ) e−il 2 eiδl sin δl r→∞ r k l=0
quedando finalmente ηk (r) ≃ Ceikz + r→∞
eikr fk (θ) r
;
fk (θ) ≡
∞ C Xp 4π (2l + 1) Yl,0 (θ) eiδl sin δl k
(19.113)
l=0
con lo cual demostramos que la expansi´ on (19.109) cumple con la condici´ on asint´ otica (18.26). Adicionalmente, la Ec. (19.113) nos brinda la forma expl´ıcita de la amplitud de dispersi´ on fk (θ) en t´erminos de los corrimientos de
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
486
fase δl . Con la amplitud de dispersi´ on podemos proceder a calcular la secci´ on eficaz diferencial a trav´es de la Ec. (18.44), P´ ag. 450 ∞ 2 2 X p 1 1 iδ 4π (2l + 1) Yl,0 (θ) e l sin δl D (θ) = fk (θ) = 2 C k l=0
D (θ) =
∞ ∞ 1 XX p 4π (2l + 1) (2l′ + 1) Yl∗′ ,0 (θ) Yl,0 (θ) ei(δl −δl′ ) sin δl sin δl′ k2 ′
(19.114)
l=0 l =0
y la secci´ on eficaz total la obtenemos integrando D (θ) sobre todo el ´ angulo s´ olido σ = σ = σ =
Z
dΩ D (θ) =
Z ∞ ∞ 1 XX p ′ + 1) ei(δl −δl′ ) sin δ sin δ ′ 4π (2l + 1) (2l dΩ Yl∗′ ,0 (θ) Yl,0 (θ) l l k2 ′ l=0 l =0
∞ ∞ 1 XX p 4π (2l + 1) (2l′ + 1) ei(δl −δl′ ) sin δl sin δl′ δll′ k2 ′
4π k2
l=0 l =0 ∞ X
(2l + 1) sin2 δl
(19.115)
l=0
n´ otese que en virtud de la ortonormalidad de los arm´ onicos esf´ericos, los t´erminos de interferencia asociados a diferentes momentos angulares y que est´ an presentes en la secci´ on eficaz diferencial (19.114), est´ an ausentes en la secci´ on eficaz total (19.115). Vemos adem´ as que para cualquier potencial central V (r), la contribuci´ on asociada a cada l a la secci´ on eficaz total es positiva 4π (2l + 1) sin2 δl ≥ 0 k2 y tiene una cota superior para una energ´ıa dada (k dado): 4π 4π (2l + 1) sin2 δl ≤ 2 (2l + 1) 2 k k
(19.116)
Vemos que las expresiones (19.114, 19.115) requieren conocer en principio todos los corrimientos de fase δl . En la secci´ on 19.5 vimos que si el potencial V (r) es conocido, estos corrimientos de fase se calculan de la ecuaci´ on radial asociada (19.94). La ecuaci´ on radial (19.94) debe ser solucionada para cada l por aparte. Por lo anterior, el m´etodo de ondas parciales es atractivo en la pr´ actica cuando hay un n´ umero suficientemente peque˜ no de corrimientos de fase δl que adquieren un valor considerable y los dem´ as son despreciables. En la secci´ on 19.5.1, vimos que para el caso de potenciales de rango finito, los corrimientos de fase δl son despreciables cuando l > lM , siendo lM un momento angular cr´ıtico dado por la f´ ormula (19.106), y que los argumentos all´ı discutidos se pueden extender para potenciales de rango infinito, siempre y cuando podamos definir un rango o alcance caracter´ıstico para la interacci´ on. Sin embargo, en muchos experimentos de dispersi´ on, el potencial es desconocido y de hecho muchos experimentos se dise˜ nan para modelarlo. En tal caso, usualmente se procura reproducir las curvas experimentales de secci´ on eficaz diferencial a una energ´ıa fija introduciendo un peque˜ no n´ umero de corrimientos de fase δl . Con frecuencia la dependencia con θ de D (θ) sugiere el m´ınimo n´ umero de fases a utilizar. Por ejemplo, si la secci´ on eficaz es aproximadamente isotr´ opica, esto sugiere que solo la onda s (l = 0) contribuye significativamente, ya que Y00 es constante. Una vez que determinamos las fases δl que contribuyen a diferentes valores de energ´ıa, podemos buscar modelos de potenciales que reproduzcan las fases para cada energ´ıa dada. Es decir, las fases y su dependencia con la energ´ıa. La dependencia de la secci´ on eficaz con la energ´ıa es tan importante como su dependencia angular. En algunos casos se observa una r´ apida variaci´ on de la secci´ on eficaz total cuando nos movemos en cierta vecindad del rango
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R)
487
de energ´ıa. Por ejemplo, si una de las fases δl toma el valor π/2 para E = E0 , la contribuci´ on asociada a σ adquiere su cota superior (ver Ec. 19.116), y la secci´ on eficaz puede mostrar un pico agudo en E = E0 . Este fen´ omeno se conoce como resonancia en la dispersi´ on. Este fen´ omeno es similar a la resonancia en la transmisi´ on que ocurre en una barrera de potencial unidimensional, como se discuti´ o en la secci´ on 3.7.1, P´ ag. 177.
19.5.3.
Dispersi´ on por esfera r´ıgida
Ya vimos la dispersi´ on cl´ asica por esfera r´ıgida en la secci´ on 18.3.1, P´ ag. 440. Cu´ anticamente, la esfera r´ıgida de radio r0 la simulamos con el potencial 0 si r > r0 V (r) = ∞ si r ≤ r0 este es un caso t´ıpico de potencial de rango finito (con rango r0 ) como se discuti´ o en la secci´ on 19.5.1. Asumiremos que la energ´ıa de la part´ıcula incidente es suficientemente peque˜ na de modo que se cumple la condici´ on kr0 ≪ 1
(19.117)
Combinando la condici´ on (19.117) con (19.106) vemos que lM ≪ 1, y debido al car´ acter discreto de l, se concluye que lM = 0. Como consecuencia, podemos despreciar todos los corrimientos de fase δl , excepto el asociado a la onda s con l = 0. En tal caso, la amplitud de dispersi´ on (19.113) viene dada por fk (θ) = fk (θ) =
C√ 4π Y0,0 (θ) eiδ0 sin δ0 k C iδ0 (k) e sin δ0 (k) k
y la secci´ on eficaz diferencial resulta isotr´ opica 2 1 1 D (θ) = fk (θ) = 2 sin2 δ0 (k) C k
por otro lado, la secci´ on eficaz total (19.115) queda en la forma σ=
4π sin2 δ0 (k) k2
solo nos queda calcular el corrimiento de fase δ0 (k), resolviendo la ecuaci´ on radial (19.94) para l = 0 2 d + k2 uk,0 (r) = 0 para r > r0 dr 2
(19.118)
(19.119)
adem´ as debe cumplirse la condici´ on uk,0 (r) = 0
para
r ≤ r0
(19.120)
dado que el potencial es infinito para r ≤ r0 y por tanto la esfera de radio r0 centrada en el origen, es una esfera de exclusi´ on total [en particular se cumple la condici´ on uk,0 (0) = 0, requerida en la Ec. (19.95)]. Solo hay una soluci´ on linealmente independiente de las Ecs. (19.119, 19.120) A sin (kr − kr0 ) para r > r0 uk,0 (r) = (19.121) 0 para r ≤ r0 a dado por la forma asint´ otica de uk,0 (r), Ec. (19.101), P´ ag. 482 por definici´ on, el corrimiento de fase δ0 est´ uk,0 (r) ∼ A sin (kr + δ0 ) r→∞
(19.122)
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
488
comparando (19.122) con la soluci´ on (19.121) vemos que δ0 (k) = −kr0
(19.123)
on eficaz total queda insertando (19.123) en (19.118) y teniendo en cuenta que kr0 ≪ 1, la secci´ 4π 4π sin2 kr0 ≃ 2 (kr0 )2 2 k k σ ≃ 4πr02
σ =
(19.124)
vemos que σ es independiente de la energ´ıa, aunque debe mantenerse la condici´ on (19.117). Y es igual a cuatro veces la secci´ on transversal que ven las part´ıculas del haz (i.e. cuatro veces el resultado cl´ asico Ec. 18.9). La desviaci´ on con respecto al resultado cl´ asico se debe a que en el caso cu´ antico estudiamos la evoluci´ on de la onda asociada a las part´ıculas incidentes, y el cambio abrupto de V (r) en r = r0 , produce un fen´ omeno an´ alogo a la difracci´ on de una onda de luz. De hecho, el l´ımite (19.117) nos dice que la longitud de onda de las part´ıculas omeno es notoriamente ondulatorio, por lo cual incidentes es mucho mayor que r0 de modo que en tal l´ımite el fen´ es de esperarse una fuerte desviaci´ on con respecto al resultado de part´ıcula cl´ asica. Se puede demostrar que en el l´ımite kr0 ≫ 1 (19.125) la secci´ on eficaz total toma el valor σ ∼ 2πr02 k→∞
(19.126)
puesto que este l´ımite corresponde al caso en el cual la longitud de onda de las part´ıculas incidentes es despreciable con respecto a r0 , podr´ıa pensarse a priori que debe emularse el comportamiento corpuscular cl´ asico. Sin embargo, la comparaci´ on entre los resultados cl´ asico (18.9) y cu´ antico (19.126) muestra que no es as´ı. Esto se debe al hecho de que el potencial es discont´ınuo en r = r0 y por tanto var´ıa apreciablemente dentro de un intervalo m´ as peque˜ no que la longitud de onda de las part´ıculas (ver discusi´ on en la secci´ on 3.4, P´ ag. 165), de modo que tambi´en se manifiesta fuertemente el car´ acter cu´ antico de la interacci´ on.
19.6.
Colisiones con absorci´ on
Hasta ahora hemos trabajado colisiones el´ asticas en las cuales no cambia ni el n´ umero ni la naturaleza de las part´ıculas que se dispersan. Sin embargo, en la secci´ on 18.2 vimos que existe una amplia variedad de reacciones que pueden ocurrir para que se genere creaci´ on y/o destrucci´ on de part´ıculas durante la dispersi´ on. Con frecuencia ocurre que en los experimentos solo podemos detectar las part´ıculas dispersadas el´ asticamente. En tal caso, si la dispersi´ on no es el´astica observaremos que algunas part´ıculas del haz incidente “desaparecen”, de modo que no se encuentran ni en el haz transmitido ni entre las part´ıculas el´ asticamente dispersadas. Se dice que estas part´ıculas han sido absorbidas durante la colisi´ on. En esta secci´ on estudiaremos el proceso de absorci´ on en el contexto m´ as simple posible, en el cual no nos enfocamos en las reacciones detalladas que ocurren, sino que nos concentramos en la absorci´ on global, vista como la diferencia entre las part´ıculas incidentes y las detectadas. Veremos que el m´etodo de ondas parciales es muy conveniente para esta descripci´ on. Supondremos que la interacci´ on responsable de la desaparici´ on de las part´ıculas incidentes, es invariante bajo rotaciones con respecto al origen O. Por tanto, la amplitud de dispersi´ on podr´ a siempre descomponerse en ondas parciales cada una de ellas asociada a un momento angular bien definido7 . En la secci´ on 19.5, interpretamos las ondas parciales diciendo que una onda entrante libre penetra la regi´ on de dispersi´ on en la cual se v´e perturbada por el potencial. Posteriormente, se genera la onda saliente que naturalmente debe estar modificada con respecto a la que se obtendr´ıa en ausencia de potencial. El efecto neto del potencial sobre la onda saliente es un corrimiento de fase 2δl con respecto al caso de ondas esf´ericas libres. Vemos que al 7
Si el potencial no es central, no hay una base com´ un de vectores propios de H, L2 y L3 .
´ 19.6. COLISIONES CON ABSORCION
489
multiplicar la onda saliente libre por e2iδl (que es como se obtiene la onda saliente con potencial), no se altera la amplitud de ´esta y por tanto la onda saliente tiene la amplitud de la entrante, ya que tal factor tiene m´ odulo unidad (ver Ec. 19.98, P´ ag. 482). Esto implica que el flujo total de la onda entrante es igual al de la onda saliente, con lo cual la probabilidad se conserva durante la dispersi´ on y por tanto el n´ umero de part´ıculas es constante. La discusi´ on anterior sugiere que los procesos de absorci´ on se pueden inclu´ır introduciendo un factor de la forma e2iδl de m´ odulo menor que la unidad, para lo cual ser´ıa necesario que δl ya no sea una fase real sino compleja δl = αl + iβl
⇒ e2iδl = e2i(αl +iβl ) = e−2βl e2iαl
siendo αl y βl n´ umeros reales. Para que e2iδl < 1 es necesario que βl (la parte imaginaria de δl ) sea positiva. Con esto la amplitud de la onda saliente con momento angular l, es m´ as peque˜ na que la de la onda entrante de la cual se origina. Esto se traduce en una disminuci´ on del flujo de probabilidad saliente con respecto al flujo de probabilidad entrante que expresa la “desaparici´ on” de algunas de las part´ıcula incidentes. Con base en las anteriores consideraciones calcularemos las secciones eficaces de dispersi´ on y absorci´ on. Sin embargo, este es un acercamiento puramente fenomenol´ ogico, y los par´ ametros con los cuales describimos la absorci´ on (m´ odulo de e2iδl para cada onda parcial l) solo nos dan cuenta del fen´ omeno de absorci´ on en forma global. Si por ejemplo se pueden detectar las part´ıculas de naturaleza distinta a las incidentes, es posible obtener informaci´ on sobre las reacciones espec´ıficas que ocurren en el proceso de colisi´ on. En este u ´ltimo caso, el presente formalismo no es adecuado. De hecho, el formalismo cu´ antico seguido a lo largo de todo el texto, no es el m´ as adecuado para tratar problemas en donde la probabilidad no se conserva. Para tales problemas es mucho m´ as adecuado el uso de la teor´ıa cu´ antica de campos.
19.6.1.
Secci´ on eficaz en procesos absortivos
Para dar cuenta de las posibles reacciones diferentes a la dispersi´ on el´ astica, retornaremos a los c´ alculos realizados en la secci´ on 19.5.2, en donde definiremos ξl ≡ e2iδl
;
|ξl | ≤ 1
(19.127)
donde la condici´ on sobre el m´ odulo nos dar´ a cuenta del fen´ omeno absortivo. En el l´ımite el´ astico este m´ odulo ser´ a igual a la unidad. Tomando la forma asint´ otica del estado estacionario de dispersi´ on ηk (r), bajo el potencial V (r) ecuaci´ on (19.110) P´ ag. 485, en t´erminos de ξl tenemos ηk (r) ∼ −C r→∞
π π ∞ X p e−ikr eil 2 − ξl eikr e−il 2 il 4π (2l + 1) Yl,0 (θ) 2ikr
(19.128)
l=0
la identidad (19.111) contin´ ua siendo v´ alida para δl complejo, y por tanto la amplitud de dispersi´ on fk (θ) contin´ ua siendo la indicada en (19.113) que en t´erminos de ξl se escribe fk (θ) ≡ fk (θ) =
∞ ∞ C Xp C Xp e2iδl − 1 4π (2l + 1) Yl,0 (θ) eiδl sin δl = 4π (2l + 1) Yl,0 (θ) k k 2i l=0
l=0
∞ C Xp ξl − 1 4π (2l + 1) Yl,0 (θ) k 2i
(19.129)
l=0
con lo cual se obtiene la secci´ on eficaz diferencial para la parte el´ astica del proceso, la cual viene dada por fk (θ) 2 = 1 Del (θ) = C 4k2
2 ∞ p X 4π (2l + 1) Yl,0 (θ) (ξl − 1) l=0
(19.130)
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
490
y la secci´ on eficaz total el´ astica ser´ a
σel = =
Z
Z ∞ ∞ p 1 XXp ∗ ′ Del (θ) dΩ = 2 4π (2l + 1) 4π (2l + 1) (ξl − 1) (ξl′ − 1) Yl,0 (θ) Yl∗′ ,0 (θ) dΩ 4k Ω Ω ′ l=0 l =0
∞ ∞ π XXp (2l + 1) (2l′ + 1) (ξl − 1) (ξl∗′ − 1) δll′ k2 ′ l=0 l =0
quedando finalmente σel =
∞ π X (2l + 1) |1 − ξl |2 k2
(19.131)
l=0
de acuerdo con nuestra discusi´ on, la absorci´ on de la onda l, alcanza su m´ aximo cuando ξl = 0. Sin embargo, la Ec. (19.131) nos indica que a´ un en este l´ımite, la onda l contribuye a la secci´ on eficaz el´ astica. Es decir, incluso si la regi´ on de interacci´ on es perfectamente absorbente, produce dispersi´ on el´ astica. Este fen´ omeno es an´ alogo al comportamiento de una onda luminosa que incide en un medio absorbente. Incluso si la absorci´ on es total (por ejemplo una esfera o disco perfectamente negros) se observa una onda difractada concentrada en un ´ angulo s´ olido que disminuye a medida que la superficie del disco aumenta. Este fen´ omeno no tiene an´ alogo en la dispersi´ on cl´ asica de part´ıculas ya que depende del comportamiento ondulatorio de ´estas. La dispersi´ on el´ astica producida por una interacci´ on totalmente absorbente se denomina dispersi´ on de sombra. Ahora bien, as´ı como se defini´ o la secci´ on eficaz de dispersi´ on como un cociente entre n´ umero de part´ıculas dispersadas por unidad de tiempo y flujo incidente, definiremos la secci´ on eficaz de absorci´ on como el cociente entre el n´ umero de part´ıculas absorbidas por unidad de tiempo y el flujo incidente. Para calcular esta secci´ on eficaz calcularemos la cantidad total de probabilidad ∆P que “desaparece” por unidad de tiempo, la cual es proporcional a la cantidad total de part´ıculas incidentes que “desaparecen” por unidad de tiempo. Esta probabilidad se puede obtener a trav´es de la densidad de corriente J asociada con la funci´on de onda (19.128). La cantidad ∆P corresponde a la diferencia entre el flujo de la onda entrante atrav´es de una esfera S de radio muy grande R0 y la de la onda saliente sobre la misma superficie. Por tanto, ∆P es igual a menos el flujo neto del vector J que sale de la esfera8
∆P = −
Z
J · dS
;
J = Re
ηk∗ (r)
~ ∇ηk (r) iµ
puesto que para la esfera de radio muy grande R0 se tiene que dS = R02 dΩ ur , entonces solo la componente radial de la corriente Jr contribuye a la integral. Tendremos entonces que
∆P = −
Z
r=R0
2
Jr r dΩ
;
Jr = Re
ηk∗ (r)
~ ∂ ηk (r) iµ ∂r
teniendo en cuenta que R0 corresponde a radio muy grande, podemos usar el l´ımite asint´ otico (19.128) y tenemos 8
El signo menos se debe a que el diferencial de superficie se define hacia afuera de la esfera y nos interesa medir el flujo neto hacia adentro.
´ 19.6. COLISIONES CON ABSORCION
491
que Jr = 4π |C|2
∞ p X
l,l′ =0
×Re
(2l + 1) π
p
∗ (2l′ + 1) Yl,0 (θ) Yl′ ,0 (θ) π
eikr e−il 2 − ξl∗ e−ikr eil 2 (−2ikr)
~ ∂ iµ ∂r
e−ikr eil
′π 2
− ξl′ eikr e−il 2ikr
′π 2
!
∞ π~ |C|2 X p ∗ (2l + 1) (2l′ + 1)Yl,0 (θ) Yl′ ,0 (θ) Ml,l′ (r) Jr = k2 µ l,l′ =0 " !# ∂ e−ikr eil′ π2 − ξ ′ eikr e−il′ π2 π 1 ikr −il π l ∗ −ikr il Ml,l′ (r) ≡ Re e e 2 − ξl e e 2 r ∂r ir
(19.132)
al realizar la integral sobre el ´ angulo s´ olido y usar la ortonormalidad de los arm´ onicos esf´ericos queda Z Z ∞ p 2 X π~ |C| ∗ ∆P = − Jr r 2 dΩ = − 2 (2l + 1) (2l′ + 1) R02 Ml,l′ (R0 ) Yl,0 (θ) Yl′ ,0 (θ) dΩ k µ r=R0 Ω ′ l,l =0
∆P = −
∞ 2 X
π~ |C| k2 µ
(2l + 1) R02 Ml,l (R0 )
(19.133)
l=0
de modo que solo tenemos que calcular Ml,l (r) de la Ec. (19.132) Ml,l (r) = Re Hl,l (r) ∂ π 1 ikr −il π Hl,l (r) = e e 2 − ξl∗ e−ikr eil 2 r ∂r
π
π
e−ikr eil 2 − ξl eikr e−il 2 ir
!
! −ikr eil π2 + ξ eikr e−il π2 −ikr eil π2 − ξ eikr e−il π2 π 1 ikr −il π e e l l = e e 2 − ξl∗ e−ikr eil 2 −ik − r ir ir 2 −ikr eil π2 − ξ eikr e−il π2 e l π π π π 1 = 2 eikr e−il 2 − ξl∗ e−ikr eil 2 −k e−ikr eil 2 + ξl eikr e−il 2 + i r r π π π π k = 2 ξl∗ e−ikr eil 2 − eikr e−il 2 e−ikr eil 2 + ξl eikr e−il 2 r π π π π i + 3 eikr e−il 2 − ξl∗ e−ikr eil 2 e−ikr eil 2 − ξl eikr e−il 2 r i i k h ∗ −2ikr ilπ i h = 2 ξl e e + |ξl |2 − 1 − ξl e2ikr e−ilπ + 3 1 − ξl e2ikr e−ilπ − ξl∗ e−2ikr eilπ + |ξl |2 r r i h i k h i Hl,l (r) = 2 −2i Im ξl e2ikr e−ilπ + |ξl |2 − 1 + 3 1 + |ξl |2 − 2Re ξl e2ikr e−ilπ r r tomando la parte real de Hl,l (r) queda i k h Ml,l (r) = Re Hl,l (r) = 2 |ξl |2 − 1 (19.134) r sustituyendo (19.134) en (19.133) resulta ∞ i π~ |C|2 X k h ∆P = − 2 (2l + 1) R02 2 |ξl |2 − 1 k µ R0 2
∆P =
~k |C| π µ k2
l=0 ∞ X l=0
h i (2l + 1) 1 − |ξl |2
(19.135)
492
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
la secci´ on eficaz total de absorci´ on σabs es por tanto la probabilidad por unidad de tiempo ∆P, dividida por la 2 corriente incidente ~k |C| /µ ∞ h i π X σabs = 2 (2l + 1) 1 − |ξl |2 (19.136) k l=0
vemos que si |ξl | = 1 para cada l, la secci´ on eficaz total de absorci´ on es cero. De acuerdo con (19.127), esto corresponde al caso en el cual todos los corrimientos de fase δl son reales y por tanto la dispersi´ on es completamente el´ astica, en cuyo caso el flujo neto de probabilidad que sale de la esfera de radio R0 es cero. La probabilidad total transportada por la onda entrante es totalmente transferida a la onda saliente (no hay “p´erdida” de probabilidad, y por tanto la probabilidad se conserva). N´ otese que si ξl = 0, la contribuci´ on de la onda parcial (l) a la secci´ on eficaz de absorci´ on es m´ axima. En este caso, el c´ alculo de (19.135) nos muestra que la expresi´ on ∆Pl ≡
~k |C|2 π (2l + 1) µ k2
es la cantidad de probabilidad entrante por unidad de tiempo, que surge de la onda parcial (l). Si dividimos esta cantidad por la corriente incidente ~k |C|2 /µ, obtenemos una superficie denominada secci´ on eficaz entrante para la onda parcial (l). π σl = 2 (2l + 1) (19.137) k la expresi´ on (19.137) posee un an´ alogo semi-cl´ asico interesante. Podemos considerar que la onda incidente plana 9 , con momento ~ku . ¿Que proporci´ describe un haz de part´ıculas de densidad uniformep on de estas part´ıculas al3 on entre el momento canzan el potencial dispersor con momento angular l (l + 1)~?. Para verlo usaremos la relaci´ angular y el par´ ametro de impacto en mec´ anica cl´ asica Ec. (19.91) kLk = b kpk = ~kb si pintamos un anillo circular centrado en O y perpendicular al eje OZ,pde radio interior bl − ∆bl /2 y radio exterior bl + ∆bl /2, podemos ver que una part´ıcula con momento angular ~ l (l + 1) tendr´ıa par´ ametro de impacto bl dado por p ~ l (l + 1) = ~kbl (19.138)
el anillo tiene radio promedio bl y ancho ∆bl correspondiente a ∆l = 1 (debido a la cuantizaci´on del n´ umero cu´ antico l) en la expresi´ on (19.138). Todas las part´ıculas que cruzan esta superficie alcanzan el potencial dispersor p con un momento angular dado por ~ l (l + 1) dentro de ~ [es decir dentro del intervalo (l − 1, l + 1)]. De la Ec. (19.138) podemos ver que10 1 1p 1 bl = l (l + 1) ≃ l+ si l ≫ 1 (19.139) k k 2 y por tanto bl+1 − bl−1 1 1 1 1 1 ∆bl = = (l + 1) + − (l − 1) + 2 2 k 2 k 2 1 ∆bl = k 9 Sin embargo debe tenerse cuidado con la analog´ıa, ya que cu´ anticamente la onda plana representa una sola part´ıcula, cuyo estado se describe como la superposici´ on de muchas ondas parciales. 10 Si hacemos x = l−1 y usamos la expansi´ on s 1 1 1 1 1 1 2 +1 = + − x+ x + ... x x x 2 8 16
para x << 1, obtenemos (19.139).
´ 19.6. COLISIONES CON ABSORCION
493
el ´ area del anillo circular es por tanto ∆A ≃ 2πbl ∆bl ≃ 2π ∆A ≃
1 k
π (2l + 1) k2
l+
1 2
1 k
con lo cual encontramos de nuevo σl en forma simple.
19.6.2.
Teorema ´ optico
Cuando una colisi´ on da lugar a diversas reacciones o fen´ omenos de dispersi´ on, la secci´ on eficaz total σtot se define como la suma de las secciones eficaces (integradas sobre todas las direcciones del espacio) correspondientes a todos estos procesos. La secci´ on eficaz total es entonces el n´ umero de part´ıculas por unidad de tiempo que participan en una u otra de las posibles reacciones, dividida por el flujo incidente. En el presente contexto, hemos tratado todas las reacciones en forma global de modo que la secci´ on eficaz total es la suma de la secci´ on eficaz el´ astica m´ as la absortiva σtot = σel + σabs de las Ecs. (19.131, 19.136) se obtiene σtot
∞ io n h π X = 2 (2l + 1) |1 − ξl |2 + 1 − |ξl |2 k l=0
teniendo en cuenta que
se obtiene
h i |1 − ξl |2 + 1 − |ξl |2 = (1 − ξl ) (1 − ξl∗ ) + 1 − |ξl |2 = 1 − ξl∗ − ξl + |ξl |2 + 1 − |ξl |2 h i |1 − ξl |2 + 1 − |ξl |2 = 2 − 2Re ξl σtot =
∞ ∞ 2π X 2π X (2l + 1) (1 − Re ξ ) = (2l + 1) Re (1 − ξl ) l k2 k2 l=0
(19.140)
l=0
Por otro lado, teniendo en cuenta que
r
2l + 1 (19.141) 4π podemos calcular la amplitud de dispersi´ on el´ astica Ec. (19.129), en la direcci´ on frontal (θ = 0). r ∞ ∞ C Xp ξl − 1 C Xp 2l + 1 Reξl + i Imξl − 1 fk (0) = 4π (2l + 1) Yl,0 (0) = 4π (2l + 1) k 2i k 4π 2i Yl,0 (0) =
l=0
fk (0) =
l=0
∞ ∞ CX −iRe ξl + Imξl + i CX Imξl + i (1 − Re ξl ) (2l + 1) = (2l + 1) k 2 k 2 l=0
l=0
la parte imaginaria de la amplitud de dispersi´ on el´ astica en la direcci´ on frontal, estar´ a dada por Imfk (0) =
∞ CX 1 − Re ξl (2l + 1) k 2 l=0
al comparar (19.142) con la Ec. (19.140) nos da
σtot =
4π Imfk (0) Ck
(19.142)
494
´ ´ II: ONDAS PARCIALES CAP´ITULO 19. TEOR´IA CUANTICA DE LA DISPERSION
esta relaci´ on entre la secci´ on eficaz total y la parte imaginaria de la amplitud de dispersi´ on el´ astica en la direcci´ on frontal es v´ alida en un contexto muy general y se conoce como teorema ´ optico. Es claro que el teorema ´ optico es v´ alido en el caso especial de dispersi´ on puramente el´ astica en el cual σabs = 0 y σtot = σel . En este caso el hecho de que fk (0) (y por tanto la onda dispersada en la direcci´ on frontal) est´e relacionada con la secci´ on eficaz total se puede deducir de los argumentos de la secci´ on 18.6. En la direcci´ on frontal, tenemos una interferencia entre la onda plana incidente y la onda dispersada, tal interferencia nos da cuenta de la atenuaci´ on del haz transmitido, debido a la dispersi´ on de part´ıculas en todas las direcciones del espacio.
Cap´ıtulo 20
Teor´ıa estacionaria de perturbaciones La ecuaci´ on de Schr¨ odinger para sistemas conservativos se resuelve por medio de la ecuaci´ on de valores propios del Hamiltoniano. Existen algunos problemas que involucran Hamiltonianos independientes del tiempo que se pueden resolver anal´ıticamente en forma exacta, como ocurre con el oscilador arm´ onico y el ´ atomo de Hidr´ ogeno. Sin embargo, son pocos los problemas que en la pr´ actica se pueden resolver anal´ıticamente en forma exacta. Por ejemplo, el ´ atomo de Helio que consta de dos electrones no tiene soluci´ on anal´ıtica exacta, y menos a´ un los ´ atomos de m´ as electrones. Cuando al ´ atomo de Hidr´ ogeno se le agregan las correcciones relativistas, tampoco se puede resolver el problema en forma exacta. Por esta raz´ on, suele recurrirse a los m´etodos num´ericos computacionales. No obstante, existen algunos m´etodos anal´ıticos para resolver el problema de valores propios. En este cap´ıtulo estudiaremos uno de estos m´etodos conocido como teor´ıa estacionaria de perturbaciones. Este m´etodo se basa en una estrategia seg´ un la cual comenzamos estudiando los efectos principales o dominantes sobre el sistema f´ısico. Una vez que entendemos estos efectos, procedemos a enfocarnos en efectos m´ as peque˜ nos que fueron despreciados en la primera aproximaci´ on. Es en el tratamiento de estos efectos secundarios en el que la teor´ıa de perturbaciones entra en acci´ on. En cap´ıtulos subsecuentes veremos aplicaciones de la teor´ıa de perturbaciones en f´ısica at´ omica y molecular.
20.1.
Descripci´ on del problema
La teor´ıa de perturbaciones es aplicable cuando el Hamiltoniano H del sistema bajo estudio tiene la forma H = H0 + W
(20.1)
en donde H0 es el Hamiltoniano “no perturbado” que da cuenta de los efectos principales y cuyos valores y vectores propios son conocidos. El t´ermino W conocido como la “perturbaci´ on” se asume mucho m´ as peque˜ no que H0 , lo cual significa que en la base de autoestados de H0 , los elementos matriciales de W son mucho m´ as peque˜ nos que los de H0 . De hecho, veremos m´ as adelante que se requiere una condici´ on m´ as fuerte, y es que los elementos de matriz de W deben ser mucho menores que las diferencias entre los autovalores de H0 correspondientes. Para hacer m´ as expl´ıcita esta “peque˜ nez” escribiremos c W = λW
;
λ ≪ 1.
(20.2)
c tiene elementos matriciales comparables siendo λ un par´ ametro adimensional mucho menor que 1, y el operador W a los de H0 . En nuestra presente formulaci´ on asumiremos que tanto H0 como W son independientes del tiempo, raz´ on por la cual hablamos de teor´ıa estacionaria de perturbaciones. La idea es encontrar la forma en que W cambia los niveles de energ´ıa y los estados estacionarios del sistema. La teor´ıa de perturbaciones consistir´ a en expandir estas cantidades en potencias de λ, conservando solo las primeras potencias. Consideraremos que los 495
496
CAP´ITULO 20. TEOR´IA ESTACIONARIA DE PERTURBACIONES
niveles de energ´ıa Ep0 asociados a H0 son conocidos y discretos, as´ı como los estados estacionarios ϕip H0 ϕip = Ep0 ϕip y los estados estacionarios de H0 son ortonormales y completos XX ϕip ϕip = 1 hϕip ϕjn = δpn δij ; p
i
sustituyendo (20.2) en (20.1) podemos considerar al Hamiltoniano H “de perturbaci´ on” como una funci´ on cont´ınua del par´ ametro λ, el cual regula la intensidad de la perturbaci´ on c H (λ) = H0 + λW
(20.3)
es obvio que H (λ = 0) = H0 . Los autovalores perturbados E dependen de λ, y es claro que para λ = 0, el valor propio E (λ) debe coincidir con alg´ un valor propio de H0 , digamos En0 . El valor propio perturbado E (λ) puede 0 comportarse de diversas formas con respecto i a λ. Por ejemplo, supongamos que un valor propio En de H0 es degenerado, y est´a asociado a los estados ϕn . Si “prendemos” de forma cont´ınua la perturbaci´ on aumentando cont´ınuamente el par´ ametro λ desde cero, es posible que la degeneraci´ on se levante total o parcialmente, de manera que varios niveles distintos de energ´ıa E (λ) surgen a partir de En0 cuando se incrementa λ desde cero (ver Fig. 20.1). En la Fig. 20.1 se muestra que tambi´en es posible que la degeneraci´ on se mantenga de modo que no se separan varias curvas a partir de En0 cuando se incrementa λ. Adicionalmente, la Fig. 20.1 muestra que puede ocurrir que las curvas que parten desde distintos niveles de energ´ıa no perturbados En0 y Ep0 se corten en alg´ un punto fijo λ1 , en cuyo caso es la perturbaci´ on la que est´ a generando una degeneraci´ on.
Figura 20.1: Comportamiento de E (λ) con respecto a λ para diferentes valores del nivel no perturbado. Las curvas que parten de los niveles E10 y E20 corresponden a estados no degenerados. La curva de E30 , corresponde a un nivel no perturbado doblemente degenerado, cuya degeneraci´ on se levanta para λ 6= 0 por efecto de la perturbaci´ on. El 0 nivel asociado a E4 es doblemente degenerado y la perturbaci´ on conserva la degeneraci´ on. Vemos adem´ as que dos curvas asociadas a E20 y E30 se cruzan en λ = λ1 produciendo una degeneraci´ on accidental. Dado que H (λ) es un observable, el conjunto de todos sus kets propios linealmente independientes ser´ a una base para el espacio de estados. Cuando λ → 0 todas las cantidades tienden a sus valores no perturbados.
´ APROXIMADA PARA LOS VALORES PROPIOS DE H (λ) 20.2. SOLUCION
20.2.
497
Soluci´ on aproximada para los valores propios de H (λ)
La ecuaci´ on de valores propios perturbada es H (λ) |ψ (λ)i = E (λ) |ψ (λ)i
(20.4)
asumiremos que E (λ) y |ψ (λ)i se pueden expandir en potencias de λ, de la forma E (λ) = ε0 + λε1 + λ2 ε2 + . . . + λq εq + . . . 2
(20.5)
q
|ψ (λ)i = |0i + λ |1i + λ |2i + . . . + λ |qi + . . .
(20.6)
por supuesto es necesario garantizar la convergencia de estas series. En la pr´ actica, estas series convergen r´ apidamente para una gran cantidad de problemas f´ısicos siempre que λ ≪ 1. Si sustitu´ımos estas expansiones al igual que la definici´ on (20.3) en la ecuaci´ on de valores propios perturbada (20.4) tenemos que " # ∞ ∞ ∞ X X X c λq |qi = λm εm λq |qi (20.7) H0 + λW q=0
m=0
q=0
ahora bien, esta ecuaci´ on debe ser v´ alida para λ peque˜ no pero por lo dem´ as arbitrario. Por tanto, debemos igualar coeficientes asociados a la misma potencia en la Ec. (20.7). En la pr´ actica, nos interesa simplificar el problema tomando solo algunos t´erminos en las series dadas en la Ec. (20.7). Puesto que se deben igualar coeficientes asociados a potencias iguales de λ en ambos miembros de la Ec. (20.7), es necesario asegurarse de incluir todas las contribuciones que se generan para cada potencia de λ. Si nos interesa incluir los t´erminos hasta un potencia λp , entonces debemos convertir cada serie de (20.7) en una sumatoria desde q = 0 hasta q = p, y al realizar las multiplicaciones no se considerar´ an los t´erminos con potencias mayores a p. De las anteriores consideraciones, si queremos calcular las contribuciones a orden cero (para potencias hasta λ0 ) debemos reemplazar las series en (20.7) por las sumatorias1 # 0 " 0 0 X X X H0 λq |qi = λm εm λq |qi q=0
m=0
H0 |0i = ε0 |0i
q=0
a orden cero en λ
(20.8)
a primer orden en λ, la Ec. (20.7) queda en la forma " 1 # 1 1 X X X c H0 + λW λq |qi = λm εm λq |qi q=0
m=0
q=0
c [|0i + λ |1i] = [ε0 + λε1 ] [|0i + λ |1i] H0 + λW c |0i + O λ2 = ε0 |0i + λε1 |0i + λε0 |1i + O λ2 H0 |0i + λH0 |1i + λW
donde O λ2 denota t´erminos de orden cuadr´ atico en λ o mayor. A primer orden en λ tenemos entonces
1
c |0i − λε1 |0i = 0 , H0 |0i − ε0 |0i + λH0 |1i − λε0 |1i + λW c |0i − λε1 |0i = 0 , λH0 |1i − λε0 |1i + λW c − ε1 |0i = 0 , (H0 − ε0 ) |1i + W
a primer orden en λ
a primer orden en λ a primer orden en λ
c a orden cero es simplemente H0 , ya que el otro t´ermino es de primer orden en λ. As´ı mismo, el Hamiltoniano H0 + λW
(20.9)
CAP´ITULO 20. TEOR´IA ESTACIONARIA DE PERTURBACIONES
498
donde hemos usado la expresi´ on (20.8) a orden cero. En el m´etodo perturbativo, es importante que las condiciones que impongamos sean v´ alidas en cada orden, por esta raz´ on asumimos que la condici´ on (20.8) obtenida a orden cero, sigue siendo v´ alida a primer orden. Para la aproximaci´ on de segundo orden la Ec. (20.7) queda " 2 # 2 2 X X X c H0 + λW λq |qi = λm εm λq |qi
q=0
m=0
q=0
|0i + λ |1i + λ2 |2i = ε0 + λε1 + λ2 ε2 |0i + λ |1i + λ2 |2i c |0i + λ2 W c |1i + O λ3 = ε0 |0i + λε1 |0i + λ2 ε2 |0i + λε0 |1i H0 |0i + λH0 |1i + λ2 H0 |2i + λW +λ2 ε1 |1i + λ2 ε0 |2i + O λ3 c H0 + λW
a segundo orden en λ resulta entonces h i n o c − ε1 |0i + λ2 (H0 − ε0 ) |2i + W c − ε1 |1i − ε2 |0i = 0 [(H0 − ε0 ) |0i] + λ (H0 − ε0 ) |1i + W
(20.10)
el lector puede comprobar que a un orden arbitrario q en λ se obtiene la ecuaci´ on c − ε1 |q − 1i − ε2 |q − 2i . . . − εq |0i = 0 ; q − ´esimo orden en λ (H0 − ε0 ) |qi + W
(20.12)
una vez m´ as tenemos en cuenta que las expresiones obtenidas a orden cero y uno, tambi´en deben ser v´ alidas a segundo orden2 . Por tanto, los t´erminos entre par´entesis cuadrados se anulan en virtud de las ecuaciones (20.8, 20.9), quedando c − ε1 |1i − ε2 |0i = 0 ; a segundo orden en λ (H0 − ε0 ) |2i + W (20.11)
En este contexto estudiaremos las contribuciones hasta de segundo orden en λ. Puesto que la ecuaci´ on (20.4) solo define a los kets |ψ (λ)i dentro de un factor constante, fijaremos su valor exigiendo que todos los |ψ (λ)i est´en normalizados. Adicionalmente, escogeremos su fase de tal modo que se cumpla la condici´ on h0 |ψ (λ)i ∈ R
(20.13)
es decir elegimos que |ψ (λ)i est´e en fase con |0i para todo λ. De nuevo la relaci´ on (20.13) as´ı como la condici´ on de normalizaci´ on, deben ser v´ alidas a todos los ´ ordenes en teor´ıa de perturbaciones. En particular, a orden cero la Ec. (20.6) implica que |ψ (λ)i ≃ |0i, de modo que la condici´ on de normalizaci´ on de |ψ (λ)i a orden cero requiere que el ket |0i est´e normalizado k|0ik2 = h0 |0i = 1 (20.14) sin embargo, la fase de |0i a´ un permanece arbitraria. M´ as adelante veremos como fijar la fase de este ket. De acuerdo con la Ec. (20.6), a primer orden la norma al cuadrado de |ψ (λ)i est´ a dada por k|ψ (λ)ik2 = hψ (λ) |ψ (λ)i = [h0| + λ h1|] [|0i + λ |1i] + O λ2 = h0 |0i + λ [h0 |1i + h1 |0i] + O λ2
usando (20.14) vemos que |ψ (λ)i estar´ıa normalizado a primer orden si h0 |1i + h1 |0i = 0
(20.15)
Ahora aplicamos la convenci´ on de fases (20.13) a primer orden h0| [|0i + λ |1i] = h0 |0i + λ h0| 1i = 1 + λ h0| 1i ∈ R 2
Alternativamente podemos decir que un serie de potencias en λ solo puede ser cero para λ arbitrario, si los coeficientes de cada potencia de λ son cero. Por tanto los coeficientes asociados a λ0 , λ y λ2 en la Ec. (20.10) deben ser cada uno igual a cero.
´ APROXIMADA PARA LOS VALORES PROPIOS DE H (λ) 20.2. SOLUCION
499
y puesto que λ es real, h0 |1i es real de modo que h0 |1i = h1 |0i. Este hecho junto con la Ec. (20.15) nos da h0 |1i = h1 |0i = 0
(20.16)
para segundo orden podemos hacer un procedimiento similar k|ψ (λ)ik2 = hψ (λ) |ψ (λ)i = h0| + λ h1| + λ2 h2| |0i + λ |1i + λ2 |2i + O λ3 = h0 |0i + λ [h0 |1i + h1 |0i] + λ2 [h2 |0i + h0 |2i + h1 |1i] + O λ3
aplicando las Ecs. (20.14, 20.16) (que son producto de la exigencia de normalizaci´ on de |ψ (λ)i y convenci´ on de fase a orden cero y uno) nos da k|ψ (λ)ik2 = 1 + λ2 [h2 |0i + h0 |2i + h1 |1i] + O λ3 la convenci´ on de fase (20.13) a segundo orden junto con la Ec. (20.16) nos llevan a h0| |0i + λ |1i + λ2 |2i = h0 |0i + λ h0| 1i + λ2 h0| 2i = 1 + λ2 h0| 2i ∈ R
y puesto que λ es real, se tiene que h0| 2i es real. Esto junto con la exigencia de normalizaci´ on para |ψ (λ)i a segundo orden, nos da h2 |0i = h0 |2i
h2 |0i + h0 |2i + h1 |1i = 0 ⇒ 1 h2 |0i = h0 |2i = − h1 |1i 2 ;
(20.17)
y a orden q se obtiene la condici´ on 1 h0 |qi = hq |0i = − [hq − 1 |1i + hq − 2 |2i + . . . + h2 |q − 2i + h1 |q − 1i] 2
(20.18)
En resumen, si tenemos un Hamiltoniano dado por c H = H0 + W ≡ H0 + λW
(20.19)
H (λ) |ψ (λ)i = E (λ) |ψ (λ)i
(20.20)
La ecuaci´ on de valores propios perturbada es
y si asumimos que el espectro E (λ) y los kets propios |ψ (λ)i de H se pueden expandir como una serie de potencias en λ E (λ) = ε0 + λε1 + λ2 ε2 + . . . + λq εq + . . . =
∞ X
λq εq
(20.21)
∞ X
(20.22)
q=0
2
q
|ψ (λ)i = |0i + λ |1i + λ |2i + . . . + λ |qi + . . . =
q=0
λq |qi
las ecuaciones perturbativas a diversos ´ ordenes en λ viene dadas por H0 |0i c − ε1 |0i (H0 − ε0 ) |1i + W c − ε1 |1i − ε2 |0i (H0 − ε0 ) |2i + W c − ε1 |q − 1i − ε2 |q − 2i . . . − εq |0i (H0 − ε0 ) |qi + W
= ε0 |0i
, orden cero en λ
(20.23)
= 0
,
primer orden en λ
(20.24)
= 0
,
segundo orden en λ
(20.25)
= 0 ; q − ´esimo orden en λ
(20.26)
CAP´ITULO 20. TEOR´IA ESTACIONARIA DE PERTURBACIONES
500
as´ı mismo se exige que |ψ (λ)i est´e normalizado y que cumpla la convenci´ on de fase h0 |ψ (λ)i ∈ R
(20.27)
la exigencia de que tanto la normalizaci´ on como la convenci´ on de fase deben cumplirse a cada orden en teor´ıa de perturbaciones, nos lleva a las siguientes condiciones k|0ik2 = h0 |0i = 1
(20.28)
h0 |1i = h1 |0i = 0
(20.29)
1 h2 |0i = h0 |2i = − h1 |1i 2 1 h0 |qi = hq |0i = − [hq − 1 |1i + hq − 2 |2i + . . . + h2 |q − 2i + h1 |q − 1i] 2
(20.30) (20.31)
Las ecuaciones de perturbaci´ on hasta segundo orden son por tanto (20.23, 20.24, 20.25) y con nuestra convenci´ on de normalizaci´ on y de fases deben agregarse las Ecs. (20.28, 20.29, 20.30). La ecuaci´ on (20.23) nos dice que |0i es un autovector de H0 con valor propio ε0 . Por tanto, ε0 es parte del espectro de H0 , esto era de esperarse ya que cuando λ → 0 cada autovalor de H (λ) se convierte en un autovalor de H (0) = H0 . En consecuencia, escogiendo un ε0 particular, es decir un cierto autovalor En0 de H0 , podemos calcular E (λ). Como ya mencionamos, es posible que diferentes valores de E (λ) converjan en el mismo valor ε0 = En0 . Consideremos el conjunto de autoestados linealmente independientes de H (λ) correspondientes a los varios autovalores que converjen en un mismo valor propio En0 de H0 cuando λ → 0. Estos autoestados expanden un subespacio vectorial cuya dimensi´ on no puede cambiar discont´ınuamente cuando λ se barre de manera cont´ınua en la vecindad derecha de cero. Por tanto, esta dimensi´ on debe ser independiente de λ y en particular se puede calcular en λ = 0. De esto se concluye que la dimensi´ on de este espacio es el grado de degeneraci´ on gn de En0 . En particular, si En0 es no degenerado, solo generar´ a un autovalor E (λ) de H (λ), de modo que esta energ´ıa tampoco estar´ a degenerada. Estudiaremos primero el caso en el cual el nivel asociado de H0 es no degenerado.
20.3.
Perturbaci´ on de un nivel no degenerado
Consideremos un nivel no degenerado En0 correspondiente a un autoestado |ϕn i que es u ´nico salvo un factor constante. La idea es determinar la modificaci´ on que la perturbaci´ on W hace sobre el nivel En0 y el autoestado on |ϕn i. Para calcularlo utilizamos las ecuaciones (20.23, 20.24, 20.25), junto con las convenciones de normalizaci´ y fase (20.28, 20.29, 20.30). Para el autovalor de H (λ) cuando λ → 0 es claro que ε0 = En0
(20.32)
esta ecuaci´ on junto con (20.23) implican que |0i debe ser proporcional a |ϕn i 3 . Puesto que ambos vectores est´ an normalizados es natural escoger |0i = |ϕn i (20.33) de modo que cuando λ → 0 encontraremos el autoestado sin perturbar |ϕn i (con la misma norma y la misma fase)4 . Denominamos E (λ) al valor propio de H (λ) que toma el valor de En0 cuando λ → 0. Asumiremos que λ es suficientemente peque˜ no para que permanezca no degenerado para todo λ, recordemos que es posible que las curvas de E (λ) vs λ asociadas a dos estados no perturbados distintos En0 y Ep0 se crucen en alg´ un punto λ1 produciendo una degeneraci´ on accidental (ver Fig. 20.1, P´ ag 496). En tal caso debemos imponer que λ < λ1 . Comenzaremos con la correcci´ on de la energ´ıa a primer orden. 3 N´ otese que esta afirmaci´ on depende del car´ acter no degenerado de En0 , ya que de lo contrario el ket asociado a tal valor propio no es u ´nico. 4 Recordemos que la fase del ket |0i estaba a´ un sin determinar. La Ec. (20.33), nos determina dicha fase.
´ DE UN NIVEL NO DEGENERADO 20.3. PERTURBACION
20.3.1.
501
Correcci´ on de primer orden para la energ´ıa
Calculando la proyecci´ on de la Ec. (20.24) sobre el autoestado |ϕn i, se c − ε1 |0i hϕn | (H0 − ε0 ) |1i + hϕn | W c − ε1 |ϕn i hϕn | En0 − En0 |1i + hϕn | W c − ε1 |ϕn i hϕn | W
obtiene = 0 = 0 = 0
donde hemos usado las Ecs. (20.32, 20.33), as´ı como el hecho de que H0 puede actuar sobre el bra debido a su car´ acter herm´ıtico. Esta ecuaci´ on se puede reescribir como c |ϕn i ε1 = hϕn | W
(20.34)
c |ϕn i = En0 + hϕn | W |ϕn i En (λ) = En0 + λ hϕn | W
(20.35)
Sustituyendo (20.32) y (20.34) en (20.21) resulta
con lo cual cuando el estado no perturbado En0 es no degenerado, el autovalor E (λ) de H asociado a En0 puede c en la forma (20.35). Vemos que la correcci´ escribirse a primer orden en la perturbaci´ on W = λW on a primer 0 orden de un nivel no degenerado En es igual al valor esperado del t´ermino de perturbaci´ on W en el estado no perturbado |ϕn i.
20.3.2.
Correcci´ on de primer orden para el autovector
Para obtener la informaci´ on completa contenida en la ecuaci´ on de perturbaci´ on, tenemos que realizar las i proyecciones de la Ec. (20.24) sobre todos los autoestados ϕp de H0 . Realizando estas proyecciones sobre todos los vectores ϕip diferentes a |ϕn i se obtiene
c − ε1 |0i = 0 ; ϕip (H0 − ε0 ) |1i + ϕip W
i 0
c |ϕn i − ε1 ϕip ϕn i = 0 ; ϕp Ep − En0 |1i + ϕip W
(p 6= n)
(p 6= n)
(20.36)
donde hemos usado las Ecs. (20.32, 20.33). El ´ındice i indica que otros valores propios pueden ser degenerados. Puesto que vectores propios asociados a valores propios distintos son ortogonales, se tiene que ϕip ϕn i = 0. Por tanto, la Ec. (20.36) queda
c |ϕn i = 0 ; (p 6= n) Ep0 − En0 ϕip 1i + ϕip W esto nos da los coeficientes de Fourier de la expansi´ on de |1i sobre toda la base no perturbada excepto |ϕn i
ϕip 1i
c |ϕn i ϕip W = En0 − Ep0
;
(p 6= n)
el coeficiente hϕn | 1i es cero en virtud de la condici´ on (20.29) y de la Ec. (20.33) h0| 1i = hϕn | 1i = 0 (20.37) puesto que conocemos la expansi´ on de |1i en la base ϕip el vector se puede escribir en esta base en la forma
c |ϕn i XX X X ϕip W i i i ϕp ϕp 1i = ϕp |1i = 0 − E0 E n p p i p6=n i
(20.38)
CAP´ITULO 20. TEOR´IA ESTACIONARIA DE PERTURBACIONES
502
y aplicando (20.22) vemos que el autovector |ψn (λ)i de H asociado a el estado no perturbado |ϕn i, se escribe a c en la forma primer orden en la perturbaci´ on W = λW
c |ϕn i X X ϕip W i + O λ2 ϕp |ψn (λ)i = |ϕn i + λ 0 0 En − Ep p6=n i
(20.39)
la correcci´ on a primer orden del vector de estado es una superposici´ on de todos los estados no perturbados excepto su autoestado no perturbado asociado. Se dice entonces que la perturbaci´ on W produce una “mezcla” del a nula si el elemento matricial estado |ϕn i con los otros autoestados de H0 . La contribuci´ on de un estado ϕip ser´ i
i
c |ϕn i es cero. En general la mezcla con el estado ϕ aumenta con el aumento del acople ϕi W c |ϕn i entre ϕp W p p i 0 0 los estados |ϕn i y ϕp , y tambi´en aumenta al disminuir el desdoblamiento En − Ep entre los niveles asociados. De la discusi´ on anterior y la Ec. (20.39) se desprende que no es suficiente que los elementos matriciales de W on de W sea peque˜ na. Para que la correcci´ on de primer sean mucho menores que los de H0 , para que la contribuci´ orden al vector de estado sea peque˜ na, es necesario adem´ as que los elementos no diagonales de la matriz W sean mucho m´ as peque˜ nos que el desdoblamiento de los niveles de energ´ıa asociados.
20.3.3.
Correcci´ on de segundo orden para la energ´ıa
Para calcular ε2 se proyecta la ecuaci´ on (20.25) asociada al segundo orden con el ket |ϕn i, aplicando adem´ as las Ecs. (20.32, 20.33, 20.37) c − ε1 |1i − ε2 hϕn |0i = 0 hϕn | (H0 − ε0 ) |2i + hϕn | W c |1i − ε1 hϕn | 1i − ε2 hϕn |ϕn i = 0 hϕn | En0 − En0 |2i + hϕn | W c |1i = ε2 hϕn | W
(20.40)
Sustituyendo (20.38) en (20.40) se obtiene ε2
ε2
c ϕip ϕip W c |ϕn i X X hϕn | W c |ϕn i X X ϕip W ϕip = En0 − Ep0 En0 − Ep0 p6=n i p6=n i 2 c |ϕn i X X ϕip W = 0 − E0 E n p p6=n i c |1i = hϕn | W c = hϕn | W
(20.41)
reemplazando (20.32, 20.34, 20.41) en (20.21) tenemos a segundo orden
2 i c ϕ W |ϕ i XX n p 2 3 0 2 c |ϕn i + λ + O λ3 En (λ) = ε0 + λε1 + λ ε2 + O λ = En + λ hϕn | W 0 0 En − Ep p6=n i X X ϕip W |ϕn i 2 0 + O λ3 En (λ) = En + hϕn | W |ϕn i + (20.42) 0 0 En − Ep p6=n i
n´ otese que la correcci´ on a segundo orden de la energ´ no perturbado |ϕn i, i ıa (no degenerada) asociada al estado ϕ . La contribuci´ ϕi tiene el signo del desdoo n del estado contiene contribuciones de todos los otros estados p
p blamiento En0 − Ep0 . Adem´ as tal contribuci´ on crece con el tama˜ no del “acople” ϕip W |ϕn i y con la disminuci´ on del desdoblamiento En0 − Ep0 .
´ DE UN NIVEL NO DEGENERADO 20.3. PERTURBACION
20.3.4.
503
Correcci´ on de segundo orden para el estado
La expresi´ on a segundo orden i para el autovector de H (λ) se puede obtener proyectando la Ec. (20.25) sobre el autoestado no perturbado ϕp y utilizando las condiciones (20.30). De esta manera se obtiene el ket |2i con el cual se calcula |ψ (λ)i a segundo orden por medio de la ecuaci´ on (20.22). Se deja este procedimiento como ejercicio para el lector. Por otro lado, puede verse de la Ec. (20.35), que la correcci´ on a primer orden de la energ´ıa depende de la correcci´ on a orden cero del autoestado (es decir del autoestado no perturbado). Similarmente, la Ec. (20.42) muestra que la correcci´ on a segundo orden de la energ´ıa depende de la correcci´ on a primer orden al autoestado, por esta raz´ on las Ecs. (20.38, 20.41) son muy similares. Este hecho se puede generalizar: si se proyecta la Ec. (20.26) sobre |ϕn i, el primer t´ermino se anula, con lo cual εq estar´ a en t´erminos de las correcciones de orden q − 1, q − 2,. . . del autovector. Por esta raz´ on, es usual que se haga la correcci´ on hasta orden q de la energ´ıa y hasta orden q − 1 en el autovector. En esta t´ onica, nosotros calcularemos en el presente texto correcciones hasta de primer orden en el autoestado y hasta de segundo orden en la energ´ıa.
20.3.5.
Cota superior para ε2
Cuando se calcula la correcci´ on perturbativa de la energ´ıa a primer orden, podemos encontrar una cota superior para la correcci´ on de segundo orden que nos da una idea aproximada del error cometido. Definiremos ∆E como el valor absoluto de la diferencia entre el nivel En0 que se pretende corregir, con el nivel no perturbado m´ as cercano. Por definici´ on tenemos entonces que 0 En − Ep0 ≥ ∆E ; p 6= n (20.43) de las Ecs. (20.41, 20.43) obtenemos entonces una cota superior para ε2 2 1 X X i c 1 XX c ϕi ϕi W c |ϕn i |ε2 | ≤ ϕ i hϕn | W W |ϕ p n = p p ∆E ∆E p6=n i p6=n i XX 1 c ϕip ϕip W c |ϕn i |ε2 | ≤ hϕn | W ∆E p6=n
en virtud de la completez de ϕip tenemos
|ϕn i hϕn | +
sustituyendo (20.45) en (20.44) queda |ε2 | ≤ |ε2 | ≤ 2 λ ε2 ≤
1 ∆E 1 ∆E 1 ∆E
XX ϕi ϕi = 1 p
p6=n
p
(20.45)
i
h i c [1 − |ϕn i hϕn |] W c |ϕn i = 1 hϕn | W c 2 |ϕn i − hϕn | W c |ϕn i hϕn | W c |ϕn i hϕn | W ∆E 2 2 c 2 |ϕn i − hϕn | W c |ϕn i = 1 ∆W c hϕn | W ∆E n (∆W )2n
(20.44)
i
(20.46)
donde (∆W )2n es la desviaci´ on media cuadr´ atica del observable W evaluada en el estado |ϕn i asociada al nivel (no degenerado) de energ´ıa En0 cuya correcci´ on se est´ a evaluando. La Ec. (20.46) nos da una idea del orden de magnitud de la correcci´ on de segundo orden y por tanto del error cometido al considerar solo la correcci´ on de primer orden. Debe advertirse sin embargo, que esta desigualdad solo nos da informaci´ on sobre el orden de magnitud de la correcci´ on a segundo orden y no de los ´ ordenes superiores. Solo si el comportamiento perturbativo es bueno (de modo que los ´ ordenes superiores son mucho menores) podemos decir que este orden de magnitud corresponde a un estimado aproximado del error total.
CAP´ITULO 20. TEOR´IA ESTACIONARIA DE PERTURBACIONES
504
20.4.
Perturbaci´ on de un nivel degenerado
0 Asumamos on de grado gn de modo que hay gn vectores linealmente indepen i que el nivel En tiene degeneraci´ dientes ϕn que son vectores propios asociados a En0 y que expanden un subespacio En0 del espacio orbital y de dimensi´ on gn . En este caso la escogencia ε0 = En0
no es suficiente para determinar al ket |0i, ya que la Ec. (20.23) se satisface para cualquier combinaci´ on lineal de 0 0 autovectores de En . Por el momento solo podemos decir que |0i es un ket del autosubespacio En . Veremos que bajo la perturbaci´ on W , el nivel En0 genera varios subniveles, siendo el n´ umero de subniveles menor o igual a gn . Si el n´ umero fn de subniveles es menor que gn , algunos de estos niveles deben estar degenerados puesto que el n´ umero total de vectores ortogonales de H asociados con los fn subniveles debe ser siempre igual a gn . Nos limitaremos en esta discusi´ on al c´ alculo del autoestado a orden cero y de la energ´ıa a primer orden. on (20.24) sobre los gn autovectores ϕin , de lo Para determinar ε1 y |0i comenzamos proyectando la ecuaci´ cual se obtienen las relaciones
i c − ε1 |0i = 0 ϕn (H0 − ε0 ) |1i + ϕin W
i 0
c |0i − ε1 ϕi 0i = 0 ϕn En − En0 |1i + ϕin W n
i
c ϕn W |0i = ε1 ϕin 0i al un operador identidad y teniendo en cuenta que |0i debe ser ortogonal a cualquier vector de la forma insertar E j ϕp con p 6= n (ya que |0i ∈ En0 y por tanto es ortogonal a Ep0 con p 6= n), nos queda gp XX
p
j=1 gn X j=1
j j
c ϕ hϕ |0i = ε1 ϕi 0i ϕin W p p n
j j
c ϕn hϕn |0i = ε1 ϕin 0i ϕin W
(20.47)
j E c ϕn como elementos de una matriz gn ×gn con ´ındice de fila “i” e ´ındice ahora consideramos las cantidades ϕin W
j E c ϕp son los elementos de la representaci´ c en de columna “j”. Las cantidades ϕin W on matricial del operador W E
j c ϕn corresponden a la restricci´ la base ϕip del espacio Er . Por tanto, los elementos ϕin W on (o submatriz) c (n) . N´ correspondiente al subespacio En0 de Er . Denotaremos esta submatriz como W otese entonces que la Ec.
k (n) 0 c (n) con (20.47) nos dice que el vector columna definido por ϕk = ϕn 0i que pertenece a En , es autovector de W (n) autovalor ε1 . Por supuesto ϕk es la representaci´ on del vector |0i en la base ϕip 5 . La Ec. (20.47) se puede escribir entonces c (n) ϕ(n) = ε1 ϕ(n) W (20.48) ij j i c (n) como la restricci´ c al subespacio En0 (ver secci´ En vista de lo anterior, si definimos W on del operador W on 1.33, P´ ag. 74 y Ec. 1.129), podemos ver la Ec. (20.47) como una ecuaci´ on de valores propios para dicho operador restringido en el espacio En0 . La Ec. (20.47) puede escribirse tambi´en en la forma c (n) |0i = ε1 |0i W
(20.49)
c (n) del operador W c al subespacio E 0 es diferente del operador debe enfatizarse sin embargo, que la restricci´on W n 0 en s´ı, y que la ecuaci´ on (20.49) est´ a definida en En y no en el espacio orbital completo Er . N´ otese que el vector |0i pertenece a En0 de modo que las componentes asociadas a cada ϕip con p 6= n, son nulas. En este sentido, la restricci´ on del vector |0i al subespacio En0 , coincide con el vector en s´ı. 5
´ DE UN NIVEL DEGENERADO 20.4. PERTURBACION
505
Por tanto, para calcular los autovalores a primer orden y los autoestados a orden cero del Hamiltoniano asociado c (n) que representa la restricci´ a un estado no perturbado degenerado En0 , debemos diagonalizar la matriz W on del 0 c al subespacio En de dimensi´ operador de perturbaci´ on W on gn generado por el autovalor En0 . La Ec.(20.49) o equivalentemente la Ec. (20.48) nos generan un polinomio caracter´ıstico de grado gn , con gn ra´ıces reales (ya que (1) la restricci´ on de un operador herm´ıtico tambi´en es un operador herm´ıtico6 ). Definamos εj1 con j = 1, 2, . . . , fn (1) c (n) . De acuerdo con el teorema fundamental como las fn ra´ıces distintas de la ecuaci´ on caracter´ıstica para W del ´ algebra, la suma de las degeneraciones de estas ra´ıces debe ser gn . En otras palabras, si el valor propio εj1 tiene degeneraci´ on bj tenemos que (1)
fn X j=1
cada autovalor que
εj1
bj = gn ; fn(1) ≤ gn
(20.50)
para j dado introduce una correcci´ on diferente al nivel de energ´ıa. Usando la Ec. (20.21) vemos En,j (λ) = En0 + λεj1
;
j = 1, 2, . . . , fn(1) ≤ gn
(20.51)
c , el nivel degenerado se desdobla a primer orden que nos muestra que bajo la influencia de la perturbaci´ on W = λW (1) en fn subniveles distintos dados por la Ec. (20.51). Cada subnivel En,j (λ) tendr´ a una degeneraci´ on bj y se debe (1) cumplir la relaci´ on (20.50). En particular, si fn = gn , se dice que a primer orden, la perturbaci´on W remueve por completo la degeneraci´ on de En0 , ya que en este caso bj = 1 para todo j y los subniveles ser´ an no degenerados. (1) Si fn < gn , habr´ a por lo menos un bj tal que bj > 1, de modo que la degeneraci´ on solo se remueve parcialmente. (1) Finalmente, sin fn = 1, el grado de degeneraci´ on no cambia en lo absoluto, y solo aparece correcci´ on a En0 pero no hay subniveles distintos asociados a ´el. Ahora nos ocuparemos de la determinaci´ on del vector |0i. Para ello, nos enfocamos en un εj1 fijo. Si este autovalor es no degenerado, el autovector |0i asociado por medio de (20.49) es u ´nico salvo un factor constante. Existe entonces un u ´nico autovalor E (λ) de H (λ) dado por (20.51), de modo que En,j (λ) es no degenerado. Por otro lado, si el autovalor εj1 es bj −degenerado (con bj > 1), entonces la Ec. (20.49) solo nos dice que el autovector (1) asociado |0i, pertenece al subespacio En,j ⊆ En0 , de dimensi´ on bj ≤ gn . Es notable la simplificaci´ on del problema de calcular las energ´ıas degeneradas por m´etodo perturbativo estacionario a primer orden. Para verlo, n´ otese que para una energ´ıa no perturbada dada En0 , hemos cambiado el problema de diagonalizar el Hamiltoniano de perturbaci´ on W en un espacio de dimensi´ on infinita Er , por el 0 problema de diagonalizar la restricci´ on de este operador en el autoespacio En de dimensi´ on finita gn , generado por En0 . En particular, si el nivel no es degenerado el autosubespacio asociado es de dimensi´ on 1, y no es necesaria ninguna diagonalizaci´ on.
20.4.1.
Comportamiento de subniveles degenerados a m´ as alto orden en perturbaciones
Cuando un determinado autovalor εj1 tiene degeneraci´ on de grado bj > 1 en un c´ alculo perturbativo a primer orden, es natural preguntarse si esta degeneraci´ on es esencial, o si solo es caracter´ıstica de la aproximaci´ on de primer orden en λ. Para verlo, debemos examinar el c´ alculo a m´ as altos ´ ordenes en λ. Pueden ocurrir dos casos. 1. Supongamos que hay una sola energ´ıa exacta E (λ), que es igual a primer orden a En0 + λεj1 y que esta energ´ıa es bj −degenerada (en la Fig. 20.1 corresponder´ıa a la energ´ıa E (λ) que parte desde E40 , la cual tiene degeneraci´ on doble para todo λ). Por tanto, para todo valor de λ tenemos un autosubespacio de dimensi´ on bj generado por E (λ), de modo que la degeneraci´ on que aparece a primer orden no se remover´ a a ning´ un orden en λ y es una degeneraci´ on esencial. En tal caso, el vector a orden cero |0i no puede especificarse completamente, puesto que la u ´nica condici´ on impuesta sobre tal vector es que pertenezca a un subespacio que es el l´ımite cuando λ → 0, del autoespacio bj −dimensional de H (λ) asociado a E (λ). Este ser´ıa el 6
Esto se puede ver de la definici´ on (1.129) P´ ag. 75, y del car´ acter herm´ıtico de los operadores proyecci´ on.
CAP´ITULO 20. TEOR´IA ESTACIONARIA DE PERTURBACIONES
506
(1) c (n) asociado al autovalor εj escogido. Este caso surge usualmente cuando H0 y W autoespacio En,j de W 1 poseen propiedades de simetr´ıa comunes, que implican una degeneraci´ on esencial en H (λ), que por tanto debe prevalecer a todos los ´ ordenes de perturbaci´ on en λ.
2. Para un valor fijo de n y j, puede ocurrir que varias energ´ıas distintas En,j,k (λ) coincidan entre s´ı, en una aproximaci´ on de primer orden. Por tanto, la diferencia entre estas energ´ıas solo aparece en un c´ alculo a (1) segundo orden o m´ as alto. En tal caso, el subespacio En,j obtenido a primer orden es solo la suma directa de los l´ımites cuando λ → 0 de varios autosubespacios asociados a estas energ´ıas distintas En,j,k (λ) (1)
(1)
(1)
(1)
En,j = En,j,1 ⊕ En,j,2 ⊕ . . . ⊕ En,j,knj Donde knj denota el n´ umero de energ´ıas distintas que surgen a m´ as alto orden en teor´ıa de perturbaciones (1) para valores dados de n y j. Por supuesto, es posible que uno o m´ as de los autoespacios En,j,p sea de m´ as de (1)
una dimensi´on (es decir que knj sea menor que la dimensi´ on del subespacio En,j ), en cuyo caso la degeneraci´ on se ha reducido pero no se ha removido completamente a ning´ un orden en teor´ıa de perturbaciones. En vista de lo anterior, todos los autovectores de H (λ) asociados a estas energ´ıas En,j,k (λ) (con n y j fijos) ser´ an (1) (1) kets de En,j , pero no necesariamente un ket de En,j corresponder´ a a el l´ımite |0i de un autoestado de H (λ). Cuando este es el caso, las correcciones de segundo o m´ as orden no solo aumentan la precisi´ on con que se calculan las energ´ıas, sino que permiten determinar los kets de orden cero7 |0i. En la pr´ actica sin embargo, se suele utilizar solo la informaci´ on parcial contenida en (20.49) a primer orden.
20.5.
Consideraciones generales sobre teor´ıa estacionaria de perturbaciones
La diagonalizaci´ on del problema de valores propios (20.49) restringida al autosubespacio En0 requiere encontrar ED una base can´ onica ϕjn en donde el operador W (n) adquiera forma diagonal. Con este prop´osito, es conve-
niente tomar como punto de partida una base que simplifique al m´ aximo la forma matricial del operador W (n) . Para este fin, es usual emplear observables que conmuten tanto con H0 como con W (aunque en general H0 y W no conmutan entre s´ı). 0Supongamos que tenemos un observable A que conmuta con H0 y W . Es posible encontrar una base ϕin de En de autoestados comunes a H0 y A. Por otro lado, debido a que A conmuta con W , el teorema 1.68, P´ ag. 58 nos dice que los elementos matriciales de W son cero entre autovectores de A asociados a autovalores distintos. En tal caso, la matriz W (n) contendr´ a bastantes ceros, lo cual facilita la diagonalizaci´ on. En particular si H0 y W conmutan, se puede buscar una base de vectores propios comunes a ambos para diagonalizar a W y no ser´ a necesario el uso de un observable extra. Para el caso de niveles degenerados al igual que para el caso no degenerado, el estudio de las correcciones perturbativas a m´as alto orden, revela que este m´etodo es v´ alido solo si los elementos matriciales de W son mucho menores que las diferencias entre las energ´ıas del nivel bajo estudio y aquellas asociadas a los otros niveles. No obstante, es posible extender este m´etodo al caso en el cual hay un grupo de niveles no perturbados muy cercanos entre s´ı (pero diferentes) y que est´ a lejos de los dem´ as niveles del sistema. Esto significa que los elementos matriciales de W son del mismo orden de magnitud que las diferencias de energ´ıa dentro del grupo, pero son en general mucho menores que las diferencias entre un nivel fuera del grupo y un nivel dentro del grupo. En esta situaci´ on, podemos determinar la influencia de W , diagonalizando la matriz que representa a H = H0 + W dentro del grupo de niveles cercanos. Esta fu´e la linea de razonamientos utilizada en el cap´ıtulo 17 para estudiar sistemas de dos estados. 7
(1)
Por supuesto la determinaci´ on un´ıvoca de estos kets |0i solo es posible para los autosubespacios En,j,p que son unidimensionales.
´ 20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMONICO
20.6.
507
Perturbaciones estacionarias sobre el oscilador arm´ onico
Ilustraremos la teor´ıa de perturbaciones estacionaria considerando el efecto de potenciales proporcionales a x, y x3 , sobre el oscilador arm´ onico unidimensional. Este es un caso de perturbaciones sobre estados no degenerados (m´ as adelante veremos aplicaciones en F´ısica At´ omica para el caso degenerado). Los primeros dos casos se pueden solucionar de manera exacta y nos servir´ an m´ as para probar la consistencia del m´etodo. El caso de potencial proporcional a x3 es muy importante, dado que si hacemos la expansi´ on de Taylor de un potencial V (x) alrededor de un m´ınimo local de dicho potencial, el primer t´ermino no trivial es el t´ermino arm´ onico (proporcional a x2 ) y el siguiente t´ermino no trivial es proporcional a x3 , raz´ on por la cual lo denominamos primer t´ermino anarm´ onico. Por tanto, este suele ser el t´ermino dominante cuando queremos estudiar las desviaciones de los fen´ omenos vibratorios (cl´ asicos o cu´ anticos) con respecto al comportamiento arm´ onico. x2
20.6.1.
Orden de magnitud de los observables no perturbados
Antes de introducir la perturbaci´ on, conviene determinar el orden de magnitud de algunos observables asociados al problema no perturbado, con el fin de parametrizar la perturbaci´ on adecuadamente. Nuestro Hamiltoniano “no perturbado” ser´ a el asociado al oscilador arm´ onico simple unidimensional H0 =
P2 1 + mω 2 X 2 2m 2
las energ´ıas no perturbadas ser´ an entonces En0
=
1 n+ 2
~ω
;
n = 0, 1, 2, 3, . . .
b es del orden de uno. teniendo en cuenta las Ecs. (8.3, 8.5) P´ ag. 271, veremos que el operador adimensional X Puesto que el Hamiltoniano no perturbado H0 claramente es del orden de ~ω (orden de magnitud de sus valores propios), la Ec. (8.5) nos dice que 1 H b 0 b b 2 b2 (20.52) H0 = ≈ 1 ; H X + P ≈ 1 0 ≡ ~ω 2
b 2 y Pb2 podemos sustituir estos operadores adimensionales por sus valores para estimar el orden de magnitudDde EX D E b = Pb = 0 seg´ esperados teniendo en cuenta que X un la Ec. (8.54). Por tanto D E 2 b 2 = ∆X b X
;
utilizando las definiciones (8.3) y las Ecs. (8.64) resulta D E mω mω 1 ~ 2 2 b X = (∆X) = n+ ~ ~ 2 mω
D
E 2 Pb2 = ∆Pb ;
D
E (∆P )2 n + 12 m~ω 2 b P = = m~ω m~ω
para valores no muy grandes de n (i.e. estados no muy excitados), podemos escribir 1 D E D E m~ω mω 1 ~ 1 1 2 b X ≈ = ; Pb2 ≈ 2 = ~ 2 mω 2 m~ω 2 D E D E 1 b2 X ≈ Pb2 ≈ 2 D E D E b 2 ≈ Pb2 en (20.52) resulta sustituyendo X 1 D E D E D E b b 2 + Pb2 b2 ≈ 1 X ≈ X H0 ≈ 2
(20.53)
(20.54)
CAP´ITULO 20. TEOR´IA ESTACIONARIA DE PERTURBACIONES
508
esta aproximaci´ on es consistente con la obtenida en la Ec. (20.53) si tenemos en cuenta que solo es una estimaci´ on 8 del orden de magnitud. Tomaremos entonces la aproximaci´ on rD E b b2 ≈ 1 ; O b ≡ X, b Pb, H b0 O O ≈
20.6.2.
Parametrizaci´ on de la perturbaci´ on al oscilador con potencial lineal adicional
En virtud de las estimaciones anteriores, parametrizaremos la perturbaci´ on lineal en la forma √ b = λω m~ω X W = λ~ω X
(20.55)
b es del orden de uno y ~ω es del esta forma de parametrizar la perturbaci´ on es muy l´ ogica ya que el operador X c ≡ ~ω X b es del orden de H0 , que es lo que se busca para el operador W c . Por tanto, orden de H0 , de modo que W c la expansi´ on perturbativa con W = λW funciona solo si λ ≪ 1 para asegurar que W ≪ H0 . El Hamiltoniano completo es entonces 2 c = P + 1 mω 2 X 2 + λ~ω X b H = H0 + W = H0 + λW 2m 2 sin embargo, debemos tener presente que las estimaciones en orden de magnitud que se hicieron solo son v´ alidas si el n´ umero cu´ antico n no es mucho mayor que uno. Por tanto, para estados altamente excitados es posible que las predicciones de la expansi´ on perturbativa fallen. Soluci´ on exacta del oscilador con potencial lineal adicional Para encontrar la soluci´ on exacta, podemos utilizar los resultados de la secci´ on 8.9, en la cual se estudi´ o el oscilador arm´ onico simple unidimensional sometido a un campo el´ectrico uniforme E, cuyo potencial asociado es de la forma W = −qEX. Comparando tal potencial con la Ec. (20.55) vemos que la soluci´ on se obtiene con el reemplazo √ qE −qE ≡ λω m~ω ⇒ λ ≡ − √ (20.56) ω m~ω empleando la definici´ on (20.56) en la ecuaci´ on (8.82) el espectro del oscilador con potencial lineal adicional queda
2 √ −λω m~ω
1 ~ω − 2 2mω 2 1 ~ω En (λ) = n+ ~ω − λ2 2 2 En (λ) =
n+
(20.57)
Por otro lado, la Ec. (8.98), P´ ag. 292, se puede reescribir en t´erminos de operadores creaci´ on y destrucci´ on usando las Ecs. (8.9), P´ ag. 272 ( "r #) h i i qE i qE m~ω † qE † |ϕn (λ)i = exp − P |ϕn i = exp − i a −a |ϕn i = exp √ √ a − a |ϕn i ~ mω 2 ~ mω 2 2 2 ω m~ω y usando nuestra asignaci´ on de λ ecuaci´ on (20.56) se obtiene λ † |ϕn (λ)i = exp − √ a − a |ϕn i 2 8
(20.58)
Es mejor tomar el orden de magnitud del operador como la ra´ız cuadrada del promedio cuadr´ atico, ya que lo que nos interesa es b y Pb es nulo. un promedio de su magnitud y no de su valor. De hecho, el promedio lineal de los operadores X
´ 20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMONICO
509
Expandiendo la Ec. (20.58) a primer orden en λ, y utilizando las Ecs. (8.41) P´ ag. 280, tenemos
λ † λ λ 2 |ϕn (λ)i = 1 − √ a − a + O λ |ϕn i = |ϕn i − √ a† |ϕn i + √ a |ϕn i + O λ2 2 2 2 r r n+1 n |ϕn (λ)i = |ϕn i − λ |ϕn+1 i + λ |ϕn−1 i + O λ2 2 2
(20.59)
Expansi´ on perturbativa con potencial lineal Escribiendo el Hamiltoniano de perturbaci´ on W en t´erminos de operadores creaci´ on y destrucci´ on, tenemos ~ω b = λ√ W = λ~ω X a + a† 2
Por tanto W mezcla al estado |ϕn i solo con los estados |ϕn±1 i, de modo que los u ´nicos elements de matriz no nulos son √ √ ~ω ~ω ~ω n + 1 ~ω n + 1 † † √ √ hϕn+1 | W |ϕn i = λ √ hϕn+1 | a + a |ϕn i = λ √ hϕn+1 | a |ϕn i = λ hϕn+1 | ϕn+1 i = λ 2 2 2 2 √ √ ~ω ~ω ~ω n ~ω n hϕn−1 | W |ϕn i = λ √ hϕn−1 | a + a† |ϕn i = λ √ hϕn−1 | a |ϕn i = λ √ hϕn−1 | ϕn−1 i = λ √ 2 2 2 2 quedando finalmente
r
hϕn+1 | W |ϕn i = λ
n+1 ~ω 2
;
r n hϕn−1 | W |ϕn i = λ ~ω 2
(20.60)
utilizando la expresi´ on (20.42) para la correcci´ on de E (λ) a segundo orden se tiene En (λ) = En0 + hϕn | W |ϕn i +
X |hϕm | W |ϕn i|2 3 + O λ 0 En0 − Em
m6=n
|hϕn+1 | W |ϕn i|2 |hϕn−1 | W |ϕn i|2 + + O λ3 0 0 0 0 En − En+1 En − En−1 q 2 pn 2 λ λ n+1 2 ~ω 1 2 ~ω En (λ) = n+ ~ω + + + O λ3 2 [n − (n + 1)] ~ω [n − (n − 1)] ~ω 1 λ2 (n + 1) ~ω λ2 n~ω = n+ ~ω − + + O λ3 2 2 2 = En0 + 0 +
quedando finalmente En (λ) =
1 n+ 2
~ω − λ2
~ω + O λ3 2
vemos que la expansi´ on perturbativa del autovalor a segundo orden en λ, coincide con el resultado exacto Ec. (20.57). De hecho, puede demostrarse que todos los t´erminos de orden superior a dos se anulan en la expansi´ on perturbativa. Adicionalmente, se observa que no hay contribuci´ on de primer orden, en virtud de que los elementos diagonales hϕn | W |ϕn i son nulos.
CAP´ITULO 20. TEOR´IA ESTACIONARIA DE PERTURBACIONES
510
Por otra parte, la expansi´ on del autoestado a primer orden lo da la Ec. (20.39) |ϕn (λ)i = |ϕn i +
X hϕm | W |ϕn i |ϕm i + O λ2 0 0 En − Em
m6=n
hϕn+1 | W |ϕn i hϕn−1 | W |ϕn i |ϕn+1 i + |ϕn−1 i + O λ2 0 0 0 0 En − En+1 En − En−1 q p λ n+1 λ n2 ~ω 2 ~ω |ϕn+1 i + |ϕn−1 i + O λ2 = |ϕn i + −~ω ~ω r r n+1 n |ϕn (λ)i = |ϕn i − λ |ϕn+1 i + λ |ϕn−1 i + O λ2 2 2 = |ϕn i +
que coincide con la expansi´ on a primer orden de la soluci´ on exacta Ec. (20.59).
20.6.3.
Perturbaci´ on al oscilador arm´ onico con potencial cuadr´ atico
En este caso la perturbaci´ on se escribir´ a como W =
1 b 2 = 1 λmω 2 X 2 λ~ω X 2 2
(20.61)
siendo λ el par´ ametro perturbativo que debe ser mucho menor que 1. El Hamiltoniano perturbado queda H = H0 + W = H =
P2 1 + mω 2 (1 + λ) X 2 2m 2
P2 1 + mω ′2 X 2 2m 2
;
ω ′2 = ω 2 (1 + λ)
(20.62)
por tanto, el Hamiltoniano sigue estando asociado a un oscilador arm´ onico simple, y el efecto de la perturbaci´ on ′ es simplemente un cambio en la frecuencia angular al valor ω definido en (20.62). Estudiaremos solo el cambio en los autovalores. El espectro del Hamiltoniano perturbado es claramente √ 1 1 ′ En = n + ~ω = n + ~ω 1 + λ 2 2 expandiendo el radical se obtiene En =
1 n+ 2
1 1 ~ω 1 + λ − λ2 + O λ3 2 8
(20.63)
ahora reproduciremos el espectro (20.63) utilizando teor´ıa de perturbaciones estacionaria. El Hamiltoniano de perturbaci´ on (20.61) se puede escribir como
2 primero calculamos a† + a
1 b 2 = 1 λ~ω W = λ~ω X 2 2
a† + a √ 2
2
2 h i a† + a = a†2 + a2 + a† a + aa† = a†2 + a2 + a† a + a, a† + a† a 2 = a†2 + a2 + 2a† a + 1 a† + a
(20.64)
´ 20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMONICO con lo cual queda
511
n o 1 λ~ω a†2 + a2 + 2a† a + 1 4 u ´nicos elementos matriciales no nulos de W con respecto a |ϕn i son n o 1 1 1 †2 2 † hϕn | λ~ω a + a + 2a a + 1 |ϕn i = λ~ω hϕn | 2a† a + 1 |ϕn i = λ~ω (2n + 1) 4 4 4 1 1 λ~ω n + 2 2 √ √ √ 1 1 1 λ~ω hϕn+2 | a†2 |ϕn i = λ~ω n + 1 hϕn+2 | a† |ϕn+1 i = λ~ω n + 1 n + 2 hϕn+2 | ϕn+2 i 4 4 4 p 1 λ~ω (n + 1) (n + 2) 4 √ √ √ 1 1 1 λ~ω hϕn−2 | a2 |ϕn i = λ~ω n hϕn−2 | a |ϕn−1 i = λ~ω n n − 1 hϕn−2 | ϕn−2 i 4 4 4 p 1 λ~ω n (n − 1) 4 W =
en consecuencia, los hϕn | W |ϕn i = hϕn | W |ϕn i = hϕn+2 | W |ϕn i = hϕn+2 | W |ϕn i = hϕn−2 | W |ϕn i = hϕn−2 | W |ϕn i =
Evaluando la contribuci´ on de segundo orden para la energ´ıa a trav´es de la Ec. (20.42), obtenemos
X |hϕp | W |ϕn i|2 + O λ3 0 0 En − Ep p6=n 1 1 1 |hϕn+2 | W |ϕn i|2 |hϕn−2 | W |ϕn i|2 3 ~ω + λ~ω n + + + + O λ 0 0 2 2 2 En0 − En+2 En0 − En−2 1 2 2 2 1 2 2 2 λ ~ ω (n + 1) (n + 2) λ ~ ω n (n − 1) 1 1 ~ω 1 + λ + 16 + 16 + O λ3 2 2 −2~ω 2~ω 2 2 1 1 λ ~ω λ ~ω ~ω 1 + λ − (n + 1) (n + 2) + n (n − 1) + O λ3 2 2 32 32 2 1 1 λ ~ω ~ω 1 + λ + [n (n − 1) − (n + 1) (n + 2)] + O λ3 2 2 32 2 1 λ ~ω 1 ~ω 1 + λ − [4n + 2] + O λ3 2 2 32 1 4λ2 1 1 ~ω 1 + λ − ~ω n + + O λ3 2 2 32 2 2 1 1 λ ~ω 1 + λ − + O λ3 2 2 8
En = En0 + hϕn | W |ϕn i + = n+ = = En = = = En =
n+ n+ n+ n+ n+ n+
que coincide con la expansi´ on (20.63).
20.6.4.
Perturbaci´ on del oscilador arm´ onico por un potencial c´ ubico
Tomaremos un potencial de la forma
b3 W = λ~ω X
En mec´ anica cl´ asica, la part´ıcula con energ´ıa total E sometida al potencial V = mω 2 x2 /2 + Cx3 oscila entre dos puntos de retorno xa y xb que no est´ an ubicados sim´etricamente con respecto al origen, ya que el potencial total no tiene paridad definida. El movimiento sigue siendo peri´ odico pero ya no es sinusoidal (i.e. no es arm´ onico). De hecho, en la expansi´ on de Fourier de x (t), aparecen una serie de arm´ onicos de la frecuencia fundamental. Por tal raz´ on a este sistema se le denomina oscilador anarm´ onico. Adicionalmente, el periodo del movimiento ya no es
CAP´ITULO 20. TEOR´IA ESTACIONARIA DE PERTURBACIONES
512
independiente de la energ´ıa (y por tanto no es independiente de la amplitud), decimos entonces que el oscilador anarm´ onico ya no es is´ ocrono.
Expansi´ on perturbativa Nuevamente escribimos el potencial de perturbaci´ on en t´erminos de operadores creaci´ on y destrucci´ on. Primero 3 † calculamos a + a teniendo en cuenta (20.64)
a + a†
3
=
2 a + a† a + a† = a†2 + a2 + 2a† a + 1 a + a† = a†2 + a2 + 2N + 1 a + a†
= a†2a + a3 + 2N a + a + a†3 + a2 a† +2N a† + a† = a† a† a + a3 + 2N a + a + a†3 + a aa† + 2N a† + a† h i = a† N + a3 + 2N a + a + a†3 + a a, a† + a† a + 2N a† + a† = a† N + a3 + 2N a + a + a†3 + a (1 + N ) + 2N a† + a†
a + a†
3
† † † = a†3 + a3 + a h N +i2N a + aN + 2N a + 2a + a = a†3 + a3 + a† , N + N a† + 2N a† + [a, N ] + N a + 2N a + 2a + a†
= a†3 + a3 − a† + N a† + 2N a† + a + N a + 2N a + 2a + a† = a†3 + a3 + 3N a† + 3N a + 3a
donde hemos usado las Ecs. (8.13). P´ ag. 273. Con esto el potencial de perturbaci´ on queda
W W
b 3 = λ~ω = λ~ω X
=
a + a† √ 2
3
i λ~ω h †3 3 † + a + 3N a + 3 (N + 1) a a 23/2
Los u ´nicos elementos de matriz de W no nulos asociados con |ϕn i son
hϕn+3 | W |ϕn i = = hϕn+3 | W |ϕn i = hϕn−3 | W |ϕn i = hϕn−3 | W |ϕn i =
h i λ~ω λ~ω †3 3 † hϕ | a + a + 3N a + 3 (N + 1) a |ϕn i = 3/2 hϕn+3 | a†3 |ϕn i n+3 3/2 2 2 √ λ~ω √ λ~ω √ †2 n + 1 hϕn+3 | a |ϕn+1 i = 3/2 n + 1 n + 2 hϕn+3 | a† |ϕn+2 i 23/2 2 λ~ω p (n + 1) (n + 2) (n + 3) 23/2 λ~ω λ~ω √ λ~ω p 3 2 hϕ | a |ϕ i = n hϕ | a |ϕ i = n (n − 1) hϕn−3 | a |ϕn−2 i n−3 n n−3 n−1 23/2 23/2 23/2 λ~ω p n (n − 1) (n − 2) 23/2
´ 20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMONICO hϕn+1 | W |ϕn i = = hϕn+1 | W |ϕn i = hϕn−1 | W |ϕn i = = hϕn−1 | W |ϕn i = quedando finalmente
h i h i λ~ω λ~ω †3 3 † † hϕ | a + a + 3N a + 3 (N + 1) a |ϕ i = hϕ | 3N a |ϕn i n+1 n n+1 23/2 23/2 λ~ω √ λ~ω √ 3 3/2 n + 1 hϕn+1 | N |ϕn+1 i = 3 3/2 n + 1 (n + 1) hϕn+1 | ϕn+1 i 2 2 3λ~ω 3/2 (n + 1) 23/2 h i λ~ω λ~ω †3 3 † hϕ | a + a + 3N a + 3 (N + 1) a |ϕn i = 3/2 hϕn−1 | [3 (N + 1) a] |ϕn i n−1 23/2 2 √ 3λ~ω √ λ~ω n hϕn−1 | [(N + 1)] |ϕn−1 i = 3 3/2 [(n − 1) + 1] n hϕn−1 | ϕn−1 i 3/2 2 2 3λ~ω 3/2 n 23/2
r (n + 1) (n + 2) (n + 3) n (n − 1) (n − 2) hϕn+3 | W |ϕn i = λ~ω ; hϕn−3 | W |ϕn i = λ~ω 8 8 3/2 3/2 n+1 n ; hϕn−1 | W |ϕn i = 3λ~ω hϕn+1 | W |ϕn i = 3λ~ω 2 2
r
la energ´ıa se calcula por medio de (20.42) En = En0 + hϕn | W |ϕn i +
X |hϕp | W |ϕn i|2 + O λ3 0 0 En − Ep
p6=n 2
|hϕn+3 | W |ϕn i| |hϕn−3 | W |ϕn i|2 |hϕn+1 | W |ϕn i|2 |hϕn−1 | W |ϕn i|2 3 + + + + O λ 0 0 0 0 En0 − En+3 En0 − En−3 En0 − En+1 En0 − En−1 λ2 ~2 ω 2 (n+1)(n+2)(n+3) λ2 ~2 ω 2 n(n−1)(n−2) 1 8 8 En = n+ ~ω + + 2 −3~ω 3~ω 3 2 ~2 ω 2 n 3 9λ 9λ2 ~2 ω 2 n+1 2 2 + + + O λ3 −~ω ~ω 1 (n + 1) (n + 2) (n + 3) 2 n (n − 1) (n − 2) 2 En = n+ ~ω − λ ~ω + λ ~ω 2 24 24 9 (n + 1)3 2 9n3 2 − λ ~ω + λ ~ω + O λ3 8 8 " # 1 n (n − 1) (n − 2) (n + 1) (n + 2) (n + 3) 9n3 9 (n + 1)3 2 En = n+ ~ω + − + − λ ~ω 2 24 24 8 8 +O λ3 En = En0 +
513
calcularemos la cantidad entre par´entesis cuadrados i 1 h 1 −9n2 − 9n − 6 + 27n3 − 27 (n + 1)3 = −9n2 − 9n − 6 − 81n2 − 81n − 27 kn = 24 24 1 90 2 33 15 2 11 2 = − 90n + 90n + 33 = − n +n+ =− n +n+ 24 24 90 4 30 " # " # 2 2 15 1 1 11 15 1 7 = − n+ − + =− n+ + 4 2 4 30 4 2 60 2 15 1 7 kn = − n+ − 4 2 16
(20.65)
CAP´ITULO 20. TEOR´IA ESTACIONARIA DE PERTURBACIONES
514
con lo cual el espectro a segundo orden queda En =
1 n+ 2
15 ~ω − 4
1 n+ 2
2
λ2 ~ω −
7 2 λ ~ω + O λ3 16
n´ otese que no hay contribuci´ on de primer orden de modo que la correcci´ on debida a W requiere como m´ınimo calcular el espectro a segundo orden. Por efecto de W , los niveles decrecen sin importar el signo de λ. Adem´ as el corrimiento se incrementa con n. La diferencia entre dos niveles adyacentes a segundo orden es 15 2 En − En−1 = ~ω 1 − λ n 2 de nuevo valores de n muy grandes (tales que 15λ2 n/2 & 1), invalidar´ıan este c´ alculo perturbativo. N´ otese que la distancia entre niveles adyacentes depende ahora de n. Los niveles de energ´ıa consecutivos ya no son equidistantes, y est´an m´ as cerca a medida que crece n. De las Ecs. (20.39, 20.65), el estado perturbado a primer orden nos da
X X ϕip W |ϕn i i + O λ2 ϕp |ψn (λ)i = |ϕn i + 0 0 En − Ep p6=n i | W |ϕ i hϕn+1 | W |ϕn i hϕ + |ϕn−1 i n−1 0 n 0 0 0 En − En+1 En − En−1 hϕn+3 | W |ϕn i hϕ | W |ϕ i + |ϕn−3 i n−3 0 n + O λ2 + |ϕn+3 i 0 0 0 En − En+3 En − En−3
= |ϕn i + |ϕn+1 i
3/2
n 3/2 |ψn (λ)i = |ϕn i − 3λ |ϕn+1 i + 3λ |ϕn−1 i 2 r r λ (n + 1) (n + 2) (n + 3) λ n (n − 1) (n − 2) − |ϕn+3 i + |ϕn−3 i + O λ2 3 8 3 8 n+1 2
Cap´ıtulo 21
M´ etodo variacional 21.1.
Descripci´ on del m´ etodo
Supongamos que tenemos un Hamiltoniano independiente del tiempo H, con espectro discreto H |ϕpn i = En |ϕpn i Si el Hamiltoniano no puede resolverse anal´ıticamente en forma exacta, el m´etodo variacional es otra alternativa de soluci´ on aproximada. El m´etodo consiste en escoger una familia de kets, asociados con un conjunto de par´ ametros α |ψ (α)i = |ψ (α1 , α2 , . . . , αn )i conocidas como funciones de prueba. Aunque estas funciones se pueden elegir en forma arbitraria, una aproximaci´ on razonablemente buena solo se obtendr´ a si las funciones de prueba se eligen con alg´ un criterio F´ısico. La idea es entonces calcular el valor esperado del Hamiltoniano hHi (α) en estos estados y minimizar tal valor esperado con respecto a los par´ ametros α. El valor m´ınimo obtenido de esta forma constituye una aproximaci´ on para el valor del estado base E0 del sistema. Este m´etodo de minimizaci´ on es una variante del c´ alculo funcional conocida como m´etodo de variaci´ on de par´ ametros. De all´ı que el m´etodo de aproximaci´ on se conozca como m´etodo variacional. Veremos que adem´ as es posible obtener con el m´etodo variacional una aproximaci´ on a los estados excitados, aunque en la pr´ actica solo es viable para los primeros estados excitados.
21.2.
Implementaci´ on del m´ etodo variacional
El m´etodo variacional se basa en los siguientes resultados Theorem 21.1 Dado un ket arbitrario |ψi del espacio de estados del sistema, el valor medio del Hamiltoniano con respecto a dicho estado cumple la condici´ on hHi =
hψ| H |ψi ≥ E0 hψ| ψi
(21.1)
siendo E0 el autovalor m´ as peque˜ no de H (estado base de H)1 . La igualdad se obtiene si y solo si el ket |ψi es un autoestado de H con autovalor E0 . Por simplicidad asumiremos que la base {|ϕpn i} de vectores propios de H es ortonormal, es decir que tambi´en es ortonormal la base de cada subespacio En generado por cada valor propio En . Puesto que los resultados finales 1
La expresi´ on (21.1) tiene en cuenta que en general el estado |ψi no est´ a normalizado.
515
´ CAP´ITULO 21. METODO VARIACIONAL
516
son independientes de la base, esto no le quita generalidad al teorema. Para probarlo expandimos al estado |ψi en la base de los estados propios {|ϕpn i} de H |ψi =
gn ∞ X X
n=0 p=1
cpn |ϕpn i
(21.2)
con lo cual hψ| H |ψi = hψ| H |ψi =
gm X gn ∞ X ∞ X X
m=0 q=1 n=0 p=1 gn ∞ X X |cpn |2 En n=0 p=1
p q p cq∗ m cn hϕm | H |ϕn i =
≥ E0
gn ∞ X X
n=0 p=1
XX
p En cq∗ m cn δmn δqp
m,n q,p
|cpn |2
(21.3)
por otro lado, de la Ec. (21.2) la norma al cuadrado de |ψi nos da hψ| ψi =
gn ∞ X X n=0 p=1
|cpn |2
(21.4)
y la combinaci´ on de las Ecs. (21.3, 21.4) nos da la Ec. (21.1). De la expresi´ on (21.2) vemos que el estado |ψi pertenece al subespacio E0 generado por el estado base E0 , si y solo si cpn = δn0 cp0 , y al utilizar esta condici´ on en (21.3) se obtiene la igualdad en dicha expresi´ on. Rec´ıprocamente, si asumimos la igualdad en la expresi´ on (21.3), dicha igualdad se puede escribir como gn ∞ X X
n=0 p=1
|cpn |2 (En
− E0 ) = 0 ⇒
gn ∞ X X
n=1 p=1
|cpn |2 |En − E0 | = 0
donde hemos tenido en cuenta que En − E0 > 0 para n ≥ 1. Por tanto, la igualdad es posible si y solo si cpn = δn0 cp0 o equivalentemente si el estado |ψi pertenece a E0 . En conclusi´ on, la igualdad en (21.3) ocurre si y solo si |ψi es autoestado de H con autovalor E0 . Por simplicidad escribiremos los gn vectores linealmente independientes asociados a un valor propio En en una notaci´ on condensada de la siguiente manera {|ϕgnn i} ≡ ϕ1n , ϕ2n , . . . , |ϕgnn i De los resultados anteriores se deriva un teorema que permite acotar los estados excitados Theorem 21.2 Sea ϕg0 0 , ϕg1 1 , ϕg2 2 , . . . la secuencia ordenada de los estados propios (discretos) del Hamiltoniano H, asociados a valores E2 , . . .} colocados en orden ascendente En < En+1 . Si |ψi es g1 {E0 , Eg1k , g0 propios , el valor esperado de H asociado a dicho estado cumple la un ket ortogonal a los kets ϕ0 , ϕ1 , . . . , ϕk condici´ on hψ| H |ψi hHi = ≥ Ek+1 (21.5) hψ| ψi y la igualdad se obtiene si y solo si |ψi es autoestado de H con valor propio Ek+1 .
Para probarlo, basta observar que la ortogonalidad de |ψi con los estados asociados a los primeros k valores propios Ei , nos lleva a que los t´erminos de la expansi´ on asociados a los k primeros valores propios en (21.2) deben ser nulos gn ∞ X X |ψi = cpn |ϕpn i (21.6) n=k+1 p=1
´ DEL METODO ´ 21.2. IMPLEMENTACION VARIACIONAL
517
con el mismo procedimiento que nos lleva a las Ecs. (21.3, 21.4), obtenemos hψ| H |ψi =
gn ∞ X X
n=k+1 p=1
|cpn |2 En ≥ Ek+1
gn ∞ X X
n=k+1 p=1
|cpn |2
;
hψ| ψi =
gn ∞ X X
n=k+1 p=1
|cpn |2
combinando estas dos ecuaciones obtenemos (21.5). De nuevo la igualdad se obtiene si y solo si cpn = δn,k+1 cpk+1 , con lo cual la Ec. (21.6) nos dice que |ψi ∈ Ek+1 , o equivalentemente que |ψi es autoestado de H con valor propio Ek+1 . Otro resultado fundamental es el siguiente Theorem 21.3 (Ritz) El valor medio del Hamiltoniano hHi|ψi es estacionario si y solo si el vector de estado |ψi en el cual se eval´ ua, es autovector de H. Adem´ as los valores estacionarios de hHi son los valores propios de H, esto es H |ψi = hHi |ψi (21.7) se dice tambi´en que el valor esperado de H solo es estacionario en la vecindad de sus estados propios discretos. Para verlo tenemos en cuenta que el valor esperado del Hamiltoniano es hHi =
hψ| H |ψi hψ| ψi
(21.8)
es claro entonces que este valor esperado es un funcional del estado |ψi. Vamos a calcular el incremento δhHi cuando el estado |ψi sufre el cambio infinitesimal al estado |ψi + |δψi. Para calcular el variacional de hHi debido al cambio infinitesimal en el estado, escribimos la Ec. (21.8) en la forma hHi hψ| ψi = hψ| H |ψi y calculando el variacional a ambos lados tenemos hψ| ψiδhHi + hHi [hδψ| ψi + hψ| δψi] = hδψ| H |ψi + hψ| H |δψi y teniendo en cuenta que hHi es un n´ umero hψ| ψiδhHi = hδψ| [H − hHi] |ψi + hψ| [H − hHi] |δψi
(21.9)
buscaremos las condiciones para que δ hHi se anule, es decir las condiciones para que se anule el lado derecho de la ecuaci´ on (21.9) hδψ| [H − hHi] |ψi + hψ| [H − hHi] |δψi = 0 (21.10) definiendo |ϕi ≡ [H − hHi] |ψi
(21.11)
hδψ| ϕi + hϕ| δψi = 0
(21.12)
la relaci´ on (21.10) se escribe como la condici´ on (21.12) se debe cumplir para cualquier ket infinitesimal |δψi, ya que la condici´ on de estacionaridad requiere que δ hHi = 0, sin importar la forma de la variaci´ on de |ψi, con la u ´nica condici´ on de que esta variaci´ on sea infinitesimal. En particular, la expresi´ on (21.12) se debe cumplir para la variaci´ on infinitesimal dada por |δψi = (δλ) |ϕi siendo δλ un n´ umero real infinitesimal, para este ket la Ec. (21.12) queda en la forma 2 hϕ| ϕi δλ = 0
518
´ CAP´ITULO 21. METODO VARIACIONAL
de modo que la norma del ket (y por lo tanto el ket) debe ser nulo i.e. |ϕi = 0. Aplicando esta condici´ on en la definici´ on (21.11) resulta H |ψi = hHi |ψi (21.13) mostrando que la Ec. (21.13) es una condici´ on de necesidad para la anulaci´ on de δ hHi. La demostraci´ on de la suficiencia se obtiene simplemente reemplazando la condici´ on (21.13) en la Ec. (21.9). El anterior teorema implica que el m´etodo variacional se puede generalizar para aplicarlo a la determinaci´ on aproximada de algunos valores propios de H. Si la funci´ on hHi (α) obtenida por medio de los kets de prueba |ψ (α)i tiene varios extremos, ´estos nos dar´ an un valor aproximado de algunos de los autovalores En . N´ otese que en los anteriores teoremas no es estrictamente necesario que el observable sea el Hamiltoniano. Un repaso cuidadoso le muestra al lector que las demostraciones anteriores quedan intactas si en lugar del Hamiltoniano utilizamos cualquier observable (operador herm´ıtico completo) cuyo espectro sea discreto y acotado inferiormente (es decir que exista un valor propio que sea menor que todos los dem´ as valores propios del espectro). En consecuencia, los teoremas anteriores se pueden generalizar para cualquier observable con espectro discreto acotado inferiormente.
21.3.
Funciones de prueba restringidas a un subespacio de E
Si elegimos los kets de prueba como el conjunto de kets en un subespacio F ⊆ E, entonces el m´etodo variacional se reduce a la resoluci´ on de la ecuaci´ on de valores propios del Hamiltoniano H dentro del subespacio F y no en el espacio vectorial E. Esto se puede ver aplicando los argumentos de la secci´ on 21.2, pero restringidos a vectores |ψi que pertenecen a F. Los m´ aximos y m´ınimos que encontramos con la condici´ on de estacionaridad δ hHi = 0, se obtienen cuando |ψi es un autovector de H que pertenece a F. Los autovalores as´ı obtenidos constituyen una aproximaci´ on variacional para los autovalores de H en E que son los que estamos buscando. Cuando se utiliza la restricci´ on del problema de valores propios de H a un subespacio F ⊆ E, el problema se simplifica considerablemente. Sin embargo, es importante mencionar que incluso la soluci´ on exacta del problema de valores propios restringido a F, constituye solo una aproximaci´ on al problema de valores propios en E. Esto se debe a que la restricci´ on de un operador a un subespacio cambia la naturaleza del operador como tal (ver secci´ on b del Hamiltoniano es un operador diferente al Hamiltoniano en s´ı. 1.33, P´ ag. 74), de modo que la restricci´ on H Esta aproximaci´ on de cambiar el problema de valores propios del Hamiltoniano H sobre E, por el problema b a un subespacio F ⊆ E , es razonable solo si los elementos matriciales de la de valores propios de su restricci´ on H forma hϕ| H |ψi con |ϕi y |ψi dentro de F son mucho mayores (en valor absoluto) que los elementos matriciales de la forma hχ| H |ψi con |ψi ∈ F y con |χi ∈ / F. Esta hip´ otesis fu´e la que se supuso para asumir que existen sistemas cu´ anticos que pueden tratarse como sistemas de dos estados (ver Cap. 17). En algunos casos es posible asumir que el sistema se puede tratar aproximadamente como un sistema de n estados con n finito. Es en estos escenarios en los cuales el m´etodo variacional restringido a un subespacio de E, adquiere importancia pr´ actica. Por tanto, para que el problema de valores propios de H restringido a un subespacio F de E, nos de una buena aproximaci´on de los valores propios del Hamiltoniano considerado como operador de E, es necesario que el subespacio F se escoja adecuadamente. En f´ısica molecular, utilizaremos el m´etodo de combinaci´ on lineal de orbitales at´ omicos (L.C.A.O por sus siglas en ingl´es) que consiste en determinar la funci´ on de onda de los electrones en una mol´ecula en forma de combinaciones lineales de autofunciones asociadas a cada uno de los atomos que constituyen la mol´ecula, tratados como si fueran aislados. Los coeficientes de la combinaci´ ´ on lineal ser´ an los par´ ametros variacionales y el conjunto de todos los orbitales linealmente independientes solo expande un subespacio de E. Obs´ervese que la teor´ıa de perturbaciones a primer orden se ajusta a este m´etodo variacional particular, siendo F un autosubespacio del Hamiltoniano sin perturbar H0 . Ahora bien, lo usual en el m´etodo variacional es tomar un conjunto de funciones de prueba de la forma ψ (α1 , . . . , αn ) con el fin de encontrar los valores de los par´ ametros αk que minimicen la distancia entre la funci´ on de prueba y la soluci´ on de la funci´ on de onda. Es tambi´en usual que estas funciones cumplan ciertas ligaduras (por ejemplo ser de cuadrado integrable, tener norma unidad, paridad definida etc.). Cuando barremos todos
´ ´ 21.4. ESPECTRO DEL OSCILADOR ARMONICO POR METODOS VARIACIONALES
519
los valores posibles del conjunto de n par´ ametros (compatibles con las ligaduras) se generan un conjunto de funciones linealmente independientes que usualmente no forman una base del espacio de Hilbert completo sino de un subespacio propio de ´este2 . Por esta raz´ on a´ un la soluci´ on exacta del problema variacional no es una soluci´ on exacta del problema de valores propios en el espacio de Hilbert completo. De hecho en la pr´ actica es muy dif´ıcil determinar cual subespacio es el m´ as peque˜ no que contiene a esta familia de soluciones.
21.4.
Espectro del oscilador arm´ onico por m´ etodos variacionales
21.4.1.
Estimaci´ on del estado base
Utilizaremos el oscilador arm´ onico unidimensional para ilustrar las ideas inherentes al m´etodo variacional. Partimos entonces del Hamiltoniano ~2 d2 1 H=− + mω 2 x2 2m dx2 2 puesto que este Hamiltoniano es par, puede demostrarse que el estado base debe estar representado por una funci´ on de onda par. Por tanto, debemos elegir funciones de prueba pares. Tomaremos entonces la familia uniparam´etrica de funciones 2 ψα (x) = e−αx ; α > 0 (21.14) esta funci´ on es par, y la condici´ on α > 0 se requiere para que ψα (x) sea de cuadrado integrable. El cuadrado de la norma del ket viene dado por r Z ∞ π −2αx2 hψα |ψα i = e dx = (21.15) 2α −∞ y el elemento matricial hψα | H |ψα i queda I
≡ = =
I
=
1 2 ~2 d2 2 2 dx e + mω x e−αx hψα | H |ψα i = − 2 2m dx 2 −∞ 2 Z ∞ h i ~ d 1 −αx2 −αx2 2 2 −αx2 dx e 2αxe + mω x e 2m dx 2 −∞ 2 2 Z ∞ Z ∞ 2 ~ 1 ~ 1 2α2 ~2 2 −2αx2 2 2 ~ 2 2 −2αx2 2 dx α − 4α x + mω x e = dx α + mω − x e m 2m 2 m 2 m −∞ −∞ Z ∞ Z ~2 ∞ 1 2α2 ~2 2 −2αx2 2 α dx e + mω − dx x2 e−2αx (21.16) m −∞ 2 m −∞ Z
∞
−αx2
2
por otro lado, integrando x2 e−2αx por partes resulta
Z
Z
∞
−∞
x2 e−2αx
2
x2 e−2αx
2
2 1 2 u = x , dv = xe−2αx dx ; du = dx , v = − e−2αx 4α Z x −2αx2 1 −2αx2 dx = − e + e dx 4α 4α Z ∞ 1 2 dx = e−2αx dx 4α −∞
(21.17)
sustituyendo (21.17) en (21.16), la integral I queda 2 Z ∞ α~ mω 2 α~2 2 I= + − e−2αx dx m 8α 2m −∞ 2 De hecho el conjunto de todas las funciones que se obtienen al barrer los par´ ametros, no necesariamente forma un espacio vectorial. Podr´ıa ser solo un subconjunto propio del espacio vectorial generado por todas las funciones linealmente independientes antes mencionadas.
´ CAP´ITULO 21. METODO VARIACIONAL
520
con lo cual el elemento matricial hψα | H |ψα i queda finalmente 2 Z ∞ 2 ~ mω 2 ~ mω 2 −2αx2 α+ α+ hψα |ψα i hψα | H |ψα i = dx e = 2m 8α 2m 8α −∞ donde hemos usado (21.15). Aplicando la Ec. (21.8) tenemos 2 hψα | H |ψα i ~ mω 2 hHi (α) = = α+ hψα |ψα i 2m 8α
(21.18)
calculamos el valor (o valores) de α para el cual hHi (α) se convierte en un extremo ∂ hHi (α) ∂α
~2 mω 2 − =0 2m 8α2 ~2 2 mω 2 α − =0 2m 8
= ⇒
on de prueba (21.14) las soluciones son α1,2 = ±mω/2~, pero recordemos que α debe ser positivo para que la funci´ sea de cuadrado integrable. Por tanto, el valor de α ≡ α0 para el cual hHi (α) es estacionario est´ a dado por α0 =
mω 2~
(21.19)
sustituyendo (21.19) en (21.18) obtenemos el valor estacionario de hHi (α0 ) hHi (α0 ) = hHi (α0 ) =
~2 mω 2 ~2 mω 2~mω 2 ~ω ~ω α0 + = + = + 2m 8α0 2m 2~ 8mω 4 4 ~ω 2
en este caso, el valor m´ınimo de hHi (α) coincide exactamente con la energ´ıa base del problema ya conocido del oscilador arm´onico unidimensional. Esto se debe a que la funci´ on de onda exacta (sin normalizar) coincide exactamente con la funci´ on de onda de prueba para un valor espec´ıfico del par´ ametro α, como se puede ver al comparar la Ec. (8.48), P´ ag. 281 con la Ec. (21.14). El hecho de que la condici´ on de estacionaridad de hHi (α) nos lleve al valor de α que iguala las ecuaciones (8.48, 21.14) se debe precisamente al teorema 21.1.
21.4.2.
Estimaci´ on del primer estado excitado
Si queremos calcular en forma aproximada el valor del primer estado excitado E1 , debemos buscar funciones de prueba que sean ortogonales a la funci´ on de onda del estado base. En tal caso seg´ un el teorema 21.2, el valor esperado hHi nos provee de una cota superior para el estado E1 . Utilizaremos entonces una funci´ on de prueba impar y que sea ortogonal al estado base 2 ψα (x) = xe−αx (21.20) en cuyo caso tenemos hψα |ψα i =
Z
∞
2
x2 e−2αx dx
−∞
y el elemento matricial hψα | H |ψα i queda Z ∞ Z ∞ 3~2 ~2 d2 1 3mω 2 2 −αx2 2 2 −αx2 hψα | H |ψα i = dx xe + mω x dx x2 e−2αx − xe = α+ 2 2m dx 2 2m 8α −∞ −∞ 2 2 3~ 3mω hψα | H |ψα i = α+ hψα |ψα i 2m 8α
´ 21.5. ESPECTRO DEL OSCILADOR ARMONICO CON OTRAS FUNCIONES DE PRUEBA
521
el valor esperado de H queda entonces hHi (α) =
hψα | H |ψα i 3~2 3mω 2 = α+ hψα |ψα i 2m 8α
(21.21)
la condici´ on estacionaria nos da ∂ hHi ∂α0
=
α0 =
3~2 3mω 2 − =0 ⇒ 2m 8α20 mω 2~
3~2 2 3mω 2 α = 2m 0 8
por tanto hHi (α) presenta un m´ınimo en el mismo valor α0 que para el caso del estado base como se v´e en la Ec. (21.19). Con este valor de α0 , la Ec. (21.21) queda hHi (α0 ) = hHi (α0 ) =
3~2 3mω 2 3~2 mω 6~mω 2 α0 + = + 2m 8α0 2m 2~ 8mω 3~ω 2
una vez m´ as se obtiene el valor exacto de E1 para el oscilador arm´ onico unidimensional, debido a que la familia de funciones de prueba (21.20) incluye a la soluci´ on exacta (sin normalizar) dada en la Ec. (8.51), P´ ag. 282.
21.5.
Espectro del oscilador arm´ onico con otras funciones de prueba
Aunque los c´ alculos de la secci´ on 21.4 nos permiten familiarizarnos con el m´etodo variacional, no nos permiten tener una idea de la efectividad de la aproximaci´ on, puesto que las funciones de prueba propuestas incluyen la soluci´ on exacta. Usaremos entonces funciones de prueba diferentes, aunque mantendremos la idea de que sean funciones pares de cuadrado integrable para el estado base. Otra familia de funciones que cumple con dichas propiedades es la siguiente 1 ψα (x) = 2 ; α>0 x +α la norma de estas funciones de prueba est´ a dada por Z ∞ dx π √ hψα |ψα i = = 2 2α α −∞ (x2 + α) el valor esperado queda finalmente
~2 1 1 + mω 2 α 2m α 2 esta funci´ on adquiere su valor m´ınimo en α = α0 dado por hHi (α) =
1 ~ α0 = √ 2 mω
⇒
~ω hHi (α0 ) = √ 2
el error porcentual cometido en este caso se puede evaluar dado que conocemos el valor exacto de E0 √ hHi (α0 ) − 12 ~ω 2−1 = ≈ 20 % ~ω 2 ????????????????????????
Cap´ıtulo 22
Teor´ıa de perturbaciones dependiente del tiempo Al igual que en la teor´ıa de perturbaciones estacionaria, vamos a suponer que tenemos un Hamiltoniano H0 no perturbado cuya soluci´ on conocemos. Por simplicidad asumiremos que el espectro de H0 es discreto y no degenerado H0 |ϕn i = En |ϕn i ser´ a f´ acil generalizar las f´ ormulas obtenidas para el caso degenerado. Asumiremos que el Hamiltoniano no perturbado es independiente del tiempo, con lo cual los autoestados |ϕn i tampoco dependen del tiempo. En consecuencia, los estados |ϕn i son estacionarios1 . En el tiempo t = 0, se aplica una perturbaci´ on al sistema parametrizada en la forma c (t) H = H0 + W (t) ≡ H0 + λW
c (t) es un observable que puede depender donde λ es un par´ametro adimensional mucho menor que la unidad y W expl´ıcitamente del tiempo y que es del mismo orden de magnitud de H0 en el intervalo de tiempo involucrado. Se c (t) = 0 para t < 0. asume que W Se asume adem´ as que el sistema est´ a inicialmente en el estado estacionario |ϕk i de H0 asociado a la energ´ıa Ek . Si no existiera la perturbaci´ on este estado no evolucionar´ıa en el tiempo, pero al introducir la perturbaci´ on en t = 0, el estado |ϕk i no ser´ a en general autoestado de H de modo que deja de ser un estado estacionario, y comenzar´ a a evolucionar en el tiempo. Nuestro objetivo ser´ a calcular la probabilidad de transici´ on Pif (t) de encontrar al sistema en otro autoestado |ϕf i de H0 en el tiempo t. Es decir queremos estudiar las transiciones que se inducen a trav´es de W (t) entre los estados estacionarios de H0 . Debemos recordar que la probabilidad de transici´ on entre |ϕk i y |ϕf i realmente significa la probabilidad de obtener la medida Ef de la energ´ıa cuando la perturbaci´ on W (t) se activa en t = 0 y se desactiva en t (es decir en el tiempo en el cual se ejecuta la medici´ on de la energ´ıa), teniendo a |ϕk i como estado inicial [ver discusi´ on en la secci´ on 17.3, particularmente despu´es de la Ec. (17.30), P´ ag. 4332 ]. Entre los tiempos 0 y t, el sistema evoluciona de acuerdo con la ecuaci´ on de Schr¨ odinger i~ con la condici´ on inicial
h i d c (t) |ψ (t)i |ψ (t)i = H0 + λW dt |ψ (t = 0)i = |ϕi i
1
(22.1)
(22.2)
Cuando el Hamiltoniano es dependiente del tiempo sus autoestados ya no son estacionarios. Esto es una manifestaci´ on de la no conservaci´ on de la energ´ıa, cuando el Hamiltoniano depende expl´ıcitamente del tiempo (ver secci´ on 3.2 P´ ag. 158 y secci´ on 5.8 P´ ag. 225). 2 De hecho la discusi´ on en el presente cap´ıtulo constituye una generalizaci´ on de los resultados obtenidos para sistemas de dos estados, en el cap´ıtulo 17.
522
´ PERTURBATIVA DE LA ECUACION ´ DE SCHRODINGER ¨ 22.1. SOLUCION DEPENDIENTE DEL TIEMPO523 la soluci´ on de la ecuaci´ on de Schr¨ odinger (22.1) con la condici´ on inicial (22.2) es u ´nica de modo que la evoluci´ on del estado es determinista en tanto no se realice una medida. La probabilidad Pif (t) que buscamos est´ a dada por Pif (t) = |hϕf | ψ (t)i|2
(22.3)
por tanto el problema se reduce a encontrar la soluci´ on |ψ (t)i de la ecuaci´ on de Schr¨ odinger (22.1) con la condici´ on inicial (22.1). No obstante, para la mayor´ıa de problemas reales esta soluci´ on no se puede encontrar en forma exacta, por lo cual recurriremos a una soluci´ on aproximada utilizando series de potencias en λ de forma similar a la teor´ıa de perturbaciones estacionaria. Como antes, la soluci´ on es aproximadamente correcta cuando λ ≪ 1. Encontraremos |ψ (t)i y Pif (t) a primer orden en λ. Estudiaremos un caso de particular importancia en el cual la perturbaci´ on es una funci´ on sinusoidal del tiempo, del cual surgir´ an fen´ omenos de resonancia. Se estudiar´ a el caso en el cual el espectro de H0 es discreto y aqu´el en el cual el estado inicial est´ a acoplado a un cont´ınuo de estados finales. En el u ´ltimo caso probaremos una importante relaci´ on conocida como la regla de oro de Fermi.
22.1.
Soluci´ on perturbativa de la ecuaci´ on de Schr¨ odinger dependiente del tiempo
Para resolver la ecuaci´ on de Schr¨ odinger es necesario utilizar una base. Puesto que esperamos que las soluciones no sean muy diferentes a los estados estacionarios, es razonable utilizar estos u ´ltimos como base para resolver la ecuaci´ on de Schr¨ odinger. Comenzamos entonces expandiendo el estado a resolver en t´erminos de los autoestados de H0 X |ψ (t)i = cm (t) |ϕm i ; cm (t) = hϕm | ψ (t)i (22.4) m
para escribir la ecuaci´ on de Schr¨ odinger en la base {|ϕn i}, multiplicamos la ecuaci´ on (22.1) por el bra hϕn |, insertando una identidad asociada a la completez de los estados estacionarios ! X d c (t) i~ hϕn |ψ (t)i = hϕn | H0 |ψ (t)i + λ hϕn | W |ϕk i hϕk | |ψ (t)i dt k X d c (t) |ϕk i hϕk |ψ (t)i hϕn | W i~ hϕn |ψ (t)i = En hϕn |ψ (t)i + λ dt k
n´ otese que hemos usado el hecho de que hϕn | no depende del tiempo (lo cual a su vez proviene de que H0 no dependa del tiempo). Utilizando la Ec. (22.4), la ecuaci´ on queda finalmente i~
X d cnk (t) ck (t) cn (t) = En cn (t) + λ W dt
;
k
cnk (t) ≡ hϕn | W c (t) |ϕk i W
(22.5)
el conjunto de ecuaciones (22.5) para todo n es un conjunto de ecuaciones diferenciales lineales acopladas de primer orden en t, que nos determinan las componentes cn (t) de la expansi´ on (22.4) del estado que buscamos. N´ otese cnk (t) de la perturbaci´ que el acople surge debido a la presencia de los elementos matriciales no diagonales W on c c W (t) en la base de los estados estacionarios. El elemento Wnk (t) acopla la evoluci´ on de la componente cn (t) con c cnn (t), la evoluci´ on de ck (t). Vemos entonces que si W es nulo, o si solo son no nulos los elementos diagonales W 3 las ecuaciones (22.5) se desacoplan . Esto es de esperarse ya que en este caso los estados |ϕn i contin´ uan siendo estacionarios despu´es de la introducci´ on de la perturbaci´ on, produciendo solo un corrimiento del espectro. En particular cuando W (t) = 0, las ecuaciones (22.5) se desacoplan generando la soluci´ on cn (t) = bn e−iEn t/~ 3
Recordemos que W es diagonal en la base de autovectores de H0 si y solo si H0 conmuta con W .
(22.6)
524
CAP´ITULO 22. TEOR´IA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO
c (t) es muy peque˜ siendo bn constantes que dependen de las condiciones iniciales. Si asumimos que λW no, las soluciones para cn (t) no deben diferir mucho de aquellas dadas por (22.6). En consecuencia, si parametrizamos las soluciones de cn (t) en presencia de la perturbaci´ on en la forma cn (t) = bn (t) e−iEn t/~
(22.7)
es de esperarse que la evoluci´ on temporal de bn (t) sea suave. Si sustitu´ımos las Ecs. (22.7) en las ecuaciones (22.5) obtenemos un conjunto de ecuaciones diferenciales acopladas para los bn (t) i X d h cnk (t) bk (t) e−iEk t/~ W bn (t) e−iEn t/~ = En bn (t) e−iEn t/~ + λ dt k X dbn (t) cnk (t) bk (t) e−iEk t/~ i~e−iEn t/~ + En bn (t) e−iEn t/~ = En bn (t) e−iEn t/~ + λ W dt k X db (t) n cnk (t) bk (t) e−iEk t/~ = λ W i~e−iEn t/~ dt i~
(22.8)
k
multiplicando a ambos lados de (22.8) por eiEn t/~ , y recordando la definici´ on de la frecuencias de Bohr Ec. (5.74), P´ ag. 228, usamos las frecuencias angulares de Bohr (aunque sin valor absoluto) ωnk =
En − Ek ~
(22.9)
y la Ec. (22.8) se convierte en i~
X dbn (t) cnk (t) bk (t) eiωnk t =λ W dt
(22.10)
k
debemos enfatizar que hasta el momento no se han realizado aproximaciones. La Ec. (22.10) es totalmente equivalente a la ecuaci´ on de Schr¨ odinger, al igual que la ecuaci´ on (22.5). Sin embargo, la Ec. (22.10) tiene la ventaja con respecto a (22.5) de que para los bn (t) esperamos un comportamiento suave. En consecuencia, se obtendr´ a una mejor aproximaci´on si tratamos los bn (t) perturbativamente (en lugar de los cn (t)). Por lo tanto, realizaremos una expansi´ on en potencias de λ de los bn (t) bn (t) =
b(0) n (t) +
λb(1) n (t)
+ λ2 b(2) n (t) +
... =
∞ X
λq b(q) n (t)
(22.11)
q=0
sustituyendo la expansi´ on (22.11) en (22.10) tenemos ∞ ∞ X X d X q (q) (p) cnk (t) i~ λ bn (t) = λ W λp bk (t) eiωnk t dt q=0
i~
∞ X
k
(q)
λq
q=0
dbn (t) dt
=
∞ XX k p=0
p=0
cnk (t) λp+1 b(p) (t) eiωnk t W k
donde hemos usado el hecho de que λ no depende del tiempo. Reasignando q ≡ p + 1 en el lado derecho de esta ecuaci´ on se obtiene ∞ ∞ (q) X XX q dbn (t) cnk (t) λq b(q−1) (t) eiωnk t i~ λ = W k dt q=0
k
q=1
´ PERTURBATIVA DE LA ECUACION ´ DE SCHRODINGER ¨ 22.1. SOLUCION DEPENDIENTE DEL TIEMPO525 e igualando potencias de λ encontramos (0)
dbn (t) dt (q) dbn (t) i~ dt
i~
= 0
(22.12)
X
=
k
(q−1)
cnk (t) b eiωnk t W k
(t)
;
q≥1
(22.13)
vemos entonces que a partir de la soluci´ on a orden cero Ec. (22.12) y las condiciones iniciales, la relaci´ on de recurrencia (22.13) nos permite obtener la soluci´ on a primer orden, luego de lo cual la recurrencia (22.13) nos permite obtener la soluci´ on de segundo orden con base en la soluci´ on de primer orden. En general, la recurrencia (22.13) nos permite obtener la soluci´ on de orden q con base en la soluci´ on de orden q − 1.
22.1.1.
Estado del sistema a primer orden en λ
Asumiremos que el estado es |ϕi i para todo t < 0. En tal caso, la soluci´ on (22.6) es v´ alida para t < 0, por tanto se tiene que para t < 0 bn (t) = δni c de modo que el potencial es discont´ınuo en t = 0. No obstante, puesto en t = 0 se “enciende” la perturbaci´ on λW c que λW permanece acotado (y por tanto el potencial total), la soluci´ on de la ecuaci´ on de Schr¨ odinger es cont´ınua en t = 0 (ver discusi´ on en la secci´ on 3.5.1, P´ ag. 167), de lo cual se sigue que bn (t = 0) = δni
y puesto que esta relaci´ on es v´ alida para todo λ, los coeficientes de la expansi´ on (22.11) deben cumplir la relaci´ on b(0) n (t = 0) = δni
b(q) n (t = 0) = 0
,
;
(0)
q≥1
(22.14)
La ecuaci´ on (22.12) nos dice que bn (t) es constante, por tanto b(0) n (t) = δni que determina completamente la soluci´ on a orden cero. Como era de esperarse, esto nos indica que la soluci´ on a orden cero coincide con |ϕi i. Ahora utilizamos la recurrencia (22.13) para evaluar la contribuci´ on a primer orden (1)
dbn (t) i~ dt i~
(1) dbn (t)
dt
=
X k
=
X k
(1)
(0)
cnk (t) b (t) eiωnk t W k cnk (t) δki eiωnk t W
dbn (t) cni (t) = eiωni t W dt que junto con las condiciones iniciales (22.14) nos da Z 1 t iωni t′ c (1) bn (t) = e Wni t′ dt′ i~ 0 i~
(22.15) (22.16)
(22.17)
y sustituyendo (22.17) en (22.7) obtenemos c(1) n (t)
=
b(1) n (t)
−iEn t/~
e
e−iEn t/~ = i~
Z
0
t
′ cni t′ dt′ eiωni t W
finalmente, sustituyendo (22.18) en (22.4) encontramos el estado |ψ (t)i a primer orden en λ Z t E X ′ 1 X −iEn t/~ (1) (1) iωni t′ c ′ cn (t) |ϕn i = e |ϕn i e Wni t dt ψ (t) = i~ n 0 n
(22.18)
(22.19)
CAP´ITULO 22. TEOR´IA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO
526
22.1.2.
Probabilidad de transici´ on a segundo orden en λ
De acuerdo con la expresi´ on (22.3) y la definici´ on (22.4) de los coeficientes de Fourier cn (t) tenemos que Pif (t) = |cf (t)|2 por otro lado la Ec. (22.7) nos dice que bn (t) y cn (t) tienen el mismo m´ odulo. En consecuencia 2 (0) (1) (2) Pif (t) = |bf (t)|2 = bf (t) + λbf (t) + λ2 bf (t) + . . .
(22.20)
donde hemos usado la expansi´ on (22.11). De aqu´ı en adelante asumiremos que los estados inicial |ϕi i y final c (t) entre dos estados |ϕf i son diferentes. Por tanto nos enfocaremos solo en las transiciones inducidas por λW (0) estacionarios distintos de H0 . En este caso la Ec. (22.14) nos dice que bf (t) = 0, con lo cual la probabilidad de transici´ on (22.20) a segundo orden en λ nos da (2) Pif (t)
=
2 2 (1) λ bf (t)
;
i 6= f
(22.21)
vemos que la primera contribuci´ on no trivial a Pif (t) es de segundo orden en λ dado que es un producto interno c (t) por W (t) resulta al cuadrado4 . Sustituyendo (22.17) en (22.21) y reemplazando λW (2) Pif (t)
Z ′ 2 1 t iωf i t′ ′ = 2 e Wf i t dt ~ 0
(22.22)
ya hemos dicho que para que la probabilidad de transici´ on tenga sentido, debe ocurrir lo siguiente: (a) La perturbaci´ on debe “conectarse” en t = 0 y “desconectarse” en el tiempo t, y (b) En el tiempo t (justo despu´es de desconectar la perturbaci´ on) debemos realizar una medici´ on de la energ´ıa para determinar si el sistema qued´ o odulo al cuadrado de la preparado en el estado |ϕf i. La Ec. (22.22) nos muestra que Pif (t) es proporcional al m´ transformada de Fourier de la perturbaci´ on Wf i . La frecuencia angular con que se eval´ ua la transformada es la frecuencia angular de Bohr Ec. (22.9) asociada a las energ´ıas Ei y Ef . N´ otese que la probabilidad de transici´ on a segundo orden es cero si Wf i (t) es cero para todo t. Si comparamos las Ecs. (22.10) con las Ecs. (22.15), vemos que la aproximaci´ on de primer orden en bn (t) equivale a reemplazar en la sumatoria los bk (t) por sus valores iniciales bk (0) = δki . Por tanto, la aproximaci´ on a primer orden para bn (t) ser´ a v´ alida para tiempos suficientemente cortos de modo que bk (t) no haya variado mucho con respecto a bk (0). Para valores suficientemente largos del tiempo esta condici´ on puede violarse y en general requeriremos tomar ´ ordenes m´ as altos en λ. De hecho tiempos muy largos podr´ıan hacer que se pierda el car´ acter perturbativo de W , en tal caso debemos recurrir a otros m´etodos. Por otro lado, puede demostrarse que a primer orden en |ψ (t)i para tiempos t′′ mayores que t, la probabilidad es la misma que para el tiempo t (2) (2) (22.23) Pif t′′ = Pif (t) si t′′ ≥ t para verlo observemos que si no se realiza una medici´ on en el tiempo t, el estado evoluciona desde el estado inicial |ψ (t)i hasta el estado final |ψ (t′′ )i bajo el Hamiltoniano H0 (ya que la perturbaci´ on ha sido desconectada). El estado inicial (a primer orden en λ) viene dado por (22.19) E X (1) c(1) ψ (t) = n (t) |ϕn i n
4
N´ otese que si el estado inicial no es autoestado de H0 , o si consideramos el caso i = f , tendremos contribuci´ on a primer orden en (0) λ puesto que en tales casos bf (t) es diferente de cero y por tanto aparece contribuci´ on de primer orden en la Ec. (22.20) a trav´es del (0)
(1)
producto cruzado entre bf (t) y λbf (t).
22.2. PERTURBACIONES SINUSOIDALES Y CONSTANTES
527
y como ahora el Hamiltoniano es independiente del tiempo podemos aplicar la ecuaci´ on (3.18) para la evoluci´ on ′′ temporal del estado, donde t es el tiempo inicial y t el tiempo final, de modo que E X (1) ′′ −iEn (t′′ −t)/~ t = c(1) ψ n (t) |ϕn i e n
de modo que la probabilidad de transici´ on Pif (2)
Pif
(2)
Pif
(t′′ )
estar´ a dada por 2 E 2 X ′′ −iEn (t −t)/~ t′′ = hϕf ψ (1) t′′ = c(1) n (t) hϕf |ϕn i e n 2 X 2 (1) (1) −iEn (t′′ −t)/~ −iEf (t′′ −t)/~ = cn (t) δnf e = c (t) e f n (1) 2 t′′ = cf (t) = Pif (t)
por tanto, esta probabilidad (a segundo orden en λ) solo es funci´ on del tiempo en el cual se desconecta la perturbaci´ on, pero no es funci´ on del tiempo en el cual se mide la energ´ıa, siempre y cuando la medida sea posterior a la desconexi´ on de la perturbaci´ on.
22.2.
Perturbaciones sinusoidales y constantes
Asumiremos que W (t) tiene la siguiente forma c (t) = λW c sin ωt W (t) = λW c (t) = λW c cos ωt W (t) = λW
(22.24) (22.25)
c es un observable independiente del tiempo y ω una frecuencia angular constante. Este tipo de perturbadonde W ciones es frecuente en F´ısica. Por ejemplo, puede describir un campo electromagn´etico monocrom´ atico externo de frecuencia ω. Calcularemos la probabilidad de transici´ on Pif (t) entre los estados |ϕi i y |ϕf i. Para una perturbaci´ on de la forma (22.24) el elemento matricial Wf i (t) estar´ıa dado por c sin ωt |ϕi i = λ hϕf | W c |ϕi i sin ωt Wf i (t) = λ hϕf | W c cf i sin ωt = λWf i eiωt − e−iωt Wf i (t) = λW 2i
(22.26)
cf i un n´ siendo W umero complejo independiente del tiempo. Vamos a calcular la probabilidad de transici´ on a orden 2 λ . Sustituyendo (22.26) en (22.17) se obtiene " # Z t Z t cni 1 1 W ′ ′ ′ ′ cni t′ dt′ = b(1) eiωni t W eiωni t eiωt − e−iωt dt′ n (t; ω) = i~ 0 i~ 0 2i " #t i i(ωni −ω)t′ cni Z t h cni ei(ωni +ω)t′ W W e ′ ′ = − ei(ωni +ω)t − ei(ωni −ω)t dt′ = − − 2~ 0 2~ i (ωni + ω) i (ωni − ω) 0 " # i(ω +ω)t i(ω −ω)t c ni ni Wni 1 − e 1−e b(1) − n (t; ω) = 2i~ (ωni + ω) (ωni − ω) y la probabilidad de transici´ on se puede obtener de (22.21) 2 |W |2 1 − ei(ωf i +ω)t 1 − ei(ωf i −ω)t 2 (1) fi Pif (t; ω) = λ2 bf (t; ω) = − 4~2 (ωf i + ω) (ωf i − ω)
(22.27)
CAP´ITULO 22. TEOR´IA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO
528
para una perturbaci´ on cosenoidal como la de la Ec. (22.25) se obtiene un resultado similar 2 |Wf i |2 1 − ei(ωf i +ω)t 1 − ei(ωf i −ω)t P if (t; ω) = + 4~2 (ωf i + ω) (ωf i − ω)
(22.28)
la perturbaci´ on cosenoidal (22.25) se vuelve constante cuando ω = 0. Por tanto, la probabilidad de transici´ on para perturbaci´ on constante se obtiene como caso especial de (22.28) cuando ω → 0 2 2 |Wf i |2 1 − eiωf i t 1 − eiωf i t |Wf i |2 1 − eiωf i t P if (t; ω = 0) = + = 2 4~2 ωf i ωf i 4~2 ωf i |Wf i |2 |Wf i |2 |Wf i |2 iωf i t 2 iωf i t iωf i t ∗ = 1 − e = 1 − e 1 − e = 1 − eiωf i t 1 − e−iωf i t 2 2 2 2 2 2 ~ ωf i ~ ωf i ~ ωf i 2 2 |Wf i | |Wf i | |Wf i |2 (1 − cos ωf i t) iωf i t −iωf i t 2− e +e = 2 2 [2 − 2 cos ωf i t] = 2 2 4 = 2 ~2 ωf2 i ~ ωf i ~ ωf i |Wf i |2 sin (ωf i t/2) 2 |Wf i |2 2 ωf i t = = 4 sin 2 ~2 ωf i /2 ~2 ωf2 i quedando finalmente para perturbaci´ on constante |Wf i |2 P if (t; ω = 0) = F (t, ωf i ) ~2
;
sin (ωf i t/2) F (t, ωf i ) ≡ ωf i /2
2
(22.29)
para interpretar las ecuaciones (22.27, 22.28, 22.29) vamos a considerar dos casos: (i) cuando |ϕi i y |ϕf i son dos niveles discretos y (ii) cuando |ϕf i pertenece a un conjunto cont´ınuo de estados. En el primer caso Pif (t; ω) realmente representa una probabilidad de transici´ on que se puede medir. En el segundo caso, Pif (t; ω) representa una densidad de probabilidad y las cantidades que se pueden medir involucran una integraci´ on sobre cierto conjunto de estados finales.
22.3.
Perturbaci´ on senoidal entre dos estados discretos: resonancias
Para la probabilidad de transici´ on Pif (t; ω) entre dos estados discretos |ϕi i y |ϕf i, consideraremos a t como par´ ametro fijo y estudiaremos su comportamiento con la variable ω. Asumiremos que ω ≥ 0, y estudiaremos el caso en el cual ωf i > 0, el caso de ωf i < 0 se puede realizar con un proceso an´ alogo. La idea es encontrar el valor de ω para el cual Pif (t; ω) es m´ aximo, es decir buscaremos las resonancias en la probabilidad. Para encontrar las resonancias observamos que las Ecs. (22.27, 22.28) constan del m´ odulo al cuadrado de la suma de dos n´ umeros complejos
Pif (t; ω) = A+ ≡ usando la identidad
|Wf i |2 |Wf i |2 2 |A − A | ; P (t; ω) = |A+ + A− |2 + − if 4~2 4~2 1 − ei(ωf i +ω)t 1 − ei(ωf i −ω)t ; A− ≡ (ωf i + ω) (ωf i − ω)
(22.30) (22.31)
h i 1 − eix = eix/2 e−ix/2 − eix/2 = −2ieix/2 sin [x/2]
las cantidades A± dadas en (22.31), se pueden escribir en la forma
sin [(ωf i + ω) t/2] (ωf i + ω) /2 sin [(ωf i − ω) t/2] A− (ω) = −iei(ωf i −ω)t/2 (ωf i − ω) /2
A+ (ω) = −iei(ωf i +ω)t/2
(22.32) (22.33)
´ SENOIDAL ENTRE DOS ESTADOS DISCRETOS: RESONANCIAS 22.3. PERTURBACION
529
El denominador de A− se anula para ω = ωf i , y el denominador de A+ se anula para ω = −ωf i , y dado que el m´ odulo del numerador de ambos est´ a acotado, tendremos que para ω cercano a ωf i solo ser´ a importante el t´ermino A− . Por esta raz´ on llamamos a A− el t´ ermino resonante y a A+ el t´ ermino anti-resonante. Consideraremos el caso en el cual |ω − ωf i | ≪ |ωf i | (22.34) despreciando el t´ermino anti-resonante A+ (discutiremos la validez de esta aproximaci´ on en la secci´ on 22.3.2), las Ecs. (22.30, 22.33) nos dan 2 |Wf i |2 |Wf i |2 2 i(ωf i −ω )t/2 sin [(ωf i − ω) t/2] Pif (t; ω) = P if (t; ω) = |A− | = −ie 2 2 4~ 4~ (ωf i − ω) /2 sin [(ω − ωf i ) t/2] 2 |Wf i |2 Pif (t; ω) = P if (t; ω) = F (t, ω − ωf i ) ; F (t, ω − ωf i ) ≡ (22.35) 4~2 (ω − ω ) /2 fi
de modo que en la aproximaci´ on (22.34), la probabilidad tiene el mismo comportamiento en el caso senoidal y cosenoidal. La Fig. 22.1 muestra el comportamiento de Pif (t; ω) con ω para tiempo fijo. Esta figura muestra el comportamiento resonante de la transici´ on de probabilidad. La resonancia ocurre para ω = ωf i (i.e. en la frecuencia angular de Bohr asociada a los estados final e inicial) en cuyo caso la probabilidad es5 Pifmax (t; ω) = Pif (t; ωf i ) =
|Wf i |2 2 t 4~2
(22.36)
a medida que nos alejamos de ωf i en cualquier direcci´ on, la probabilidad decrece alcanzando el valor cero cuando se cumple la condici´ on 2π |ω − ωf i | = t h i cuando continuamos aumentando |ω − ωf i |, la probabilidad oscila entre |Wf i |2 / ~2 (ω − ωf i )2 y cero mostrando un “patr´ on de difracci´ on”. Dado que hemos asumido que ωf i > 0, la relaci´ on (22.9) nos indica que Ef > Ei . Por tanto, en presencia de la perturbaci´ on el sistema parte de un estado Ei de menor energ´ıa y termina en un estado Ef de mayor energ´ıa en virtud de la absorci´ on resonante de un cuanto de energ´ıa ~ω. El caso ωf i < 0, se puede resolver an´ alogamente y corresponde al caso en el cual la perturbaci´ on resonante as alto a un nivel Ef m´ as bajo, acompa˜ nado por la emisi´ on inducida genera el paso del sistema desde un nivel Ei m´ de un cuanto de energ´ıa ~ω. En este caso la resonancia se obtiene en ω → −ωf i .
22.3.1.
Ancho de resonancia e incertidumbre energ´ıa tiempo
Ya hemos visto que el m´ aximo absoluto de Pif (t) se obtiene cuando ω = ωf i y est´ a dado por (22.36) Pifmax
|Wf i |2 2 (t; ω) = Pif (t; ωf i ) = t 4~2
es f´ acil ver que el primer m´ aximo secundario se obtiene cuando (ω − ωf i ) t 3π = 2 2 y tiene el valor Pifseg 5
max
(t; ω) =
|Wf i |2 2 t 9π 2 ~2
N´ otese que la funci´ on F (t, ω − ωf i ) definida en (22.35) tiene una singularidad removible en ω = ωf i , de manera que la reemplazamos por el l´ımite ω → ωf i , con lo cual obtenemos el comportamiento resonante (22.36).
530
CAP´ITULO 22. TEOR´IA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO
Figura 22.1: Probabilidad de transici´ on Pif (t; ω) a primer orden como funci´ on de ω para tiempo fijo. Aparece una resonancia para ω ≃ ωf i proporcional a t2 . El ancho de la resonancia es inversamente proporcional a t. de modo que al comparar los dos m´ aximos se obtiene Pifseg
max
Pifmax
(t; ω)
(t; ω)
=
4 = 4. 5 % 9π 2
esto justifica el hecho de considerar que casi toda la probabilidad est´ a en el intervalo comprendido entre los dos primeros ceros de Pif (t) alrededor de ωf i . A su vez, esto hace razonable considerar ∆ω como la distancia entre dichos ceros, por tanto 4π ∆ω ≃ (22.37) t y vemos que el ancho disminuye al aumentar el tiempo de “encendido” de la perturbaci´ on. El resultado (22.37) tiene cierta similaridad con la relaci´ on de incertidumbre entre tiempo y energ´ıa [ver secci´ on 5.8.4, Ec. (5.77), P´ ag. 230]. Supongamos que queremos medir la diferencia de energ´ıa Ef − Ei = ~ωf i aplicando una perturbaci´ on senoidal cuya frecuencia angular ω podemos modular para encontrar la resonancia. De acuerdo con la Ec. (22.37), si la perturbaci´ on act´ ua durante un tiempo t, la incertidumbre ∆E sobre la diferencia Ef − Ei ser´a del orden de ∆E = ~ ∆ω ≃
4π~ t
de lo cual el producto de ∆E por el tiempo no puede ser menor que 4π~. Esta relaci´ on guarda cierta similitud con la relaci´ on de incertidumbre energ´ıa-tiempo. No obstante, tal analog´ıa debe tomarse con cuidado ya que en este caso, el tiempo es una cantidad impuesta externamente por la perturbaci´ on y no corresponde a un tiempo caracter´ıstico de evoluci´ on del sistema libre [que es el caso de ∆t en la relaci´ on de incertidumbre (5.77)]. Adicionalmente, ∆E es una incertidumbre asociada a una brecha de energ´ıa y no a un valor espec´ıfico de la energ´ıa.
22.3.2.
Condiciones para la validez del m´ etodo perturbativo
Para examinar la validez de los c´ alculos que nos llevaron a la Ec. (22.35) es necesario evaluar por un lado la aproximaci´ on de resonancia que consisti´ o en despreciar el t´ermino anti-resonante A+ , y por otro lado, la aproximaci´ on perturbativa a primer orden en el estado (que corresponde a segundo orden en la probabilidad).
´ SENOIDAL ENTRE DOS ESTADOS DISCRETOS: RESONANCIAS 22.3. PERTURBACION
531
Aproximaci´ on de resonancia Hemos despreciado A+ con respecto a A− bajo la hip´ otesis de que ω ≃ ωf i . Para justificarlo debemos comparar 2 los m´ odulos de A± . El factor |A− (ω)| est´ a relacionado con Pif (t) de la Ec. (22.35) por un factor constante [ya que en la Ec. (22.35) se despreci´ o A+ ], por tanto la forma de la curva que describe a |A− (ω)|2 es la mostrada en la Fig. 22.1. Ahora bien, las Ecs. (22.32, 22.33) nos muestran que |A+ (ω)|2 = |A− (−ω)|2
(22.38)
por lo tanto la curva de |A+ (ω)|2 es la “imagen especular” de la curva de |A− (ω)|2 con respecto al eje vertical con ω = 0. Ambas curvas tienen el mismo ancho ∆ω. Para poder despreciar A+ en las vecindades de ω = ωf i , es claro que ambas curvas deben tener un traslapamiento despreciable. En otras palabras, la distancia entre los centros ±ωf i de ambas curvas debe ser mucho mayor al ancho t´ıpico ∆ω de ´estas 2 |ωf i | ≫ ∆ω
(22.39)
n´ otese que esta condici´ on permite adem´ as despreciar el traslapamiento de modo que |A+ (ω) ± A− (ω)|2 ≈ |A+ (ω)|2 + |A− (ω)|2 combinando (22.39) con (22.37) resulta 2 |ωf i | ≫ t ≫
4π 2π 1 ⇒ t≫ = t |ωf i | |νf i | 1 1 ≃ =τ |νf i | ν
(22.40)
por tanto el resultado (22.35) es v´ alido siempre y cuando la perturbaci´ on sinusoidal act´ ue un tiempo t largo comparado con el periodo τ de la perturbaci´ on. Esto significa que la perturbaci´ on debe realizar muchas oscilaciones para que la aproximaci´ on de resonancia sea v´ alida. Si por ejemplo tomamos el otro extremo en el cual t ≪ 1/ν, la perturbaci´ on dura un tiempo mucho menor que una oscilaci´ on y su comportamiento es pr´ acticamente lineal en el tiempo en el caso senoidal y pr´ acticamente constante en el caso cosenoidal. N´ otese que para una perturbaci´ on constante nunca se satisface la condici´ on (22.40) puesto que ω (y por tanto ν) se hace nulo. Esto es de esperarse ya que las ecuaciones (22.32, 22.33) muestran que en este l´ımite on (22.29) A+ = A− de modo que nunca podemos despreciar el t´ermino anti-resonante. En realidad en la expresi´ para perturbaci´ on constante, ambos t´erminos fueron inclu´ıdos en el c´ alculo. Si para una perturbaci´ on constante Ec. (22.29), hacemos una gr´ afica de Pif (t) versus la frecuencia de Bohr ωf i con tiempo fijo (Fig. 22.2), vemos que esta probabilidad es m´ axima (resonante) cuando ωf i = 0, es decir cuando los niveles est´ an degenerados, y el valor de la probabilidad nos da P if (t; ωf i
|Wf i |2 t2 4π = 0) = ; ∆ω ≃ ~2 t
podemos decir tambi´en que la resonancia ocurre para el caso de conservaci´ on de la energ´ıa. N´ otese que el ancho de la curva es el mismo que en el caso senoidal pero el valor de la probabilidad es cuatro veces mayor. Esto se debe a que para perturbaci´ on constante (ω = 0) tenemos que A+ = A− de modo que |A+ + A− |2 = |2A− |2 = 4 |A− |2 en tanto que en el caso senoidal solo consideramos la contribuci´ on de |A− |2 . Puede verse sin embargo que los perfiles de las figuras 22.1, 22.2 son muy similares y presentan los mismos rasgos generales. Debemos tener en cuenta sin embargo que en la Fig. 22.1 se grafica con respecto a una variable externa ω, en tanto que en la Fig. 22.2 se grafica con respecto a una variable del sistema ωf i .
532
CAP´ITULO 22. TEOR´IA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO
Figura 22.2: Probabilidad de transici´ on Pif (t) versus la frecuencia angular de Bohr ωf i para tiempo fijo a primer orden con perturbaci´ on constante. Aparece una resonancia para ωf i = 0 proporcional a t2 . El ancho de la resonancia es el mismo que en la Fig. 22.1, pero con una intensidad cuatro veces mayor. L´ımite al c´ alculo de primer orden para el estado Ya hab´ıamos mencionado que el c´ alculo de primer orden falla cuando el tiempo que dura la perturbaci´ on se hace muy largo (y de hecho podr´ıa ser que el m´etodo perturbativo como tal no sea v´ alido). Si tomamos la ecuaci´ on (22.36) en la resonancia |Wf i |2 2 Pif (t; ω = ωf i ) = t (22.41) 4~2 esta funci´ on tiende a infinito cuando t → ∞, lo cual es una contradicci´ on puesto que una probabilidad debe ser menor o igual que uno. En la pr´ actica, para que el c´ alculo valga en la resonancia, es necesario que la probabilidad en (22.41) sea mucho menor que uno, es decir ~ (22.42) t≪ |Wf i | En conclusi´ on, para que nuestro c´ alculo a primer orden con la aproximaci´ on de resonancia sea v´ alido, se necesita un tiempo de conexi´ on de la perturbaci´ on que sea “largo” en el sentido de la ecuaci´ on (22.40) y “corto” en el sentido de la ecuaci´ on (22.42). Por tanto, la validez de este c´ alculo implica combinar ambas condiciones τ ≪t≪
~ |Wf i |
(22.43)
la combinaci´ on entre las condiciones (22.40, 22.42) tambi´en conduce a la relaci´ on 1 ~ ≪ |ωf i | |Wf i |
⇒ ~ |ωf i | ≫ |Wf i |
(22.44)
esta desigualdad implica que la diferencia de energ´ıas |Ef − Ei | = ~ |ωf i | es mucho mayor que el elemento de matriz de W (t) entre los estados |ϕi i y |ϕf i. Condici´ on similar a la que vimos para la teor´ıa estacionaria de perturbaciones (ver secci´ on 20.3.2).
22.4. ACOPLAMIENTOS CON ESTADOS DEL ESPECTRO CONT´INUO
533
Finalmente, el c´ alculo a ´ ordenes superiores a partir de (22.13), muestra que la condici´ on (22.42) es necesaria pero no suficiente. Por ejemplo, la Ec. (22.13) muestra que a o´rdenes superiores aparecen elementos matriciales Wkn diferentes a Wf i , sobre los cuales tambi´en hay que imponer condiciones para que la correcci´ on se mantenga peque˜ na.
22.4.
Acoplamientos con estados del espectro cont´ınuo
Puede ocurrir que el estado final pertenezca al espectro cont´ınuo de H0 . En tal caso no podemos medir la probabilidad de que el sistema quede en un estado bien definido |ϕf i con energ´ıa Ef . De acuerdo con el cuarto postulado para el caso cont´ınuo [ver Ec. 4.9, P´ ag. 198], la cantidad |hϕf |ψ (t)i|2 es una densidad de probabilidad. Lo que se puede predecir y medir en este caso es la probabilidad de que al realizar la medici´ on el sistema quede dentro de cierto intervalo o “volumen” finito6 de estados finales. Por tanto, debemos realizar un proceso de integraci´ on sobre el volumen dentro del cual se quiere evaluar la probabilidad. Veremos primero un ejemplo concreto antes de abordar el caso general. Supongamos que una part´ıcula de masa m sin esp´ın se dispersa en un potencial central W (R) (ver Cap´ıtulo 18). El estado |ψ (t)i de la part´ıcula en el tiempo t, se puede expandir en estados cont´ınuos de momento bien definido {|pi} y energ´ıa p2 2m las funciones de onda asociadas son ondas planas [Ec. (1.182), P´ ag. 97] 3/2 1 eip·r/~ hr |pi = 2π~ E=
(22.45)
(22.46)
la densidad de probabilidad asociada a la medida del momento para un sistema en el estado normalizado |ψ (t)i est´ a dada por |hp |ψ (t)i|2 . Un detector en un experimento de dispersi´ on [por ejemplo el que se ilustra en la Fig. 18.5, P´ ag. 451], subtiende un ´ angulo s´ olido finito de apertura δΩf y emite una se˜ nal cuando el momento p de la part´ıcula est´ a en una direcci´ on dentro del ´ angulo s´ olido δΩf subtendido por el detector, y su energ´ıa est´ a dentro de 2 un intervalo de energ´ıa δEf centrado en Ef = pf /2m. Si denotamos por Df el dominio o “volumen en el espacio de momentos” antes definido, la probabilidad de obtener una se˜ nal en el detector ser´ a Z δP (pf , t) = d3 p |hp |ψ (t)i|2 (22.47) p∈Df
escribiremos el diferencial de volumen d3 p en el espacio de los momentos en coordenadas esf´ericas d3 p = p2 dp dΩ
(22.48)
es conveniente reemplazar las variables de momento por variables de energ´ıa, ya que las probabilidades de transici´ on que calcularemos solo tienen sentido si se mide el observable energ´ıa. Para ello sustitu´ımos (22.45) en (22.48) r p2 dp d √ m 3 2 2mE dE dΩ = 2mE d p = p dp dΩ = 2m dE dΩ = 2mE dE dΩ 2m dE dE 2E h √ i d3 p = m 2mE dE dΩ de lo cual podemos definir una densidad de estados finales ρ (E), asociados a la energ´ıa E, en la forma √ d3 p = ρ (E) dE dΩ ; ρ (E) = m 2mE y la probabilidad (22.47) queda en la forma Z δP (pf , t) =
Ω∈δΩf , E∈δEf
6
dΩ dE ρ (E) |hp |ψ (t)i|2 ;
(22.49)
√ ρ (E) = m 2mE
Este es un intervalo o volumen generalizado, ya que la variable a medir puede no ser una variable de posici´ on. Lo importante es que la variable se defina con uno o mas r´ otulos cont´ınuos que generen un conjunto continuo de estados.
CAP´ITULO 22. TEOR´IA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO
534
22.4.1.
El caso general
Supongamos que H0 posee ciertos autoestados rotulados con un conjunto de ´ındices cont´ınuos, y que el sistema f´ısico est´ a en el estado |ψ (t)i en el tiempo t. Queremos calcular la probabilidad δP (αf , t) de encontrar al sistema en un cierto grupo de estados finales despu´es de desconectar la perturbaci´ on y hacer una medici´ on de la energ´ıa. Caracterizaremos los autoestados cont´ınuos de H0 con kets |αi ortonormales en el sentido generalizado hα α′ = δ α − α′
donde α puede simbolizar varios ´ındices cont´ınuos. Al grupo de estados finales lo caracterizamos por un dominio Df de valores de los par´ ametros α centrados en αf , y asumimos que sus energ´ıas forman un cont´ınuo. Aplicando los postulados de la mec´ anica cu´ antica obtenemos Z dα |hα |ψ (t)i|2 δP (αf , t) = α∈Df
en lugar de los ´ındices α, usaremos un conjunto de ´ındices que contengan a la energ´ıa como parte de sus variables |αi → |β, Ei donde los otros par´ ametros β son necesarios si H0 no forma por s´ı solo un C.S.C.O. Expresaremos entonces dα en t´erminos de dE y dβ, por medio de una funci´ on densidad ρ (β, E) dα = ρ (β, E) dβ dE si denotamos por δβf y δEf al rango de valores de los par´ ametros β y E definidos por Df , obtenemos Z dβ dE ρ (β, E) |hβ, E |ψ (t)i|2 δP (αf , t) =
(22.50)
β∈δβf , E∈δEf
22.4.2.
Regla de oro de Fermi
Al igual que en el estudio de transiciones entre dos estados discretos, asumiremos que el sistema est´ a originalmente en un autoestado de H0 bien definido |ϕi i. Por supuesto esto implica que |ϕi i debe pertenecer al espectro discreto de H0 , pues de lo contrario, el sistema no podr´ıa estar en ese estado bien definido. N´ otese que los c´ alculos de la secci´ on 22.1, permanecen v´ alidos para el caso de transici´ on a un conjunto de ´nica diferencia es que la cantidad (22.3) que se calcula en dicha secci´ on deja de autoestados cont´ınuos de H0 . La u ser una probabilidad, para convertirse en una densidad de probabilidad. Si asumimos que la perturbaci´ on W es constante, las Ecs. (22.29) nos dan la densidad de probabilidad que nos interesa 1 sin (ωi t/2) 2 E − Ei 2 |hβ, E |ψ (t)i| = 2 |hβ, E| W |ϕi i| F (t, ωi ) ; F (t, ωi ) ≡ , ωi ≡ ~ ωi /2 ~ 2
(22.51)
donde E y Ei son las energ´ıas en los estados |β, Ei y |ϕi i respectivamente. Sustituyendo (22.51) en la probabilidad (22.50) tenemos Z 1 E − Ei 2 δP (ϕi , αf , t) = 2 dβ dE ρ (β, E) |hβ, E| W |ϕi i| F t, (22.52) ~ β∈δβf , E∈δEf ~ la notaci´ on δP (ϕi , αf , t) enfatiza el hecho de que esta probabilidad depende del estado inicial |ϕi i. La figura 22.2, P´ ag. 532, muestra que la funci´ on F (t, ω) var´ıa r´ apidamente alrededor de ωi = 0 i.e. alrededor de E = Ei . Si t es suficientemente largo, esta funci´ on se puede aproximar dentro de factores constantes a δ (E − Ei ).
22.4. ACOPLAMIENTOS CON ESTADOS DEL ESPECTRO CONT´INUO
535
Para verlo utilizamos el hecho de que una de las sucesiones que converge a la distribuci´ on delta de Dirac est´ a dada por 1 sin2 (nx) = δ (x) (22.53) l´ım n→∞ nπ x2 as´ı como la propiedad 1 δ (cx) = δ (x) (22.54) |c| aplicando las propiedades (22.53, 22.54) a la funci´ on F (t, ωi ) de la Ec. (22.51), obtenemos ω 1 sin2 [t (ωi /2)] E − Ei i l´ım F (t, ωi ) = πt = πt δ = πt δ t→∞ tπ (ωi /2)2 2 2~ E − Ei l´ım F t, = 2π~t δ (E − Ei ) t→∞ ~
(22.55)
por otro lado, la funci´ on ρ (β, E) |hβ, E| W |ϕi i|2 generalmente var´ıa de una manera mucho m´ as suave que on de esta funci´ on sobre F (t, ωi ) con respecto a E. Asumiremos que t es suficientemente grande para que la variaci´ un intervalo de energ´ıa de ancho 4π~/t centrado en E = Ei , sea despreciable (es decir, sobre un intervalo de ancho ∆E asociado a ∆ω en una gr´ afica similar a la Fig. 22.2). La variaci´ on con la energ´ıa de ρ (β, E) |hβ, E| W |ϕi i|2 debe ser suficientemente peque˜ na para que existan valores de t que cumplan la anterior condici´ on, pero adem´ as la funci´ on como tal debe ser suficientemente peque˜ na para que el tratamiento perturbativo sobre W sea v´ alido. Asumiremos adem´ as que 4π~ δEf ≫ = ~ ∆ω t y que δβf es lo suficientemente peque˜ no para despreciar la variaci´ on del integrando con este par´ ametro. Bajo estas aproximaciones podemos escribir "Z # Z 2π~t dβ dE ρ (β, E) |hβ, E| W |ϕi i|2 δ (E − Ei ) δP (ϕi , αf , t) ≃ ~2 β∈δβf E∈δEf Z h i 2πt ≃ dβ ρ (β, Ef = Ei ) |hβ, Ef = Ei | W |ϕi i|2 ~ β∈δβf i 2πt h ≃ ρ (βf , Ef = Ei ) |hβf , Ef = Ei | W |ϕi i|2 δβf (22.56) ~ debemos tener en cuenta sin embargo, que la delta de Dirac nos dice que esta integral se anula si la energ´ıa del estado inicial Ei no pertenece al dominio de estados finales. El resultado final es entonces h i ( 2 δβf 2π t ρ (β , E = E ) |hβ , E = E | W |ϕ i| si Ei ∈ δEf i i i f f f f ~ δP (ϕi , αf , t) ≃ (22.57) 0 si Ei ∈ / δEf
Lo cual concuerda con la discusi´ on en la secci´ on 22.3.2, seg´ un la cual, para una perturbaci´ on constante el comportamiento resonante (en el caso discreto) se obtiene cuando los niveles est´ an degenerados Ei = Ef . En el caso en que los estados finales est´ an en el cont´ınuo, una perturbaci´ on constante puede inducir transiciones solo entre estados de la misma energ´ıa (dentro de una intervalo 2π~/t). Por esta raz´ on la probabilidad de transici´ on es cero si Ei est´ a fuera del dominio δEf . La probabilidad (22.57), se incrementa linealmente con el tiempo7 , por tanto la probabilidad de transici´ on por unidad de tiempo definida por i d 2π h δW (ϕi , αf ) = δP (ϕi , αf , t) ≃ δβf ρ (βf , Ef = Ei ) |hβf , Ef = Ei | W |ϕi i|2 (22.58) dt ~ 7
Naturalmente, esto no implica que la probabilidad pueda llegar a ser mayor que uno, ya que para estos rangos el c´ alculo perturbativo ha perdido su validez.
536
CAP´ITULO 22. TEOR´IA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO
es independiente del tiempo. Introduciremos la densidad de probabilidad de transici´ on por unidad de tiempo y por unidad de “volumen” δβf , asociado a los par´ ametros remanentes δW (ϕi , αf ) δβf
(22.59)
2π |hβf , Ef = Ei | W |ϕi i|2 ρ (βf , Ef = Ei ) ~
(22.60)
w (ϕi , αf ) = que de acuerdo con la Ec. (22.58) vienen dada por w (ϕi , αf ) =
resultado conocido como regla de oro de Fermi.
22.4.3.
Probabilidad de transici´ on hacia el cont´ınuo para perturbaci´ on senoidal
Sea W una perturbaci´ on senoidal de la forma (22.24) ´ o (22.25), que acopla un estado discreto |ϕi i con un conjunto de estados cont´ınuos |βf , Ef i con energ´ıas Ef cercanas a Ei + ~ω (siendo ω la frecuencia angular de la perturbaci´ on). Comenzando con la Ec. (22.35) podemos realizar el mismo procedimiento de la secci´on 22.4.2, para encontrar π w (ϕi , αf ) = |hβf , Ef = Ei + ~ω| W |ϕi i|2 ρ (βf , Ef = Ei + ~ω) (22.61) 2~
22.4.4.
Dispersi´ on y regla de oro de Fermi
Retomaremos el problema de la dispersi´ on de una part´ıcula por un potencial W (r). Asumamos que el estado inicial del proyectil es un autoestado de momento |ψ (t = 0)i = |pi i y calcularemos la probabilidad de que la part´ıcula incidente de momento pi se disperse dentro de un grupo de estados de momento p definidos en un “volumen de momento” δpf centrado en pf , con la restricci´ on |pi | = |pf | (colisi´ on el´ astica). En este caso la energ´ıa est´ a determinada por el m´ odulo del momento, de modo que los par´ ametros β remanentes son los ´ angulos que determinan al vector p. En consecuencia, δβf ≡ δΩf es un ´ angulo s´ olido. La regla de oro de Fermi (22.60) nos da la probabilidad w (pi , pf ) por unidad de tiempo por unidad de ´ angulo s´ olido alrededor de p = pf w (pi , pf ) =
2π |hθf , ϕf ; |pf | = |pi || W |pi i|2 ρ (θf , ϕf ; |pf | = |pi |) ~
naturalmente el ket |θf , ϕf ; |pf |i es simplemente el ket |pf i, donde tendremos en cuenta la restricci´ on |pi | = |pf | w (pi , pf ) =
2π |hpf | W |pi i|2 ρ (Ef = Ei ) ~
Primero calculamos el elemento matricial hpf | W |pi i Z
hpf | W (r) |pi i = d3 r d3 r′ hpf | ri hr| W r′ r′ |pi i " # " # 3/2 3/2 Z 1 1 ′ = d3 r d3 r′ e−ipf ·r/~ W (r) hr| r′ eipi ·r /~ 2π~ 2π~ Z 1 3 ′ = d3 r d3 r′ eipi ·r /~ e−ipf ·r/~ W (r) δ r − r′ 2π~ Z i 1 3 hpf | W (r) |pi i = d3 r W (r) e ~ (pi −pf )·r 2π~
(22.62)
(22.63)
22.4. ACOPLAMIENTOS CON ESTADOS DEL ESPECTRO CONT´INUO
537
utilizando la expresi´ on (22.49) para ρ (E), as´ı como la Ec. (22.63), la expresi´ on (22.62) queda en la forma 2π w (pi , pf ) = ~
1 2π~
2 6 Z p i p −p ·r 3 ( ) d r W (r) e ~ i f m 2mEi
(22.64)
n´ otese que la integral al lado derecho de esta ecuaci´ on es la transformada de Fourier del potencial W (r), evaluada en p ≡ pi − pf . Podemos observar que aqu´ı se ha estudiado un proceso de transici´ on entre un estado (bien definido) del cont´ınuo hacia un conjunto de estados en el cont´ınuo. La regla de oro de Fermi se desarroll´ o para transiciones entre un estado discreto hacia un conjunto de estados del cont´ınuo. No obstante, a pesar de que el estado inicial (impropio) |pi i no es normalizable (y por tanto no representa estrictamente un estado f´ısico) la expresi´ on a la derecha de (22.64) posee un valor finito. Es entonces de suponer que se puede obtener un resultado f´ısico razonablemente acertado de este c´alculo. Teniendo en cuenta la definici´ on de secci´ on eficaz diferencial de dispersi´ on Ec. (18.3) P´ ag. 438, podemos obtener tal cantidad si dividimos la densidad de probabilidad w (pi , pf ) por la corriente incidente de probabilidad Ji [asociada a |pi i, i.e. a una onda plana Ec. (18.33), P´ ag. 448] r 1 3 ~ki 1 3 |pi | 1 3 2Ei Ji = = = 2π~ m 2π~ m 2π~ m con lo cual la secci´ on eficaz diferencial de dispersi´ on queda Z 2 i w (pi , pf ) m2 p −p ·r 3 ) ( i f D (Ω) = = 2 4 d r W (r) e ~ Ji 4π ~
que es la expresi´ on para dicha cantidad en la aproximaci´ on de Born, Ec. (18.68) P´ ag. 456. Vemos entonces que la secci´ on eficaz diferencial de dispersi´ on se puede obtener de un formalismo dependiente del tiempo como es la regla de oro de Fermi, a pesar de que el c´ alculo implica utilizar como estado inicial a un estado impropio en lugar de un estado discreto.
Cap´ıtulo 23
Estructura fina e hiperfina del ´ atomo de Hidr´ ogeno Las interacciones m´ as importantes en los ´ atomos son las interacciones electrost´ aticas coulombianas. En el cap´ıtulo 13, estudiamos al ´ atomo de hidr´ ogeno descrito por el Hamiltoniano H0 =
P2 + V (R) 2µ
;
V (R) ≡ −
q2 1 e2 =− 4πε0 R R
(23.1)
donde el primer t´ermino representa la energ´ıa cin´etica del ´ atomo en el sistema de referencia centro de masa siendo µ la masa reducida del sistema. El potencial V (R) describe la energ´ıa de interacci´ on electrost´ atica entre el prot´ on y el electr´ on. No obstante, en el Hamiltoniano (23.1) se han ignorado todos los efectos relativistas, esta aproximaci´ on est´ a bien justificada si tenemos en cuenta que en el modelo de Bohr la velocidad v asociada a la primera ´ orbita n = 1 satisface la condici´ on (2.18), P´ ag. 117 e2 1 v = ≡α= ≪1 (23.2) c ~c 137 los efectos relativistas aparecen como acoples del esp´ın del electr´ on y del prot´ on con campos magn´eticos y son mucho menores que el efecto generado por la interacci´ on electrost´ atica. Sin embargo, dada la alta resoluci´ on de los experimentos espectrosc´ opicos estos efectos son observables. Por tanto, daremos cuenta de estos efectos incluy´endolos en un t´ermino W en el Hamiltoniano H = H0 + W donde W es mucho m´ as peque˜ no que H0 , raz´ on por la cual podemos utilizar teor´ıa estacionaria de perturbaciones para el c´ alculo de estos efectos. Como resultado, surgir´ a la llamada “estructura fina” as´ı como la “estructura hiperfina” de los niveles de energ´ıa. Estos desdoblamientos adicionales del ´ atomo de Hidr´ ogeno se han medido con gran precisi´ on. De hecho la estructura hiperfina del estado 1s del ´ atomo de Hidr´ ogeno es una de las cantidades f´ısicas mejor medidas que existen. Los conceptos que se introducir´ an en este cap´ıtulo son fundamentales en F´ısica at´ omica.
23.1.
El Hamiltoniano de estructura fina
El esp´ın aparece de manera natural cuando establecemos una ecuaci´ on para el electr´ on que satisfaga los postulados de la relatividad especial y de la mec´ anica cu´ antica. Esto nos conduce a la denominada ecuaci´ on de Dirac, la cual genera los t´erminos de la estructura fina y adem´ as predice la existencia del positr´ on (la antipart´ıcula del electr´ on). 538
23.1. EL HAMILTONIANO DE ESTRUCTURA FINA
539
En rigor, se debe plantear la ecuaci´ on de Dirac para un electr´ on sometido al potencial coulombiano V (r) creado por el prot´ on, considerando a este u ´ltimo como infinitamente pesado y por tanto fijo en un sistema coordenado inercial. Despu´es se analiza el l´ımite de bajas velocidades en el cual los efectos relativistas aparecen a primer orden en v/c. Cuando se realiza este procedimiento, se encuentra que el estado electr´ onico se debe describir como un espinor de dos componentes, con lo cual los operadores de esp´ın S1 , S2 , S3 aparecen en forma natural. En este contexto no estudiaremos la ecuaci´ on de Dirac, y nos limitaremos a escribir los primeros t´erminos en la serie de potencias en v/c de W junto con su interpretaci´ on H = me c2 + H0 + Wf Wmv = −
P4 8m3e c2
;
;
WSO =
Wf = Wmv + WSO + WD + . . . , 1 1 dV (R) L·S ; 2m2e c2 R dR
WD =
H0 =
P2 + V (R) 2me
~2 ∇2 V (R) 8m2e c2
(23.3) (23.4)
los dos primeros t´erminos corresponden a la autoenerg´ıa o energ´ıa en reposo del electr´ on me c2 y el Hamiltoniano no-relativista H0 que se estudi´ o en el cap´ıtulo 13. Los dem´ as son t´erminos relativistas que conducen a la estructura fina del espectro. Vale anotar que la ecuaci´ on de Dirac se puede resolver en forma exacta para un electr´ on inmerso en un potencial coulombiano. Sin embargo, el uso de la teor´ıa de perturbaciones (que es un m´etodo aproximado) permitir´ a familiarizarnos con los procedimientos que se utilizan para ´ atomos de muchos electrones, para los cuales no sabemos como escribir la ecuaci´ on relativista asociada, ni tenemos soluciones exactas.
23.1.1.
Orden de Magnitud de H0
Con el fin de comparar los t´erminos perturbativos con el Hamiltoniano no perturbado H0 , es necesario calcular el orden de magnitud de H0 num´ericamente. Sin embargo, la comparaci´ on se facilita si escribimos dicho orden de magnitud en t´erminos de cantidades f´ısicas universales. Para el Hamiltoniano dado por (23.1) H0 =
P2 + V (R) 2µ
;
V (R) ≡ −
q2 1 e2 =− 4πε0 R R
el orden de magnitud de la energ´ıa cin´etica se puede extraer de (23.2) 2 P m2e v 2 me c2 2 me e4 ≃ ≃ α = 2µ 2me 2 2~2
(23.5)
el orden de magnitud de la energ´ıa potencial se puede obtener reemplazando R por el radio de Bohr, y utilizando la Ec. (13.2), P´ ag. 357 |V (R)| ≃
e2 me e4 = a0 ~2
(23.6)
comparando (23.5) con (23.6) vemos que en orden de magnitud la energ´ıa cin´etica y potencial tienen valores similares. Como nuestro prop´ osito es solo comparar ´ ordenes de magnitud, es razonable suponer que H0 tiene el mismo orden de magnitud que la energ´ıa cin´etica y la potencial, escribiremos entonces 2 4 2 P ≈ |V (R)| ≈ me c2 α2 = me e = e ≈ 10eV |H0 | ≈ 2 2me ~ a0
utilizaremos las aproximaciones (23.7) a nuestra conveniencia.
(23.7)
540
23.1.2.
´ ´ CAP´ITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO
T´ ermino de correcci´ on cin´ etica Wmv
Si comenzamos con la expresi´ on relativista de la energ´ıa de una part´ıcula cl´ asica de masa en reposo me y momento p s # " 2 2 4 p p p 1 p 1 2 2 E = c p2 + m2e c2 = me c 1 + = me c 1 + − + ... me c 2 me c 8 me c E = me c2 +
p2 p4 − + ... 2me 8m3e c2
los dos primeros t´erminos en la expansi´ on de E en potencias de (p/me c)2 , corresponden a la energ´ıa en reposo y el t´ermino cin´etico no relativista. El tercer t´ermino proporcional a p4 es la primera correcci´ on relativista asociada a la variaci´ on de la masa con la velocidad. Podemos evaluar el orden de magnitud relativo de esta contribuci´ on tomando el cociente p4 / 8m3e c2 p2 Wmv m2e v 2 = ≃ = H0 p2 / (2me ) 4m2e c2 4m2e c2 2 Wmv 1 v 2 1 2 1 1 ≃ ≃ α ≃ (23.8) H0 4 c 4 4 137
donde hemos usado las aproximaciones (23.2, 23.7). En n´ umeros se tiene que H0 ≃ 10eV de modo que Wmv ≃ 10−3 eV .
23.1.3.
Acoplamiento esp´ın-´ orbita WSO
El electr´ on se mueve a una velocidad v = p/m, en el campo electrost´ atico E creado por el prot´ on. En el sistema de referencia propio del electr´ on se observa movimiento del prot´ on, lo cual genera (visto en el sistema propio del electr´ on) un campo magn´etico B′ que a primer orden en v/c, est´ a dado por 1 v×E c2 y dado que el electr´ on posee un momento dipolar magn´etico intr´ınseco MS dado por q MS = S me B′ = −
(23.9)
(23.10)
[ver Ec. (15.4), P´ ag. 389], ´este interact´ ua con el campo magn´etico B′ . La energ´ıa de interacci´ on asociada esta dada 1 por W ′ = −Ms · B′ (23.11) de la Ec. (23.9) podemos escribir B′ en la forma
1 1 ∇V (r) 1 dV (r) r v × E = 2v × = me v × c2 c q me qc2 dr r 1 1 dV (r) p×r me qc2 r dr
B′ = − B′ =
cuantizando los observables en el campo y teniendo en cuenta que V (r) = −e2 /r, la energ´ıa de interacci´ on queda q 1 1 dV (R) 1 1 dV (R) W ′ = −Ms · B′ = − S · P×R = 2 2 S·L 2 me me qc R dR me c R dR 1 1 dV (R) e2 1 W′ = L · S = L·S m2e c2 R dR m2e c2 R3 1
La energ´ıa potencial asociada a (23.11) es una extrapolaci´ on directa del an´ alogo en electrodin´ amica cl´ asica, seg´ un el cual la energ´ıa de interacci´ on de un sistema de cargas con momento magn´etico “orbital” M = qL/me est´ a dado por W = −Ms ·B
23.1. EL HAMILTONIANO DE ESTRUCTURA FINA
541
vemos sin embargo de la Ec. (23.4), que el t´ermino WSO posee una correcci´ on adicional con un factor de 1/2. Este factor proviene del hecho de que el movimiento del electr´ on alrededor del prot´ on no es rectil´ıneo2 . El esp´ın del electr´ on rota con respecto a un sistema de referencia inercial, generando una precesi´ on de Thomas. Tenemos entonces el t´ermino de interacci´ on esp´ın-´ orbita dado por WSO =
1 1 dV (R) e2 1 L · S = L·S 2 2 2 2 2me c R dR 2me c R3
(23.12)
para estimar el orden de magnitud de este t´ermino, tenemos en cuenta que L y S son del orden de ~, y que R es del orden del radio de Bohr a0 , de modo que WSO ≃
e2 ~2 2m2e c2 a30
(23.13)
y al compararlo con |H0 | de la Ec. (23.7), se obtiene
23.1.4.
WSO H0
≃
WSO H0
≃
2 ~2 e2 / 2m2e c2 a30 ~2 1 ~2 me e2 = = e2 /a0 2m2e c2 a20 2m2e c2 ~2 e4 α2 1 1 2 = ≃ 2~2 c2 2 2 137
(23.14)
T´ ermino de Darwin
La ecuaci´ on de Dirac es local, puesto que la interacci´ on entre el electr´ on y el campo de coulomb generado por el n´ ucleo depende de la posici´ on del electr´ on r. Sin embargo, la aproximaci´ on no relativista en forma de expansi´ on en potencias de v/c, conduce a una ecuaci´ on no-local para el espinor de dos componentes que describe al estado electr´ onico i.e. una ecuaci´ on en la cual la interacci´ on entre el electr´ on y el campo es no-local. En esta ecuaci´ on el electr´ on es afectado por todos los valores que toma el campo en un cierto dominio centrado en r, y cuyo tama˜ no es del orden de magnitud λC ~ λel ≃ = (23.15) 2π me c on [ver Ecs. (13.37, 13.38), P´ ag. 366]. siendo λC la longitud de onda de Compton del electr´ Vamos a modelar en forma semi-cuantitativa esta interacci´ on no-local. Asumamos que la energ´ıa potencial del electr´ on en lugar de estar dada por V (r), est´ a descrita por una expresi´ on de la forma Z V = d3 ρ f (|ρ|) V (r + ρ) (23.16) donde f (|ρ|) es una cantidad cuya integral es igual a la unidad, y que solo toma valores significativos dentro de una esfera de radio λel ≃ ~/me c centrada en ρ = 0. Es decir, si integramos f (|ρ|) dentro de esta esfera el resultado es casi la unidad3 . Si asumimos que V (r) no posee una variaci´ on sensible en una distancia del orden de λel , podemos reemplazar V (r + ρ) por V (r) dentro de la esfera en donde f (|ρ|) es significativa. Por tanto, podemos sacar el potencial V (r) de la integral y la integral de f (|ρ|) es pr´ acticamente la unidad. En este caso, la expresi´ on (23.16) se reduce a V (r). 2 La Ec. (23.9) es una transformaci´ on de la relatividad especial, de modo que solo es v´ alida cuando el sistema de referencia S ′ se mueve con velocidad constante con respecto a S. 3 El vector ρ es un vector posici´ on definido tomando la posici´ on r del electr´ on como el origen. Puede pensarse que dado el car´ acter probabil´ıstico de la mec´ anica cu´ antica, la interacci´ on del prot´ on no es con un electr´ on puntual sino con una nube electr´ onica centrada en r, y con un radio caracter´ıstico dentro del cual la probabilidad de encontrar al electr´ on es casi la unidad. En tal caso, es de esperarse que la funci´ on de peso f (|ρ|) dada en la Ec. (23.16) corresponda a la densidad de probabilidad asociada a cada punto del espacio, y esperamos que el m´ aximo de esta funci´ on est´e en ρ = 0.
542
´ ´ CAP´ITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO
Sin embargo, podemos obtener m´ as informaci´ on de (23.16) si expandimos V (r + ρ) en su serie de Taylor alrededor de ρ = 0. 1 V (r + ρ) = V (r) + ρi ∂i V (r) + ρi ρj ∂i ∂j V (r) + . . . 2 con lo cual la expresi´ on (23.16) queda Z Z Z 1 V = V (r) d3 ρ f (|ρ|) + ∂i V (r) d3 ρ ρi f (|ρ|) + [∂i ∂j V (r)] d3 ρ ρi ρj f (|ρ|) + . . . 2 Z 1 V = V (r) + [∂i ∂j V (r)] d3 ρ ρi ρj f (|ρ|) + . . . (23.17) 2 donde hemos tenido en cuenta que ρi f (|ρ|) es una funci´ on impar que por tanto se anular´ıa al integrar sobre una esfera centrada en ρ = 0. Por tanto, el primer t´ermino no-local en la Ec. (23.17) es proporcional a las segundas derivadas del potencial, y a la integral de f (|ρ|) por funciones cuadr´ aticas en ρ integradas sobre el volumen. Como la integraci´ on se hace desde |ρ| = 0 hasta |ρ| ≃ λel podemos asumir que el valor promedio de |ρ| es del orden de λel /2, de modo que Z Z λel 2 1 2 1 2 1 d3 ρ f (|ρ|) ≃ [∂i ∂j V (r)] d3 ρ ρi ρj f (|ρ|) ≃ ∇ V (r) ∇ V (r) λ2el 2 2 2 8 Z 2 1 ~ [∂i ∂j V (r)] d3 ρ ρi ρj f (|ρ|) ≃ ∇2 V (r) (23.18) 2 8m2e c2 donde se ha usado la Ec. (23.15). Hemos llegado a la Ec. (23.18) por argumentos semi-cuantitativos, esta expresi´ on 2 coincide sin embargo con la Ec. (23.4) que define al t´ermino de Darwin WD . Aplicando este t´ermino a V (r) = −e /r tenemos que 2 2 1 2 ~ 2 2 ~ WD = −e ∇ = 4πe δ (R) 8m2e c2 R 8m2e c2 πe2 ~2 WD = δ (R) (23.19) 2m2e c2 donde hemos usado (18.50), P´ ag. 452. Tomando el promedio de este t´ermino en un estado at´ omico ψ (r) se obtiene Z Z πe2 ~2 πe2 ~2 ∗ 3 hWD iψ = hψ| WD |ψi = ψ |ψ (r)|2 δ (r) d3 r (r) δ (r) ψ (r) d r = 2m2e c2 2m2e c2 πe2 ~2 |ψ (0)|2 (23.20) hWD iψ = 2 2 2me c en consecuencia el t´ermino de Darwin solo afecta a electrones en el estado s (l = 0) que son los u ´nicos para los cuales ψ (0) 6= 0 (ver secci´ on 13.6.1, P´ ag. 369). El orden de magnitud de |ψ (0)|2 se obtiene teniendo en cuenta que la integral sobre la esfera de radio a0 centrada en r = 0, de la funci´ on de onda es aproximadamente la unidad Z Z |ψ (r)|2 dV ≃ |ψ (0)|2 dV ∼ |ψ (0)|2 a30 ∼ 1 V
V
2
|ψ (0)|
∼
1 a30
(23.21)
sustituyendo (23.21) en (23.20) y usando la Ec. (2.21) P´ ag. 117 tenemos que hWD iψ =
8 πe2 ~2 πe2 ~2 1 πe2 ~2 m3e e6 π 2 2 e |ψ (0)| ≃ = = m c e 2m2e c2 2m2e c2 a30 2m2e c2 ~6 2 ~4 c4
hWD iψ ≃ me c2
e8 = me c2 α4 ~4 c4
(23.22)
23.2. ESTRUCTURA HIPERFINA
543
donde hemos usado (23.2). De la Ec. (23.7) tenemos que H0 ≃ me c2 α2 y por tanto WD ≃ α2 = H0
1 137
2
(23.23)
de las Ecs. (23.8, 23.14, 23.23) vemos que todos los t´erminos de la estructura fina son unas 104 veces menores que el Hamiltoniano no perturbado H0 que se trabaj´ o en el cap´ıtulo 13.
23.2.
Estructura hiperfina
Hasta el momento hemos considerado al prot´ on como una part´ıcula puntual de masa Mp y carga qp = −qe . Sin embargo, el prot´ on al igual que el electr´ on es una part´ıcula de esp´ın 1/2. Denotaremos como I al observable de esp´ın del prot´ on. Tenemos entonces un momento magn´etico de esp´ın del prot´ on MI . No obstante, el factor giromagn´etico es diferente al del electr´ on MI =
gp µn I ~
;
µn =
qp ~ 2Mp
,
gp ≃ 5,585
(23.24)
debido a la presencia de la masa del prot´ on en el denominador de (23.24), el magnet´ on nuclear de Bohr µn es unas 2000 menor que el magnet´ on de Bohr electr´ onico µB . Aunque el momento angular del prot´ on y el electr´ on son iguales, el magnetismo nuclear es mucho menos importante que el electr´ onico debido a la gran diferencia de masa. Por tanto, las interacciones magn´eticas debidas al esp´ın del prot´ on I, son muy d´ebiles y dar´ an lugar a la estructura hiperfina del ´ atomo de Hidr´ ogeno. El electr´ on se mueve no solo en el campo electrost´ atico del prot´ on sino tambi´en en el campo magn´etico generado por MI . Puesto que la estructura hiperfina es muy peque˜ na, podemos encontrarla usando la ecuaci´ on (no-relativista) de Schr¨ odinger. Cuando se introduce el potencial vectorial asociado al campo magn´etico generado por MI , aparecen un conjunto adicional de t´erminos dados por??? µ0 q 1 8π Whf = − L · MI + 3 [3 (MS · n) (MI · n) − MS · MI ] + MS · MI δ (R) (23.25) 4π me R3 R 3 donde MS es el momento magn´etico de esp´ın del electr´ on, y n el vector unitario que va desde el prot´ on hacia el electr´ on. Veremos que los t´erminos Whf son mucho menores que los de Wf y de all´ı el t´ermino de estructura hiperfina.
23.2.1.
Interpretaci´ on de los t´ erminos en la estructura hiperfina
El primer t´ermino en (23.25) representa la interacci´ on entre MI y el campo magn´etico Be =
µ0 qL 4πme r 3
que act´ ua sobre el prot´ on y que tiene como fuente a la carga electr´ onica en rotaci´ on. El segundo t´ermino en (23.25) es la interacci´ on dipolo-dipolo entre los momentos magn´eticos nuclear y electr´ onico. Es decir, la interacci´ on de MS con el campo magn´etico generado por MI , o vice versa. El u ´ltimo t´ermino en (23.25) se conoce como t´ ermino de contacto de Fermi, y surge de la singularidad en r = 0 del campo creado por MI . En la realidad, el prot´ on no es puntual y el campo magn´etico dentro del prot´on no tiene la misma forma que el creado por MI (y que entra en la interacci´ on dipolo-dipolo). El t´ermino on. La funci´ on delta de de contacto describe la interacci´ on de MS con el campo magn´etico en el interior del prot´ Dirac en este t´ermino revela que como su nombre lo indica, el t´ermino de contacto solo existe cuando las funciones de onda del prot´ on y del electr´ on se traslapan.
´ ´ CAP´ITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO
544
Considerando que todos los momentos angulares son del orden de ~, y usando las Ecs. (23.10, 23.24), el orden de magnitud de los dos primeros t´erminos en (23.25) viene dado por
g µ
µ0
µ0 q µ0 q q
p n
kWhf 1 k ≈ − L · M kLk kM k = ~ I .
I I
4π me R3 4π me a30 ~ 4πme a30 µ0 q µ0 q µ0 q q~ gp kµn k kIk = gp ~ kµn k = gp ~ kWhf 1 k . 3 3 3 2Mp 4πme a0 4πme a0 4πme a0 2 2 gp q ~ µ0 (23.26) kWhf 1 k . 2 me Mp a30 4π similarmente kWhf 2 k ≈ . ≈ =
µ0 1 {k3 (MS · n) (MI · n) − MS · MI k} 4π a30 µ0 {3 (kMS k knk) (kMI k knk) + kMS k kMI k} 4πa30
µ0 µ0 µ0 q
gp µn
{3 kM k kM k + kM k kM k} = kM k kM k = S I
S I S I S I ~ 4πa30 πa30 πa30 me
µ0 q 2 µ0 q µ0 q q~ q 2 ~2 µ0
gp µn ~ = ~g kµ k = ~g = gp
p n p ~ 2Mp πa30 me πa30 me πa30 me me Mp a30 2π
kWhf 2 k . 2gp
q 2 ~2 µ0 me Mp a30 4π
(23.27)
de las ecuaciones (23.26, 23.27) tenemos entonces kWhf 1 k + kWhf 2 k . y usando las relaciones µ0 =
5 q 2 ~2 µ0 gp 2 me Mp a30 4π
1 q2 2 ; e = ε0 c2 4πε0
(23.28)
junto con (23.59) obtenemos kWhf 1 k + kWhf 2 k . kWhf 1 k + kWhf 2 k .
αm c 3 5 ~2 q2 5 ~2 5 ~2 e 2 1 gp = g e = g α~c p p 3 3 2 2 2 2 me Mp a0 4πε0 c 2 me Mp c 2 me Mp c ~ a0 5 me gp me c2 α4 2 Mp
al compararlo con (23.13) vemos que estos t´erminos son unas 2000 veces m´ as peque˜ nos que WSO . Similarmente, el t´ermino de contacto de Fermi es unas 2000 veces menor que el t´ermino de Darwin Ec. (23.19) [ambos contienen un factor δ (R)].
23.3.
Estructura fina del nivel n = 2
En el cap´ıtulo 13, vimos que los niveles de energ´ıa del ´ atomo de Hidr´ ogeno solo dependen del n´ umero cu´ antico n, cuando solo se considera la interacci´ on electrost´ atica. En particular, los estados 2s (n = 2, l = 0) y 2p (n = 2, l = 1) poseen la misma energ´ıa dada por la Ec. (13.43), P´ ag. 367 con n = 2 −
EI 1 = − µc2 α2 4 8
(23.29)
´ MATRICIAL DE LA ESTRUCTURA FINA PARA EL NIVEL N = 2 23.4. REPRESENTACION
545
cuando se ignora el esp´ın, la subcapa 2s corresponde a un estado singlete (no degenerado), y la subcapa 2p corresponde a un triplete asociado a los 3 valores propios diferentes de L3 , m = 1, 0, −1. No obstante, la introducci´ on del esp´ın del electr´ on y del prot´ on incrementa el grado de degeneraci´ on de los niveles de energ´ıa. El nivel de degeneraci´ on de cada subcapa se multiplica por cuatro, puesto que S3 e I3 pueden tomar cada uno dos valores diferentes mS = ±1/2, mI = ±1/2. En particular, una base posible para la subcapa 2s es n = 2; l = 0; mL = 0; mS = ± 1 ; mI = ± 1 2 2 de modo que la subcapa 2s es de dimensi´ on cuatro. Para la subcapa 2p, una base posible es n = 2; l = 1; mL = 1, 0, −1; mS = ± 1 ; mI = ± 1 2 2
de modo que la subcapa 2p es de dimensi´ on doce. En consecuencia la dimensi´ on del subespacio generado por n = 2 (grado de degeneraci´ on de E2 ) es 16. De acuerdo con la discusi´ on dada en la secci´ on 20.4, debemos diagonalizar la matriz 16 × 16 que representa la restricci´ on de W al subespacio E2 , con el fin de calcular el efecto de tal perturbaci´ on. Asumiremos que el ´ atomo est´ a aislado de modo que no intervienen campos el´ectricos o magn´eticos externos. En cuyo caso el Hamiltoniano completo vendr´ a dado por H = H0 + W = H0 + Wf + Whf y puesto que Whf es unas 2000 veces menor que Wf , comenzaremos evaluando las correcciones de estructura fina asociadas a Wf . Veremos que Wf remueve parcialmente la degeneraci´ on de grado 16 que posee el nivel n = 2, generando la estructura fina. El Hamiltoniano Whf producir´ a una remoci´ on adicional de la degeneraci´ on que conduce a la estructura hiperfina. En las siguientes secciones realizaremos el c´ alculo de la estructura fina para n = 2 y en la secci´ on 23.9 se realizar´ a el c´ alculo de la estructura hiperfina para n = 1. El procedimiento para calcular la estructura fina e hiperfina de otros niveles es an´ alogo.
23.4.
Representaci´ on matricial de la estructura fina para el nivel n = 2
Veremos que las propiedades de los elementos matriciales de Wf (en la base de autoestados de H0 ), nos conduce a una estructura diagonal por bloques de submatrices m´ as peque˜ nas. Este hecho simplificar´ a considerablemente el c´ alculo de los valores y vectores propios en el subespacio E2 . Comenzaremos caracterizando una serie de observables que conmutan con el Hamiltoniano Wf . En primer lugar, las Ecs. (23.3, 23.4) muestran que Wf no depende del observable I (esp´ın del prot´ on). En consecuencia, Wf conmuta con I. Por tanto, el teorema 1.68, P´ ag. 58, nos indica que los elementos matriciales que conectan a dos estados diferentes de mI son nulos 1 1 ′ ′ ′ n; l ; mL ; mS ; mI = ± Wf n; l; mL ; mS ; mI = ∓ =0 (23.30) 2 2 de hecho, puesto que Wf no depende de I, podemos omitir este n´ umero cu´ antico en todos los c´ alculos que involucran a la estructura fina Wf , multiplicando por 2 todo grado de degeneraci´ on que se obtenga. De esta forma la matriz 16 × 16 se desacopla en dos matrices 8 × 8 en la forma (Wf )16×16 =
(Wf )8×8 08×8 08×8 (Wf )8×8
= (Wf )8×8 ⊗ I2×2
(23.31)
donde hemos tenido en cuenta que adem´ as las submatrices 8 × 8 sobre la “diagonal” de (Wf )16×16 son id´enticas.
´ ´ CAP´ITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO
546
Probaremos ahora que Wf conmuta con L2 . Para verlo, observemos que L2 conmuta con todas las componentes de L, con R = |R| (ya que L2 solo act´ ua sobre variables angulares), con P2 4 , y con S (ya que L2 no depende de variables de esp´ın). En consecuencia, las Ecs. (23.3, 23.4) nos muestran que L2 conmuta con Wmv [el cual depende 2 de P2 ], con WSO (el cual depende de R, L y S) y con WD (que solo depende de R). De nuevo el teorema 1.68, nos indica que elementos matriciales que involucran a valores propios diferentes de L2 se anulan5
′ ′ n; l ; mL ; m′S ; m′I Wf |n; l; mL ; mS ; mI i = 0 si l 6= l′ (23.32)
en particular estados asociados a las subcapas 2s y 2p corresponden a valores propios diferentes de L2 (0 y 2~2 respectivamente). Por tanto, los elementos matriciales de Wf que conectan a un estado 2s con un estado 2p se anulan. En consecuencia, la matriz (Wf )8×8 representativa de Wf para el nivel n = 2, se desacopla en una submatriz 2 × 2 asociada a la subcapa 2s y otra submatriz 6 × 6 asociada a la subcapa 2p. Wf2s 02×6 2×2 (Wf )8×8 = (23.33) Wf2p 06×2 6×6
la matriz se ha diagonalizado en bloques de 2 × 2 y 6 × 6. La propiedad anterior tambi´en se puede ver del hecho de que Wf es de paridad par. Para verlo, notemos que bajo paridad, ocurren los siguientes cambios en los observables R → −R ; R → R, P → −P, P2 → P2 , L → L, S → S
y aplicando esta operaci´ on en las Ecs. (23.3, 23.4) vemos que Wf permanece invariante bajo paridad. Por tanto, Wf no tiene elementos de matriz que conecten a un estado 2s con un estado 2p, puesto que estos estados tienen paridades opuestas.
23.5.
C´ alculo de los t´ erminos cin´ etico y de Darwin
Puede verificarse que los t´erminos Wmv y WD conmutan con las componentes de L. Esto se puede ver teniendo en cuenta que L act´ ua sobre variables angulares y conmuta con R y P2 . En consecuencia, los operadores Wmv y WD son operadores escalares con respecto a las variables orbitales. Por tanto, los t´erminos matriciales asociados a los operadores Wmv y WD son nulos cuando dichos elementos de matriz est´ an asociados a dos valores diferentes de mL . Adicionalmente, la Ec. (23.4) muestra que Wmv y WD no dependen de S, por tanto las matrices que representan a estos operadores son proporcionales a la identidad. N´ otese que estas propiedades son v´ alidas para valores arbitrarios de n, l, m. Por otro lado, puesto que ignoraremos el esp´ın del prot´ on, el subespacio asociado a 2s ser´ a de dimensi´ on 2, correspondiente a los valores posibles ms = ±1/2 de S3 . As´ı mismo el subespacio asociado a 2p ser´ a de dimensi´ on 6, correspondiente a los valores posibles ms = ±1/2 de S3 , y m = 1, 0, −1 de L3 . Esto nos conduce a las submatrices 2 × 2 y 6 × 6 descritas en la Ec. (23.33). En consecuencia, para las submatrices de dimensi´ on 2 × 2 asociadas a los t´erminos cin´etico y de Darwin en (23.33) tenemos que P4 2s Wmv 2×2 = hn = 2; l = 0; mL = 0| − 3 2 |n = 2; l = 0; mL = 0i · I2×2 (23.34) 8me c 2 ~ 2s 2 WD 2×2 = hn = 2; l = 0; mL = 0| ∇ V (R) |n = 2; l = 0; mL = 0i · I2×2 (23.35) 8m2e c2 4
De la Ec. (12.29), P´ ag. 350, podemos ver que en la base {|ri} el operador P2 se escribe en la forma ~2 ~2 1 ∂ 2 L2 P2 = − ∇2 = − r − 2µ 2µ r ∂r 2 ~2 r 2
y teniendo en cuenta que L2 solo depende de variables angulares, se sigue que P2 conmuta con L2 . 5 N´ otese que las Ecs. (23.30, 23.32) son v´ alidas para cualquier valor de n y no solo para n = 2. Por tanto, es muy f´ acil extender los argumentos anteriores para otros valores de n.
´ ´ ´ 23.5. CALCULO DE LOS TERMINOS CINETICO Y DE DARWIN
547
donde la constante de proporcionalidad de la identidad para cada t´ermino est´ a dada por elementos matriciales 2 puramente orbitales. Para el caso espec´ıfico de V (R) = −e /R, la Ec. (23.19) nos dice que (23.35) se convierte en 2s WD
2×2
=
πe2 ~2 hn = 2; l = 0; mL = 0| δ (R) |n = 2; l = 0; mL = 0i · I2×2 2m2e c2
(23.36)
Similarmente, las submatrices de dimensi´ on 6 × 6 asociadas a los t´erminos cin´etico y de Darwin en (23.33) vienen dadas por 2p Wmv
P4 = hn = 2; l = 1; mL | − 3 2 |n = 2; l = 1; mL i · I6×6 8m c 2e ~ 2 = hn = 2; l = 1; mL | ∇ V (R) |n = 2; l = 1; mL i · I6×6 8m2e c2 πe2 ~2 = hn = 2; l = 1; mL | δ (R) |n = 2; l = 1; mL i · I6×6 2m2e c2
6×6
2p WD
6×6
2p WD
6×6
(23.37)
(23.38)
donde la identidad 6 × 6 se debe a que no hay acople entre los t´erminos con mS 6= m′S o con mL 6= m′L . Las Ecs. (23.34, 23.36) as´ı como las Ecs. (23.37, 23.38) nos indican que para calcular la contribuci´ on de los t´erminos 2 cin´etico y de Darwin con V (R) = −e /R, bastar´ a con calcular factores complejos de la forma 1 hn, l, mL | P4 |n, l, mL i 8m3e c2 πe2 ~2 hn, l, mL | δ (R) |n, l, mL i 2m2e c2
hWmv i = − hWD i =
(23.39) (23.40)
para calcular el t´ermino hWmv i escribimos H0 P4
2 P2 e2 2 4 2 2 = + V (R) ⇒ P = 4me [H0 − V (R)] = 4me H0 + 2me R 2 2 4 e e e = 4m2e H02 + H0 + H0 + 2 R R R
atomo de Hidr´ ogeno se obtiene tomando el valor medio de P4 en un estado no perturbado |ϕn,l,m i del ´ e2 e2 e4 P = + H0 + H0 + 2 |ϕn,l,m i R R R 2 2 e e e4 = 4m2e hϕn,l,m | En2 + En + En + 2 |ϕn,l,m i R R R " #
4 1 1 P = 4m2e En2 + 2En e2 + e4 R n,l,m R2 n,l,m
4
4m2e hϕn,l,m |
H02
(23.41)
sustituyendo (23.41) en (23.39) la cantidad hWmv i queda hWmv in,l,m
" # 1 1 1 =− En2 + 2En e2 + e4 2me c2 R n,l,m R2 n,l,m
esta expresi´ on es v´ alida para todo n, l, m.
(23.42)
´ ´ CAP´ITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO
548
23.5.1.
C´ alculo de h1/Ri , h1/R2 i y h1/R3 i
2 . Para futuros prop´ ositos tambi´en De la Ec. (23.42) vemos que debemos calcular las cantidades h1/Ri , 1/R
3 calcularemos 1/R [ver Ec. (23.69)]. Para ello debemos tener en cuenta que la funci´ on de onda del ´ atomo de Hidr´ogeno no perturbado, est´ a dada por las Ecs. (13.41), P´ ag. 367 ϕn,l,m (r) = Rn,l (r) Ylm (θ, ϕ) las funciones radiales para las subcapas 1s, 2s y 2p est´ an dadas por las Ecs. (13.48, 13.49), P´ ag. 367 r R1,0 (r) = 2 (a0 )−3/2 e−r/a0 ; R2,0 (r) = 2 (2a0 )−3/2 1 − e−r/2a0 2a0 r R2,1 (r) = (2a0 )−3/2 3−1/2 e−r/2a0 a0
(23.43)
(23.44) (23.45)
puesto que los arm´ onicos esf´ericos est´ an debidamente normalizados, el valor medio hRq i para q entero (positivo o negativo) se puede escribir como Z Z ∗ ∗ ϕ∗n,l,m (r) r q ϕn,l,m (r) dV = Rn,l (r) Ylm (θ, ϕ) r q Rn,l (r) Ylm (θ, ϕ) r 2 dr dΩ hRq in,l,m = Z Z ∗ ∗ = Rn,l (r) r q+2 Rn,l (r) dr Ylm (θ, ϕ) Ylm (θ, ϕ) dΩ quedando finalmente
hRq in,l,m =
Z
∞ 0
r q+2 |Rn,l (r)|2 dr
(23.46)
v´ alida para q positivo o negativo, siempre que la integral (23.46) sea convergente. Al sustituir (23.44, 23.45) en (23.46) aparecen integrales de la forma Z ∞ I (k, p) = r k e−pr/a0 dr (23.47) 0
donde p y k son enteros. Integrando por partes con u = r k y dv = e−pr/a0 dr, la integral (23.47) adquiere la forma Z a0 −pr/a0 k ∞ ka0 ∞ k−1 −pr/a0 I (k, p) = − e r + r e dr p p 0 0 ka0 I (k − 1, p) (23.48) I (k, p) = p por recurrencia se obtiene 2 ka0 (k − 1) a0 a0 (k − 2) a0 I (k, p) = I (k − 2, p) = k (k − 1) I (k − 3, p) p p p p 3 a0 I (k, p) = k (k − 1) (k − 2) I (k − 3, p) p que para k entero positivo, claramente nos da I (k, p) = k!
a0 p
k
I (0, p)
a partir de la definici´ on (23.47), la integral I (0, p) nos da Z ∞ a0 −pr/a0 ∞ −pr/a0 I (0, p) = e dr = − e p 0 0 a0 I (0, p) = p
(23.49)
(23.50)
´ ´ ´ 23.5. CALCULO DE LOS TERMINOS CINETICO Y DE DARWIN y sustituyendo (23.50) en (23.49), la integral I (k, p) queda k+1 a0 I (k, p) = k! p asignando q = −1 en (23.46), 1 = R 1s 1 = R 1s
y utilizando (23.44), (23.47) y (23.51), se obtiene Z ∞ Z ∞ 4 4 4 a0 2 r |R1,0 (r)|2 dr = 3 re−2r/a0 dr = 3 I (1, 2) = 3 a0 0 a0 a0 2 0 1 a0
Z ∞ Z ∞ 4 r 2 −r/a0 1 2 = r |R2,0 (r)| dr = 3 r 1− e dr R 2s 2a0 8a0 0 0 Z ∞ 1 r 2 −r/a0 r 3 −r/a0 −r/a0 = − e + 2e re dr a0 2a30 0 4a0 1 1 1 = I (2, 1) + I (3, 1) I (1, 1) − a0 2a30 4a20 1 1 1 2 3 4 = a − 2!a + 3!a 2a30 0 a0 0 4a20 0 1 1 = R 2s 4a0 2 Z Z ∞ 1 1 1 ∞ r = r |R2,1 (r)|2 dr = 3 r e−r/a0 dr R 2p 3 a 8a 0 0 0 0 Z ∞ 1 1 1 r 3 e−r/a0 dr = I (3, 1) = 3!a4 = 5 5 24a0 0 24a0 24a50 0 1 1 = R 2p 4a0
549
(23.51)
(23.52)
(23.53)
(23.54)
similarmente con q = −2 se obtiene 1 4 2 = I (0, 2) = 2 (23.55) 3 2 R 1s a0 a0 1 1 1 1 1 = (23.56) I (0, 1) − I (1, 1) + 2 I (2, 1) = 2 3 2 R 2s a0 2a0 4a0 4a0 1 1 1 = I (2, 1) = (23.57) 5 R2 2p 24a0 12a20
es f´ acil ver que la expresi´ on 1/R3 no tiene sentido para las subcapas 1s y 2s, puesto que la integral (23.46) ser´ıa divergente. Para la subcapa 2p haciendo q = −3 en (23.46) y utilizando (23.45), tenemos 2 Z ∞ Z ∞ 1 2 −3/2 −1/2 r −r/2a0 −1 −1 = r |R2,1 (r)| dr = r (2a0 ) 3 e dr 3 R 2p a0 0 0 Z ∞ 1 = r e−r/a0 dr 24a50 0 de lo cual se obtiene
1 R3
2p
=
1 1 I (1, 1) = 5 24a0 24a30
(23.58)
´ ´ CAP´ITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO
550
23.5.2.
C´ alculo de hWmv i
Es conveniente escribir las expresiones en t´erminos de la constante de estructura fina α, usando las siguientes relaciones EI 1 ~ En = − 2 = − 2 α2 me c2 ; e2 = α~c ; a0 = (23.59) n 2n αme c Reemplazando (23.59) en (23.42) obtenemos " # 1 1 4 2 4 1 2 1 1 2 2 2 2 hWmv i = − α me c − 2 α me c (α~c) +α ~ c 2me c2 4n4 2n2 R n,l,m R2 n,l,m
(23.60)
y usando (23.52, 23.55) en la Ec. (23.60) se obtiene hWmv i para la subcapa 1s (la cual requerimos para el c´ alculo de estructura fina asociado a n = 1, de la secci´ on 23.8) 1 1 2 1 4 2 4 1 2 2 2 2 2 α me c − 2 α me c (α~c) +α ~ c 2 hWmv i1s = − 2me c2 4 2 a0 a0 2 1 1 4 2 4 1 2 αm c e 2 2 2 2 αme c = − α me c − 2 α me c (α~c) + 2α ~ c 2me c2 4 2 ~ ~ 5 hWmv i1s = − α4 me c2 (23.61) 8 similarmente, para las subcapas 2s y 2p se obtiene
23.5.3.
13 4 α me c2 128 7 4 = − α me c2 384
hWmv i2s = −
(23.62)
hWmv i2p
(23.63)
El valor medio hWD i
De las Ecs. (23.36, 23.38) junto con la Ec. (23.20), este valor medio se puede escribir gen´ericamente en la forma hWD in,l,m hWD in,l,m
2 πe2 ~2 πe2 ~2 2 iEt/~ = hWD iψ = |ψ (0)| = ϕn,l,m (r = 0) e 2m2e c2 2m2e c2 ~2 = 4πe2 |ϕn,l,m (r = 0)|2 8m2e c2
y recordando que la funci´ on de onda solo es no nula en el origen para l = 0 (ver secci´ on 13.6.1, p´ ag. 369), tenemos que ~2 hWD in,l,m = 4πe2 |ϕn,0,0 (r = 0)|2 δl,0 (23.64) 2 2 8me c con lo cual hWD i2p = 0
(23.65)
√ para los niveles 1s y 2s, usando (23.43, 23.44, 23.59) y el hecho de que Y00 = 1/ 4π, la Ec. (23.64) nos da hWD i1s = =
~2 ~2 ~2 2 2 2 2 2 4πe |ϕ (r = 0)| = 4πe |R (0) Y | = e |R1,0 (0)|2 n,0,0 1,0 00 8m2e c2 8m2e c2 8m2e c2 αm c 3 1 ~2 2 4 ~2 2 1 ~2 e e = e = α~c = α4 me c2 3 3 2 2 2 2 2 2 8me c 2me c 2me c ~ 2 a0 a0
´ ´ ´ 23.6. CALCULO DEL TERMINO DE ESP´IN-ORBITA WSO
551
de manera similar se calcula hWD i2s con lo cual obtenemos hWD i1s = hWD i2s =
23.6.
~2 2 1 e |R1,0 (0)|2 = α4 me c2 2 2 8me c 2 2 ~ 1 e2 |R2,0 (0)|2 = α4 me c2 8m2e c2 16
(23.66) (23.67)
C´ alculo del t´ ermino de esp´ın-´ orbita WSO
El lector puede comprobar f´ acilmente que el t´ermino de esp´ın-´ orbita (23.12) no conmuta con los operadores L3 , S3 . Por tanto, los elementos no-diagonales de las submatrices (23.33) son en general no nulos. En otras palabras, el t´ermino esp´ın-´ orbita puede inducir transiciones entre diferentes valores de los n´ umeros cu´ anticos mL y mS . En consecuencia, para el t´ermino de esp´ın-´ orbita deben calcularse elementos matriciales de la forma
(23.68) hWSO i = n, l, s, m′L , m′S (ξ (R) L · S) |n, l, s, mL , mS i ξ (R) ≡
e2 1 2 2 2me c R3
(23.69)
Utilizando la base {|r, εi} de posici´ on y esp´ın, podemos separar la parte radial de la parte angular y espinorial. Se obtiene entonces
hWSO i = n, l, s, m′L , m′S (ξ (R) L · S) |n, l, s, mL , mS i
= hn, l| ⊗ l, s, m′L , m′S (ξ (R) L · S) [|n, li ⊗ |s, mL , mS i]
= hn, l| ξ (R) |n, li l, s, m′L , m′S ( L · S) |s, mL , mS i 2 Z ∞
1 e 2 2 ′ ′ hWSO i = |R (r)| r dr l, s, m , m (L · S) |l, s, mL , mS i nl L S 2m2e c2 0 r 3 que se puede escribir en la forma
l, s, m′L , m′S (L · S) |l, s, mL , mS i Z ∞ e2 1 |Rnl (r)|2 dr 2 2 2me c 0 r
hWSO i = ξnl ξnl =
(23.70) (23.71)
Vemos entonces que el c´ alculo se separa en un t´ermino esp´ın-angular y un t´ermino radial.
23.6.1.
C´ alculo del t´ ermino esp´ın-angular
Calcularemos primero los t´erminos matriciales del operador L · S en la ecuaci´ on (23.70). La representaci´ on matricial de este operador puede calcularse en diferentes bases. Una es la base de vectores propios comunes a L2 , S2 , L3 , S3 |l, s, mL , mS i (23.72) o introduciendo el momento angular total J=L+S
(23.73)
podemos construir una base de vectores propios comunes a L2 , S2 , J2 y J3 , definida por6 |l, s, J, mJ i
(23.74)
Por otro lado, se puede transformar de una base a la otra, utilizando los coeficientes de Clebsch-Gordan discutidos en la secci´ on 16.8. 6
Ambos conjuntos de operadores junto con H, forman un C.S.C.O.
´ ´ CAP´ITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO
552
Veremos que la base (23.74) es m´ as apropiada para este problema debido a que el operador L · S es diagonal en esta base. Por tanto, en lugar de los elementos matriciales (23.70) calcularemos elementos matriciales de la forma
hWSO iJ = ξnl l, s, J ′ , m′J (L · S) |l, s, J, mJ i
(23.75)
Para ver que L · S es diagonal en la base (23.74), elevamos al cuadrado la Ec. (23.73) teniendo en cuenta que L y S conmutan J2 = (L + S)2 = L2 + 2L · S + S2 1 2 J − L2 − S2 L·S = 2
⇒ (23.76)
combinando (23.76) con el hecho de que los vectores (23.74) son autoestados propios de J2 , L2 , S2 se tiene que L · S |l, s, J, mJ i = L · S |l, s, J, mJ i =
1 2 J − L2 − S2 |l, s, J, mJ i 2 ~2 [J (J + 1) − l (l + 1) − s (s + 1)] |l, s, J, mJ i 2
(23.77)
la ecuaci´ on (23.77) nos muestra que los autovalores de L · S (para l y s fijos) solo dependen de J pero no de mJ . Usando (23.77) vemos que los t´erminos matriciales en la base ortonormal (23.74) vienen dados por
l, s, J ′ , m′J L · S |l, s, J, mJ i =
l, s, J ′ , m′J L · S |l, s, J, mJ i =
~2 [J (J + 1) − l (l + 1) − s (s + 1)] l, s, J ′ , m′J l, s, J, mJ i 2 ~2 [J (J + 1) − l (l + 1) − s (s + 1)] δJJ ′ δmJ ,m′J 2
(23.78)
de modo que en la base acoplada este operador es diagonal. En el cap´ıtulo 16, secci´ on 16.5.6, vimos las reglas de adici´on del momento angular Ec. (16.56) P´ ag. 420, seg´ un la cual para dos momentos angulares caracterizados por los n´ umeros cu´ anticos l y s, el n´ umero cu´ antico J toma los posibles valores J = l + s, l + s − 1, . . . , |l − s| para l = 0, J solo toma el valor J = s. Por tanto, para l = 0, es claro que el t´ermino matricial (23.78) se anula7 . En particular, para la subcapa 2s (en la cual l = 0) no hay contribuci´ on del t´ermino de esp´ın-´ orbita hWSO i2s = 02×2
(23.79)
en cuanto a la subcapa 2p (con s = 1/2, l = 1), los valores posibles de J son 1 3 J= , 2 2 y el t´ermino matricial (23.78) nos da
7
1 ′ ′ 1 ~2 11 l = 1; s = ; J ; mJ L · S l = 1, s = , J, mJ = J (J + 1) − δJJ ′ δmJ ,m′J 2 2 2 4
N´ otese que este resultado es v´ alido para cualquier valor de n y s, solo depende de que l = 0.
(23.80)
´ ´ ´ 23.6. CALCULO DEL TERMINO DE ESP´IN-ORBITA WSO
23.6.2.
553
C´ alculo del t´ ermino radial
Puesto que el cambio de base antes mencionado solo involucra a las variables esp´ın-´ angulo, es claro que el t´ermino puramente radial ξ2p no depende de la base usada. Como la contribuci´ on esp´ın-angular se anula para la subcapa 2s, calcularemos el t´ermino radial (23.71) solo para la subcapa 2p. Usando las expresiones (23.45, 23.47), la ecuaci´ on (23.71) para n = 2, l = 1 queda 2 Z ∞ Z ∞ e2 e2 1 1 2 −3/2 −1/2 r −r/2a0 (r)| dr = ) 3 e ξ2p = |R (2a 21 0 dr 2m2e c2 0 r 2m2e c2 0 r a0 Z ∞ Z ∞ e2 e2 1 1 r 2 −r/a0 e dr = re−r/a0 dr = 2m2e c2 0 r 3 (2a0 )3 a20 48a50 m2e c2 0 ξ2p =
e2 I (1, 1) 48a50 m2e c2
usando las relaciones (23.51, 23.59) nos queda ξ2p =
e2 a2 5 48a0 m2e c2 0
me c2 α4 48~2 con lo cual desaparecen las variables radiales. ξ2p =
23.6.3.
=
e2 48a30 m2e c2
= 48
α~c 3
~ αme c
m2e c2 (23.81)
Contribuci´ on esp´ın-´ orbita completa para la subcapa 2p
Sustituyendo (23.80) y (23.81) en (23.70) con l = 1, s = 1/2 (para la subcapa 2p), y para los valores posibles de J = 1/2, 3/2; las contribuciones no nulas en (23.70), es decir los t´erminos diagonales vienen dados por 1 1 1 1 1 ξ2p l = 1; s = ; J = ; mJ L · S l = 1; s = ; J = ; mJ = −ξ2p ~2 = − me c2 α4 2 2 2 2 48 1 1 3 3 1 1 ξ2p l = 1; s = ; J = ; mJ L · S l = 1; s = ; J = ; mJ = ξ2p ~2 = me c2 α4 2 2 2 2 2 96
tenemos entonces que para l = 1, s = 12 se forman dos subespacios de E, asociados a J = 1/2 y a J = 3/2 respectivamente. Estos espacios son de dimensi´ on 2J + 1 (n´ umero de valores posibles de mJ ) y por tanto son de dimensi´ on 2 para J = 1/2 y de dimensi´ on 4 para J = 3/2. Denotaremos estos espacios por E (2p, J) con J = 1/2 y 3/2. Puesto que el operador L · S es diagonal en la base (23.74) y los elementos matriciales no dependen de mJ , vemos que dentro de cada subespacio E (2p, J) el operador L · S es proporcional a la identidad. Tenemos entonces que la degeneraci´ on de orden 6 de la subcapa 2p es parcialmente removida por WSO , quedando una degeneraci´ on de orden cuatro para J = 3/2 y una degeneraci´ on de orden 2 para J = 1/2. La textura matricial en la base acoplada queda en la forma (1/2) 2p J W 0 2×4 SO 1 −2I2×2 02×4 2p 2 4 2×2 WSO = (23.82) (3/2) = me c α 04×2 I4×4 2p 96 6×6 04×2 WSO 4×4 1 3 E (2p) = E 2p, J = ⊕ E 2p, J = 2 2 la degeneraci´ on 2J +1 asociada a cada estado con J fijo, es una degeneraci´ on esencial relacionada con la invarianza rotacional8 de Wf . Recordemos que para la subcapa 2s, J solo puede tomar el valor J = 1/2, y que no hay contribuci´ on proveniente del t´ermino de esp´ın-´ orbita. 8
Esta invarianza rotacional es en un sentido extendido ya que es con respecto al momento angular total J = L + S.
´ ´ CAP´ITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO
554
Puesto que hemos cambiado de base para calcular los elementos matriciales de la subcapa 2p, a priori parece necesario cambiar de nuevo a la base (23.72) ya que fu´e en esta u ´ltima en donde se calcularon los t´erminos Wmv y WD . Sin embargo, hemos visto que los operadores Wmv y WD son proporcionales a la identidad dentro del subespacio E (2p)6×6 . La representaci´ on de todo operador proporcional a la identidad es la misma en todas las bases. Por tanto, resulta m´ as conveniente cambiar la representaci´ on matricial de WD y Wmv a la base (23.74), ya que los elementos matriciales no cambian en lo absoluto.
23.7.
S´ıntesis de resultados sobre la estructura fina
Hemos visto que la base acoplada (23.74) es la m´ as conveniente para describir la representaci´ on matricial de Wf . En esta base, los n´ umeros cu´ anticos de los cuales depende la energ´ıa son (n, l, J), el u ´ltimo n´ umero cu´ antico lo introduce en el espectro la interacci´ on esp´ın-´ orbita. Para el nivel 2s, J = 1/2 en tanto que para 2p tenemos dos valores J = 1/2, ´ o 3/2. El nivel asociado a un conjunto de valores (n, l, J) se denota agregando el s´ımbolo J a la notaci´ on espectrosc´ opica de la subcapa (n, l), en la forma: nlJ por ejemplo del nivel n = 2 del ´ atomo de hidr´ ogeno, surgen los siguientes niveles asociados a su estructura fina 2s1/2 , 2p1/2 , 2p3/2
(23.83)
la idea ahora es calcular las posiciones de los niveles (23.83) con respecto al nivel no perturbado. Puesto que todo lo hemos escrito en t´erminos de la constante de estructura fina α, es conveniente escribir los niveles no perturbados en t´erminos de tal par´ ametro, usando la Ec. (23.29) 1 En=2 ≡ E20 = − µc2 α2 8 Tomando las Ecs. (23.62, 23.67, 23.79) vemos que para la subcapa 2s la contribuci´ on de Wf nos da hWf i2s = hWmv i2s + hWD i2s + hWSO i2s = −
13 4 1 α me c2 + α4 me c2 + 0 128 16
y tomando las Ecs. (23.63, 23.65, 23.82), la contribuci´ on de Wf a los niveles 2p1/2 y 2p3/2 resultan hWf i2p hWf i2p
1/2
3/2
7 4 α me c2 + 0 − 384 7 4 =− α me c2 + 0 + 384
= hWmv i2p1/2 + hWD i2p1/2 + hWSO i2p1/2 = − = hWmv i2p3/2 + hWD i2p3/2 + hWSO i2p3/2
1 me c2 α4 48 1 me c2 α4 96
n´ otese que solo WSO es responsable de la separaci´ on entre 2p1/2 y 2p3/2 , ya que los t´erminos cin´etico Wmv y de Darwin WD no son sensibles al n´ umero cu´ antico J. Las correcciones de la estructura fina quedan finalmente hWf i2s = hWf i2p1/2 = −
5 me c2 α4 128
;
hWf i2p3/2 = −
1 me c2 α4 128
las Ecs. (23.84) nos dicen que los niveles 2s1/2 , 2p1/2 , 2p3/2 se bajan en las cantidades dadas por 5 me c2 α4 128 5 = − me c2 α4 128 1 = − me c2 α4 128
E2s1/2 − E20 = − E2p1/2 − E20 E2p3/2 − E20
(23.84)
23.7. S´INTESIS DE RESULTADOS SOBRE LA ESTRUCTURA FINA
555
Figura 23.1: Ilustraci´ on de la modificaci´ on del nivel n = 2 debido a la estructura fina en el ´ atomo de Hidr´ ogeno. Se crean los subniveles 2s1/2 , 2p1/2 y 2p3/2 . Los dos primeros poseen la misma energ´ıa dentro del presente c´ alculo. Sin embargo, estos dos niveles poseen una ligera diferencia conocida como corrimiento Lamb, cuya explicaci´ on requiere el empleo de la electrodin´ amica cu´ antica. vemos entonces que todos los niveles se bajan con respecto al nivel n = 2 no perturbado. La brecha entre el nivel no perturbado y el nivel 2p3/2 es 5 veces menor que la brecha asociada a los otros niveles. N´ otese que los niveles on accidental, en 2s1/2 y 2p1/2 poseen la misma energ´ıa. En el marco de la presente teor´ıa esta es una degeneraci´ contraste con la degeneraci´ on 2J + 1 de cada nivel J, la cual se considera esencial. Esta situaci´ on se describe en la Figura 23.1 Una evidencia experimental interesante de la existencia de la estructura fina es la observaci´ on de que la l´ınea espectral α de Lyman que da cuenta de la transici´ on 2p → 1s, realmente contiene dos l´ıneas cuya brecha es muy similar 2p1/2 → 1s1/2 y 2p3/2 → 1s1/2 , tales l´ıneas est´ an separadas por una brecha de energ´ıa dada por 4 E2p1/2 − E1s1/2 − E2p3/2 − E1s1/2 = E2p1/2 − E2p3/2 = me c2 α4 128 1 ∆E = me c2 α4 32
∆E =
por tanto se puede observar que se emiten fotones de dos energ´ıas diferentes (aunque muy cercanas) en la serie de Lyman. Vale decir que la subcapa 1s solo admite el valor J = 1/2, y por tanto Wf no desdobla este nivel. Cuando la transici´ on se da entre niveles excitados hay que tener en cuenta el desdoblamiento tanto de la subcapa inicial como de la subcapa final. Ya hemos mencionado que la ecuaci´ on de Dirac para una part´ıcula bajo potencial Coulombiano puede resolverse en forma exacta. Dicha soluci´ on exacta nos da la energ´ıa de un nivel caracterizado por los n´ umeros cu´ anticos n, l, s, J, y se obtiene
En,J = me c2 1 + α2 n − J −
1 + 2
s
J+
1 2
2
−2 − 21
− α2
(23.85)
esto nos muestra que para n dado, dos niveles con el mismo J tienen la misma energ´ıa, como lo vimos con los niveles 2s1/2 y 2p1/2 . Vemos por tanto, que este resultado no solo ser´ıa v´ alido a primer orden en Wf sino a todos los ´ ordenes. Adem´as se observa que la energ´ıa depende de n, J pero no de l. Una expansi´ on en potencias de α de
556
´ ´ CAP´ITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO
la expresi´ on exacta (23.85), nos da 1 me c2 1 En,J = me c2 − me c2 α2 2 − 2 n 2n4
n 3 − J + 1/2 4
α4 + . . .
donde el primer t´ermino es la autoenerg´ıa del electr´ on, el segundo t´ermino es el nivel “no perturbado” de un electr´ on en el ´ atomo de Hidr´ ogeno, y el tercer t´ermino es la contribuci´ on de primer orden en Wf . Puede demostrarse que incluso en ausencia de un campo externo o de fotones incidentes, debe considerarse la existencia de un campo electromagn´etico fluctuante cuyo origen est´ a en la naturaleza cu´ antica del campo9 . El acople del ´ atomo con estas fluctuaciones del campo electromagn´etico remueve la degeneraci´ on entre los niveles 2s1/2 y 2p1/2 , elevando ligeramente al primero con respecto al segundo, por una cantidad conocida como corrimiento Lamb, que es del orden de 1060M Hz. El estudio de este fen´ omeno permiti´ o el desarrollo de la electrodin´ amica cu´ antica.
23.8.
La estructura fina para n = 1
Para la subcapa 1s no hay degeneraci´ on orbital ya que l = 0. Puesto que S3 e I3 pueden tomar cada uno los valores ±1/2, la degeneraci´ on del nivel 1s es de orden 4. Una posible base para esta subcapa est´ a dada por n = 1; l = 0; mL = 0; mS = ± 1 ; mI = ± 1 2 2
veremos que a diferencia de lo que ocurre para el nivel n = 2, el t´ermino Wf no remueve la degeneraci´ on del nivel n = 1, i.e. de la subcapa 1s. Los t´erminos Wmv y WD no act´ uan sobre las variables de esp´ın. Por tanto, su representaci´ on matricial es proporcional a la identidad 4 × 4. Por otro lado, aplicando los argumentos de la secci´ on 23.6.1, vemos que la contribuci´ on del t´ermino esp´ın-´ orbita es cero debido a que l = 0. Puede verificarse que 5 hWmv i1s = − me c2 α4 I4x4 8
;
hWD i1s =
1 me c2 α4 I4x4 2
;
hWSO i1s = 04×4
en conclusi´ on, la correcci´ on Wf no desdobla al nivel n = 1, solo se corre el nivel como un todo en una cantidad dada por 1 hWf i1s = hWmv i1s + hWD i1s + hWSO i1s = − me c2 α4 8 esto tambi´en se puede ver teniendo en cuenta que con n = 1, solo es posible que l = 0 y que J = 1/2. Por tanto Wf solo genera un nivel de estructura fina 1s1/2 .
23.9.
Estructura hiperfina para n = 1
Aunque se puede calcular la estructura hiperfina para n = 2, es m´ as f´ acil medir experimentalmente la estructura hiperfina para n = 1, debido a que para este nivel no hay desdoblamiento asociado a la estructura fina, sino solo un corrimiento global del nivel. Por tanto, para n = 1 el desdoblamiento del espectro se debe solo a la estructura hiperfina. Puesto que n, l y mL son fijos en el proceso, una base adecuada ser´ a 1 1 |n, l, mL , mS , mI i ; n = 1, l = mL = 0 ; mS = ± , mI = ± 2 2 9
Nosotros hemos usado una “aproximaci´ on semi-cl´ asica” en la cual las part´ıculas (electrones) se trabajan como entidades cu´ anticas pero los campos se tratan como entidades cl´ asicas. En general, tanto las part´ıculas como los campos son de naturaleza cu´ antica.
23.9. ESTRUCTURA HIPERFINA PARA N = 1
557
Retomando entonces el Hamiltoniano (23.25) asociado a la estructura hiperfina Whf
µ0 =− 4π
1 8π q L · MI + 3 [3 (MS · n) (MI · n) − MS · MI ] + MS · MI δ (R) 3 me R R 3
(23.86)
el primer t´ermino incorpora productos internos de la forma n = 1, l = 0, mL = 0, m′S , m′I Lk MkI |n = 1, l = 0, mL = 0, mS , mI i
= hn = 1, l = 0, mL = 0| Lk |n = 1, l = 0, mL = 0i m′S , m′I MkI |mS , mI i
hL · MI i =
donde el producto interno orbital est´ a dado por
1 hn, l, mL | (L+ ± L− ) |n, l, mL i = 0 ; k = 1, 2 2 = mL hn, l, mL | n, l, mL i = mL = 0
hLk in,l,mL = hL3 in,l,mL
que se anulan en virtud de que l = mL = 0. Puede demostrarse adem´ as, que los t´erminos asociados a la interacci´ on dipolo-dipolo son cero en virtud de la simetr´ıa esf´erica del estado 1s ???. Por tanto, la u ´nica contribuci´ on no nula es la debida al t´ermino de contacto. Para dicho t´ermino se debe calcular el elemento matricial hWhf i1s = −
2µ0
n = 1; l = 0; mL = 0; m′S ; m′I MS · MI δ (R) |n = 1; l = 0; mL = 0; mS ; mI i 3
(23.87)
esta base expande un subespacio de 4 dimensiones asociado a la degeneraci´ on del nivel 1s, que denotaremos por E1s , la identidad en dicho subespacio est´ a dada por 11s =
1/2 X
1/2 X
mS =−1/2 mI =−1/2
|n = 1; l = 0; mL = 0; mS ; mI i hn = 1; l = 0; mL = 0; mS ; mI |
para calcular el elemento matricial (23.87), observamos que MS · MI solo act´ ua sobre los grados de libertad de esp´ın, en tanto que δ (R) solo act´ ua sobre grados de libertad orbitales. Adicionalmente, los kets en (23.87) pueden escribirse como el producto tensorial de un ket orbital y un ket de esp´ın. La Ec. (23.87) queda entonces
2µ0 hn = 1; l = 0; mL = 0| ⊗ m′S ; m′I {MS · MI δ (R)} [|n = 1; l = 0; mL = 0i ⊗ |mS ; mI i] 3
2µ0 = − hn = 1; l = 0; mL = 0| δ (R) |n = 1; l = 0; mL = 0i m′S ; m′I {MS · MI } |mS ; mI i 3
hWhf i1s = − hWhf i1s
aplicando (23.10, 23.24) se obtiene
gp qp 2µ0 q hn = 1; l = 0; mL = 0| δ (R) |n = 1; l = 0; mL = 0i m′S ; m′I S · I |mS ; mI i 3 me 2Mp
µ0 qqp gp = − hn = 1; l = 0; mL = 0| δ (R) |n = 1; l = 0; mL = 0i m′S ; m′I {S · I } |mS ; mI i 3me Mp
hWhf i1s = − hWhf i1s
teniendo en cuenta que µ0 = 1/ ε0 c2 , y que qp = −q (el prot´ on tiene la carga opuesta al electr´on) nos queda finalmente
hWhf i1s = R m′S ; m′I S·I |mS ; mI i ; R ≡
q 2 gp hn = 1; l = 0; mL = 0| δ (R) |n = 1; l = 0; mL = 0i (23.88) 3ε0 c2 me Mp
´ ´ CAP´ITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO
558
23.9.1.
C´ alculo del factor orbital R para Whf
Calculamos primero el factor R definido en (23.88) R ≡ R = R = R = R =
Z q 2 gp q 2 gp q 2 gp ϕ∗1,0,0 (r) δ (r) ϕ1,0,0 (r) dV = |ϕ1,0,0 (0)|2 = |R1,0 (0)|2 |Y0,0 (0)|2 2 2 3ε0 c me Mp V 3ε0 c me Mp 3ε0 c2 me Mp 2 q 2 gp q 2 gp q 2 gp 1 2 −3/2 −r/a0 |R (0)| = 2 (a ) e = 1,0 0 3ε0 c2 me Mp 4π 12πε0 c2 me Mp r=0 3πε0 c2 me Mp a30 q 2 gp 4 1 1 −3 q 2 me cα3 3 4 2 me cα3 = µ = e + g g 3 p p 3 4πε0 Mp m2e ~3 3 Mp m2e ~3 me Mp ~ 3πε0 c2 me Mp µcα 4 me cα3 1 me −3 gp (α~c) 1+ 3 Mp m2e ~3 me Mp −3 4 me 1 me gp 1+ me c2 α4 (23.89) 2 3 Mp ~ Mp
donde hemos usado (23.44).
23.9.2.
C´ alculo del factor de esp´ın para Whf
Nos queda entonces calcular el elemento matricial asociado al esp´ın en (23.88)
J ≡ m′S ; m′I S · I |mS ; mI i
El c´alculo es muy similar al que se realiza para la correcci´ on esp´ın ´ orbita L · S, ya que tambi´en se trata del acoplamiento de dos momentos angulares (aunque en este caso, ambos momentos angulares son intr´ınsecos). Por tanto podemos emular el razonamiento hecho en la secci´ on 23.6. Al igual que en dicha secci´ on, ser´ a conveniente hacer un cambio de base. Los elementos matriciales para el operador S · I los hemos escrito en la base10 s = 1 ; I = 1 ; mS ; mI (23.90) 2 2 de estados propios comunes a S2 , I2 , S3 , I3 . Podemos introducir el momento angular intr´ınseco total11 F≡S+I para construir la base
s = 1 ; I = 1 ; F ; mF ≡ {|F ; mF i} 2 2
(23.91)
(23.92)
de autoestados comunes a S2 , I2 , F2 y F3 . Hemos abreviado la notaci´ on puesto que s, I no cambian en el proceso. Dado que s = I = 1/2, el esp´ın total F puede tomar dos valores F = 0, 1 se puede pasar de una base a otra usando los coeficientes de Clebsch-Gordan discutidos en la secci´on 16.8. Como en el caso de la secci´ on 23.6 para el operador L · S, la base (23.92) es mejor que la base (23.90) para el c´ alculo de 10
Cuando consideramos el esp´ın del prot´ on y del electr´ on, el espacio de Hilbert de los estados ser´ a el producto tensorial del espacio orbital Er con los estados espinoriales ES del electr´ on y EI del prot´ on, i.e. E ≡ E r ⊗ ES ⊗ EI . Una base en tal espacio ser´ıa de la forma {|r, εS , εI i}. En la Ec. (23.90) ya hemos desacoplado la parte orbital de modo que nos describe una base del espacio espinorial ES ⊗ EI . 11 El momento angular total es L + S + I. Sin embargo, en el estado base tenemos que l = 0 y el momento angular total es S + I.
23.9. ESTRUCTURA HIPERFINA PARA N = 1
559
los elementos matriciales de S · I, ya que en la base (23.92) la representaci´ on matricial es diagonal. Elevando al cuadrado la expresi´ on (23.91) y despejando S · I se tiene F2 = S2 + I2 + 2S · I 1 2 S·I = F − S2 − I2 2 al aplicar el operador S · I sobre un estado del tipo (23.92) tenemos 1 2 ~2 3 3 2 2 F − S − I |F ; mF i = F (F + 1) − − |F ; mF i S · I |F ; mF i = 2 2 4 4 ~2 3 S · I |F ; mF i = F (F + 1) − |F ; mF i 2 2
por tanto los estados |F ; mF i son vectores propios del operador S · I. Los valores propios de S · I solo dependen de F y no de mF y est´ an dados por 3 |F = 0; mF i → − ~2 4 2 ~ |F = 1; mF i → 4 los elementos matriciales son entonces
′ ′ ~2 3 F ; mF S · I |F ; mF i = δF ′ ,F δm′F ,mF F (F + 1) − ; F = 0, 1 (23.93) 2 2 por tanto, Whf remueve parcialmente la degeneraci´ on de orden 4 del estado 1s. Obteni´endose un nivel de degeneraci´ on de orden 3 para F = 1 y uno no degenerado para F = 0. La degeneraci´ on remanente de orden 2F + 1, es de car´ acter esencial y est´ a relacionada con la invarianza de Whf bajo una rotaci´ on del sistema total. Ahora bien, el t´ermino R solo depend´ıa de la parte orbital, de modo que su valor num´erico no se altera por el cambio de base (ya que este u ´ltimo solo involucra a la parte espinorial), y dado que las otras contribuciones hiperfinas son nulas, no es necesario regresarnos a la base original.
23.9.3.
Espectro hiperfino del nivel 1s
Como vimos en la Sec. 23.8, bajo el efecto del t´ermino Wf la energ´ıa del nivel 1s no se desdobla, pero si se baja como un todo en una cantidad me c2 α4 f 0 E1s = E1s − 8 si adicionamos el efecto de Whf , encontramos que el nivel 1s1/2 se desdobla en dos niveles hiperfinos. Para caracterizarlos, sustitu´ımos (23.93) en (23.88) para obtener 3 hWhf iF1s=0 = R hF = 0; mF | S · I |F = 0; mF i = − ~2 R 4 1 2 F =1 = R hF = 1; mF | S · I |F = 1; mF i = ~ R hWhf i1s 4 por tanto el nivel desdoblado con F = 0 est´ a por debajo de 1s1/2 en una cantidad (3/4) ~2 R. El nivel desdoblado con F = 1 est´ a por encima de 1s1/2 en una cantidad (1/4) ~2 R. La brecha entre los niveles desdoblados de 1s1/2 es ~2 R. Estas caracter´ısticas se ilustran en la figura 23.2a. Un an´ alisis similar se puede realizar para la estructura hiperfina de los niveles 2s1/2 , 2p1/2 y 2p3/2 . Estos niveles se desdoblan en niveles hiperfinos correspondientes a todos los valores permitidos de F F = J + I, J + I − 1, . . . , |J − I| para los niveles 2s1/2 y 2p1/2 , se tiene que J = 1/2, de modo que F = 0, 1. Para el nivel 2p3/2 tenemos que J = 3/2 y F toma los valores F = 2, 1. La figura 23.2b, muestra la estructura hiperfina asociada a n = 2.
560
´ ´ CAP´ITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO
Figura 23.2: (a) Ilustraci´ on de la modificaci´ on del nivel 1s debido a la estructura fina e hiperfina en el ´ atomo de Hidr´ ogeno. La estructura fina solo produce un corrimiento del nivel como un todo en una cantidad −me c2 α4 /8. La estructura hiperfina desdobla el nivel corregido por la estructura fina en dos subniveles, por medio del n´ umero cu´ antico F . (b) Estructura hiperfina asociada a n = 2.
Cap´ıtulo 24
Campos el´ ectricos y magn´ eticos externos sobre el ´ atomo de Hidr´ ogeno: Efecto Zeeman y efecto Stark En el cap´ıtulo 23, estudiamos las correcciones al espectro del ´ atomo de Hidr´ ogeno debidas a los efectos relativistas. Para este estudio el campo electrost´ atico y los campos magn´eticos considerados son internos. En este cap´ıtulo estudiaremos el efecto de campos magn´eticos y el´ectricos externos sobre el espectro del ´ atomo de Hidr´ ogeno. El efecto de un campo magn´etico uniforme externo sobre el espectro at´ omico se conoce como efecto Zeeman, en tanto que el efecto debido a un campo el´ectrico uniforme externo se conoce como efecto Stark.
24.1.
Efecto Zeeman de la estructura hiperfina del estado base 1s
Asumiremos que el ´ atomo est´ a inmerso en un campo magn´etico externo est´ atico y uniforme B0 = B0 u3 . Este campo interact´ ua con los momentos magn´eticos en el ´ atomo debidos a los momentos angulares orbitales y de esp´ın ML =
q q qgp L ; MS = S ; MI = − I 2me me 2Mp
estas interacciones se incluyen en el Hamiltoniano como la energ´ıa de interacci´ on entre el ´ atomo y el campo B0 q q qgp q q qgp WZ = −B0 · (ML + MS + MI ) = −B0 u3 · L+ S− I = −B0 L3 + S3 − I3 2me me 2Mp 2me me 2Mp q q = − B0 (L3 + 2S3 ) + gp B0 I3 2me 2Mp q q WZ = ω0 (L3 + 2S3 ) + ωn I3 ; ω0 ≡ − B0 , ω n ≡ gp B0 (24.1) 2me 2Mp donde ω0 es la frecuencia de Larmor en el campo B0 . Al Hamiltoniano WZ se le conoce como Hamiltoniano de Zeeman. Puesto que Mp ≫ me , se tiene que |ω0 | ≫ |ωn | (24.2) estrictamente, el Hamiltoniano de Zeeman contiene un t´ermino adicional (t´ermino diamagn´etico) cuadr´ atico en B0 . Sin embargo, este t´ermino no act´ ua sobre los espines y solamente corre el nivel 1s como un todo (ver secci´ on 14.2.3, P´ ag. 378). Adem´ as el t´ermino es mucho menor en valor absoluto que los t´erminos lineales en el campo.??? Estudiaremos el efecto de WZ sobre el estado base 1s del ´ atomo de hidr´ ogeno. A´ un con campos muy intensos, WZ es mucho menor que la distancia entre el nivel 1s y los otros niveles, de modo que su efecto se puede tratar perturbativamente. 561
562
´ ´ CAP´ITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO
El efecto de un campo magn´etico externo sobre los niveles de energ´ıa at´ omicos se conoce como efecto Zeeman. Dependiendo de la intensidad del campo magn´etico, el Hamiltoniano WZ puede ser del orden de magnitud de la estructura hiperfina o incluso mayor. En general, WZ puede ser mucho menor, del orden de, o mucho mayor que Whf , con lo cual el Hamiltoniano completo WZ + Whf debe ser diagonalizado dentro del nivel n = 1. En la secci´ on 23.9, Ec. (23.88) P´ ag. 557 vimos que Whf para n = 1 queda en la forma RS · I. Para el t´ermino de Zeeman (24.1) debemos calcular elementos matriciales de la forma
hWZ i1s = n = 1; l = 0; mL = 0; m′S ; m′I [ω0 (L3 + 2S3 ) + ωn I3 ] |n = 1; l = 0; mL = 0; mS ; mI i dado que l = mL = 0, la contribuci´ on ω0 L3 es nula. Adicionalmente, teniendo en cuenta que 2ω0 S3 + ωn I3 solo act´ ua sobre variables de esp´ın tenemos que
hWZ i1s = hn = 1; l = 0; mL = 0| ⊗ m′S ; m′I [2ω0 S3 + ωn I3 ] {|n = 1; l = 0; mL = 0i ⊗ |mS ; mI i}
= hn = 1; l = 0; mL = 0| n = 1; l = 0; mL = 0i m′S ; m′I [2ω0 S3 + ωn I3 ] |mS ; mI i
hWZ i1s = m′S ; m′I [2ω0 S3 + ωn I3 ] |mS ; mI i en general debemos calcular los elementos matriciales de Whf + WZ
hRI · S + 2ω0 S3 + ωn I3 i los cuales solo act´ uan sobre grados de libertad de esp´ın. Estos elementos matriciales deben calcularse en la base {|mS , mI i} o en la base {|F, mF i}. Adicionalmente, la Ec. (24.2) nos dice que |ω0 | ≫ |ωn | de modo que on sobre el nivel 1s ser´ a despreciaremos el t´ermino ωn I3 . En consecuencia, la perturbaci´ W1s ≈ RI · S + 2ω0 S3
(24.3)
variando de manera cont´ınua la intensidad del campo, podemos modificar la magnitud del efecto Zeeman. De acuerdo con la intensidad del campo determinaremos tres casos 1. ~ω0 ≪ R~2 : campos d´ebiles 2. ~ω0 ≫ R~2 : campos fuertes 3. ~ω0 ≈ R~2 : campos intermedios Veremos que el operador completo se puede diagonalizar en forma exacta. Sin embargo, en los dos primeros casos utilizaremos teor´ıa de perturbaciones. En el primer caso, el t´ermino 2ω0 S3 se considerar´ a una perturbaci´ on con respecto a RI · S. En el segundo caso ser´ a al contrario. Adem´ as de permitirnos practicar la teor´ıa degenerada de perturbaciones, lo anterior tambi´en sirve para realizar an´ alisis asint´ oticos.
24.1.1.
Efecto Zeeman de campo d´ ebil
En el r´egimen de campo d´ebil el Hamiltoniano no perturbado H0 es el t´ermino de contacto RI · S, y el Hamiltoniano de perturbaci´ on W es el t´ermino 2ω0 S3 . Ya hemos determinado los autoestados del t´ermino de contacto RI · S, y se obtuvieron dos niveles un triplete (nivel triplemente degenerado con F = 1) y un singlete (nivel no degenerado con F = 0) R~2 4 3R~2 singlete de energ´ıa − 4
{|F = 1; mF = −1, 0, 1i} {|F = 0; mF = 0i}
triplete de energ´ıa
(24.4)
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S
563
por tanto, debemos utilizar teor´ıa de perturbaciones para un nivel degenerado. De acuerdo con la formulaci´ on en la secci´ on 20.4, P´ ag. 504 [particularmente, en las Ecs. (20.47, 20.48)] al considerar a 2ω0 S3 como una perturbaci´ on con respecto a RI · S, (aproximaci´ on de campo d´ebil) debemos diagonalizar separadamente las dos matrices asociadas a 2ω0 S3 en los dos niveles F = 1 y F = 0, i.e. correspondientes a valores propios no perturbados diferentes de RI · S. De las Ecs. (16.32, 16.33), P´ ag. 412, obtenemos la acci´ on de S3 sobre los estados {|F, mF i}, en donde dichos 1 estados se ordenar´ an en la forma {|F, mF i} → |1, 1i , |1, 0i , |1, −1i , |0, 0i
(24.5)
a fin de obtener la representaci´ on matricial. Aplicando (16.32, 16.33) sobre los estados (24.5) se obtiene ~ ~ |+, +i = |F = 1; mF = 1i 2 2 S3 1 ~ ~ ~ |+, −i − |−, +i √ {|+, −i + |−, +i} = √ √ |+, −i − |−, +i = 2 2 2 2 2 2 ~ |F = 0; mF = 0i 2 ~ ~ S3 |−, −i = − |−, −i = − |F = 1; mF = −1i 2 2 ) (~ ~ |+, −i + |−, +i |+, −i − |−, +i ~ |+, −i + |−, +i 2 2 √ √ √ S3 = = 2 2 2 2
S3 |F = 1; mF = 1i = S3 |+, +i = S3 |F = 1; mF = 0i = = S3 |F = 1; mF = −1i = S3 |F = 0; mF = 0i =
~ |F = 1; mF = 0i 2 en notaci´ on m´ as abreviada escribimos ~ ~ ~ ~ S3 |1, 1i = |1, 1i , S3 |1, 0i = |0, 0i , S3 |1, −1i = − |1, −1i , S3 |0, 0i = |1, 0i 2 2 2 2 la representaci´ on matricial de S3 para la base ordenada (24.5) queda entonces 1 0 0 0 ~ 0 0 0 1 (S3 )F,mF = 0 0 −1 0 2 0 1 0 0 =
(24.6)
(24.7)
de acuerdo con la Ec. (20.47) P´ ag. 504, para realizar el c´ alculo perturbativo siendo 2ω0 S3 la perturbaci´ on, los c´ alculos se realizan dentro de cada uno de los subespacios EF =1 y EF =0 asociados a valores propios no perturbados distintos. Por tanto, para el c´ alculo perturbativo solo requerimos las submatrices 3 × 3 y 1 × 1 que se delinean en la Ec. (24.7). Es decir no se requieren los elementos de matriz que conectan a un estado de F = 1 con un estado de F = 0. Sin embargo, m´ as adelante cuando diagonalicemos el operador completo (24.3) requeriremos la matriz completa (24.7). Es interesante comparar esta matriz con la matriz asociada a F3 = S3 + I3 en esta misma base. Tal matriz viene dada por 1 0 0 0 0 0 0 0 (F3 )F,mF = ~ (24.8) 0 0 −1 0 0 0 0 0 1
En el cap´ıtulo 16, tenemos que J = J(1) + J(2) . Para nuestro contexto J → F, J(1) → S, J(2) → I. Los estados definidos en la Ec. (16.17), P´ ag. 409, corresponden en este caso a 1 1 1 1 |±, ±i = mS = ± , mI = ± ; |±, ∓i = mS = ± , mI = ∓ 2 2 2 2
564
´ ´ CAP´ITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO
vemos que F3 es diagonal en tanto que S3 no lo es. Sin embargo, las submatrices demarcadas en las Ecs. (24.7, 24.8) son id´enticas salvo por un factor multiplicativo constante. Esto implica que para el c´ alculo perturbativo (en el cual trabajamos dentro de cada subespacio EF =1 y EF =0 ), ambas matrices son proporcionales. En otras palabras, los operadores S3 y F3 definidos en el subespacio EF = EF =1 ⊕ EF =0 son totalmente diferentes. Pero la restricci´ on de S3 a los subespacios EF =1 y EF =0 , es proporcional a la restricci´ on del operador F3 en cada uno de estos subespacios. Recordando la manera en que se define la restricci´ on de un operador a un subespacio [secci´ on 1.33, Ec. (1.129), P´ ag. 75], y definiendo P1 como el proyector sobre el subespacio EF =1 , y a P0 como el proyector sobre EF =0 podemos escribir 1 Pi S3 Pi = Pi F3 Pi 2
; i = 0, 1
(24.9)
la misma relaci´ on existe por supuesto para las otras componentes Sk y Fk , como es de esperarse en virtud de la isotrop´ıa del espacio. Volviendo al c´alculo perturbativo, la matriz que representa a la restricci´ on del operador 2ω0 S3 sobre el subespacio EF =1 , es la submatriz 3 × 3 delineada en (24.7) multiplicada por 2ω0 ~ω0 0 0 2ω0 (S3 )F =1 = 0 0 0 (24.10) 0 0 −~ω0 y en el nivel F = 0 corresponde a la matriz 01×1 . Puesto que ambas matrices son diagonales, vemos que los autoestados de campo d´ebil a orden cero en ω0 coinciden con los estados |F, mF i. Adem´ as los autovalores a primer orden en ω0 vienen dados por |F = 1; mF = 1i
↔
|F = 1; mF = 0i
↔
|F = 1; mF = −1i
↔
|F = 0; mF = 0i
↔
R~2 + ~ω0 4 R~2 +0 4 R~2 − ~ω0 4 3R~2 − +0 4
(24.11)
La Fig. 24.1 muestra un t´ıpico “diagrama de Zeeman”. Esto es, una gr´ afica de ~ω0 (medida del campo magn´etico) en el eje X, y las energ´ıas de los 4 subniveles de Zeeman sobre el eje Y . Para campo cero (ω0 = 0) tenemos dos niveles hiperfinos F = 0 y F = 1. Cuando se activa el campo B0 el subnivel no degenerado |F = 0; mF = 0i genera una l´ınea horizontal (no hay cambio en la energ´ıa ni desdoblamiento). Para el nivel F = 1 se remueve completamente su triple degeneraci´ on obteni´endose tres subniveles equidistantes que var´ıan linealmente con ~ω0 con pendientes +1, 0 y −1. Puesto que el c´ alculo anterior es perturbativo, su validez depende de que la diferencia entre dos subniveles adyacentes (dada por ~ω0 ), sea mucho menor que la diferencia entre los niveles hiperfinos “no perturbados” con F = 1 y F = 0 (asociados a campo magn´etico nulo). Frecuencias de Bohr asociadas a hF i y hSi para efecto Zeeman con campo d´ ebil En la secci´ on 5.8.3, P´ agina 228, vimos que el valor esperado de un observable dado B posee unas frecuencias caracter´ısticas de evoluci´ on denominadas frecuencias de Bohr. Para dos estados de energ´ıas Ea y Eb la frecuencia de Bohr asociada est´ a dada por Ea − Eb νab = h
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S
565
Figura 24.1: Diagrama de Zeeman en la aproximaci´ on de campo d´ebil para la estructura hiperfina del nivel 1s del atomo de Hidr´ ´ ogeno. adem´ as una frecuencia de Bohr νab contribuye al valor esperado del observable B, solo si el elemento de matriz del tipo hEa | B |Eb i es no nulo. En nuestro contexto, los autoestados del Hamiltoniano de campo d´ebil son estados del tipo |F, mF i. Las matrices (24.7, 24.8) representan a S3 y F3 en esta base. Puesto que la matriz para F3 es diagonal, no hay frecuencias de Bohr no nulas asociadas a hF3 i (t). Por tanto hF3 i es est´ atico. Por otro lado, S3 tiene adem´ as de los elementos diagonales que se asocian a la componente est´ atica de hS3 i, elementos no diagonales entre los estados |F = 1; mF = 0i y |F = 0; mF = 0i, con diferencia de energ´ıa R~2 , como se v´e en la figura 24.1 y en la Ec. (24.11). Por tanto en adici´ on a la componente est´ atica de hS3 i hay una componente modulada a una frecuencia R~. Un an´ alisis similar se puede hacer para cada componente de S, y el resultado final es una precesi´ on de S alrededor de F como se puede ver en la Fig. 24.2. Adicionalmente, en virtud de la ligadura F = I + S, tendremos que I tambi´en precesa con la misma frecuencia como se ilustra en la Fig. 24.2. Puesto que todo este an´ alisis es para campo magn´etico cero, es claro que F = I + S es constante de movimiento, de modo que para campo magn´etico cero el vector F de la Fig. 24.2 es constante. N´ otese que en la Fig. 24.2, F tiene en general componentes en todos los ejes. El plano de la base del cono generado por S y por I, no es paralelo al plano XY , ya que el promedio de la componente S3 oscila con frecuencia R~. Como todas las componentes (promedios) de S oscilan con la misma frecuencia, el resultado es un movimiento circular con frecuencia R~. Al introducir el campo magn´etico B0 el efecto es que F deja de ser constante de movimiento y comienza a precesar alrededor del eje del campo (eje Z), con una frecuencia ω0 (frecuencia de Larmor), mucho menor que la frecuencia de precesi´ on de S e I (ya que en este r´egimen de campo d´ebil ~ω0 ≪ R~2 ). Debe aclararse sin embargo, que la teor´ıa de perturbaciones aqu´ı mostrada no predice ninguna de estas precesiones. La raz´ on es que tales precesiones surgen de considerar elementos de matriz entre un estado con F = 1 y otro con F = 0. Pero la teor´ıa de perturbaciones precisamente se restringe a trabajar dentro de subespacios con F constante. Efectivamente hemos obtenido que a orden cero nuestros autoestados incluso con B0 6= 0, siguen siendo del tipo |F, mF i como se v´e en las Ecs. (24.11). Por tanto, a orden cero en teor´ıa de perturbaciones, F sigue siendo constante de movimiento incluso con B0 6= 0.
566
´ ´ CAP´ITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO
Figura 24.2: Precesi´ on de S e I alrededor de F y precesi´ on de F alrededor de la direcci´ on del campo magn´etico, en el l´ımite de campo d´ebil.
24.1.2.
El efecto Zeeman para campo fuerte
En este caso el t´ermino hiperfino ser´ a la perturbaci´ on y el t´ermino de Zeeman ser´ a el Hamiltoniano no perturbado. Por tanto, en este caso tenemos que H0 = 2ω0 S3
;
W = RI · S
Debemos empezar por diagonalizar el t´ermino de Zeeman, para lo cual emplearemos la base desacoplada {|mS , mI i}, ya que estos son autoestados del Hamiltoniano no perturbado (Hamiltoniano de Zeeman)2 . WZ |mS , mI i = 2ω0 S3 |mS , mI i = 2mS ~ω0 |mS , mI i puesto que mS = ±1/2, los valores propios de WZ son ±~ω0 . Cada uno de ellos es doblemente degenerado debido a los dos valores posibles de mI . Utilizaremos la notaci´ on |mS , mI i → |εS , εI i con εS = ± y εI = ±. Tenemos entonces que 2ω0 S3 |+, ±i = +~ω0 |+, ±i ; 2ω0 S3 |−, ±i = −~ω0 |−, ±i (24.12) puesto que el Hamiltoniano hiperfino Whf es ahora la perturbaci´ on, consideraremos correcciones de primer orden en R, diagonalizando la restricci´ on del operador RI · S a los subespacios bidimensionales EmS =1/2,mI y EmS =−1/2,mI , asociados a los dos valores propios distintos de 2ω0 S3 . Es f´ acil ver que los vectores de la forma |ε1 , ε2 i son tambi´en vectores propios de F3 F3 |mS , mI i = (S3 + I3 ) |mS , mI i = ~ (mS + mI ) |mS , mI i 2
Estrictamente la base desacoplada es solo la parte espinorial de los estados propios del Hamiltoniano de Zeeman. La componente orbital de estos autoestados es arbitraria.
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S
567
Claramente los u ´nicos vectores propios con el mismo valor propio de F3 son |+, −i y |−+i que est´ an en subespacios diferentes. Por otro lado, teniendo en cuenta que RI · S =
R 2 F − S2 − I2 2
conmuta con F3 , el teorema 1.68 P´ ag. 58, nos dice que no hay elementos matriciales de RI · S entre los estados {|+, +i , |+, −i} ni entre los estados {|−, +i , |−, −i} ya que corresponden a valores propios diferentes de F3 . En consecuencia, dentro de cada subespacio bidimensional, el operador RI · S es diagonal.
′ mS , m′I RI · S |mS , mI i = hmS , mI | RI · S |mS , mI i δmS ,m′S δmI ,m′I (24.13) utilizando la Ec. (16.11) P´ ag. 408, tenemos que
I · S = I3 S 3 +
1 (I+ S− + I− S+ ) 2
(24.14)
La ecuaci´ on (24.13), nos muestra que solo los elementos diagonales sobreviven para el operador I · S. A continuaci´ on demostraremos que los elementos diagonales del operador I+ S− +I− S+ son nulos. Para verlo, examinamos primero la acci´ on de dicho operador sobre un elemento arbitrario de la base desacoplada
[I+ S− + I− S+ ] |mS , mI i = I+
p
s (s + 1) − mS (mS − 1) |mS − 1, mI i p +I s (s + 1) − mS (mS + 1) |mS + 1, mI i p− p [I+ S− + I− S+ ] |mS , mI i = I (I + 1) − mI (mI + 1) s (s + 1) − mS (mS − 1) |mS − 1, mI + 1i p p + I (I + 1) − mI (mI − 1) s (s + 1) − mS (mS + 1) |mS + 1, mI − 1i
estos valores solo pueden ser no nulos para los kets |mS = +1/2, mI = −1/2i y |mS = −1/2, mI = 1/2i. Puesto que s = I = 1/2, y para estos casos ms = −mI , las contribuciones no nulas son p p [I+ S− + I− S+ ] |mS , −mS i = s (s + 1) + mS (−mS + 1) s (s + 1) − mS (mS − 1) |mS − 1, −mS + 1i p p + s (s + 1) + mS (−mS − 1) s (s + 1) − mS (mS + 1) |mS + 1, −mS − 1i [I+ S− + I− S+ ] |mS , −mS i = [s (s + 1) − mS (mS − 1)] |mS − 1, −mS + 1i
+ [s (s + 1) − mS (mS + 1)] |mS + 1, −mS − 1i
para el caso s = mS = 1/2, la contribuci´ on no nula queda [I+ S− + I− S+ ] |+, −i = [s (s + 1) − mS (mS − 1)] |−, +i de modo que el t´ermino diagonal es claramente nulo h+, −| [I+ S− + I− S+ ] |+, −i = [s (s + 1) − mS (mS − 1)] h+, − |−, +i = 0 similarmente ocurre para el caso s = −mS = 1/2. Por tanto, se tiene que hmS , mI | [I+ S− + I− S+ ] |mS , mI i = 0
(24.15)
combinando las ecuaciones (24.13), (24.14) y (24.15), un elemento de matriz del operador RI · S en la base desacoplada queda
R m′S , m′I I · S |mS , mI i = R hmS , mI | I3 S3 |mS , mI i δmS ,m′S δmI ,m′I = R~2 mS mI δmS ,m′S δmI ,m′I (24.16)
568
´ ´ CAP´ITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO
De otra parte, combinando las Ecs. (24.12, 24.16), obtenemos los autovectores a orden cero en R y los autovalores a primer orden en R |+, +i
↔
|+, −i
↔
|−, +i
↔
|−, −i
↔
R~2 4 R~2 ~ω0 − 4 R~2 −~ω0 − 4 R~2 −~ω0 + 4 ~ω0 +
(24.17) (24.18) (24.19) (24.20)
en la Fig. 24.3, las l´ıneas s´ olidas (para ~ω0 ≫ R~2 ) representan los niveles para el r´egimen de campo fuerte. Las l´ıneas punteadas indican la prolongaci´ on de las l´ıneas s´ olidas, pero est´ an en un r´egimen que no corresponde a campo fuerte. Se obtienen dos l´ıneas paralelas de pendiente +1 separadas por una energ´ıa R~2 /2 y dos l´ıneas paralelas de pendiente −1 separadas en R~2 /2.
Figura 24.3: (a) Diagrama de Zeeman en la aproximaci´ on de campo fuerte, tomando la estructura hiperfina del nivel 1s del ´ atomo de Hidr´ ogeno como perturbaci´ on. El desdoblamiento de campo fuerte R~2 /2 entre los estados |+, +i y |+, −i o entre los estados |−, +i y |−, −i se puede interpretar de la siguiente manera: Vimos que en la expresi´ on (24.14) solo el t´ermino I3 S3 contribu´ıa en el c´ alculo de los elementos matriciales en la aproximaci´ on de campo fuerte. Por tanto el Hamiltoniano total en
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S aproximaci´ on de campo fuerte se puede escribir de manera efectiva en la forma R R 2ω0 S3 + RI3 S3 = 2 ω0 + I3 S3 = 2 (ω0 + ωI ) S3 ; ωI ≡ ~mI 2 2
569
(24.21)
de modo que el esp´ın electr´ onico se acopla a ω0 (i.e. al campo B0 ) pero adicionalmente se acopla a un “campo efectivo” parametrizado por ωI que surge del acople hiperfino entre I y S tomando dos valores posibles ya que mI = ±1/2, dependiendo de si el esp´ın del n´ ucleo est´ a arriba o abajo. Puesto que este “campo interno efectivo” se suma o resta a B0 dependiendo de mI , es este campo efectivo el que genera la brecha entre los estados |+, +i y |+, −i o entre los estados |−, +i y |−, −i. Las frecuencias de Bohr en la evoluci´ on de hS3 i para campo fuerte En la aproximaci´ on de campo fuerte, el acople Zeeman de S con B0 es m´ as importante que el acople hiperfino de S con I. Si despreciamos el acople hiperfino, puede verse que S precesa muy r´ apidamente (en virtud de que |B0 | es grande) alrededor del eje Z. Puesto que ωn es despreciable, se desprecia tambi´en el efecto Zeeman nuclear (entre B0 e I), bajo estas aproximaciones I permanece estacionario. De la Ec. (24.14) podemos ver que en el r´egimen de campo fuerte la r´ apida precesi´ on de S, genera que los t´erminos S± oscilen muy r´ apido y cancelen su efecto en promedio, quedando entonces solo con la contribuci´ on S3 I3 . Si incorporamos el t´ermino hiperfino, el efecto es adicionar un peque˜ no “campo efectivo” paralelo a u3 y on de S alrededor de proporcional a I3 como se v´e en la Ec. (24.21). Este campo efectivo acelera o retarda la precesi´ Z, dependiendo del signo de I3 . En un campo fuerte, los estados de energ´ıa bien definida son de la forma |mS , mI i. En esta base, el operador S3 tiene solo elementos diagonales, de manera que no hay frecuencias de Bohr no nulas asociadas a hS3 i. En consecuencia, hS3 i ser´ a est´ atico en la aproximaci´ on de campo fuerte (en contraste con el escenario de campo d´ebil). La Fig. 24.4 muestra la precesi´ on de S y el car´ acter est´ atico de I cuando despreciamos el acople hiperfino y el acople Zeeman entre B0 e I. Para los observables hSi i con i = 1, 2 encontramos dos frecuencias angulares de Bohr ω0 ± R~/2, que corresponden a las dos posibles orientaciones del “campo efectivo interno” producido por I3 , que se adiciona al campo on del t´ermino hiperfino tambi´en genera la precesi´ on de I alrededor del “campo efectivo externo B0 . La introducci´ interno” generado por S3 .
24.1.3.
El efecto Zeeman para campo intermedio
Si asumimos que ~ω0 ≈ R~2 , no podemos considerar a ninguno de los dos Hamiltonianos Whf ´ o WZ como una perturbaci´ on. En este caso tenemos que diagonalizar el Hamiltoniano completo. Utilizaremos los estados |F ; mF i para encontrar la representaci´ on matricial del Hamiltoniano completo. Puesto que estos son autoestados de Whf , la matriz asociada a Whf ser´ a diagonal. De acuerdo con las Ecs. (24.4) los elementos diagonales de Whf asociados a F = 1 tienen el valor R~2 /4 y los asociados a F = 0 dan −3R~2 /4. Por otra parte, las Ecs. (24.6) nos dan la representaci´ on matricial de S3 en la base {|F ; , mF i}. Por tanto, ordenando los vectores base en la forma3 |1, 1i , |1, −1i , |1, 0i , |0, 0i
(24.22)
la representaci´ on matricial de Whf + Wz queda
hWhf + WZ iF,mF 3
=
R~2 4
+ ~ω0 0 0 0
R~2 4
0 0 0 − ~ω0 0 0 R~2 0 ~ω0 4 2 0 ~ω0 − 3R~ 4
(24.23)
No podemos tomar directamente la representaci´ on matricial (24.7) ya que ´esta se construy´ o sobre el ordenamiento (24.5), el cual difiere del ordenamiento en (24.22).
570
´ ´ CAP´ITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO
Figura 24.4: (a) Precesi´ on de S alrededor de la direcci´ on del campo magn´etico en la aproximaci´ on de campo fuerte. atico. Adicionalmente, si despreciamos ωn , el vector I ser´ıa est´ atico. En este caso S3 es est´ N´ otese que S3 conmuta con F3 , de lo cual el t´ermino 2ω0 S3 solo tendr´ a elementos matriciales no nulos entre dos estados con el mismo mF , lo cual explica los ceros de la matriz (24.23). Por esta misma raz´ on se orden´ o la base en la forma (24.22) en lugar del orden seguido en la Ec. (24.5). La matriz (24.23) es diagonal por bloques de modo que se puede escribir como suma directa de dos matrices 1 × 1 mas una matriz 2 × 2. ! 2 2 R~2 R~ R~ ~ω 0 4 (24.24) hWhf + WZ iF,mF = + ~ω0 11×1 ⊕ − ~ω0 11×1 ⊕ 2 4 4 ~ω0 − 3R~ 4 Las dos matrices unidimensionales tienen los siguientes valores propios4 E1 = E2 =
R~2 + ~ω0 ↔ |1, 1i = |+, +i 4 R~2 − ~ω0 ↔ |1, −1i = |−, −i 4
(24.25) (24.26)
El diagrama de Zeeman correspondiente se muestra en la Fig. 24.5. Los niveles E1 y E2 est´ an representados por 2 las dos l´ıneas rectas cont´ınuas de pendientes ±1, que toman el valor R~ /4 para ω0 = 0 (i.e. para campo externo cero). Vemos que estas gr´ aficas reproducen el comportamiento para campo d´ebil (ω0 peque˜ no) y para campo fuerte (ω0 grande) al comparar ambos l´ımites con los obtenidos en las figuras 24.1, 24.3. 4
N´ otese que con la base ordenada seg´ un la ecuaci´ on (24.5), la matriz no tendr´ıa la textura por bloques descrita en (24.24). Esto justifica el reordenamiento dado en (24.22).
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S
571
Figura 24.5: (a) Diagrama de Zeeman para valores arbitrarios del campo magn´etico. Las l´ıneas punteadas representan las as´ıntotas de las hip´erbolas. Los autovalores asociados a la submatriz 2 × 2 de la Ec. (24.23) nos dan la ecuaci´ on de valores propios 2 R~ 3R~2 −E − − E − ~2 ω02 = 0 4 4 cuyas ra´ıces nos dan los otros niveles de energ´ıa E3
R~2 = − + 4
E4
R~2 = − − 4
s s
R~2 2 R~2 2
2 2
+ ~2 ω02
(24.27)
+ ~2 ω02
(24.28)
La Fig. 24.5 muestra que cuando ~ω0 var´ıa, los niveles E3 y E4 trazan las dos ramas de una hip´erbola. Las as´ıntotas de esta hip´erbola son las l´ıneas rectas definidas por las ecuaciones R~2 ± ~ω0 (24.29) 4 que son las l´ıneas rectas punteadas asociadas a la Fig 24.5 y las ecuaciones (24.18, 24.19) correspondientes a los estados |+, −i y |−, +i. Los dos puntos de retorno de la hip´erbola corresponden a ω0 = 0 y energ´ıas −R~2 /4 ± R~2 /2, es decir est´ an sobre el eje Y con energ´ıas R~2 /4 y −3R~2 /4. Las tangentes a ambos puntos de retorno son horizontales en concordancia con lo encontrado en (24.11) para los estados |F = 0, 1; mF = 0i. N´ otese que en un campo d´ebil los estados de energ´ıa bien definida son los estados |F, mF i y en un campo fuerte son los estados de la base |mS , mI i. Para campos intermedios, son los vectores propios asociados a la matriz (24.23)5 , que son estados intermedios entre los estados |F, mF i y los estados |mS , mI i. Esto se puede entender E=−
5
N´ otese que dos de los vectores propios de la matriz (24.23) son los estados |ψ1 i = |1, 1i = |+, +i ; |ψ2 i = |1, −1i = |−, −i
´ ´ CAP´ITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO
572
como si nos movi´eramos cont´ınuamente desde un acople fuerte entre I y S (base acoplada) para ω0 peque˜ no, hacia un desacople total entre I y S (base desacoplada) para ω0 grande.
24.2.
Efecto Stark para el ´ atomo de Hidr´ ogeno
~ = Eu3 . La energ´ıa Consideremos al ´ atomo de Hidr´ ogeno inmerso en un campo el´ectrico uniforme y est´ atico E de interacci´ on del campo el´ectrico con el momento dipolar el´ectrico qR del ´ atomo est´ a descrita por el Hamiltoniano ~ WS = −q E·R = −qEX3 a´ un para los campos m´ as intensos que se producen en el laboratorio, WS ≪ H0 , siendo H0 el Hamiltoniano (13.4) de la P´ ag. 357, que describe la energ´ıa cin´etica m´ as la energ´ıa potencial interna electrost´ atica del ´ atomo de Hidr´ ogeno. Por tanto, se puede tratar perturbativamente con respecto a H0 . Por otro lado, WS puede ser mucho menor, del orden de, o mucho mayor que alguno de los Hamiltonianos Wf y Whf . En esta secci´ on nos restringiremos a asumir que el campo el´ectrico externo es suficientemente intenso para ser dominante con respecto a Wf y Whf . De hecho en el actual contexto despreciaremos la estructura fina e hiperfina. Puesto que H0 y WS no dependen de variables de esp´ın, ignoraremos los n´ umeros cu´ anticos mS y mI , cuyo u ´nico papel ser´ a multiplicar cualquier degeneraci´ on encontrada por cuatro.
24.2.1.
El efecto Stark sobre el nivel n = 1
De acuerdo con la teor´ıa de perturbaciones, el efecto del campo el´ectrico a primer orden sobre el estado 1s, depende del elemento matricial hn = 1, l = 0, mL = 0| WS |n = 1, l = 0, mL = 0i = −qE hn = 1, l = 0, mL = 0| X3 |n = 1, l = 0, mL = 0i Z hWS i1s = −qE dV ϕ∗1,0,0 (r) x3 ϕ1,0,0 (r) puesto que x3 es impar y la funci´ on de onda del estado base es par, el integrando es impar y la integral se anula. En consecuencia, no hay correcci´ on lineal en E. Por tanto, debemos calcular el t´ermino (20.41), P´ ag. 502, asociado al segundo orden en teor´ıa de perturbaciones. ε2 = q 2 E2
X X |h1, 0, 0| X3 |n, l, mi|2
n6=1 l,m
E1 − En
(24.30)
aqu´ı aparecen integrales no nulas, ya que hay funciones de onda que tienen paridad opuesta a ϕ1,0,0 (r), de manera que el integrando tendr´ıa paridad par. Recordemos que la paridad de la funci´ on de onda est´a dictaminada por el arm´ onico esf´erico asociado cuya paridad es la asociada al n´ umero cu´ antico l [ver Ec. (11.34) P´ ag. 332]. Adicionalmente, puesto que E1 − En < 0, el estado base se baja. De acuerdo con la expresi´ on (20.39) P´ ag. 502, el estado base corregido a primer orden en E, nos da |ψ0 i = |1, 0, 0i − qE
XX n6=1 l,m
|n, l, mi
hn, l, m| X3 |1, 0, 0i + ... E1 − En
(24.31)
esto nos muestra que a primer orden en E, el valor medio del momento dipolar el´ectrico qR, viene dado por dado que estos dos estados coinciden en ambas bases. Sin embargo los otros dos vectores propios de la matriz (24.23) son combinaciones lineales de |1, 0i y |0, 0i ´ o equivalentemente, combinaciones lineales de |+, −i y |−, +i. Tales estados se obtienen diagonalizando la submatriz 2 × 2 de la matriz (24.23).
´ ´ 24.2. EFECTO STARK PARA EL ATOMO DE HIDROGENO
573
hψ0 | qR |ψ0 i. Utilizando (24.31) tenemos que X X h1, 0, 0| X3 |n′ , l′ , m′ i
hψ0 | qR |ψ0 i = q h1, 0, 0| − qE n′ , l′ , m′ R× E1 − En′ n′ 6=1 l′ ,m′ XX hn, l, m| X3 |1, 0, 0i × |1, 0, 0i − qE |n, l, mi E1 − En n6=1 l,m
hψ0 | qR |ψ0 i = q h1, 0, 0| R |1, 0, 0i − q 2 E
XX
n6=1 l,m
h1, 0, 0| R |n, l, mi
hn, l, m| X3 |1, 0, 0i E1 − En
X X h1, 0, 0| X3 |n′ , l′ , m′ i
−q 2 E n′ , l′ , m′ R |1, 0, 0i + O E2 E1 − En′ ′ ′ ′ n 6=1 l ,m
una vez m´ as el t´ermino h1, 0, 0| R |1, 0, 0i se anula por argumentos de paridad. El valor esperado del momento dipolar el´ectrico a primer orden en E, vendr´ a dado entonces por hψ0 | qR |ψ0 i = −q 2 E
X X h1, 0, 0| R |n, l, mi hn, l, m| X3 |1, 0, 0i + h1, 0, 0| X3 |n, l, mi hn, l, m| R |1, 0, 0i E1 − En
n6=1 l,m
(24.32)
Por tanto, el campo el´ectrico E genera un momento dipolar inducido. Ahora bien, de las identidades r 2π x1 = r sin θ cos ϕ = r [Y1,−1 (θ, ϕ) − Y11 (θ, ϕ)] 3 r 2π x2 = r sin θ sin ϕ = ir [Y1,−1 (θ, ϕ) + Y11 (θ, ϕ)] 3 y usando las relaciones de ortogonalidad de los arm´ onicos esf´ericos puede verse que hψ0 | Xk |ψ0 i = 0 ; k = 1, 2
(24.33)
sustituyendo (24.33) en (24.32), el valor esperado del momento dipolar el´ectrico queda hψ0 | qR |ψ0 i = u3 q hψ0 | X3 |ψ0 i = −q 2 E hψ0 | qR |ψ0 i = −2u3 q 2 E
X X 2u3 h1, 0, 0| X3 |n, l, mi hn, l, m| X3 |1, 0, 0i E1 − En
n6=1 l,m
X X |h1, 0, 0| X3 |n, l, mi|2
n6=1 l,m
E1 − En
(24.34)
~ = Eu3 (como ocurre tambi´en de modo que el momento dipolar inducido es paralelo al campo el´ectrico aplicado E angulos) y al en el escenario cl´ asico). Esto se debe a la simetr´ıa esf´erica del estado 1s (ya que Y00 no depende de los ´ hecho de que esta simetr´ıa esf´erica es rota por el campo el´ectrico y reducida a una simetr´ıa axial con respecto al eje X3 . El coeficiente de proporcionalidad χ entre el momento dipolar inducido y el campo se denomina susceptibilidad el´ectrica lineal. De acuerdo con la Ec. (24.34), para el estado 1s esta susceptibilidad el´ectrica viene dada por χ1s = −2q 2
X X |h1, 0, 0| X3 |n, l, mi|2
n6=1 l,m
E1 − En
ahora bien, para la componente X3 que sobrevive, tenemos en cuenta que r r 4π 4π ∗ x3 = r cos θ = r Y1,0 (θ) = r Y (θ) 3 3 1,0
(24.35)
(24.36)
´ ´ CAP´ITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO
574
y las relaciones de ortonormalidad de los arm´ onicos esf´ericos nos conducen a Z ∗ ∗ h1, 0, 0| X3 |n, l, mi = R1,0 (r) Y00 x3 Rn,l (r) Ylm (θ, ϕ) r 2 dr dΩ r Z 4π ∗ ∗ (r) Y00 rY1,0 (θ) Rn,l (r) Ylm (θ, ϕ) r 2 dr dΩ = R1,0 3 r Z Z 4π ∗ 3 ∗ Y00 R1,0 (r) Rn,l (r) r dr = Y1,0 (θ) Ylm (θ, ϕ) dΩ 3 r Z Z 4π ∗ ∗ δl,1 δm,0 Y00 R1,0 (r) Rn,l (r) r 3 dr Y1,0 (θ) Y1,0 (θ, ϕ) dΩ = 3 # "r Z 4π ∗ ∗ ∗ = δl,1 δm,0 R1,0 (r) Y00 rY (θ) Rn,1 (r) Y1,0 (θ, ϕ) r 2 dr dΩ 3 1,0 Z ∗ ∗ h1, 0, 0| X3 |n, l, mi = δl,1 δm,0 R1,0 (r) Y00 x3 Rn,1 (r) Y1,0 (θ, ϕ) dV quedando finalmente h1, 0, 0| X3 |n, l, mi = h1, 0, 0| X3 |n, 1, 0i δl,1 δm,0 con lo cual las Ecs. (24.30, 24.31 ,24.34, 24.35) quedan en la forma ε2 = q 2 E2
∞ X |h1, 0, 0| X3 |n, 1, 0i|2
E1 − En
n=2
|ψ0 i = |1, 0, 0i − qE hψ0 | qR |ψ0 i = −2u3 q 2 E χ1s = −2q
24.2.2.
2
∞ X
n=2
|n, 1, 0i
hn, 1, 0| X3 |1, 0, 0i + ... E1 − En
∞ X |h1, 0, 0| X3 |n, 1, 0i|2
n=2
E1 − En
∞ X |h1, 0, 0| X3 |n, 1, 0i|2 n=2
E1 − En
Efecto Stark sobre el nivel n = 2
El efecto de WS sobre el nivel n = 2 se obtiene a primer orden diagonalizando la restricci´ on de WS al subespacio 6 E2 expandido por los cuatro estados |2, 0, 0i , |2, 1, 1i , |2, 1, 0i , |2, 1, −1i
(24.37)
la funci´ on de onda ϕ2,0,0 (r) es par, y las funciones de onda ϕ2,1,m (r) son impares. Puesto que WS es impar, se concluye que se anulan los siguientes 10 elementos matriciales
h2, 0, 0| WS |2, 0, 0i = 2, 1, m′ WS |2, 1, mi = 0
y dado que los estados |2, 0, 0i y |2, 1, mi son de paridad opuesta, los elementos matriciales h2, 1, m| WS |2, 0, 0i pueden ser no nulos. De hecho veremos que solo h2, 1, 0| WS |2, 0, 0i es no nulo. Para verlo utilizamos la Ec. (24.36) 6 Estrictamente el espacio de estados es de dimensi´ on 16 debido a las variables de esp´ın del electr´ on y el prot´ on. Pero dado que no hay dependencia de las variables de esp´ın, las matrices se podr´ an escribir como M4×4 ⊗I4×4 , siendo M4×4 una matriz orbital constru´ıda con la base (24.37). Por supuesto, toda degeneraci´ on obtenida se multiplica por 4.
´ ´ 24.2. EFECTO STARK PARA EL ATOMO DE HIDROGENO
575
con lo cual Z
h2, 1, m| WS |2, 0, 0i = −qE ϕ∗2,1,m (r) x3 ϕ2,0,0 (r) dV r Z 4π ∗ = − qE R2,1 (r) Y1,m (θ, ϕ) rY10 (θ) R2,0 (r) Y0,0 (θ, ϕ) r 2 dr dΩ 3 r r Z Z 1 4π 3 ∗ qE R2,1 (r) R2,0 (r) r dr Y1,m (θ, ϕ) Y10 (θ) dΩ = − 4π 3 Z ∞ qE = − √ δm,0 R2,1 (r) R2,0 (r) r 3 dr 3 0 Z ∞ q R2,1 (r) R2,0 (r) r 3 dr h2, 1, m| WS |2, 0, 0i = γEδm,0 ; γ ≡ − √ 3 0 puesto que R2,1 (r) y R2,0 (r) son reales, la cantidad γ es real. Los elementos matriciales de WS en la base ordenada |2, 1, 1i , |2, 1, −1i , |2, 1, 0i , |2, 0, 0i nos dan
0 0 hWS i = 0 0
0 0 0 0 0 0 0 0 γE 0 γE 0
(24.38)
calculando los vectores y valores propios de la matriz (24.38), obtenemos la correcci´ on a primer orden en E de la energ´ıa y a orden cero de los autoestados. |2, 1, 1i
|2, 1, −1i
1 √ (|2, 1, 0i + |2, 0, 0i) 2 1 √ (|2, 1, 0i − |2, 0, 0i) 2
↔
ε1 = 0
↔
ε1 = 0
↔
ε1 = γE
↔
ε1 = −γE
con lo cual la degeneraci´ on del nivel n = 2 se remueve parcialmente, y los corrimientos en la energ´ıa son lineales y no cuadr´ aticos en E, a diferencia de la correcci´ on (24.30) para el nivel 1s. Este efecto Stark lineal se debe a la existencia de dos niveles de paridad opuesta y con la misma energ´ıa no perturbada, i.e. los niveles 2s y 2p. Los estados con n = 2 son inestables ya que tienden a caer en el estado base. Sin embargo, el estado 2s tiene una vida media mucho mayor que el estado 2p. La transici´ on entre los estados 2p y 1s se realiza por emisi´ on espont´ anea de un fot´ on de la serie de Lyman α, con una vida media de unos 10−9 seg. Por otro lado, la transici´ on del estado 2s al 1s se realiza por la emisi´ on de dos fotones, con una vida media del orden de un segundo. Por lo anterior, se dice que el estado 2p es inestable y el estado 2s se denomina metaestable. Puesto que el Hamiltoniano de Stark WS tiene elementos de matriz no nulos que conectan al estado 2s con el 2p, cualquier campo el´ectrico externo (est´ atico u oscilante) mezcla el estado metaestable 2s con el estado inestable 2p, reduciendo fuertemente la vida media del estado 2s. Este fen´ omeno se conoce como extinci´ on de la metaestabilidad.
Cap´ıtulo 25
Mol´ eculas diat´ omicas
Figura 25.1: Perfil t´ıpico de la energ´ıa potencial de interacci´ on entre los n´ ucleos de una mol´ecula diat´ omica como funci´ on de la distancia r entre los n´ ucleos. Los primeros estados vibracionales se representan por l´ıneas horizontales en el pozo de potencial. La formaci´ on de una mol´ecula diat´ omica requiere que la energ´ıa de interacci´ on V (r) entre los ´ atomos neutros posea al menos un m´ınimo local que garantice la estabilidad del sistema, siendo r la distancia entre los ´ atomos. La forma t´ıpica de este potencial se muestra en la Fig. 25.1. Para r muy grande, los ´ atomos no interact´ uan, de modo que V (r) debe tomar un valor constante que suele escogerse como el cero de la energ´ıa potencial. A medida que r decrece V (r) var´ıa aproximadamente como −1/r 6 , donde la interacci´ on atractiva es del tipo de fuerza de 1 Van der Waals . Cuando r se vuelve suficientemente peque˜ no como para que las funciones de onda electr´ onicas se traslapen, V (r) decrece a´ un m´ as r´ apido y pasa por un m´ınimo local r = re , luego de lo cual decrece en valor absoluto y se anula en alg´ un punto rm . Para r < rm la fuerza se vuelve repulsiva y se incrementa en forma indefinida a medida que decrece r (ya que en este caso domina la interaccci´ on repulsiva entre los n´ ucleos). En una imagen cl´ asica, r = re ser´ıa un punto de equilibrio estable. El valor V (re ) = −V0 nos da la energ´ıa de atomos se separen indefinidamente. disociaci´ on de la mol´ecula. Esto es, V0 es la energ´ıa necesaria para que los dos ´ A mayor V0 la mol´ecula es m´ as estable. La descripci´ on mecano-cu´ antica de la mol´ecula es un problema muy complejo, ya que involucra encontrar los estados estacionarios de un sistema de n´ ucleos y electrones que interact´ uan todos entre s´ı. De hecho, no se puede resolver de manera exacta la ecuaci´ on de Schr¨ odinger asociada. Una importante simplificaci´ on surge del 1
Es l´ ogico que el potencial efectivo decaiga mucho m´ as r´ apido que el potencial de Coulomb, ya que la interacci´ on efectiva es el resultado del apantallamiento de cargas en una mol´ecula que es neutra.
576
577 hecho de que la masa del electr´ on es mucho menor que la del prot´ on. Esto implica que en primera aproximaci´ on, el movimiento de ambos se puede estudiar por separado (aproximaci´ on de Born-Oppenheimer). Para ello comenzamos estudiando el movimiento de los electrones para un valor fijo de r entre los dos n´ ucleos. De esta forma se obtiene una serie de estados estacionarios para el sistema electr´ onico de energ´ıas E1 (r) , E2 (r) etc. Consideramos entonces el estado base E1 (r) del sistema electr´ onico, cuando r var´ıa debido al movimiento de los n´ ucleos. Asumimos que el sistema electr´ onico permanece siempre en el estado base para todo r. Esto implica que la funci´on de onda del sistema se adapta instant´ anemente a cualquier cambio en r. Se dice que los electrones (que son muy m´ oviles) siguen “adiab´ aticamente” el movimiento de los n´ ucleos. En esta aproximaci´ on, la energ´ıa electr´ onica E1 (r) act´ ua como una energ´ıa potencial de interacci´ on entre los dos n´ ucleos. Esta energ´ıa potencial de interacci´ on depende entonces de la distancia entre los n´ ucleos r y debe a˜ nadirse a la repulsi´ on electrost´ atica. En consecuencia, bajo la aproximaci´ on de Born-Oppenheimer la energ´ıa potencial de interacci´ on total V (r) del sistema de los dos n´ ucleos que nos permite determinar su movimiento estar´ a dada por V (r) = E1 (r) +
Z1 Z2 e2 r
(25.1)
siendo Z1 y Z2 los n´ umeros at´ omicos de los dos n´ ucleos. La energ´ıa potencial modelada en la Fig. 25.1, es la dada por la Ec. (25.1). Al tomar en cuenta todos los grados de libertad del problema aparecer´ an vibraciones de los dos n´ ucleos alrededor de su posici´ on de equilibrio, y rotaci´ on del sistema con respecto al centro de masa. Sean m1 y m2 las masas de los dos n´ ucleos, puesto que el potencial V (r) es central, la secci´ on 12.2 nos muestra que tambi´en en el escenario cu´ antico es posible separar el problema en el movimiento del centro de masa (una masa libre equivalente M = m1 + m2 , con el movimiento del centro de masa) y el movimiento de una part´ıcula equivalente de masa reducida m1 m2 µ= m1 + m2 sometida al potencial V (r) de la Ec. (25.1). El u ´nico movimiento no trivial es el de la masa reducida. A diferencia del ´ atomo de hidr´ogeno en el cual la masa reducida es aproximadamente la masa del electr´ on, la masa reducida de un sistema de dos n´ ucleos es en general muy diferente a la masa de cada n´ ucleo, puesto que dichas masas suelen ser del mismo orden de magnitud. En consecuencia, el movimiento real de cada n´ ucleo es muy diferente al movimiento de la part´ıcula imaginaria con masa µ, las posiciones de los n´ ucleos se obtienen a partir de la posici´ on del centro de masa y de la posici´ on de la part´ıcula imaginaria µ, usando las Ecs. (12.2) P´ ag. 344. Retornando al problema equivalente de la part´ıcula de masa reducida µ sometida al potencial V (r), los estados estacionarios asociados vendr´ an dados por las Ecs. (12.33, 12.36) P´ ag. 351 1 ϕv,l,m (r, θ, ϕ) = uv,l (r) Yl,m (θ, ϕ) r donde los niveles de energ´ıa y la funci´ on radial est´ an dadas por la Ec. (12.37), P´ ag. 352 2 2 ~ d l (l + 1) ~2 − + V (r) + uv,l (r) = Ev,l uv,l (r) 2µ dr 2 2µr 2
(25.2)
(25.3)
asumiremos de aqu´ı en adelante que la proyecci´ on del momento angular total orbital de los electrones sobre el eje internuclear es nulo, al igual que su esp´ın total. En consecuencia, el momento angular total de la mol´ecula surge solo de la rotaci´ on de los dos n´ ucleos. Este es el caso en casi todas las mol´eculas diat´ omicas en su estado base. En el caso m´ as general surgen t´erminos en la energ´ıa nuclear de interacci´ on que no dependen exclusivamente de la distancia r. Podemos definir por supuesto un potencial efectivo como la suma del potencial real y el potencial centr´ıfugo en la forma l (l + 1) ~2 Vef (r) = V (r) + Vcent (r) = V (r) + (25.4) 2µr 2
´ ´ CAP´ITULO 25. MOLECULAS DIATOMICAS
578
de modo que la ecuaci´ on radial (25.3), tiene la forma de una ecuaci´ on de valores propios para un Hamiltoniano unidimensional en el cual la part´ıcula de masa µ se coloca en el potencial efectivo Vef (r). Adicionalmente, expandiremos el potencial V (r) en la forma V (r) = −V0 + f (r − re )2 − g (r − re )3 + . . .
(25.5)
los coeficientes f y g son positivos, puesto que el potencial posee un m´ınimo local en re , y se incrementa m´ as r´ apido para r < re que para r > re . Comenzaremos despreciando el t´ermino c´ ubico de tal manera que asumiremos potencial puramente parab´ olico.
25.1.
Estados de momento angular cero (l = 0)
Para l = 0, se anula el potencial centr´ıfugo en el potencial efectivo (25.4). Por tanto Vef (r) coincide con V (r). En consecuencia, obtenemos los autoestados y autovalores propios del oscilador arm´ onico cu´ antico unidimensional. La variable unidimensional x del oscilador arm´ onico se convierte en (r − re ), que ser´ıa la “elongaci´ on” del oscilador. s 1 2f ~ω ; ω ≡ , v = 0, 1, 2, 3, . . . (25.6) Ev,0 = −V0 + v + 2 µ r 2 1/4 1 µω β −β 2 (r−re )2 /2 √ uv (r) = (25.7) e Hv [β (r − re )] ; β ≡ π ~ 2v v! siendo Hv un polinomio de Hermite [ver Ecs. (8.50), P´ ag. 282]. En la Fig. 25.1, P´ ag. 576, hemos representado los dos primeros niveles de energ´ıa con l´ıneas horizontales, donde la longitud de las l´ıneas nos da una idea de la on de onda asociada a estos estados. De la Ec. (8.64), P´ ag. 284 tenemos extensi´ on caracter´ıstica (∆r)v de la funci´ que s 1 ~ (∆r)v ≃ (25.8) v+ 2 µω Para que el c´ alculo anterior sea v´ alido, es necesario que el t´ermino g (r − re )3 sea despreciable con respecto a 2 f (r − re ) , dentro de una vecindad de ancho ∆r alrededor de r = re , es decir 2 3 f (r − r ) ≫ g (r − r ) para |r − re | . (∆r)v (25.9) e e combinando (25.8, 25.9) se obtiene
√
f ≫ g (∆r)v = g 2 (∆r)0
r
1 v+ 2
;
(∆r)0 ≡
s
~ 2µω
(25.10)
donde (∆r)0 es el ancho de la funci´ on de onda en el estado base. Se obtiene en particular f ≫ g (∆r)0
(25.11)
en la pr´ actica la condici´ on (25.11) se satisface casi siempre. Debemos sin embargo tener en cuenta que los n´ umeros cu´ anticos v deben ser suficientemente peque˜ nos para que tambi´en se satisfaga la condici´ on (25.10). N´ otese que la expansi´ on (25.5) no es v´ alida en r = 0 donde V (r) diverge. El argumento anterior asume impl´ıcitamente la condici´ on (∆r)v ≪ re (25.12) en cuyo caso las funciones de onda (25.7) son pr´ acticamente cero en el origen, y casi id´enticas a las soluciones exactas de la ecuaci´ on radial (25.3) que rigurosamente se deben anular en el origen [condici´ on (12.44) p´ agina 353].
25.2. ESTADOS DE MOMENTO ANGULAR NO NULO (L 6= 0)
25.2.
579
Estados de momento angular no nulo (l 6= 0)
Si estamos en un r´egimen de peque˜ nas oscilaciones (como ocurre en la mayor´ıa de los casos) entonces la distancia entre los a ´tomos ser´ a del orden de re . El valor t´ıpico del potencial centr´ıfugo ser´ a entonces su valor en r = re l (l + 1) ~2 ~ Vcent (re ) = = Bhl (l + 1) ; B ≡ (25.13) 2µre2 4πµre2 puesto que el momento angular est´ a relacionado con los modos rotacionales, a la cantidad B la llamamos la constante rotacional. N´ otese que si l ∼ 1, el potencial centr´ıfugo es del orden de 2Bh, lo cual a su vez nos indicar´ıa el orden de magnitud de la energ´ıa rotacional. En general esta energ´ıa rotacional es mucho menor que la energ´ıa vibracional asociada a la mol´ecula 2Bh ≪ ~ω (25.14) on de onda alrededor de re , tenemos que la variaci´ on del potencial Por otro lado, si ∆r ≪ re es el ancho de la funci´ centr´ıfugo alrededor de r = re , es del orden de ∆Vcent (r) dVcent (r) l (l + 1) ~2 ≈ = ∆r dr µre3 r=re r=re |∆Vcent (r)|r=re ≈
l (l + 1) ~2 ∆r ∆r = 2Bhl (l + 1) 3 µre re
(25.15)
en tanto que la variaci´ on del potencial real V (r) es del orden de la “energ´ıa potencial el´ astica” con “elongaci´ on” 2 ∆r y “constante el´ astica” k ≡ µω 1 (∆r)2 1 1 2µω = ~ω ∆V (r) = µω 2 (∆r)2 = ~ω (∆r)2 2 4 ~ 4 (∆r)20
(25.16)
donde hemos usado (25.10). Y puesto que ∆r ≪ re , utilizando (25.14) en (25.15) y asumiendo valores no muy grandes de l, tenemos que |∆Vcent (r)| ≃ 2Bhl (l + 1)
∆r ≪ 2Bhl (l + 1) ≃ 2Bh ≪ ~ω re
(25.17)
por otro lado, puesto que ∆r es del orden de (∆r)0 , la Ec. (25.16) nos indica que ∆V (r) ≈ ~ω
(25.18)
combinando las Ecs. (25.18, 25.17) vemos que en la regi´ on del espacio en la cual la funci´ on de onda tiene amplitudes significativas (esto es en un ancho ∆r alrededor de re ) la variaci´ on (25.15) del potencial centr´ıfugo es mucho menor que la variaci´ on (25.16) de V (r). Por tal raz´ on, podemos reemplazar en primera aproximaci´ on el valor del potencial centr´ıfugo por su valor en r = re , Ec. (25.13). Combinando entonces las Ecs. (25.4, 25.13) el potencial efectivo queda en la forma Vef (r) ≃ V (r) + Bhl (l + 1) (25.19) utilizando (25.19) y la expansi´ on (25.5) hasta segundo orden, la ecuaci´ on radial (25.3) queda en la forma
~2 d2 2 − − V0 + f (r − re ) + Bhl (l + 1) uv,l (r) = Ev,l uv,l (r) 2µ dr 2 2 2 ~ d 1 2 2 − + µω (r − re ) uv,l (r) = [Ev,l + V0 − Bhl (l + 1)] uv,l (r) 2µ dr 2 2
(25.20)
´ ´ CAP´ITULO 25. MOLECULAS DIATOMICAS
580
esta ecuaci´ on es totalmente an´ aloga a la ecuaci´ on de valores propios de un oscilador arm´ onico unidimensional. Por tanto el miembro derecho de la Ec. (25.20) que est´ a en par´entesis, debe ser igual a (v + 1/2) ~ω. En consecuencia, el espectro asociado a la Ec. (25.20) est´ a dado por 1 Ev,l = v + (25.21) ~ω − V0 + Bhl (l + 1) ; v = 0, 1, 2, 3, . . . ; l = 0, 1, 2, 3, . . . 2 n´ otese que el operador diferencial a la izquierda de la Ec. (25.20) no depende de l, ya que toda la dependencia con este n´ umero cu´ antico qued´ o al lado derecho de tal ecuaci´ on y por tanto fu´e absorbida por el valor propio. En consecuencia, la funci´ on radial que se genera en (25.20) es independiente de l uv,l (r) = uv (r)
(25.22)
Donde la funci´on radial estar´ıa dada por la Ec. (25.7). La expresi´ on (25.2) para la funci´ on de onda completa se puede escribir en esta aproximaci´ on de la forma 1 ϕv,l,m (r) = uv (r) Ylm (θ, ϕ) r
(25.23)
Obs´ervese que la energ´ıa (25.21) consiste en la contribuci´ on de un modo vibracional de frecuencia ω y un modo rotacional de momento angular l, el t´ermino constante −V0 puede removerse del espectro si se desea. Adicionalmente, en la funci´ on de onda los modos vibracionales est´ an asociados con la dependencia radial y los rotacionales con la dependencia angular. Vemos entonces que la funci´ on de onda (25.23) es el producto de dos funciones en donde solo uno de los factores se modifica con las vibraciones y solo uno de ellos se modifica con las rotaciones. N´ otese en particular que la independencia de la funci´ on radial con respecto al n´ umero cu´ antico l expresada en la Ec. (25.22), es importante para que la funci´ on radial no dependa de las rotaciones.
Figura 25.2: Diagrama que ilustra los dos primeros niveles v = 0 y v = 1, con su estructura rotacional debida al t´ermino Bhl (l + 1). La figura 25.2 muestra los dos primeros modos vibracionales v = 0, 1 con su estructura rotacional debida al factor Bhl (l + 1). En esta figura se muestra que solo transiciones con ∆l = 1 est´ an permitidas, lo cual veremos a continuaci´ on.
´ ´ 25.3. ESPECTRO DE MOLECULAS DIATOMICAS HETEROPOLARES
25.3.
581
Espectro de mol´ eculas diat´ omicas heteropolares
Asumiremos mol´eculas heteropolares (´ atomos diferentes), y nos confinaremos a estudiar el espectro de emisi´ on o absorci´ on infraroja. El momento dipolar el´ectrico D (r) de la mol´ecula est´ a dirigido a lo largo de la l´ınea que une los n´ ucleos, y se puede expandir en potencias de r − re D (r) = d0 + d1 (r − re ) + . . .
(25.24)
si θ es el ´ angulo entre el eje de la mol´ecula y el vector u3 tendremos que la proyecci´ on de D (r) a lo largo de u3 ser´ a D (r) cos θ. Puesto que la mol´ecula est´ a rotando, no es posible para todo tiempo alinear el momento dipolar con el eje X3 . Pretendemos determinar las frecuencias del espectro de ondas electromagn´eticas a lo largo de u3 que la mol´ecula puede absorber o emitir como consecuencia de la variaci´ on de su dipolo el´ectrico. De acuerdo con la discusi´ on de la secci´ on 5.8.3 P´ ag. 228, debemos determinar para ello las frecuencias de Bohr que aparecen en la evoluci´ on temporal del valor esperado de D (r) cos θ. Por lo tanto, precisamos encontrar los valores de v ′ , l′ , m′ y v, l, m para los cuales los elementos matriciales Z
′ ′ ′ v , l , m D (r) cos θ |v, l, mi = r 2 drdΩ ϕ∗v′ ,l′ ,m′ (r, θ, ϕ) D (r) cos θ ϕv,l,m (r, θ, ϕ) son no nulos. De la expresi´ on (25.23) esta relaci´ on se puede escribir en la forma Z Z ∞
′ ′ ′ v , l , m D (r) cos θ |v, l, mi = dr u∗v′ (r) D (r) uv (r) × dΩ Yl∗′ ,m′ (θ, ϕ) cos θ Ylm (θ, ϕ)
(25.25)
0
Para evaluar la integral angular tendremos en cuenta la siguiente identidad de los arm´ onicos esf´ericos s r l 2 − m2 (l + 1)2 − m2 cos θ Ylm (θ, ϕ) = Y (θ, ϕ) + Yl+1,m (θ, ϕ) l−1,m 4l2 − 1 4 (l + 1)2 − 1
de modo que la integral angular en (25.25) queda s "r # Z 2 2 − m2 2
′ ′ l (l + 1) − m l , m cos θ |l, mi = dΩ Yl∗′ ,m′ (θ, ϕ) Yl−1,m (θ, ϕ) + Yl+1,m (θ, ϕ) 4l2 − 1 4 (l + 1)2 − 1 r Z l 2 − m2 = dΩ Yl∗′ ,m′ (θ, ϕ) Yl−1,m (θ, ϕ) 4l2 − 1 s Z (l + 1)2 − m2 + dΩ Yl∗′ ,m′ (θ, ϕ) Yl+1,m (θ, ϕ) 2 4 (l + 1) − 1 s " # r 2 2 − m2 2
′ ′ l (l + 1) − m l , m cos θ |l, mi = δmm′ δl′ ,l−1 + δl′ ,l+1 (25.26) 4l2 − 1 4 (l + 1)2 − 1
en lo que respecta a la integral radial en (25.25), debemos tener en cuenta que la funci´ on uv (r) es id´entica a la funci´on de onda del oscilador arm´ onico unidimensional si hacemos x ≡ r − re en la Ec. (25.7). Denotando estas funciones como |vi y utilizando (25.24), la integral radial en (25.25) queda s
′
′
~ ′ † v D (r) |vi = v (d0 + d1 X) |vi = d0 hv ′ |vi + d1 v ′ X |vi = d0 δv′ v + d1 v a + a |vi 2µω s
√ ~ √ = d0 δv′ v + d1 v + 1 v ′ v + 1i + v v ′ v − 1i 2µω s
′ √ ~ √ v D (r) |vi = d0 δv′ v + d1 v + 1 δv′ ,v+1 + v δv′ ,v−1 (25.27) 2µω
´ ´ CAP´ITULO 25. MOLECULAS DIATOMICAS
582
donde hemos usado las Ecs. (8.9) P´ ag. 272 y las Ecs. (8.41) P´ ag. 280. Sustituyendo (25.26, 25.27) en (25.25) tenemos que s " # √
′ ′ ′ √ ~ v , l , m D (r) cos θ |v, l, mi = d0 δv′ v + d1 v + 1 δv′ ,v+1 + v δv′ ,v−1 2µω s " # r l 2 − m2 (l + 1)2 − m2 + δl′ ,l+1 × δl′ ,l−1 δmm′ (25.28) 4l2 − 1 4 (l + 1)2 − 1 de la expresi´ on (25.28) se obtienen reglas de selecci´ on asociadas al elemento de matriz de la proyecci´ on del momento dipolar el´ectrico a lo largo de u3 . Tal elemento de matriz es nulo a menos que se cumplan las condiciones l′ − l = +1, −1 ;
m = m′
′
v − v = 0, +1, −1
(25.29) (25.30)
N´ otese que la regla de selecci´ on (25.29) proviene de la dependencia angular (ortonormalidad de los arm´ onicos esf´ericos) y es por tanto independiente de las aproximaciones realizadas para resolver la ecuaci´ on radial (25.3)2 . En contraste, la regla de selecci´ on (25.30) depende de realizar la aproximaci´ on arm´ onica en la expansi´ on (25.5) del potencial V (r) y de conservar solo hasta el t´ermino lineal en la expansi´ on (25.24) del dipolo D (r).
25.3.1.
Espectro puramente rotacional
La Ec. (25.28) nos muestra que para v − v ′ = 0, el valor esperado del dipolo no depende de d1 , desde el punto de vista de la Ec. (25.24) esto indica que en este caso el valor esperado es independiente de las “elongaciones” o “vibraciones” r − re del dipolo, as´ı como del valor de los n´ umeros cu´ anticos v, v ′ . Es decir el conjunto de l´ıneas ′ asociadas a v = v , constituyen el espectro puramente rotacional (solo depende de los n´ umeros cu´ anticos angulares l, m), cuya intensidad ser´ıa proporcional a d20 . Por otro lado, la parte puramente rotacional del espectro (25.21) vendr´ a dada por 1 Ev,l = v + ~ω − V0 + Bhl (l + 1) ; v = fijo . . . ; l = 0, 1, 2, 3, . . . 2 para calcular las transiciones se pueden eliminar los t´erminos constantes de modo que para el espectro puramente rotacional se tiene El = Bhl (l + 1) ; l = 0, 1, 2, 3, . . . (25.31) Los niveles adyacentes nos dan El − El−1 = Bh [l (l + 1) − l (l − 1)] = 2Bhl de modo que la separaci´ on entre niveles adyacentes se incrementa linealmente con l, como se indica en la Fig. 25.3a. De otra parte, las reglas de selecci´ on (25.29) nos dicen que ∆l = ±1, de manera que las u ´nicas frecuencias de Bohr asociadas a la oscilaci´ on dipolar son las asociadas a niveles adyacentes ν¯l,l−1 (usamos la notaci´ on ν¯ para distinguir estas frecuencias del n´ umero cu´ antico v) ν¯l,l−1 =
El − El−1 = 2Bl h
formando una serie de frecuencias equidistantes separadas por un intervalo 2B como se muestra en la Fig. 25.3b. La forma de las figuras 25.3 justifica el nombre de “constante rotacional” dado al par´ ametro B. 2
Sin embargo, tal regla de selecci´ on depende del car´ acter central de la interacci´ on y por tanto de la validez de la aproximaci´ on de Born-Oppenheimer.
´ ´ 25.3. ESPECTRO DE MOLECULAS DIATOMICAS HETEROPOLARES
583
Figura 25.3: (a) Primeros niveles puramente rotacionales. La separaci´ on entre niveles adyacentes crece linealmente con l. (b) Frecuencias de Bohr para el espectro puramente rotacional. Las frecuencias son equidistantes y separadas por una distancia 2B.
25.3.2.
Espectro vibracional-rotacional
Las l´ıneas asociadas a las transiciones v − v ′ = ±1, l′ − l = ±1, corresponden al espectro vibracional-rotacional. Aplicando la Ec. (25.21) obtenemos las frecuencias asociadas a este espectro ωvibrot =
~ Eν ′ ,l′ − Eν,l = v ′ − ν ω + B l′ l′ + 1 − l (l + 1) h h
Sin p´erdida de generalidad podemos asumir v ′ = v + 1, y puesto que l′ = l ± 1 tenemos dos tipos de frecuencias Eν+1,l±1 − Eν,l ω (l′ =l±1) ω ± ≡ ωvibrot = = + B {(l ± 1) [(l ± 1) + 1] − l (l + 1)} h 2π ω ω + ωvibrot + B (l + 1) (l + 2) − Bl (l + 1) = + 2B (l + 1) ; l = 0, 1, 2, 3, . . . = 2π 2π ω ω ω − ωvibrot = + B (l − 1) l − Bl (l + 1) = − 2Bl = − 2B l′ + 1 ; l′ = 0, 1, 2, 3, . . . 2π 2π 2π
En s´ıntesis, utilizando la Ec. (25.21), podemos separar las l´ıneas de este espectro en dos grupos 1. Las l´ıneas v ′ = v + 1, l′ = l + 1 ↔ v, l de frecuencias + ωvibrot =
ω ω + B (l + 1) (l + 2) − Bl (l + 1) = + 2B (l + 1) 2π 2π
2. Las l´ıneas v ′ = v + 1, l′ = l − 1 ↔ v, l de frecuencias ω ω − ωvibrot = + Bl′ l′ + 1 − B l′ + 1 l′ + 2 = − 2B l′ + 1 2π 2π
;
l = 0, 1, 2, 3, . . .
;
l′ = 0, 1, 2, 3, . . .
(25.32)
(25.33)
Figura 25.4: Espectro vibracional-rotacional para una mol´ecula heteropolar. Este espectro est´ a divididos en dos ramas: la rama P (izquierda) y la rama R (derecha). El espectro vibracional-rotacional se ilustra en la figura 25.4, y contiene dos grupos de l´ıneas equidistantes, sim´etricas con respecto a la frecuencia vibracional ω/2π. Todas las l´ıneas juntas constituyen una banda. Las
´ ´ CAP´ITULO 25. MOLECULAS DIATOMICAS
584
l´ıneas constitu´ıdas por las frecuencias (25.32) se denominan la rama R, en tanto que las l´ıneas asociadas a las frecuencias (25.33) se denominan rama P. En cada rama, la distancia entre dos l´ıneas adyacentes es 2B. El intervalo central que separa a las dos ramas est´ a a una distancia 4B, ya que NO hay una l´ınea asociada a la frecuencia puramente vibracional ω/2π. Por esta raz´ on es frecuente decir que hay una “l´ınea faltante” en el espectro. Como consecuencia, no hay un espectro puramente vibracional. Sin embargo, puesto que ω/2π ≫ 2B, un espectr´ ometro de baja resoluci´ on podr´ıa ignorar la estructura rotacional y observar el espectro de la figura 25.4, como si hubiera una sola l´ınea centrada en ω/2π. La ausencia de un espectro puramente vibracional tambi´en se puede ver de las reglas de selecci´ on (25.29, 25.30) que nos muestran que las transiciones con ∆l = 0 y ∆v 6= 0 est´ an prohibidas. En contraste, tales reglas de selecci´ on muestran que transiciones con ∆l 6= 0 y ∆v = 0 s´ı est´ an permitidas, y por tanto hay un espectro puramente rotacional.
25.4.
Correcciones a la estructura espectral (opcional)
La estructura espectral de la mol´ecula diat´ omica se ha calculado basados en la suposici´ on de que la variaci´ on del potencial centr´ıfugo es despreciable. En tal caso se reemplaza la funci´ on Vcent (r) por su valor en r = re . Esto implica que en esta aproximaci´ on, el potencial efectivo se obtiene a partir del potencial real m´ as una traslaci´ on r´ıgida vertical de ´este. Estudiaremos a continuaci´ on las correcciones que resultan de calcular las peque˜ nas variaciones de Vcent alrededor de re . Para ello, hacemos la expansi´ on del potencial centr´ıfugo en potencias de r − re Vcent (r) =
l (l + 1) ~2 l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2 = − (r − r ) + (r − re )2 + . . . e 2µr 2 2µre2 µre3 2µre4
(25.34)
De modo que combinamos las expansiones (25.5, 25.34) para formar la expansi´ on del potencial efectivo Vef (r) = −V0 + f (r − re )2 − g (r − re )3 + . . . 3l (l + 1) ~2 l (l + 1) ~2 l (l + 1) ~2 − (r − r ) + (r − re )2 + . . . + e 2µre2 µre3 2µre4
(25.35)
veremos que la variaci´ on del potencial centr´ıfugo alrededor de r = re (para l 6= 0) genera los siguientes efectos 1. La posici´ on ree del m´ınimo de Vef es ligeramente mayor que la posici´ on re del m´ınimo del potencial real. 2. El valor de este m´ınimo Vef (e re ) es ligeramente distinto de −V0 + Bhl (l + 1).
3. La curvatura de Vef (r) en r = ree no est´ a dada u ´nicamente por el coeficiente f . N´ otese que esta curvatura es la que nos determinaba la frecuencia del oscilador arm´ onico equivalente como se aprecia en la Ec. (25.6).
Tomando la expansi´ on (25.35) hasta orden cuadr´ atico en (r − re ), el valor del m´ınimo local evaluado hasta este orden nos da dVef (e re ) l (l + 1) ~2 3l (l + 1) ~2 = 0 = 2f (e re − re ) − + (e re − re ) (25.36) dr µre3 µre4 para valores t´ıpicos de f y para l ∼ 1, se puede tomar f ≫ l (l + 1) ~2 / µre4 . En cuyo caso la relaci´ on (25.36) se puede aproximar en la forma l (l + 1) ~2 2f (e re − re ) ≃ (25.37) µre3 de esta forma se obtiene ree − re ≃
l (l + 1) ~2 Bhl (l + 1) = 3 2µf re f re
(25.38)
25.4. CORRECCIONES A LA ESTRUCTURA ESPECTRAL (OPCIONAL)
585
con lo cual ree > re como se predijo. Utilizando (25.6) y (25.10) en (25.38) resulta ree − re (∆r)0 ree − re (∆r)0
Bhl (l + 1) (∆r)0 Bhl (l + 1) (∆r)0 4Bhl (l + 1) (∆r)0 = 2 = 2 f re (ω µ/2) re [~/ (2µω)] ~ω re [(∆r)0 ]
≃
≃ 2l (l + 1)
2Bh (∆r)0 ≪1 ~ω re
(25.39)
donde hemos usado adem´ as las aproximaciones (25.12, 25.14). Podemos decir que la desviaci´ on de ree con respecto a re es “peque˜ na”, ya que es mucho menor que el ancho del paquete en el estado base. Combinando las Ecs. (25.11, 25.12) con la condici´ on (25.39) queda g (e re − re ) ≪ g (∆r)0 ≪ f 3 (e re − re ) 3 (e re − re ) 3 (e re − re ) l (l + 1) ~2 l (l + 1) ~2 ≪ ≪1 ⇒ ≪ 2 re 2 (∆r)0 2 re µre3 µre3 obtenemos entonces las desigualdades g (e re − re ) ≪ f
;
3l (l + 1) ~2 l (l + 1) ~2 (e r − r ) ≪ e e 2µre4 µre3
(25.40)
evaluando Vef (r) en el m´ınimo local ree , la expansi´ on (25.35) queda
Vef (e re ) = −V0 + f (e re − re )2 − g (e re − re )3 + . . . +
l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2 − (e r − r ) + (e re − re )2 + . . . e e 2µre2 µre3 2µre4
Vef (e re ) = −V0 + [f − g (e re − re )] (e re − re )2 + . . . l (l + 1) ~2 3l (l + 1) ~2 l (l + 1) ~2 + + (e re − re ) − (e re − re ) + . . . 2µre2 2µre4 µre3
(25.41)
sustituyendo las aproximaciones (25.40, 25.37, 25.38) en la expansi´ on (25.41) tenemos que l (l + 1) ~2 l (l + 1) ~2 − (e re − re ) 2µre2 µre3 l (l + 1) ~2 l (l + 1) ~2 −V0 + [f (e re − re )] (e re − re ) − (e r − r ) + e e µre3 2µre2 l (l + 1) ~2 l (l + 1) ~2 l (l + 1) ~2 −V0 + (e r − r ) − (e r − r ) + e e e e 2µre3 µre3 2µre2 2 l (l + 1) ~ ~ −V0 − (e re − re ) + hl (l + 1) 3 2µre 4πµre2 ~ l (l + 1) ~2 Bhl (l + 1) −V0 − + hl (l + 1) 2µre3 f re 4πµre2
Vef (e re ) ≃ −V0 + f (e re − re )2 + = ≃ = ≃ quedando finalmente Vef (e re ) ≃ −V0 −
B~2 h [l (l + 1)]2 + Bhl (l + 1) 2µf re4
Vef (e re ) ≃ −V0 + Bhl (l + 1) − Gh [l (l + 1)]2
;
G≡
B~2 ~3 = 2µf re4 8πµ2 re6 f
(25.42)
por tanto, para un momento angular no nulo la energ´ıa de disociaci´ on |Vef (e re )| difiere de la energ´ıa de disociaci´ on V0 para el estado base. Adem´ as el t´ermino proporcional a G proviene de tener en cuenta la variaci´ on del potencial
´ ´ CAP´ITULO 25. MOLECULAS DIATOMICAS
586
centr´ıfugo como se puede ver al comparar las ecuaciones (25.19, 25.42), donde la variaci´ on del potencial centr´ıfugo se despreci´ o en (25.19). En la vecindad de r = ree , el potencial efectivo se puede escribir en la forma Vef (r) = Vef (e re ) + f (r − ree )2 − g (r − ree )3 + . . .
a partir de la expansi´ on (25.43), es claro que el coeficiente f viene dado por 1 d2 f= Vef (r) 2 dr 2 r=e re
(25.43)
(25.44)
con lo cual dicho coeficiente est´ a relacionado con la curvatura de Vef (r) en r = ree . Para evaluar la diferencia entre f y f , tendremos en cuenta el t´ermino en (r − re )3 de V (r) en la expansi´ on (25.35) y consecuentemente, el 2 t´ermino en (r − re ) del potencial centr´ıfugo 1 d2 1 d2 h f = Vef (r) ≃ −V0 + f (r − re )2 − g (r − re )3 + 2 2 dr 2 2 dr r=e re l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2 2 + − (r − re ) + (r − re ) 2µre2 µre3 2µre4 r=e re 1 3l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2 = 2f − 6g (e re − re ) + ≃ f − 3g + 2 µre4 2µf re3 2µre4 donde hemos usado la aproximaci´ on (25.38) en el u ´ltimo paso. Tenemos entonces que 2f ≃ 2f +
3l (l + 1) ~2 3gl (l + 1) ~2 − µre4 µf re3
(25.45)
la frecuencia angular definida en (25.6) debe entonces reemplazarse por s s s s 2f 2f 2f 3l (l + 1) ~2 3gl (l + 1) ~2 3l (l + 1) ~2 3gl (l + 1) ~2 ω = ≃ + − = 1 + − µ µ µ2 re4 µ2 f re3 µ 2f µre4 2f 2 µre3 1 3l (l + 1) ~2 3gl (l + 1) ~2 3~2 ω 1 g l (l + 1) ≃ ω 1+ − = ω + − 4 2 3 3 2 2f µre 2f µre 4µf re re f 3~2 ω 1 g ω ≃ ω − 2παe l (l + 1) ; αe ≡ − (25.46) 8πµf re3 f re
estas ecuaciones muestran que la curvatura evaluada en el m´ınimo del potencial efectivo cambia cuando se considera la variaci´ on del potencial centr´ıfugo, traduci´endose en un cambio en la frecuencia natural de vibraci´ on. De una forma similar se puede determinar g. A partir de la expansi´ on (25.43) es claro que este t´ermino viene dado por 1 d3 g=− Vef (r) (25.47) 6 dr 3 r=e re sin embargo el t´ermino c´ ubico en (25.43) solo agrega una peque˜ na correcci´ on a los resultados que se obtienen con los dos primeros t´erminos, por lo cual despreciaremos la variaci´ on de d3 Vef f /dr 3 cuando vamos desde re hasta ree . Tomaremos entonces g ≃ g. En resumen, una expansi´ on del potencial efectivo alrededor del m´ınimo corregido queda en la forma 1 Vef (r) ≃ Vef (e re ) + µω 2 (r − ree )2 − g (r − ree )3 (25.48) 2 l (l + 1) ~2 Bhl (l + 1) ree − re ≃ = (25.49) 2µf re3 f re B~2 ~3 Vef (e re ) ≃ −V0 + Bhl (l + 1) − Gh [l (l + 1)]2 ; G ≡ = (25.50) 2µf re4 8πµ2 re6 f 3~2 ω g 1 ω ≃ ω − 2παe l (l + 1) ; αe ≡ − (25.51) 8πµf re3 f re
25.4. CORRECCIONES A LA ESTRUCTURA ESPECTRAL (OPCIONAL)
587
donde hemos usado las ecuaciones (25.38, 25.42, 25.46).
25.4.1.
Correcci´ on a las funciones de onda y los niveles de energ´ıa
De la expresi´ on (25.48), podemos generar la correspondiente correcci´ on a la ecuaci´ on radial (25.3) 2 2 1 ~ d − + µω 2 (r − ree )2 − g (r − ree )3 uv,l (r) = [Ev,l − Vef f (e re )] uv,l (r) 2 2µ dr 2
(25.52)
si despreciamos el t´ermino proporcional a g, reconocemos de nuevo la ecuaci´ on de valores propios de un oscilador arm´onico unidimensional de frecuencia angular ω, cuya posici´ on de equilibrio es r = ree . Tenemos entonces que el t´ermino entre par´entesis cuadrados a la derecha de (25.52) debe ser igual a (v + 1/2) ~ω 1 1 0 Ev,l = v + ~ω + Vef f (e re ) = −V0 + v + ~ω + Bhl (l + 1) − Gh [l (l + 1)]2 (25.53) 2 2 donde hemos usado (25.50). Las funciones propias asociadas a estados estacionarios poseen la forma (25.2), con la funci´ on radial uv (r) dada por la soluci´ on arm´ onica (25.7), pero reemplazando β, re por β, ree ! r 2 1/4 2 β 1 µω −β (r−e re )2 /2 √ uv (r) = e Hv β (r − ree ) ; β≡ π ~ 2v v!
dado que hemos tenido en cuenta el t´ermino g (r − re )3 para calcular la nueva frecuencia angular ω, la consistencia del c´alculo nos exige estimar la correcci´ on de este t´ermino a los autovalores y autovectores de la ecuaci´ on radial (25.52). Esto implica evaluar la primer correcci´ on anarm´ onica tal como se hizo en la secci´ on 20.6.4, P´ ag. 511 utilizando teor´ıa de perturbaciones. Aplicando los resultados de la secci´ on 20.6.4 ????, los niveles perturbados vendr´ an dados por 1 2 7 15 g2 ~ 0 Ev,l = Ev,l + ξ~ω v + + ξ~ω ; ξ ≡ − (25.54) 2 60 4 µ3 ω 5 on perturbativa. puesto que ξ ≪ 1, ω puede reeemplazarse por ω en la correcci´
25.4.2.
Distorsi´ on centr´ıfuga de la mol´ ecula
La Ec. (25.49) muestra que ree > re , y que la distancia entre ambas se incrementa con l. En otras palabras, la distancia entre los n´ ucleos se incrementa cuando la mol´ecula aumenta su rotaci´ on. En un sentido cl´asico podemos decir que “el t´ermino centr´ıfugo” tiende a separar los n´ ucleos hasta que es balanceado por la fuerza restauradora 2f (e re − re ) debida al potencial V (r). La mol´ecula no puede entonces considerarse como un “rotador r´ıgido”. El incremento en la distancia entre n´ ucleos produce a su vez un incremento en el momento de inercia de la mol´ecula, que a su vez genera un decremento en la energ´ıa cin´etica rotacional (si el momento angular es constante). Este decremento solo se compensa parcialmente con el incremento V (e re ) − V (re ), en la energ´ıa potencial. Este es el origen F´ısico de la correcci´ on proporcional a G en el espectro descrito en (25.53). Esta correcci´ on (que es de signo negativo) se incrementa mucho m´ as r´ apido con l que la energ´ıa rotacional proporcional a B en el espectro (25.53). Experimentalmente, esto se traduce en que las frecuencias de Bohr del espectro puramente rotacional ya no ser´ an estrictamente equidistantes, sino que su separaci´ on disminuye con el incremento de l.
25.4.3.
Acople vibracional-rotacional
Si agrupamos los t´erminos segundo y tercero en (25.53) y reemplazamos ω por su expresi´ on (25.51), se obtiene 1 1 1 v+ ~ω + Bhl (l + 1) = v + ~ω + Bhl (l + 1) − αe hl (l + 1) v + (25.55) 2 2 2
588
´ ´ CAP´ITULO 25. MOLECULAS DIATOMICAS
los dos primeros t´erminos a la derecha de la expresi´ on (25.55) son claramente energ´ıas vibracionales y rotacionales respectivamente. El tercer t´ermino depende de los n´ umeros cu´ anticos v y l, y representa el acople entre los grados de libertad vibracionales y rotacionales. La Ec. (25.55) se puede reescribir en la forma 1 1 1 ~ω + Bhl (l + 1) = v + ~ω + Bv hl (l + 1) (25.56) v+ ; Bv ≡ B − αe v + 2 2 2
es como si cada nivel vibracional tuviera una constante rotacional efectiva Bv que depende del n´ umero cu´ antico vibracional v. De nuevo podemos hacer un an´ alogo cl´ asico. La Ec. (25.13) nos dice que B es proporcional a 1/r 2 . Cuando la mol´ecula vibra, r var´ıa y por tanto tambi´en B. Puesto que las frecuencias vibracionales son mucho mayores que las rotacionales, podemos definir una constante efectiva rotacional de la mol´ecula en un estado vibracional dado: para ello podemos usar el promedio de B sobre un intervalo de tiempo mucho mayor a un periodo vibracional (y mucho menor que un periodo rotacional para que B pueda considerarse constante en el proceso de rotaci´ on). 2 on. Debemos tomar entonces el promedio temporal de 1/r en el estado vibracional bajo consideraci´ Ahora bien, los dos t´erminos de signos opuestos en la expresi´ on (25.51) para αe pueden interpretarse de la siguiente forma. El t´ermino proporcional a g obviamente surge del t´ermino anarm´ onico de V (r), el cual se incrementa con la amplitud de las oscilaciones puesto que nos alejamos del r´egimen de peque˜ nas oscilaciones (por tanto se incrementa con v). El t´ermino c´ ubico (primer t´ermino anarm´ onico), introduce una asimetr´ıa en la forma de V (r) de manera que la mol´ecula “pasa mas tiempo” en la regi´ on r > re que en la regi´ on r < re . De aqu´ı se 2 2 sigue que el valor promedio de 1/r es menor que 1/re , de modo que la anarmonicidad disminuye la constante efectiva rotacional Bv . Esto se puede ver al combinar las Ecs. (25.56, 25.51). Por otro lado, incluso si el movimiento vibracional es sim´etrico con respecto a re (es decir si g = 0) el valor promedio de 1/r 2 no es igual a 1/re2 puesto que 1 1 1 6= = 2 2 2 r re hri y este es el origen del segundo t´ermino en αe de la Ec. (25.51). Cuando se toma el promedio de 1/r 2 , se favorecen los valores peque˜ nos de r de modo que 1 1 1 > = 2 2 2 r re hri
lo cual explica el signo del segundo t´ermino en αe de la Ec. (25.51). El signo de αe depende por supuesto de la competencia entre estos dos efectos opuestos en signo. En general, el t´ermino anarm´ onico es el que domina de modo que αe es positivo y Bv < B. N´ otese que el acople vibracional-rotacional existe incluso cuando v = 0, en este caso 1 B0 = B − αe 2 lo cual constituye otra manifestaci´ on de la extensi´ on de la funci´ on de onda (∆r)0 asociada al estado v = 0. as compacta en el estado vibracional m´ as alto v ′ que Si αe es positivo, la estructura rotacional es ligeramente m´ en el estado vibracional v = v ′ − 1. Puede verse que las ramas R y P ilustradas en la Figura 25.4, se afectan de modo diferente. Las l´ıneas adyacentes ya no ser´ an equidistantes y en promedio estar´ an m´ as cercanas en la rama R que en la rama P . Reuniendo las ecuaciones (25.53, 25.54, 25.55) podemos escribir el espectro completo vibracional-rotacional rotulado con los n´ umeros cu´ anticos v, l 1 1 1 2 7 2 2 Ev,l = −V0 + v + ~ω + B − αe v + hl (l + 1) − Ghl (l + 1) + ξ v + ~ω + ξ~ω (25.57) 2 2 2 60 on de la mol´ecula (para momento angular nulo), ω/2π es la frecuencia recordemos que V0 es la energ´ıa de disociaci´ vibracional, B la constante rotacional [Ec. (25.13)], y las cantidades G,αe , ξ son constantes adimensionales dadas por las ecuaciones (25.50, 25.51, 25.54).
´ ´ 25.5. ESPECTRO DE MOLECULAS DIATOMICAS HOMOPOLARES: EFECTO RAMAN
25.5.
589
Espectro de mol´ eculas diat´ omicas homopolares: efecto Raman
Cuando las mol´eculas son homopolares (´ atomos id´enticos), la simetr´ıa que emerge hace que el momento dipolar el´ectrico permanente se anule, volviendo a la mol´ecula inactiva en el infrarojo. En tal caso, cuando una onda ´ optica (en el rango del visible) golpea la mol´ecula, ????
Cap´ıtulo 26
Sistemas cu´ anticos de part´ıculas id´ enticas Veremos que bajo los postulados de la mec´ anica cu´ antica que ya hemos establecido, se presentan ambig¨ uedades cuando tratamos sistemas de part´ıculas id´enticas, raz´ on por la cual debemos introducir un nuevo postulado que permita una descripci´ on adecuada de un conjunto de part´ıculas id´enticas. Diremos que dos part´ıculas son id´enticas si poseen las mismas propiedades intr´ınsecas tales como masa en reposo, esp´ın, carga etc. Es decir, tales propiedades intr´ınsecas no se pueden distinguir en un experimento1 . Por ejemplo, todos los electrones en el universo son id´enticos, todos los protones en el universo son id´enticos, as´ı como todos los ´ atomos de hidr´ ogeno (protios). Por otra parte el electr´ on y el positr´ on (su antipart´ıcula) no son id´enticos ya que aunque tienen la misma masa y esp´ın, difieren en el signo de su carga el´ectrica. Es claro que tanto en un contexto cl´ asico como cu´ antico, un sistema f´ısico que contiene dos part´ıculas id´enticas no cambia sus propiedades de evoluci´ on cuando se intercambian los roles de las dos part´ıculas. Es importante notar que la definici´ on de part´ıculas id´enticas y todas las simetr´ıas a las que conlleva son independientes de las condiciones experimentales. A manera de ejemplo, incluso si no se miden las cargas en un experimento dado, un electr´ on y un positr´ on no se pueden tratar como part´ıculas id´enticas.
26.1.
Part´ıculas id´ enticas en mec´ anica cl´ asica
Dado que las part´ıculas cl´ asicas poseen trayectorias bien definidas, un sistema de part´ıculas id´enticas se puede tratar pr´ acticamente igual que un sistema general de part´ıculas. Podemos distinguir cada part´ıcula una vez que determinamos su posici´ on y velocidad iniciales, rastreando la curva que describe. Por simplicidad estudiaremos un sistema de dos part´ıculas id´enticas y veremos que incluso en mec´ anica cl´ asica aparecen algunas simetr´ıas asociadas al car´ acter id´entico de las part´ıculas. En el tiempo inicial t0 , el estado del sistema se especifica con los valores iniciales de posici´ on y velocidad de cada part´ıcula. Denotaremos estos datos iniciales en la forma {r0 , v0 } y {r′0 , v′0 }. Para describir la evoluci´ on del estado del sistema rotulamos las dos part´ıculas: para la part´ıcula (1) tendremos una posici´ on r1 (t) y una velocidad v1 (t), y los valores asociados a la part´ıcula (2) ser´ an r2 (t) , v2 (t). Esta numeraci´ on es arbitraria, a diferencia de lo que ocurrir´ıa si las part´ıculas fueran no id´enticas. El estado f´ısico inicial puede en teor´ıa ser descrito por dos “estados matem´ aticos” diferentes puesto que cualquiera de estas dos asignaciones es totalmente equivalente r1 (t0 ) = r0 , v1 (t0 ) = v0
;
r2 (t0 ) = r′0 , v2 (t0 ) = v0′
(26.1)
r1 (t0 ) = r′0 , v1 (t0 ) = v0′
;
r2 (t0 ) = r0 , v2 (t0 ) = v0
(26.2)
o ´
1
Propiedades como posici´ on, momento, velocidad etc, son propiedades cinem´ aticas y din´ amicas y no son intr´ınsecas, ya que dependen de las condiciones iniciales.
590
´ ´ ´ 26.2. PART´ICULAS IDENTICAS EN MECANICA CUANTICA
591
ahora, si solucionamos la evoluci´ on del sistema usando las condiciones iniciales (26.1), tales soluciones tendr´ an la forma r1 (t) = r (t) , r2 (t) = r′ (t) donde r (t) y r′ (t) son dos funciones vectoriales del tiempo. El hecho de que las part´ıculas sean id´enticas implica que el sistema no cambia si intercambiamos los roles de las part´ıculas. Por tanto, el Lagrangiano o Hamiltoniano cl´ asicos L (r1 , v1 ; r2 , v2 ) ; H (r1 , v1 ; r2 , v2 ) son invariantes bajo el intercambio de ´ındices 1 ↔ 2. De esto se sigue que la soluci´ on para la evoluci´on del sistema partiendo de las condiciones iniciales (26.2) estar´ a dada por r1 (t) = r′ (t)
, r2 (t) = r (t)
las dos descripciones matem´ aticas del estado f´ısico bajo estudio son totalmente equivalentes ya que conducen a las mismas predicciones f´ısicas. Lo intr´ınseco o esencial en esta descripci´ on es: la part´ıcula con posici´on y velocidad {r0 , v0 } en t0 , evolucionar´ a de acuerdo con la funci´ on vectorial r (t) y la part´ıcula con posici´ on y velocidad {r′0 , v0′ } en t0 , evolucionar´a de acuerdo con la funci´ on vectorial r′ (t). Lo u ´nico que tenemos que hacer es escoger en el tiempo inicial uno de los “estados matem´ aticos” e ignorar la existencia del otro. En tal sentido tratamos a las part´ıculas como si fueran de diferente naturaleza. Una vez hecha una escogencia, los r´ otulos (1) y (2) con los que “marcamos” cada part´ıcula en t0 , act´ uan como propiedades intr´ınsecas para distinguir a las dos part´ıculas. Puesto que podemos rastrear la trayectoria de cada part´ıcula, podemos determinar las posiciones y velocidades de la part´ıcula rotulada como (1) en cualquier tiempo. Por supuesto lo mismo vale para la part´ıcula con r´ otulo (2).
26.2.
Part´ıculas id´ enticas en mec´ anica cu´ antica
En mec´ anica cu´ antica la situaci´ on es totalmente distinta. Incluso si en t0 los paquetes de onda asociados a dos part´ıculas id´enticas no se traslapan (est´ an separados espacialmente) la evoluci´ on temporal puede mezclarlos. En tal sentido, cu´anticamente se “pierde el rastro” de las part´ıculas. Cuando una part´ıcula es detectada en una regi´ on del espacio, no hay manera de saber si la part´ıcula detectada es la que originalmente se rotul´ o (1) o la que originalmente se rotul´ o (2). La raz´ on es que ambas part´ıculas tienen en general una probabilidad diferente de cero de ser detectadas en tal regi´ on del espacio. La numeraci´ on asignada en el tiempo inicial ser´ a entonces ambig¨ ua cuando se mide su posici´ on, ya que como veremos a continuaci´ on, existen varios “caminos” que el sistema puede seguir desde su estado inicial hasta el estado que se encuentra en la medida2 . Tomemos como ejemplo la colisi´ on de dos part´ıculas id´enticas en su sistema de referencia centro de masa. Asumamos que en t0 sus paquetes est´ an separados para facilitar la rotulaci´ on (ver Fig. 26.1a). Denotaremos por (1) la part´ıcula de la izquierda y por (2) la de la derecha. Los dos paquetes de onda se dirigen el uno al otro y al aproximarse, comienzan a traslaparse las funciones de onda (Fig 26.1b). Despu´es de la colisi´ on, la regi´ on del espacio en la cual la densidad de probabilidad de las dos part´ıculas es significativa, tiene la forma de una capa esf´erica cuyo radio se incrementa con el tiempo (Fig. 26.1c). Supongamos ahora que ubicamos un detector D en la direcci´ on que hace un ´ angulo θ con la velocidad inicial del paquete de onda (1). Si este detector detecta una part´ıcula, es claro que la otra part´ıcula debe moverse en direcci´ on opuesta por conservaci´ on del momento. Sin embargo, no es posible determinar si la part´ıcula detectada en D, es la inicialmente rotulada como (1) o la inicialmente rotulada como (2). Para verlo, observamos que hay dos “caminos” diferentes que el sistema pudo haber seguido desde la condici´ on inicial establecida en la Fig. 26.1a, para llegar al estado final que se encuentra en la medida. Estos dos caminos se presentan esquem´ aticamente en la Fig. 26.2. No podemos determinar cual camino sigui´o el sistema. 2 La ambig¨ uedad se puede remover solo si los paquetes de onda no se traslapan para ning´ un tiempo. En este caso las probabilidades ser´ıan excluyentes. Sin embargo, esta situaci´ on nunca es exacta, y en pocos casos se puede despreciar el traslapamiento de las funciones de onda para todo tiempo.
592
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
Figura 26.1: Colisi´ on de dos part´ıculas id´enticas en su sistema de referencia del centro de masa. (a) En t0 los paquetes de onda est´ a bien separados. (b) A medida que se aproximan las dos part´ıculas, sus paquetes de onda comienzan a traslaparse. (c) Despu´es de la colisi´ on, la regi´ on de alta probabilidad de detecci´ on tiene la forma de una capa esf´erica que se expande con el tiempo.
Figura 26.2: Representaci´ on de los dos “caminos” que un sistema de dos part´ıculas id´enticas puede seguir desde el estado inicial hasta la medida (en el sistema de referencia del centro de masa). La indistinguibilidad no permite determinar cu´ al de los dos caminos tomaron las part´ıculas. Se presenta entonces una dificultad fundamental para usar los postulados de la mec´ anica cu´ antica, ya que para calcular una probabilidad asociada a alguna medida es necesario conocer perfectamente el estado final asociado a dicha medici´ on. En este caso hay dos estados diferentes (de hecho ortogonales) asociados a las figuras 26.2. Sin embargo, ambos estados est´ an asociados a un solo estado f´ısico ya que no podemos distinguir entre ellos a trav´es de alguna medida experimental. La pregunta natural es: bajo estas condiciones ¿el c´ alculo de probabilidad debe emplear el camino de la Fig. 26.2a, el camino de la Fig. 26.2b, o los dos?. Si se deben tomar los dos, ¿debemos sumar las probabilidades asociadas con cada camino, o debemos sumar sus amplitudes de probabilidad? (en el u ´ltimo caso, ¿que signo debemos usar?). Cada una de estas alternativas nos llevar´ a a diferentes predicciones. Antes de responder a estas preguntas tomaremos otro ejemplo que nos ilustra el problema de la indistinguibilidad en cu´ antica.
26.3.
Degeneraci´ on de intercambio
En el anterior ejemplo, consideramos dos paquetes de onda que inicialmente no se traslapan, lo cual nos uedades aparecen cuando tratamos de permite rotular cada paquete sin ambig¨ uedad al menos en t = t0 . Las ambig¨ determinar el ket o estado matem´ atico asociado con un resultado dado de una medida de posici´ on. En esta secci´ on veremos que en ciertas circunstancias, surge la misma dificultad en la escogencia del ket matem´ atico usado para
´ DE INTERCAMBIO 26.3. DEGENERACION
593
describir el estado f´ısico inicial. Esta dificultad asociada al estado inicial involucrar´ a al concepto de degeneraci´ on de intercambio.
26.3.1.
Degeneraci´ on de intercambio para un sistema de dos part´ıculas de esp´ın 1/2
Como primer paso consideremos un sistema de dos part´ıculas id´enticas de esp´ın 1/2, en el cual nos limitaremos a mediciones de grados de libertad de esp´ın. Al igual que en las secciones precedentes, distinguiremos entre el estado f´ısico del sistema y su descripci´ on matem´ atica (un ket del espacio de estados). Parece natural que si hacemos un conjunto completo de medidas de cada esp´ın, conoceremos el estado f´ısico completo de manera perfecta. Asumiremos que la tercera componente de esp´ın de una de las part´ıculas es +~/2 y la de la otra es −~/2. Esto es equivalente a la especificaci´ on de {r0 , v0 } y de {r′0 , v0′ } en el sistema cl´ asico. Para describir el sistema matem´ aticamente numeramos las part´ıculas: S1 y S2 denota a los dos observables de (1) esp´ın, y {|ε1 , ε2 i} es la base ortonormal del espacio de estados formado por vectores propios comunes a S3 (valor (2) propio ε1 ~/2) y S3 (valor propio ε2 ~/2). Al igual que en el ejemplo cl´ asico, hay dos “estados matem´ aticos” diferentes que se pueden asociar con el mismo sistema f´ısico. En este caso uno de los estados definidos por |ε1 = +, ε2 = −i
|ε1 = −, ε2 = +i
(26.3) (26.4)
cualquiera de estos dos estados ortogonales puede en principio describir el estado f´ısico del sistema. Ahora bien, estos dos kets expanden un subespacio bidimensional de vectores normalizados de la forma |χi ≡ α |+ , −i + β |− , +i
;
|α|2 + |β|2 = 1
(26.5)
en virtud del principio de superposici´ on, todos los kets matem´ aticos (26.5) pueden representar al estado f´ısico asociado a (26.3) o a (26.4). En otras palabras, una superposici´ on de la forma (26.5) representa un estado f´ısico con una part´ıcula con esp´ın arriba y otra con esp´ın abajo. Lo intr´ınseco es tener una part´ıcula con esp´ın arriba y otra con esp´ın abajo. Esto se denomina degeneraci´ on de intercambio. La degeneraci´on de intercambio crea dificultades fundamentales, puesto que la aplicaci´ on de los postulados a los kets del tipo (26.5) pueden conducir a predicciones diferentes de acuerdo con el ket escogido. Determinemos por ejemplo, la probabilidad de encontrar las primeras componentes de los dos espines iguales a +~/2. Con esta medida, el resultado est´ a asociado a un solo ket del espacio de estados (ya que el intercambio me deja el ket intacto). Recordemos que los autoestados de S1 con respecto a los autoestados de S3 se escriben en la forma 1 |±i1 = √ [|+i ± |−i] 2
(26.6)
el estado (´ unico) que describe a dos part´ıculas con primera componente de esp´ın arriba, se construye como el producto tensorial de dos estados del tipo |+i1 E E 1 1 |+, +i1 = (+)(1) ⊗ (+)(2) = √ [|ε1 = +i + |ε1 = −i] ⊗ √ [|ε2 = +i + |ε2 = −i] 1 1 2 2 1 |+, +i1 = [|+, +i + |−, +i + |+, −i + |−, −i] 2 de modo que la probabilidad que queremos calcular para el vector (26.5) est´ a dada por 2 ∗ 1 2 ∗ P = |hχ |+, +i1 | = {α h+ , −| + β h− , +|} [|+, +i + |−, +i + |+, −i + |−, −i] 2 2 1 P = (α + β) 2
594
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
√ a manera de ejemplo, utilizando (α, β) = (1, 0) se obtiene P = 1/4, y usando α = β = 1/ 2 se obtiene P = 1/2. Es claro entonces que esta probabilidad depende de los coeficientes α y β. Por tanto, no es consistente describir el estado f´ısico bajo estudio por el conjunto de kets (26.5) o por alguno de ellos escogido en forma arbitraria. La degeneraci´ on de intercambio debe removerse, y determinar cual ket del tipo (26.5) debe emplearse en el c´ alculo. En este ejemplo aparece degeneraci´ on de intercambio solo en el estado inicial, debido a que hemos escogido el mismo valor para las componentes de los dos espines en el estado final. En el caso general puede aparecer degeneraci´ on de intercambio tanto en el estado inicial como en el final. Esto ocurre por ejemplo, si el resultado de la medida corresponde a dos diferentes autovalores de S1 .
26.3.2.
Degeneraci´ on de intercambio para un sistema arbitrario
Las dificultades inherentes a la degeneraci´ on de intercambio aparecen en cualquier sistema cu´ antico de N part´ıculas id´enticas. Tomaremos por ejemplo, un sistema de tres part´ıculas id´enticas. Cada una de las tres part´ıculas tiene asociado un espacio de estados y observables que act´ uan en cada uno de estos espacios. Por ejemplo, la part´ıcula que rotulamos como (1) tiene asociado un espacio de estados E (1) y un observable que act´ ua en tal espacio lo denotaremos por B (1). El espacio de estados correspondiente al sistema de tres part´ıculas es el producto tensorial de los estados de cada una E = E (1) ⊗ E (2) ⊗ E (3) vamos a asumir que el observable B (1) que act´ ua sobre E (1) constituye un C.S.C.O. en E (1), o que B (1) simboliza varios observables que constituyen un C.S.C.O. El hecho de que las tres part´ıculas sean id´enticas implica que existen los observables B (2), B (3) y que constituyen un C.S.C.O. en E (2) y E (3) respectivamente. Naturalmente, los otulo de tres B (p) poseen el mismo espectro {bk }. Vamos a “distinguir” el espectro de cada B (p) utilizando el r´ la part´ıcula asociada o n (p) (p) (p) (p) ; p = 1, 2, 3 B (p) → b1 , b2 , b3 , b4 , . . . E (p) de modo que sus vectores propios asociados bk son una base para E (p) (por simplicidad asumiremos que no hay degeneraci´ on). Por tanto, el producto tensorial de estas bases es una base para el espacio de estados E del sistema completo n Eo (1) (2) (3) bi , bj , bk los cuales son vectores propios comunes de las extensiones de B (1), B (2) y B (3) en E, con autovalores bi , bj , bk respectivamente. Ahora bien, puesto que las tres part´ıculas son id´enticas, no podemos medir B (1) , B (2) , B (3) puesto que la numeraci´ on no tiene significado f´ısico. Lo que s´ı se puede, es medir el observable B para cada una de las tres part´ıculas. Supongamos que esta medida nos arroj´ o tres diferentes autovalores bn , bp , bq . En este caso aparece degeneraci´ on de intercambio, ya que el estado del sistema despu´es de esta medida puede apriori representarse por cualquiera de los kets del subespacio de E expandido por los seis vectores base dados por n E E E E E Eo (1) (2) (3) (1) (2) (3) (1) (2) (3) (1) (2) (3) (1) (2) (3) (2) (3) , b , b , b , b , b , b , b , b , b , b , b , b , b , b bn , bp , bq , b(1) n q p p n q q n p p q n q p n es decir, por todas las permutaciones de los r´ otulos n, p, q. Por tanto, una medida completa sobre cada part´ıcula no permite determinar un u ´nico ket del espacio de estados del sistema. En nuestro caso vemos que si obtenemos tres medidas diferentes, tendremos tantos estados linealmente independientes asociados con esta medida como permutaciones de las tres diferentes medidas es decir 3! = 6. Si algunas de las medidas de autovalores coinciden, disminuye la degeneraci´ on por intercambio. Por ejemplo, la indeterminaci´ on debida a la degeneraci´ on de intercambio es menor si dos de los tres autovalores medidos en el ejemplo anterior son iguales, en tal caso tenemos los siguientes kets asociados n E E Eo (1) (2) (3) (2) (3) (2) (3) , b(1) bn , bn , bq , b(1) n , bq , bn q , bn , bn
´ 26.4. OPERADORES DE PERMUTACION
595
y la indeterminaci´ on desaparece por completo si los tres Eautovalores medidos tienen el mismo valor. En tal caso (1) (2) (3) solo tendremos asociado un ket de la forma bn , bn , bn .
26.4.
Operadores de permutaci´ on
Para establecer adecuadamente el postulado adicional que se necesita para remover la degeneraci´ on de intercambio, ser´ a necesario emplear operadores que permiten la permutaci´ on de las part´ıculas id´enticas involucradas en un problema. Comenzaremos por simplicidad, con sistemas de dos part´ıculas
26.4.1.
Permutaciones en sistemas de dos part´ıculas
Consideraremos un sistema compuesto por dos part´ıculas del mismo esp´ın s. En el presente tratamiento no ser´ a necesario que las part´ıculas sean id´enticas. Solo pediremos que los espacios de estados asociados a cada part´ıcula sean isomorfos. De hecho, por el momento asumiremos que las part´ıculas son no-id´enticas de manera que la numeraci´ on (1) y (2) indica su naturaleza. Por ejemplo, (1) puede denotar un prot´ on y (2) puede denotar un electr´ on. Escogeremos una base {|ui i} para el espacio de estados E (1) de la part´ıcula (1). Puesto que ambas part´ıculas tienen el mismo esp´ın, E (2) es isomorfo con E (1), y se puede expandir con la misma base3 . Podemos construir una base para el espacio total E = E1 ⊗ E2 utilizando el producto tensorial de dos bases id´enticas n Eo (1) (2) E = E1 ⊗ E2 → u , u (26.7) i j y dado que el orden de los vectores es irrelevante en el producto tensorial, tenemos que E E (1) (2) (2) (1) = ui , uj uj , ui
sin embargo, se tiene que
E E (1) (2) (1) (2) 6= ui , uj uj , ui
si i 6= j
definimos el operador permutaci´ on P21 como el operador lineal cuya acci´ on sobre los vectores base est´ a dada por E E E (1) (2) (2) (1) (1) (2) P21 ui , uj = ui , uj = uj , ui
la acci´ on de este operador sobre un ket arbitrario de E, se obtiene expandiendo este ket en la base (26.7). Puede verse que el operador P21 as´ı definido no depende de la base {|ui i} escogida. Pero s´ı es muy importante que la base de E se construya con el producto tensorial entre dos bases id´enticas. Vamos a escoger en particular, la base |r, εi, de vectores de posici´ on y de esp´ın. Una base para el espacio completo es E (1) (1) ′(2) ′(2) r , ε ; r , ε (26.8) la acci´ on del operador de permutaci´ on ser´ a E E E P21 r(1) , ε(1) ; r′(2) , ε′(2) = r(2) , ε(2) ; r′(1) , ε′(1) = r′(1) , ε′(1) ; r(2) , ε(2)
(26.9)
cualquier ket |ψi ∈ E, es una combinaci´ on lineal de la base cont´ınua (26.8) y se puede representar con un conjunto 2 de (2s + 1) funciones de seis variables E XZ |ψi = d3 r d3 r′ ψε,ε′ r, r′ r(1) , ε(1) ; r′(2) , ε′(2) ; ψε,ε′ r, r′ = hr(1) , ε(1) ; r′(2) , ε′(2) |ψi (26.10) ε,ε′
3 El espacio orbital de estados de cualquier part´ıcula elemental es simplemente el espacio L2 de las funciones cuadr´ aticamente integrables. Por tanto, la u ´nica diferencia puede provenir del espacio espinorial, que solo es diferente si las dos part´ıculas poseen diferente esp´ın.
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
596
la acci´ on del operador permutaci´ on P21 sobre |ψi se obtiene combinando las ecuaciones (26.9, 26.10) E XZ ′ ψ = P21 |ψi = d3 r d3 r′ ψε,ε′ r, r′ r′(1) , ε′(1) ; r(2) , ε(2)
(26.11)
ε,ε′
intercambiando los nombres de las variables mudas ε ↔ ε′ , r ↔ r′ , la Ec. (26.11) queda en la forma XZ ′ (1) (1) ′(2) ′(2) E 3 3 ′ ′ ψ = P21 |ψi = ′ d r d r ψε ,ε r , r r , ε ; r , ε
(26.12)
ε,ε′
comparando (26.10) con (26.12) vemos que las funciones o coeficientes D (1) (1) ′(2) ′(2) ′ D (1) (1) ′(2) ′(2) ′ ′ = r , ε ; r , ε ψ = r , ε ; r , ε P21 |ψi ψε,ε ′ r, r
(26.13)
que representan a |ψ ′ i = P21 |ψi se pueden obtener a partir de los coeficientes en (26.10) que representan al ket |ψi, invirtiendo (r, ε) y (r′ , ε′ ) ′ ′ (26.14) ψε,ε = ψε′ ,ε r′ , r ′ r, r A partir de la definici´ on es f´ acil ver que
(P21 )2 = 1 de modo que P21 es su propia inversa. Los elementos matriciales de P21
(26.15) n Eo (1) (2) en la base ui , uj est´ an dados por
D E D E D E (1) (2) (1) (1) (2) (2) (1) (1) (2) (1) (2) uk , u(2) = u = u = δkj δmi P , u , u u , u , u u , u u 21 m m m i j i j j i k k
† son por definici´ on y los elementos matriciales de P21 D E D E D E∗ † (1) (2) (1) (2) ∗ (1) (1) (2) (1) (2) (1) (2) uk , u(2) , u = u , u , u = u , u , u = δim δjk P P u u u 21 m m m 21 i j i j i j k k
(26.16)
(26.17)
comparando las Ecs. (26.16, 26.17) resulta
† P21 = P21
(26.18)
es decir P21 es herm´ıtico. Combinando las Ecs. (26.15, 26.18) se obtiene † † P21 P21 = P21 P21 =1
(26.19)
de modo que el operador P21 es unitario.
26.4.2.
Simetrizadores y antisimetrizadores
Puesto que P21 es herm´ıtico sus valores propios son reales, y puesto que (P21 )2 = 1, sus autovalores son ±1. Podemos verlo tambi´en diciendo que P21 es unitario y por tanto sus valores propios yacen en el c´ırculo complejo unitario, pero como tambi´en es herm´ıtico los valores propios son reales de modo que solo pueden ser ±1. Los autovectores |ψS i de P21 con valor propio +1, se denominan sim´etricos, y los autovectores |ψA i asociados al valor propio −1 se denominan antisim´etricos. P21 |ψS i = |ψS i definimos ahora los operadores S=
1 (1 + P21 ) 2
P21 |ψA i = − |ψA i
;
;
A=
1 (1 − P21 ) 2
´ 26.4. OPERADORES DE PERMUTACION
597
a partir de las Ecs. (26.15, 26.18, 26.19) es f´ acil ver las siguientes propiedades S † = S ; A† = A ; S 2 = S ; A2 = A SP21 = P21 S = S ; AP21 = P21 A = −A
S + A = 1 ; AS = SA = 0
(26.20) (26.21) (26.22)
de tal manera que S y A son proyectores herm´ıticos. Las Ecs. (26.22) nos dicen adem´ as que estos proyectores son suplementarios y ortogonales. Veamos algunas de estas propiedades por ejemplo 1 1 1 † A† = = (1 − P21 ) = A (1 − P21 )† = 1 − P21 2 2 2 1 1 1 1 2 S2 = (1 + P21 )2 = 1 + 2P21 + P21 = (2 + 2P21 ) = (1 + P21 ) = S 4 4 4 2 1 1 1 2 AP21 = (1 − P21 ) P21 = P21 − P21 = (P21 − 1) = −A 2 2 2 Por otro lado, de las Ecs. (26.21) podemos ver que dado un ket arbitrario |ψi tenemos que P21 S |ψi = S |ψi
;
P21 A |ψi = −A |ψi
(26.23)
es decir que dado un ket arbitrario no nulo |ψi , tenemos que S |ψi es vector propio de P21 con valor propio +1, en on S y A se conocen como simetrizador tanto que A |ψi es vector propio de P21 con valor propio −1. Por esta raz´ y antisimetrizador, puesto que mapean a un vector arbitrario no nulo en su componente sim´etrica y antisim´etrica respectivamente.
26.4.3.
Transformaci´ on de los observables por medio de las permutaciones
Consideremos un observable B (1) que act´ ua sobre el subespacio E (1) y cuya extensi´ on se define sobre E. Podemos construir una base de E (1) con los vectores propios {|ui i} de B (1), denotaremos los valores propios † correspondientes por bi . Calcularemos la acci´ on del operador P21 B (1) P21 sobre un elemento arbitrario de la base de E, constru´ıda con el producto tensorial de los {|ui i} E E E (1) (2) (1) (2) † (1) (2) u , u B (1) u , u P u , u P21 B (1) P21 = P = b i j 21 j 21 j j i i E E (1) (2) (1) (2) = bj ui , uj = B (2) ui , uj como esto es v´ alido para todos los elementos de la base, lo ser´ a para cualquier combinaci´ on lineal de ´esta, y por tanto para un ket arbitrario de E † P21 B (1) P21 = B (2) con un argumento similar podemos ver que † P21 B (2) P21 = B (1)
por supuesto, B (1) y B (2) se refiere realmente a sus extensiones sobre E. Hay otros operadores extendidos definidos en E tales como B (1) + C (2) ´ o B (1) C (2). Es f´ acil ver la acci´ on de la transformaci´ on de similaridad hecha con P21 sobre estos operadores † P21 [B (1) + C (2)] P21 = B (2) + C (1) † † † P21 B (1) C (2) P21 = P21 B (1) P21 P21 C (2) P21 = B (2) C (1)
podemos generalizar las anteriores expresiones para observables en E que se puedan escribir en t´erminos de observables del tipo B (1) y C (2), que denotaremos gen´ericamente por O (1, 2) † P21 [O (1, 2)] P21 = O (2, 1)
(26.24)
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
598
donde O (2, 1) se obtiene del observable O (1, 2) intercambiando los ´ındices 1 y 2 en toda la expresi´ on del observable. Decimos que un observable OS (1, 2) es sim´etrico si se cumple OS (1, 2) = OS (2, 1)
(26.25)
al aplicar (26.25) y la condici´ on de unitariedad de P21 Ec. (26.19), vemos que para un observable sim´etrico se cumple † = OS (1, 2) ⇒ P21 [OS (1, 2)] = OS (1, 2) P21 P21 [OS (1, 2)] P21
[OS (1, 2) , P21 ] = 0
por tanto los observables sim´etricos conmutan con el operador permutaci´ on P21 .
26.4.4.
Permutaci´ on de un conjunto arbitrario de part´ıculas
Asumiremos un sistema de part´ıculas del mismo esp´ın, pero no necesariamente id´enticas. Por simplicidad ilustraremos la mayor parte de las propiedades con el caso N = 3, veremos que algunas propiedades de las permutaciones generales difieren de las presentadas para el caso N = 2. Una base para el espacio de estados de tres part´ıculas con el mismo esp´ın se puede escribir en la forma n Eo (1) (2) (3) u , u , u (26.26) i j k en este caso existen 6 permutaciones (N ! en el caso general), que denotaremos en la forma P123 , P312 , P231 , P132 , P213 , P321
(26.27)
on de los n´ umeros 1,2,3) es un operador lineal donde por definici´on el operador Pnpq (siendo npq una permutaci´ cuya acci´ on sobre los vectores bases est´ a dada por E E (1) (2) (3) (n) (p) (q) Pnpq ui , uj , uk = ui , uj , uk
por ejemplo
E E E (2) (3) (1) (1) (2) (3) (1) (2) (3) P231 ui , uj , uk = ui , uj , uk = uk , ui , uj
P123 es claramente el operador identidad. La acci´ on de Pnpq sobre un ket arbitrario se puede obtener expandiendo dicho ket en la base (26.26). Es f´ acil ver que el conjunto de todas las N ! permutaciones asociadas a N elementos constituyen un grupo. Es decir, cumplen con los siguientes axiomas 1. P123 es el operador identidad. 2. El producto de dos operadores de permutaci´ on es otro operador de permutaci´ on. Por ejemplo, tomemos la acci´ on de las siguientes permutaciones E E E (1) (2) (3) (3) (2) (1) (1) (2) (3) P321 ui , uj , uk = ui , uj , uk = uk , uj , ui (26.28) E E E E (1) (2) (3) (1) (3) (2) (1) (2) (3) (3) (1) (2) P312 P132 ui , uj , uk = P312 ui , uj , uk = P312 ui , uk , uj = ui , uk , uj E E (1) (2) (3) (1) (2) (3) P312 P132 ui , uj , uk = uk , uj , ui (26.29)
comparando (26.28) con (26.29) podemos ver que
P312 P132 = P321
´ 26.4. OPERADORES DE PERMUTACION
599
3. Los operadores permutaci´ on son asociativos. Por ejemplo, el lector puede verificar que (P312 P132 ) P231 = P312 (P132 P231 ) 4. Cada operador permutaci´ on posee un operador inverso que tambi´en es de permutaci´ on. Con razonamientos similares al anterior se puede probar que −1 −1 −1 P123 = P123 ; P312 = P231 ; P231 = P312 −1 −1 −1 P132 = P132 ; P213 = P213 ; P321 = P321
(26.30)
En general los operadores permutaci´ on no conmutan. Por ejemplo P312 P132 = P321
;
P132 P312 = P213 6= P321
Paridad de una permutaci´ on Una transposici´ on es una permutaci´ on que intercambia dos ´ındices dejando los dem´ as intactos. Los tres u ´ltimos operadores en (26.27) son transposiciones4 . Como las transposiciones son permutaciones que solo involucran a dos on 26.4.1. En elementos, poseen las mismas propiedades que las permutaciones P21 que estudiamos en la secci´ consecuencia, las transposiciones son herm´ıticas, unitarias y coinciden con su inverso. Un operador permutaci´ on se puede escribir como el producto de transposiciones. Por ejemplo, es posible verificar que P312 = P132 P213 = P321 P132 = P213 P321 = P132 P213 (P132 )2 = . . . (26.31) esta descomposici´ on NO es u ´nica. Sin embargo, para una permutaci´ on dada, la paridad del n´ umero de transposiciones es siempre la misma. Una permutaci´ on par (impar) es una permutaci´ on que se escribe como un n´ umero par (impar) de transposiciones. Las tres primeras permutaciones en (26.27) son pares y las tres u ´ltimas son impares. Para N ≥ 2, siempre hay N !/2 de permutaciones pares y N !/2 de permutaciones impares. Puesto que las permutaciones son productos de operadores unitarios (transposiciones) entonces son unitarias. Sin embargo, las permutaciones no son necesariamente herm´ıticas ya que el producto de operadores herm´ıticos no-conmutantes, no es herm´ıtico [ver teorema 1.34 P´ ag. 34]. No obstante, puede demostrarse que el inverso (i.e. el herm´ıtico) de una permutaci´ on Pnpq tiene la misma −1 paridad que la permutaci´ on original. Esto se puede ver teniendo en cuenta que Pnpq se construye con las mismas transposiciones pero tomadas en orden inverso. A manera de ejemplo, tenemos que P312 = P132 P213 −1 P312 = P213 P132
⇒
−1 −1 −1 P312 = (P132 P213 )−1 = P213 P132 ⇒
Kets completamente sim´ etricos y antisim´ etricos Puesto que los operadores de permutaci´on no conmutan para N > 2, no es posible construir una base de autovectores comunes a estos operadores. Sin embargo, veremos que existen algunos kets que son simult´ aneamente autovectores de todos los operadores permutaci´ on. Denotaremos por Pα un operador de permutaci´ on arbitrario de los primeros N enteros. Un ket |ψS i tal que Pα |ψS i = |ψS i para toda permutaci´ on Pα se dice que es un ket completamente sim´etrico. Similarmente un ket se denomina completamente antisim´etrico si se cumple la condici´ on +1 si Pα es una permutaci´ on par Pα |ψA i = εα |ψA i ; εα = −1 si Pα es una permutaci´ on impar 4
Es obvio que una transposici´ on aplicada dos veces es la identidad. Por tanto, una transposici´ on es su propio inverso. Por esta raz´ on, las tres u ´ltimas permutaciones en (26.27) coinciden con su propia inversa como se puede ver en las Ecs. (26.30).
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
600
alternativamente, puesto que Pα se compone de un producto de transposiciones, se puede definir un ket totalmente sim´etrico como aquel que queda invariante bajo cualquier transposici´ on, y un ket es completamente antisim´etrico si invierte su signo bajo cualquier transposici´ on. El conjunto de los kets completamente sim´etricos constituye un subespacio vectorial ES ⊂ E, y el de los kets completamente antisim´etricos un subespacio EA ⊂ E. Consideremos los operadores N! N! 1 X 1 X S= Pα ; A = εα Pα (26.32) N ! α=1 N ! α=1 Veremos que S y A son los proyectores sobre los espacios ES y EA respectivamente. Por esta raz´ on se denominan el simetrizador y el antisimetrizador. Tomando el adjunto a ambos lados de (26.32) obtenemos
S
†
†
A
N!
N!
N!
α=1
α=1
β=1
1 X † 1 X −1 1 X Pα = Pα = Pβ = S N! N! N!
=
N! X
N! X
N!
1 1 1 X εα Pα† = εα Pα−1 = εβ Pβ = A N ! α=1 N ! α=1 N!
=
β=1
donde hemos usado el hecho de que al recorrer todos los inversos se recorren todos los operadores aunque en un orden diferente. Adem´ as, el inverso tiene la misma paridad que la permutaci´ on directa. Supongamos ahora que Pα0 es una permutaci´ on arbitraria, calcularemos Pα0 S y Pα0 A N! N! 1 X 1 X Pα Pα = Pβ = S N ! α=1 0 N!
Pα0 S =
β=1
N!
N!
α=1
β=1
X 1 X 1 εα Pα0 Pα = εβ Pβ = εα0 A εα0 N! N!
Pα0 A =
donde hemos tenido en cuenta que al multiplicar la suma de todas las permutaciones por una permutaci´ on fija, se vuelven a obtener todas las permutaciones aunque en un orden diferente. Adem´ as si Pα0 es par (impar) la paridad de cada producto Pα0 Pα queda intacta (se invierte de signo). Para los productos SPα0 y APα0 se realiza un procedimiento an´ alogo y se obtiene Pα0 S = SPα0 = S
;
Pα0 A = APα0 = ε0 A
(26.33)
aplicando las Ecs. (26.33) tambi´en se obtiene N!
S2 = A2 =
AS =
1 X Pα N! 1 N! 1 N!
α=1 N X!
!
N!
S=
εα Pα A =
α=1 N! X α=1
εα Pα S =
N!
1 X 1 X 1 Pα S = S= N !S = S N! N! N!
α=1 N ! 1 X 2 εα A N! α=1 N! X
1 N!
=
εα S =
α=1
1 N! S N!
α=1 N X!
A=A
α=1 N! X
εα = 0
α=1
en la u ´ltima ecuaci´ on se tuvo en cuenta que para N ≥ 2, la mitad de las permutaciones es par y la otra mitad es impar. Tenemos entonces que S 2 = S ; A2 = A ; SA = AS = 0 (26.34)
´ 26.5. POSTULADO DE SIMETRIZACION
601
S y A son entonces proyectores sobre los subespacios ES y EA respectivamente. La Ec. (26.33) nos dice que la acci´on de estos operadores sobre un ket arbitrario |ψi nos da un ket completamente sim´etrico y completamente antisim´etrico respectivamente Pα0 S |ψi = S |ψi
⇒
Pα0 |ψS i = |ψS i
;
Pα0 A |ψi = εα0 A |ψi ⇒ Pα0 |ψA i = εα0 |ψA i
|ψS i ≡ S |ψi ;
|ψA i ≡ A |ψi
para N ≥ 3, los subespacios ES y EA no son suplementarios (su suma directa no es E). Por ejemplo, para N = 3 tenemos 1 S + A = (P123 + P231 + P312 ) 6= 1 3 es decir, la uni´ on de todos los kets completamente sim´etricos con todos los completamente antisim´etricos, no forman una base. Hay kets “mixtos” que no tienen ninguna de las dos simetr´ıas y que son linealmente independientes de los anteriores. Esto es consistente con el hecho de que para N > 2, los autoestados comunes a todos los operadores permutaci´ on no pueden formar una base, ya que tales operadores no conmutan entre s´ı. Para encontrar la transformaci´ on de los observables por medio de una permutaci´ on arbitraria, podemos escribir la permutaci´ on como producto de transposiciones ya que ´estas poseen las mismas propiedades que la permutaci´ on P21 que se estudi´ o en la secci´ on 26.4.1. Con los argumentos de la secci´ on 26.4.1 se puede encontrar la forma en que una permutaci´ on arbitraria transforma a un observable. A manera de ejemplo, tomemos la permutaci´ on P312 y la escribimos en t´erminos de transposiciones como en la Ec. (26.31) P312 = P132 P213 la transformaci´ on de un observable O (1, 2, 3) a trav´es de P312 se puede escribir como † † † P312 O (1, 2, 3) P312 = [P132 P213 ] O (1, 2, 3) [P132 P213 ]† = [P132 P213 ] O (1, 2, 3) P213 P132 h i † † † = P132 P213 O (1, 2, 3) P213 P132 = P132 [O (2, 1, 3)] P132
† P312 O (1, 2, 3) P312 = O (3, 1, 2)
(26.35)
donde hemos usado la Ec. (26.24), teniendo en cuenta que P132 y P213 son transposiciones de los ´ındices 2, 3 y 1, 2 respectivamente. En particular, si un observable OS (1, 2, . . . , N ) es completamente sim´etrico bajo el intercambio de los ´ındices 1, 2, . . . , N , conmutar´ a con todas las transposiciones, y puesto que una permutaci´ on arbitraria es un producto de transposiciones, se concluye que el observable OS (1, 2, . . . , N ) conmutar´ a con cualquier permutaci´ on Pα de los N ´ındices anteriores [OS (1, 2, . . . , N ) , Pα ] = 0 si OS (1, 2, . . . , N ) es completamente sim´etrico
26.5.
(26.36)
Postulado de simetrizaci´ on
El postulado de simetrizaci´ on nace como una necesidad de describir sistemas de part´ıculas id´enticas y remover la degeneraci´ on de intercambio, junto con las dificultades que esta conlleva. Cuando se discuti´ o la degeneraci´ on de intercambio, se observ´ o que esta desaparec´ıa cuando el ket era completamente sim´etrico bajo el intercambio de los r´ otulos de part´ıcula. Similarmente, es f´ acil demostrar que tal degeneraci´ on tambi´en desaparece cuando el ket es completamente antisim´etrico bajo dicho intercambio. Estos razonamientos junto con la experiencia fenomenol´ ogica, condujeron al llamado postulado de simetrizaci´ on, que se puede enunciar en la siguiente forma: Cuando un sistema incluye varias part´ıculas id´enticas, solo ciertos kets del espacio de estados pueden describir a los estados f´ısicos. Los estados f´ısicos son o bien totalmente sim´etricos o totalmente antisim´etricos con respecto a la permutaci´ on de estas part´ıculas. La naturaleza sim´etrica o antisim´etrica de los kets asociados con el estado f´ısico, depende de la naturaleza de las part´ıculas id´enticas en cuesti´ on. Aquellas part´ıculas cuyos estados asociados
602
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
son sim´etricos se denominan Bosones, en tanto que aquellas asociadas a estados antisim´etricos se denominan Fermiones. El postulado de simetrizaci´ on limita entonces el espacio de estados para un sistema de part´ıculas id´enticas. Para part´ıculas de diferente naturaleza, el espacio de estados E, es el producto tensorial de los estados de cada part´ıcula del sistema. Cuando las part´ıculas son id´enticas, el espacio de estados es solo un subespacio de E, que ser´ıa ES si las part´ıculas son bosones ´ o EA si las part´ıculas id´enticas son fermiones. De acuerdo con este postulado, las part´ıculas que existen en la naturaleza se dividen en dos categor´ıas. Todas las part´ıculas que conocemos hasta ahora obedecen a la siguiente regla emp´ırica: Las part´ıculas de esp´ın semientero (electrones, positrones, protones, neutrones, muones, tauones, etc.) son fermiones, y las part´ıculas de esp´ın entero (fotones, mesones, bosones vectoriales, etc.), son bosones.
26.5.1.
Aplicaci´ on del postulado a part´ıculas compuestas
Una vez que la regla emp´ırica antes mencionada se ha verificado para las part´ıculas “elementales”, se verificar´ a para otras part´ıculas tambi´en, ya que ´estas est´ an compuestas por part´ıculas elementales. Consideremos un sistema de part´ıculas id´enticas compuestas. Permutar dos de estas part´ıculas compuestas es equivalente a permutar todas las part´ıculas que componen a la primera con todas las part´ıculas que componen a la segunda (las cuales son id´enticas a las de la primera part´ıcula, ya que las part´ıculas compuestas son id´enticas)5 . Ahora bien, el ket que describe al sistema debe permanecer inalterado bajo la permutaci´ on de dos part´ıculas compuestas id´enticas, si las part´ıculas compuestas est´ an formadas solo por bosones elementales (ya que toda transposici´ on de bosones deja el signo inalterado), o si cada una de ellas est´ a compuesta por un n´ umero par de fermiones (ya que cada transposici´ on de fermiones cambia el signo, y habr´ıa un n´ umero par de cambios de signo). Esto indica que las part´ıculas compuestas son bosones, lo cual es consistente con las reglas de adici´ on del momento angular (si asumimos que la regla emp´ırica es v´ alida), ya que la suma de un n´ umero par de espines semi-enteros es entera, y la suma de cualquier n´ umero de espines enteros es entera. Por otro lado, si cada part´ıcula compuesta contiene un n´ umero impar de fermiones, el estado debe cambiar de signo bajo la permutaci´ on de dos part´ıculas compuestas, ya que esto implica un n´ umero impar de transposiciones de las part´ıculas elementales. Si asumimos la regla emp´ırica como v´ alida, esto es de nuevo consistente con las reglas de adici´ on del momento angular, ya que la suma de un n´ umero impar de espines semi-enteros es semi-entera, de modo que cada part´ıcula compuesta ser´ıa un fermi´ on. Por ejemplo, los n´ ucleos at´ omicos est´ an compuestos por protones y neutrones, y ambos tipos de part´ıculas son fermiones de esp´ın 1/2. En consecuencia, n´ ucleos con masa at´ omica par (n´ umero total de nucleones) son bosones, y n´ ucleos con masa at´ omica impar son fermiones. Por ejemplo, el is´ otopo 3 He del helio es un fermi´ on, en tanto 4 on. que el is´ otopo del helio He es un bos´
26.5.2.
Soluci´ on de la degeneraci´ on de intercambio
Sea |ui un ket que describe matem´ aticamente un estado f´ısico bien definido de N part´ıculas id´enticas. Para cualquier operador permutaci´ on Pα , el ket matem´ atico Pα |ui describe el mismo estado f´ısico que |ui. Lo mismo ocurre con cualquier ket del subespacio Eu expandido por {Pα |ui}, donde Pα recorre todas las permutaciones (incluyendo la identidad). Dependiendo del ket |ui escogido, este subespacio puede tener dimensi´ on 1 o dimensi´ on N ! o una dimensi´ on intermedia. Por ejemplo, para dos part´ıculas id´enticas de esp´ın 1/2, el estado |++i genera un solo ket linealmente independiente al barrer las permutaciones I, P21 . En tanto que el ket |+−i genera dos kets linealmente independientes con las mismas permutaciones. Si la dimensi´ on es mayor que uno, hay varios kets matem´ aticos linealmente independientes que corresponden al mismo estado f´ısico, generando la degeneraci´ on de intercambio. 5 No es necesario que las part´ıculas elementales que componen a la part´ıcula compuesta sean todas id´enticas. Por ejemplo, dos protones son part´ıculas compuestas id´enticas. Sin embargo, cada prot´ on (en una visi´ on simplificada) consiste de dos quarks tipo “up” y un quark tipo “down”.
´ DEL POSTULADO DE SIMETRIZACION ´ PARA N = 2 26.6. APLICACION
603
El nuevo postulado de simetrizaci´ on restringe al conjunto de estados matem´ aticos que pueden describir un estado f´ısico de part´ıculas id´enticas, ya que estos kets deben pertenecer al subespacio ES para bosones y EA para fermiones. Para encontrar los estados matem´ aticos adecuados debemos entonces proyectar los estados del subespacio Eu sobre los subespacios ES para bosones y EA para fermiones, para lo cual debemos usar los proyectores S y A respectivamente, sobre los estados {Pα |ui}, con lo cual obtenemos SPα |ui = S |ui
(26.37)
APα |ui = εα A |ui
(26.38)
donde hemos usado la Ec. (26.33) P´ ag. 26.33. Estas ecuaciones nos muestran que todas las proyecciones de kets de Eu sobre los subespacios ES para bosones y EA para fermiones, son colineales. Por tanto el postulado de simetrizaci´ on asigna un solo ket linealmente independiente de Eu , al estado f´ısico antes descrito. En consecuencia, dicho postulado remueve la degeneraci´ on de intercambio, asignando el estado (´ unico dentro de un factor constante) S |ui a los bosones y el estado A |ui para los fermiones. De aqu´ı en adelante estos se denominar´ an los kets f´ısicos. En particular, es posible que todos los kets de Eu tengan proyecci´ on cero sobre ES o sobre EA , en cuyo caso el postulado de simetrizaci´ on est´ a excluyendo al correspondiente estado f´ısico. Veremos un ejemplo en la secci´ on 26.6. Es claro ahora el algoritmo de construcci´ on del u ´nico ket f´ısico asociado a un estado f´ısico dado de un sistema de N part´ıculas id´enticas. 1. Comenzamos por numerar las part´ıculas arbitrariamente, construyendo el ket |ui, que resulta de la numeraci´ on particular elegida. 2. Se aplica el proyector S o el proyector A sobre |ui, dependiendo de si las part´ıculas id´enticas son bosones o fermiones. 3. Se normaliza el ket obtenido.
26.6.
Aplicaci´ on del postulado de simetrizaci´ on para N = 2
Consideremos un sistema de dos part´ıculas id´enticas. Supongamos que sabemos que una de ellas est´ a en el estado individual caracterizado por el ket normalizado |ϕi, y la otra part´ıcula est´ a en el estado normalizado descrito por |χi. Primero estudiaremos el caso en el cual los dos estados son diferentes. En tal caso, el ket f´ısico asociado al sistema de dos part´ıculas se construye con la prescripci´ on ya descrita 1. Numeremos con el (1) a la part´ıcula asociada al estado |ϕi y con el n´ umero (2) a la part´ıcula asociada al estado |χi, el estado |ui queda en la forma E |ui = ϕ(1) , χ(2)
2. Si las part´ıculas son bosones (fermiones) simetrizamos (antisimetrizamos) al estado |ui 1 h (1) (2) E (2) (1) Ei + ϕ , χ = ϕ , χ 2 h E Ei 1 (1) (2) |f ermionesi = A |ui = − ϕ(2) , χ(1) = ϕ , χ 2 |bosonesi = S |ui =
1 h (1) (2) E (1) (2) Ei + χ , ϕ ϕ , χ 2 h E Ei 1 (1) (2) − χ(1) , ϕ(2) ϕ , χ 2
(26.39) (26.40)
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
604
3. Los kets (26.39, 26.40) no est´ an en general normalizados. Si asumimos que los estados |ϕi y |χi son ortogonales y est´ an normalizados, los estados f´ısicos normalizados ser´ an 1 h (1) (2) E (1) (2) Ei 1 h (1) (2) E (2) (1) Ei |bosonesi = √ ϕ , χ + ϕ , χ = √ ϕ , χ + χ , ϕ 2 2 E Ei E Ei 1 h 1 h |f ermionesi = √ ϕ(1) , χ(2) − ϕ(2) , χ(1) = √ ϕ(1) , χ(2) − χ(1) , ϕ(2) 2 2 Asumamos ahora que los estados individuales son id´enticos, el estado |ui ser´ a E |ui = ϕ(1) , ϕ(2)
(26.41)
este estado ya es totalmente sim´etrico. Por tanto, si las dos part´ıculas son bosones, el estado (26.41) es el ket f´ısico asociado a un estado en el cual los dos bosones est´ an en el mismo estado individual |ϕi. De hecho, el simetrizador S deja intacto a este estado. Por otro lado, si las part´ıculas son fermiones tenemos que 1 h (1) (2) E (2) (1) Ei − ϕ , ϕ =0 A |ui = ϕ , ϕ 2
de modo que no existe un ket no-nulo en EA que pueda describir el estado f´ısico en el cual dos fermiones est´ an en el mismo estado individual |ϕi. El postulado de simetrizaci´ on excluye este tipo de estados f´ısicos. Hemos establecido para un caso particular el denominado “principio de exclusi´ on de Pauli” que nos dice que dos fermiones id´enticos no pueden estar en el mismo estado individual. Este principio establece una gran diferencia en el comportamiento estad´ıstico de un sistema de fermiones id´enticos con respecto al de un sistema de bosones id´enticos.
26.7.
Postulado de simetrizaci´ on para N arbitrario
Ilustraremos el caso general para el escenario con N = 3. Consideremos el estado f´ısico que se define especificando los estados individuales normalizados |ϕi , |χi , |ωi. Escogeremos el estado |ui con la siguiente asignaci´ on num´erica E |ui = ϕ(1) , χ(2) , ω (3) estudiaremos a los bosones y fermiones por aparte
26.7.1.
Postulado de simetrizaci´ on para bosones
Al aplicar el simetrizador asociado a tres bosones id´enticos tenemos
S |ui =
S |ui =
3! E 1 h E E E 1 X (1) (2) (3) (1) (2) (3) (1) (3) (2) Pα ϕ , χ , ω = + ϕ , χ , ω + ϕ(2) , χ(1) , ω (3) ϕ , χ , ω 3! 6 α=1 E E Ei + ϕ(3) , χ(1) , ω (2) + ϕ(2) , χ(3) , ω (1) + ϕ(3) , χ(2) , ω (1) 1 h (1) (2) (3) E (1) (2) (3) E (1) (2) (3) E + ϕ , ω , χ + χ , ϕ , ω ϕ , χ , ω 6 E E Ei + χ(1) , ω (2) , ϕ(3) + ω (1) , ϕ(2) , χ(3) + ω (1) , χ(2) , ϕ(3)
(26.42)
solo resta normalizar el vector (26.42). La constante de normalizaci´ on depende de cu´ antos de estos estados son distintos. Si todos los tres estados individuales son diferentes y ortogonales entre s´ı, los seis kets que aparecen en (26.42) tambi´en son ortogonales, y para normalizar el estado completo, basta reemplazar el factor 1/6 por el
´ PARA N ARBITRARIO 26.7. POSTULADO DE SIMETRIZACION
605
√ factor 1/ 6. Si en cambio, tenemos dos estados id´enticos y uno diferente (ortogonal a√los estados id´enticos), al aplicar el simetrizador solo quedan tres kets diferentes y el factor normalizador ser´ıa 1/ 3 E E Ei 1 h |ϕ; ϕ; ωi = √ ϕ(1) , ϕ(2) , ω (3) + ϕ(1) , ω (2) , ϕ(3) + ω (1) , ϕ(2) , ϕ(3) 3
finalmente si los tres estados son id´enticos, el estado |ui ya est´ a autom´ aticamente simetrizado y normalizado. E |ui = ϕ(1) , ϕ(2) , ϕ(3) la aplicaci´ on del simetrizador dejar´ıa intacto al ket.
26.7.2.
Postulado de simetrizaci´ on para fermiones
——————————————————————————— La aplicaci´ on del antisimetrizador al estado |ui de tres fermiones id´enticos nos da 3! E 1 X εα Pα ϕ(1) , χ(2) , ω (3) A |ui = 3! α=1
El antisimetrizador se escribe expl´ıcitamente como A=
1 {P123 + P231 + P312 − P213 − P321 − P132 } 3!
donde P123 es la identidad. Aplicando el antisimetrizador sobre el ket |ui y ajustando una constante de normalizaci´on, el ket f´ısico posee la forma √ E √ 3! (1) (2) (3) |ϕ; χ; ωi ≡ 3!A |ui = {P123 + P231 + P312 − P213 − P321 − P132 } ϕ , χ , ω 3! n E E E E E 1 (1) (2) (3) + ϕ(2) , χ(3) , ω (1) + ϕ(3) , χ(1) , ω (2) − ϕ(2) , χ(1) , ω (3) − ϕ(3) , χ(2) , ω (1) − ϕ(1) , χ = √ ϕ , χ , ω 3! 1 n (1) (2) (3) E (1) (3) (2) E (2) (3) (1) E (2) (1) (3) E (3) (1) (2) E (3) − ϕ , χ , ω + ϕ , χ , ω − ϕ , χ , ω + ϕ , χ , ω − ϕ , χ = √ ϕ , χ , ω 3! 1 n (1) E h (2) (3) E (3) (2) Ei (2) E h (3) (1) E (1) (3) Ei = √ ⊗ χ , ω − χ , ω + ϕ ⊗ χ , ω − χ , ω ϕ 3! E h E Eio + ϕ(3) ⊗ χ(1) , ω (2) − χ(2) , ω (1) de lo cual se obtiene el determinante 3 × 3 dado por
√ 1 |ϕ; χ; ωi ≡ 3!A |ui = √ 3!
(1) ϕ(2) ϕ (3) ϕ
(1) χ (2) χ (3) χ
(1) ω (2) ω (3) ω
(26.43)
√ conocido como determinante de Slater. El estado 3!A |ui es cero si dos (o tres) estados individuales coinciden, ya que el determinante tendr´ıa dos (o tres) columnas id´enticas. Este hecho nos lleva al principio de exclusi´ on de Pauli, ya mencionado anteriormente. El mismo estado cu´ antico no puede ser ocupado simult´aneamente por varios fermiones id´enticos. Si los tres estados son ortogonales los seis kets asociados al determinante (26.43) son √ ortogonales. Por tanto, para normalizarlos√basta reemplazar el factor 1/3! por el factor 1/ 3!, lo cual se logra multiplicando el estado A |ui por el factor 3! como ya se mencion´ o.
606
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
Para N arbitrario, se pueden generalizar f´ acilmente los resultados anteriores. Para N bosones id´enticos, siempre se puede construir el estado totalmente sim´etrico S |ui a partir de los N estados de part´ıcula individual |ϕ1 i , . . . , |ϕN i. En el caso de N fermiones id´enticos, el estado f´ısico A |ui se puede escribir en la forma de un determinante de Slater N × N , este determinante excluye el caso en el cual dos o m´ as estados individuales coinciden, ya que el estado antisimetrizado se anula. El hecho de que los bosones no sigan este “principio de exclusi´ on” en tanto que los fermiones s´ı, marca una gran diferencia entre el comportamiento de estos dos tipos de part´ıculas. N´ otese finalmente que es el principio de exclusi´ on de Pauli (previamente establecido fenomenol´ogicamente) el que obliga a inclu´ır kets completamente antisim´etricos en el postulado de simetrizaci´ on.
26.8.
Construcci´ on de una base de estados f´ısicos de part´ıculas id´ enticas
Consideremos un sistema de N part´ıculas id´enticas. Comenzando por la base {|ui i} de part´ıcula individual, constru´ımos en primer lugar la base en el producto tensorial E de los espacios de una part´ıcula, asignando una cierta numeraci´ on de part´ıcula. Eo n (1) (2) (N ) (26.44) ui1 , ui2 , . . . , uiN
donde el sub´ındice rotula estados y el supra´ındice rotula part´ıculas. La idea es determinar una base de los subespacios ES ´ o EA es decir una base para los kets f´ısicos. Aplicando los proyectores S ´ o A a los kets (26.44), obtenemos un conjunto de kets que expanden ES ´ o EA . Veamos el caso de ES ya que el caso de EA es an´ alogo. Sea |ϕi ∈ ES , tal estado se puede expandir en la base (26.44) de E |ϕi =
n X n X
i1 =1 i2 =1
···
n X
iN =1
E (1) (2) (N ) ai1 ,i2 ,...,iN ui1 , ui2 , . . . , uiN
(26.45)
donde n es la dimensi´ on de cada subespacio de part´ıcula individual (dimensi´ on infinita numerable en el caso del espacio de Hilbert L2 ). Es claro que S |ϕi = |ϕi ya que |ϕi ∈ ES . Si aplicamos S a ambos lados de (26.45), nos queda h Ei X (1) (2) (N ) |ϕi = ai1 ,i2 ,...,iN S ui1 , ui2 , . . . , uiN i1 ,i2 ,...,iN
de modo que el estado arbitrario |ϕi ∈ ES , queda escrito en t´erminos de kets de la forma E (1) (2) (N ) S ui1 , ui2 , . . . , uiN ∈ ES
(26.46)
Sin embargo, en general no todos los kets de la forma (26.46) son linealmente independientes. E Por ejemplo, podemos (1) (2) (N ) permutar los roles de las varias part´ıculas en uno de los kets del tipo ui1 , ui2 , . . . , uiN de la base inicial (antes de la simetrizaci´ on). Sobre este nuevo ket, la aplicaci´ on de S ´ o A conduce al mismo ket |ϕi (tal vez con signo cambiado en el caso de A), de acuerdo con las Ecs. (26.37, 26.38). La discusi´ on anterior nos conduce a introducir el concepto de n´ umero de ocupaci´ on. En general no todos los estados |ui1 i , |ui2 i , . . . , |uiN i son diferentes. Es conveniente reordenar los estados diferentes con un nuevo ´ındice. Si tenemos p estados diferentes de part´ıcula individual, entonces escribimos {|uk i} = |uk1 i , |uk2 i , . . . , ukp ; donde |ukm i = 6 |ukn i si m 6= n El estado inicial lo reorganizamos en la forma E (1) (2) (N −n +1) (N −n +2) (n ) (n +1) (n +2) (n +n ) (N ) uk1 , uk1 , . . . , uk1 1 ; uk21 , uk2 1 , . . . , uk2 1 2 ; . . . ; ukp p , ukp p , . . . , ukp
donde ni es el n´ umero de part´ıculas en el estado |uki i con i = 1, 2, . . . , p. Es claro que se tiene que cumplir la condici´ on p X ni = N (26.47) i=1
´ DE UNA BASE DE ESTADOS F´ISICOS DE PART´ICULAS IDENTICAS ´ 26.8. CONSTRUCCION
607
a los ni se les denomina n´ umero de ocupaci´ on, que es el n´ umero de part´ıculas en el estado |uki i. Dos kets diferentes del tipo (26.44) cuyos n´ umeros de ocupaci´ on coincidan, se pueden obtener el uno a partir del otro con una permutaci´ on. Por tanto, despu´es de la aplicaci´ on del simetrizador o el antisimetrizador, se obtiene el mismo ket f´ısico a partir de ambos kets de acuerdo con la Ec. (26.37, 26.38) (a lo m´ as con un signo de diferencia). Denotaremos a este u ´nico estado f´ısico simetrizado (o antisimetrizado) asociado a una configuraci´ on dada de ocupaci´ on en la forma |n1 , n2 , . . . , np i para bosones, estos estados se obtienen de E (1) (2) (N −np +1) (N −np +2) (n ) (n +1) (n +2) (n +n ) ) |n1 , n2 , . . . , np i = cS S u1 , u1 , . . . , u1 1 ; u2 1 , u2 1 , . . . , u2 1 2 ; . . . ; up , up , . . . , u(N p (26.48) y para fermiones de E (1) (2) (N −np +1) (N −np +2) (n ) (n +1) (n +2) (n +n ) ) |n1 , n2 , . . . , np i = cA A u1 , u1 , . . . , u1 1 ; u2 1 , u2 1 , . . . , u2 1 2 ; . . . ; up , up , . . . , u(N p (26.49) donde los coeficientes de normalizaci´ on cS y cA vienen dados por s √ N! cS = ; cA = N ! n1 !n2 ! . . . np ! ahora bien, puesto que el n´ umero de estados accesibles diferentes puede ser infinito, escribiremos un estado de ocupaci´ on de aqu´ı en adelante en la forma |n1 , n2 , . . . , nk , . . .i Example 26.1 Tomemos los siguientes kets asociados a cinco part´ıculas id´enticas E E (1) (2) (3) (4) (5) (1) (2) (3) (4) (5) ; u7 , u1 , u5 , u5 , u1 u1 , u5 , u1 , u7 , u5
(26.50)
(i)
donde uki indica que la i−´esima part´ıcula est´ a en el estado excitado ki del oscilador arm´ onico unidimensional. Ambos estados en (26.50) describen a dos part´ıculas en el estado base u1 , dos part´ıculas en el quinto estado excitado y una part´ıcula en el s´eptimo estado excitado. Podemos ver claramente que ambos kets est´ an conectados por medio de una permutaci´ on de los r´ otulos de part´ıculas E E E (1) (2) (3) (4) (5) (1) (2) (3) (4) (5) (4) (1) (5) (2) (3) = u7 , u1 , u5 , u5 , u1 = P41523 u7 , u1 , u5 , u5 , u1 u1 , u5 , u1 , u7 , u5 n´ otese que la permutaci´ on que conecta a ambos estados no es u ´nica. Por ejemplo tambi´en se puede escribir E E E (1) (2) (3) (4) (5) (4) (1) (2) (5) (3) (1) (2) (3) (4) (5) = u7 , u1 , u5 , u5 , u1 = P41253 u7 , u1 , u5 , u5 , u1 u1 , u5 , u1 , u7 , u5
ahora bien, el orden m´ as natural para este estado f´ısico es colocar los estados en orden ascendente de energ´ıa, en tal caso ser´ıa el ket E (1) (3) (2) (5) (4) u1 , u1 , u5 , u5 , u7
como ya se mencion´ o, al simetrizar o antisimetrizar cualquiera de estos kets se obtiene un u ´nico ket f´ısico (a lo m´ as se obtiene un signo de diferencia cuando se antisimetriza, dependiendo del ket elegido). N´ otese que tambi´en se podr´ıan intercambiar los estados en lugar de las part´ıculas. Sin embargo se debe tener presente que los sub´ındices en los kets (26.50) indican la excitaci´ on del estado individual y no son los r´ otulos de los estados. Por ejemplo si elegimos el primer ket en (26.50) podemos escribir E E (1) (2) (3) (4) (5) (1) (2) (3) (4) (5) ≡ uk1 , uk2 , uk3 , uk4 , uk5 u1 , u5 , u1 , u7 , u5
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
608 de modo que
k1 = 1, k2 = 5, k3 = 1, k4 = 7, k5 = 5 y podemos aplicar el permutador sobre los ´ındices de estados E E (1) (2) (3) (4) (5) (1) (2) (3) (4) (5) P41253 u1 , u5 , u1 , u7 , u5 ≡ P41253 uk1 , uk2 , uk3 , uk4 , uk5 E E (1) (2) (3) (4) (5) (1) (2) (3) (4) (5) = uk4 , uk1 , uk2 , uk5 , uk3 = u7 , u1 , u5 , u5 , u1
mostrando una vez m´ as que ambos estados en (26.50) est´ an conectados por una permutaci´ on. Cuando cualquiera de estos estados se simetriza (o antisimetriza) lo que se obtiene es un ket f´ısico con la informaci´ on de que dos part´ıculas est´ an en el estado base u1 , dos en el quinto estado excitado, y una en el s´eptimo estado excitado. En la notaci´ on de n´ umero de ocupaci´ on cada casilla del ket denota un estado individual y en ella se coloca el n´ umero de part´ıculas que hay en cada estado. En este caso el ket f´ısico |ψi se escribe en la forma |ψi = |2, 0, 0, 0, 2, 0, 1, 0, 0, 0, . . .i donde solo hay n´ umeros distintos de cero en la primera, quinta, y s´eptima casillas, ya que en los otros estados no hay ninguna part´ıcula. Los estados accesibles son infinitos ya que no hay cota para los estados excitados del oscilador arm´ onico, por eso se colocan puntos suspensivos indicando infinitas casillas. Por supuesto, ya no hay r´ otulos de part´ıculas en virtud de la indistinguibilidad. En ocasiones, es u ´til sintetizar la notaci´ on escribiendo solo los n´ umeros de los estados que est´ an ocupados, escribiendo el estado como sub´ındice. Esto con el fin de evitar la escritura de tantos ceros. Por ejemplo en nuestro caso se puede escribir |ψi = 2(1) , 2(5) , 1(7)
26.8.1.
Propiedades de los kets de ocupaci´ on
Las propiedades m´ as sobresalientes de estos kets de ocupaci´ on son las siguientes El producto interno entre dos estados de ocupaci´ on |n1 , n2 , . . . , nk , . . .i y |n′1 , n′2 , . . . , n′k , . . .i est´ a dado por
′ ′ n1 , n2 , . . . , n′k , . . . |n1 , n2 , . . . , nk , . . .i = δn1 ,n′1 δn2 ,n′2 . . . δnk ,n′k . . .
de manera que solo es diferente de cero si los n´ umeros de ocupaci´ on son los mismos para todo k. Para verlo, podemos usar (26.48) ´ o (26.49) y las definiciones on de los dos n (26.32) de S y A,Eopara obtener la expansi´ (1) (2) (N ) kets bajo consideraci´ on en la base ortonormal u1 , u2 , . . . , uN . Al hacer el producto interno entre los kets resultantes se puede ver que si los n´ umeros de ocupaci´ on no son iguales, estos dos kets no pueden tener componentes no-nulas simult´ aneas sobre el mismo vector base. La normalizaci´ on est´ a garantizada por la introducci´ on de las constantes de normalizaci´ on cS y cA .
Si las part´ıculas bajo estudio son bosones, los kets de ocupaci´ on |n1 , n2 , . . . , nk , . . .i son arbitrarios, y por tanto, una base ortogonal la constituye un conjunto que barre todas las configuraciones de ocupaci´ on posibles, sometida a la ligadura (26.47). Observemos que si reemplazamos S por su definici´ on (26.32), en la Ec. (26.48), E (1) (N ) aparece al lado derecho de esta ecuaci´ on, una superposici´ on de estados ortogonales u1 , . . . , uN con coeficientes positivos, ya que no hay cambio de signo bajo intercambios y cS se defini´ o como positivo. Esto indica que los kets |n1 , n2 , . . . , nk , . . .i definidos en (26.48) son no-nulos. Los kets |n1 , n2 , . . . , nk , . . .i expanden a ES , y por tanto forman una base de este subespacio puesto que son no-nulos. Si las part´ıculas bajo estudio son fermiones, una base del espacio EA de estados f´ısicos se obtiene escogiendo el conjunto de kets {|n1 , n2 , . . . , nk , . . .i ; ni = 0, 1} (26.51)
´ CON LOS OTROS POSTULADOS 26.9. CONSISTENCIA DEL POSTULADO DE SIMETRIZACION
609
en el cual cada n´ umero de ocupaci´ on es cero o uno. Una vez m´ as sujeto a la ligadura (26.47). A diferencia del simetrizador, el antisimetrizador introduce signos positivos para permutaciones pares y negativos para permutaciones impares. Como vimos en la secci´ on 26.7.2, dos fermiones id´enticos no pueden ocupar el mismo estado individual simult´ aneamente. Esto implica que n´ umeros de ocupaci´ on con ni > 1, anulan el ket (26.49) corrrespondiente. Ahora bien, cuando todos los n´ umeros de ocupaci´ on son E E cero o uno, el ket (26.51) es no (1) (1) (N ) (N ) y Pβ u1 , . . . , uN con Pα 6= Pβ son diferentes y nulo ya que en tal caso, los kets Pα u1 , . . . , uN ortogonales. La relaci´ on (26.49) nos da entonces vectores no nulos cuando tomamos kets del tipo (26.51). Estos expanden a EA y puesto que son no-nulos, constituyen una base para EA .
26.9.
Consistencia del postulado de simetrizaci´ on con los otros postulados
Debemos verificar que el postulado de simetrizaci´ on no entra en contradicci´ on con los otros postulados. Demostraremos que (a) el proceso de medida se puede describir con kets que pertenecen u ´nicamente al subespacio o EA . (b) Si el estado pertenece inicialmente a uno de los subespacios ES ´ o EA , su evoluci´ on temporal es tal que ES ´ continuar´ a dentro de este subespacio para todo tiempo. En general podremos usar los postulados de la mec´ anica cu´ antica totalmente dentro de uno de estos subespacios.
26.9.1.
Postulado de simetrizaci´ on y el proceso de medida
El ket |ψ (t)i que describe a un estado f´ısico de N part´ıculas id´enticas en el tiempo t, pertenece al subespacio ES (EA ) si las part´ıculas son bosones (fermiones). Cuando se mide un observable G, el sistema (de part´ıculas id´enticas) queda preparado en un ket propio |ϕi del observable. Por otro lado, el postulado de simetrizaci´ on me dice que el estado |ϕi debe tambi´en pertenecer al subespacio ES (EA ) para el sistema de bosones (fermiones). Por tanto, debemos asegurarnos que el proceso de medida no me deja al sistema preparado en un estado fuera de ES o EA . ´ De momento asumamos que |ϕi pertenece a ES ´ o EA , la amplitud de probabilidad hϕ| ψ (t)i involucra a dos kets que pertenecen a ES ´ o EA , es decir ambos son estados totalmente sim´etricos o antisim´etricos. (i) Si el conjunto de medidas es completo (por ejemplo, la medida de cada posici´ on ri y de las componentes S3 de esp´ın para todas las part´ıculas), el estado f´ısico |ϕi es u ´nico dentro de factores constantes. Si el conjunto de medidas es incompleto (por ejemplo, medir solo el esp´ın de las part´ıculas, o medir solo sobre un subconjunto de part´ıculas), se obtendr´ an varios kets ortogonales f´ısicos, y las probabilidades asociadas deben sumarse. En algunos casos es posible especificar el conjunto de medidas sobre el sistema de part´ıculas id´enticas, escribiendo el observable en t´erminos de los observables b´ asicos Ri , Pi , Si . Tomemos un ejemplo concreto. Los siguientes observables se pueden medir en un sistema de tres part´ıculas id´enticas: La posici´ on del centro de masa RG , el momento total P, el momento angular total L, el esp´ın total S y la energ´ıa electrost´ atica de repulsi´ on W 1 (R1 + R2 + R3 ) ; P = P1 + P2 + P3 3 L = L1 + L2 + L3 ; S = S1 + S2 + S3 q2 1 1 1 W = + + 4πε0 |R1 − R2 | |R2 − R3 | |R1 − R3 |
RG =
(26.52) (26.53) (26.54)
de estas expresiones, es claro que los observables asociados a cantidades f´ısicas que se miden sobre un sistema de part´ıculas id´enticas, introducen los observables de part´ıcula individual en forma sim´etrica. Este hecho proviene directamente del car´ acter id´entico de las part´ıculas. Por ejemplo, los coeficientes en la superposici´ on (26.52) asociada a RG son todos iguales, debido a que todas las part´ıculas tienen la misma masa. Los coeficientes en la superposici´ on (26.54) son todos iguales debido a que todas las part´ıculas poseen la misma carga. Vemos entonces que ninguna propiedad f´ısica se modifica al permutar las N part´ıculas. En consecuencia, para cualquier observable f´ısico asociado a un sistema de part´ıculas id´enticas, las N part´ıculas juegan un rol sim´etrico. Los anteriores
610
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
argumentos son v´ alidos tanto para bosones como para fermiones. Matem´ aticamente, un observable f´ısico G asociado a N part´ıculas id´enticas debe ser entonces invariante bajo cualquier permutaci´ on Pα de las N part´ıculas. De acuerdo con la discusi´ on en la secci´ on 26.4.4 [ver Ec. (26.36)], esto es equivalente a la condici´ on de que G debe conmutar con todas las permutaciones [G, Pα ] = 0 para todo Pα (26.55) Esto implica que algunos observables para un sistema de part´ıculas distinguibles, no ser´ an observables para un sistema de part´ıculas id´enticas. Por ejemplo, si tenemos un sistema de dos part´ıculas id´enticas, el operador a un observable, ya que no es invariante ante la permutaci´ on P21 puesto que cambia de signo bajo R1 − R2 no ser´ esta operaci´ on, en realidad una medida de R1 − R2 asume que la part´ıcula (1) se puede distinguir de la (2). Sin embargo, este mismo operador s´ı ser´ıa un observable para un sistema de dos part´ıculas no id´enticas. Por otra parte, la distancia entre las part´ıculas |R1 − R2 | es claramente un observable v´ alido para dos part´ıculas id´enticas (la distancia es invariante ante un intercambio de las part´ıculas). La ecuaci´ on (26.55) implica que los subespacios ES y EA son ambos invariantes bajo la acci´ on de un observable f´ısico G de las part´ıculas id´enticas. Si |ψi ∈ EA tenemos que Pα |ψi = εα |ψi y teniendo en cuenta (26.55) resulta Pα G |ψi = GPα |ψi = εα G |ψi por tanto G |ψi tambi´en pertenece a EA , i.e. G |ψi tambi´en es completamente antisim´etrico. Un argumento similar se sigue si |ψi ∈ ES . Todas las operaciones que se realizan sobre un observable f´ısico, tales como la determinaci´ on de sus valores y vectores propios se pueden aplicar a G enteramente dentro del subespacio ES ´ o EA . Solo se conservan los autovectores de G que pertenecen al subespacio f´ısico y sus correspondientes valores propios. Vale enfatizar, que esta consistencia est´ a relacionada con el hecho de que los observables f´ısicos asociados a part´ıculas id´enticas deben ser totalmente sim´etricos (para bosones o fermiones) con respecto a la permutaci´ on de las part´ıculas. En general no encontraremos todos los autovalores de G asociados al espacio completo E, cuando nos restringimos al subespacio ES ´ o EA . El postulado de simetrizaci´ on puede entonces exclu´ır algunos valores propios de G, o EA son invariantes bajo la acci´ on de G, todo autovector de G del espectro f´ısico. Por otro lado, puesto que ES ´ en ES ´ o EA , es tambi´en autovector de G en E con el mismo autovalor. La restricci´ on de que los observables deben ser sim´etricos puede llevarnos a la necesidad de reestructurar a los observables asociados a ciertas mediciones. Por ejemplo, trataremos de escribir observables asociados a la medici´ on simult´ anea de la posici´ on de tres part´ıculas id´enticas. Los observables usuales R1 , R2 y R3 no ser´ an observables f´ısicos en este caso, ya que cada uno de ellos no es sim´etrico bajo permutaciones de las part´ıculas. Podemos entonces tratar de escribir tres observables totalmente sim´etricos con base en los cuales se pueda estimar las posiciones de las tres part´ıculas. Por ejemplo, se pueden usar los observables R1 + R2 + R3 ; R1 R2 + R2 R3 + R3 R1
; R1 R2 R3
sin embargo, este m´etodo es m´ as bien formal, ya que no es viable medir estos observables directamente en un experimento. Es m´ as sencillo restringirnos a usar los autoestados f´ısicos asociados a la medida como se describi´ o en esta secci´ on.
26.9.2.
Postulado de simetrizaci´ on y evoluci´ on temporal
El Hamiltoniano de un sistema de part´ıculas id´enticas debe ser un observable f´ısico y por tanto debe ser totalmente sim´etrico. Tomemos como ejemplo, el Hamiltoniano del ´ atomo de Helio en donde por simplicidad, solo tendremos en cuenta las interacciones electrost´ aticas H (1, 2) =
P21 P2 2e2 2e2 e2 + 2 − − + 2me 2me R1 R2 |R1 − R2 |
´ ´ 26.10. CONSECUENCIAS FENOMENOLOGICAS DEL POSTULADO DE SIMETRIZACION
611
los dos t´erminos cin´eticos son sim´etricos debido a que las masas son iguales. Los dos t´erminos asociados a la atracci´ on del n´ ucleo son iguales debido a que los dos electrones tienen cargas iguales. Es obvio que cada electr´ on es afectado de la misma manera por tal atracci´ on. Finalmente, el t´ermino de repulsi´ on entre los dos electrones es sim´etrico porque ninguno de los dos electrones est´ a en una posici´ on privilegiada. Para un sistema de N part´ıculas id´enticas, el Hamiltoniano al igual que cualquier observable f´ısico asociado a part´ıculas id´enticas, debe conmutar con todas las permutaciones de las N part´ıculas [H, Pα ] = 0
(26.56)
ahora bien, el ket inicial |ψ (t0 )i debe ser un ket f´ısico y por tanto debe pertenecer a ES ´ o EA . Es necesario que la evoluci´ on temporal sea tal que |ψ (t)i sea un ket f´ısico para todo tiempo. Es decir, |ψ (t)i debe pertenecer a ES ´ o EA para todo tiempo. Escribiremos la ecuaci´ on de Schr¨ odinger en la forma d |ψ (t + dt)i − |ψ (t)i 1 |ψ (t)i = H (t) |ψ (t)i ⇒ = H (t) |ψ (t)i ⇒ dt dt i~ dt |ψ (t + dt)i = 1 + H (t) |ψ (t)i i~
i~
Aplicando Pα a ambos lados y usando (26.56) resulta dt Pα |ψ (t + dt)i = 1 + H (t) Pα |ψ (t)i i~
(26.57)
Si |ψ (t)i ∈ EA entonces Pα |ψ (t)i = εα |ψ (t)i, esto junto con la ecuaci´ on (26.57) nos muestran que Pα |ψ (t + dt)i = εα |ψ (t + dt)i. Por tanto, si |ψ (t)i ∈ EA (i.e. es completamente antisim´etrico), entonces |ψ (t + dt)i ∈ EA . Similarmente se puede demostrar que la evoluci´ on temporal conserva la simetr´ıa total. Por tanto, si el ket inicial es completamente sim´etrico (antisim´etrico) la evoluci´ on temporal via ecuaci´ on de Schr¨ odinger hace que el estado sea completamente sim´etrico (antisim´etrico) para todo tiempo. La ecuaci´ on de Schr¨ odinger es entonces consistente con el postulado de simetrizaci´ on.
26.10.
Consecuencias fenomenol´ ogicas del postulado de simetrizaci´ on
26.10.1.
Diferencias entre fermiones y bosones
Hemos visto que el postulado de simetrizaci´ on no restringe la distribuci´ on de los bosones entre los diversos estados cu´ anticos. En contraste, para los fermiones este postulado prohibe que dos fermiones id´enticos ocupen el mismo estado cu´ antico. Este hecho se conoce como principio de exclusi´ on de Pauli, y fu´e establecido para explicar las propiedades de los ´ atomos de varios electrones. Sin embargo, en el presente contexto no es estrictamente un principio sino una consecuencia del postulado de simetrizaci´ on, y es v´ alido para cualquier sistema de fermiones id´enticos, no solo los electrones. Este principio de exclusi´ on (o su ausencia para los bosones) tiene predicciones espectaculares que han sido confirmadas experimentalmente. Veremos algunos ejemplos m´ as adelante.
26.10.2.
Estado base de un sistema de part´ıculas id´ enticas independientes
Ya hemos visto que el Hamiltoniano asociado a part´ıculas id´enticas (bosones o fermiones) debe ser sim´etrico con respecto a la permutaci´ on de las part´ıculas. Asumiremos un sistema no interactuante de part´ıculas id´enticas. En tal caso el Hamiltoniano total se escribir´ a como una suma de operadores de una part´ıcula en la forma H (1, 2, . . . , N ) = h (1) + h (2) + . . . + h (N ) h (i) es funci´ on solo de los observables asociados a la part´ıcula rotulada como (i). La simetr´ıa total del Hamiltoniano requiere que cada funci´ on h (i) sea la misma para los N t´erminos. Para calcular los autovalores y los autovectores
612
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
del Hamiltoniano total, basta con calcular los vectores y valores propios de los operadores individuales h (j) en el espacio E (j) asociado a una part´ıcula. Por simplicidad asumiremos que el espectro de h (j) es discreto y no degenerado E E E (j) (j) (j) h (j) ϕ(j) = e ϕ ; ϕ ∈ E (j) n n n n
n´ otese que el ´ındice (j) es de part´ıcula y no de degeneraci´ on. Los vectores propios constru´ıdos a priori son los productos tensoriales de los vectores de cada part´ıcula, y el valor propio es la suma de los valores propios individuales asociados E E E E (1) (2) (1) (2) (N ) (N ) ϕ , ϕ . . . , ϕ = ϕ ⊗ ϕ ⊗ . . . ⊗ ϕ (26.58) n1 n2 n1 n2 nN nN En1 ,n2 ,...,nN
(2) (N ) = e(1) n1 + en2 + . . . + enN
(26.59)
si consideramos un sistema de bosones id´enticos, los kets anteriores deben ser simetrizados N! E X S (1) (2) (N ) Φn ,n ,...,n = c P , ϕ . . . , ϕ ϕ α n n n 1 2 1 2 N N
(26.60)
α=1
puede verificarse que el ket descrito por (26.60) es ket propio de H con el mismo valor propio (26.59) del ket sin simetrizar (26.58). En consecuencia, las energ´ıas (26.59) corresponden a valores reales de la energ´ıa del sistema. as peque˜ no de h (j) (obviamente igual para cada part´ıcula y por tanto, En particular si e1 es el valor propio m´ independiente de j) y si |ϕ1 i es su vector propio asociado, el estado base del sistema se obtendr´ a cuando los N an bosones id´enticos est´en todos en el estado |ϕ1 i. La energ´ıa y el vector en el estado base ser´ E (1) (2) (N ) E1,1,...,1 = N e1 ; ϕ1 , ϕ1 . . . , ϕ1
Sin embargo, si el sistema de N part´ıculas id´enticas es de fermiones, no es posible que las N part´ıculas est´en todas en el mismo estado base |ϕ1 i. Para obtener el estado base del sistema, debe tenerse en cuenta el principio de exclusi´ on de Pauli. Si las energ´ıas se ordenan en forma ascendente e1 < e2 < . . . < eN la energ´ıa del estado base de un sistema de N fermiones id´enticos ser´ a E1,2,...,N = e1 + e2 + . . . + eN y estar´ a descrito por el ket normalizado dado por
A 1 Φn ,n ,...,n = √ 1 2 N N !
E E (1) (1) ··· ϕ2 ϕ1 E E (2) (2) ··· ϕ1 ϕ2 .. .. . E . E (N ) (N ) ··· ϕ1 ϕ2
E (1) ϕN E (2) ϕN .. . E (N ) ϕN
la energ´ıa individual m´ as alta eN que se encuentra en el estado base se denomina la energ´ıa de fermi del sistema. Si existe degeneraci´ on gk en los niveles de energ´ıa individuales ek , hay gk estados ortogonales asociados a cada valor propio. Por tanto, pueden haber hasta gk fermiones id´enticos con energ´ıa ek (ya que cada uno estar´ıa en un estado diferente). En tal caso, la energ´ıa de fermi ep es en general menor que eN , y la energ´ıa del sistema en el estado base ser´ a E1,2,...,p = g1 e1 + g2 e2 + . . . + gp−1 ep−1 + kp ep sujeto a la ligadura kp +
p−1 X i=1
gi = N
; kp ≤ gp
n´ otese que el nivel de fermi podr´ıa no estar “lleno”: si con kp part´ıculas (con kp < gp ), ya hemos completado las N part´ıculas, no todos los estados asociados a ep estar´ an ocupados por un fermi´ on.
´ 26.11. PREDICCIONES F´ISICAS DEL POSTULADO DE SIMETRIZACION
26.11.
613
Predicciones f´ısicas del postulado de simetrizaci´ on
En mec´ anica cu´ antica, las predicciones f´ısicas est´ an relacionadas con probabilidades que se calculan con productos internos. Veremos que la simetrizaci´ on y antisimetrizaci´ on causa efectos de interferencia cuando tenemos part´ıculas id´enticas. No obstante, tambi´en veremos que en ciertas situaciones, se puede ignorar el postulado de simetrizaci´ on, de modo que las predicciones hechas asumiendo las part´ıculas como distinguibles no ser´ an muy diferentes de las que se obtienen cuando se tratan como id´enticas. Por simplicidad, trabajaremos un sistema de dos part´ıculas id´enticas. Asumamos que una de ellas est´ a en el estado |ϕ1 i y la otra en el estado |ϕ2 i ortogonal al anterior, de modo que el estado f´ısico, viene dado por el ket normalizado E 1 (1) (2) |ϕ1 ; ϕ2 i ≡ √ [1 + εP21 ] ϕ1 , ϕ2 2 ε = +1 (para bosones), ε = −1 (para fermiones) ahora queremos medir sobre cada part´ıcula el mismo observable B, que los asociaremos a los observables B (1) y B (2). Pensemos que el espectro de B es discreto y no degenerado B |ui i = bi |ui i queremos calcular la probabilidad de encontrar en el proceso de medida el valor bn para una de las part´ıculas y bm para la otra. Asumiremos primero que bn 6= bm , de manera que los estados propios asociados son ortogonales entre s´ı. Bajo estas condiciones, despu´es de la medici´ on de los observables, el sistema quedar´ a preparado en el estado f´ısico normalizado definido por E 1 (2) |un ; um i ≡ √ [1 + εP21 ] u(1) , u n m 2 la amplitud de probabilidad para obtener las medidas bn y bm est´ an dadas por E 1 D (1) (2) (1) (2) † hun ; um |ϕ1 ; ϕ2 i = (1 + εP21 ) ϕ1 , ϕ2 un , um 1 + εP21 2 usando la hermiticidad y nilpotencia de P21 tenemos que † 2 1 + εP21 (1 + εP21 ) = (1 + εP21 )2 = 1 + 2εP21 + ε2 P21 † 1 + εP21 (1 + εP21 ) = 2 + 2εP21
(26.61)
(26.62)
sustituyendo (26.62) en (26.61) y poniendo a P21 a actuar sobre el bra, resulta D E D E D E (1) (2) (1) (2) (2) (2) (2) (1) (2) hun ; um |ϕ1 ; ϕ2 i = u(1) = u(1) + ε u(1) n , um (1 + εP21 ) ϕ1 , ϕ2 n , um ϕ1 , ϕ2 n , um P21 ϕ1 , ϕ2 D E D E (2) (2) (1) (2) (1) (1) (2) (1) hun ; um |ϕ1 ; ϕ2 i = un , um ϕ1 , ϕ2 + ε um , un ϕ1 , ϕ2 ED E D ED E D (1) (1) (2) (2) (1) (1) (2) (2) = un ϕ1 um ϕ2 + ε um ϕ1 un ϕ2 hun ; um |ϕ1 ; ϕ2 i = hun | ϕ1 i hum | ϕ2 i + ε hum | ϕ1 i hun | ϕ2 i
(26.63)
en el u ´ltimo paso se ha suprimido la numeraci´ on, ya que los espacios son isomorfos de modo que el valor del n´ umero complejo que se obtiene no depende de la numeraci´ on. La amplitud de probabilidad es entonces una suma (resta) para el caso de dos bosones (fermiones) id´enticos. Los dos t´erminos a la derecha de (26.63) pueden ser asociados a los diagramas 26.3a y 26.3b. El resultado (26.63) se puede interpretar en la siguiente forma: Los kets |ϕ1 i y |ϕ2 i asociados al estado inicial se pueden conectar a los bras hun | y hum | asociados al estado final por dos “caminos” diferentes representados
614
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
Figura 26.3: Ilustraci´ on del t´ermino directo y el t´ermino de intercambio asociado a una medida sobre un sistema de dos part´ıculas id´enticas. esquem´ aticamente en las figuras 26.3a y 26.3b. A cada uno de estos “caminos” le podemos asociar una amplitud de probabilidad hun | ϕ1 i hum | ϕ2 i y hum | ϕ1 i hun | ϕ2 i. Estas dos amplitudes interfieren con un signo positivo (negativo) para bosones (fermiones). La probabilidad de encontrar el par de medidas bn y bm es el m´ odulo al cuadrado de esta amplitud P (bn ; bm ) = |hun | ϕ1 i hum | ϕ2 i + ε hum | ϕ1 i hun | ϕ2 i|2
P (bn ; bm ) = |hun | ϕ1 i hum | ϕ2 i|2 + |hum | ϕ1 i hun | ϕ2 i|2
+2εRe {hun | ϕ1 i hum | ϕ2 i hϕ1 | um i hϕ2 | un i}
(26.64)
es usual llamar a uno de los t´erminos de la derecha en la Ec. (26.63) [por ejemplo el t´ermino asociado a la figura 26.3a], el t´ ermino directo, y al otro se le denomina t´ ermino de intercambio. Es en realidad una cuesti´ on de convenci´ on a cual llamamos t´ermino directo y a cual t´ermino de intercambio. Vamos a considerar ahora el caso en el cual queremos examinar la probabilidad de que se obtenga el mismo valor propio bn , para ambas part´ıculas. Como no hay degeneraci´ on, los dos estados finales ser´ an id´enticos. En el caso de fermiones la probabilidad es cero puesto que estos procesos estar´ıan prohibidos por el principio de exclusi´ on de Pauli. Para el caso de bosones, el estado simetrizado y normalizado ser´ a E (2) |un ; un i = u(1) n , un la amplitud tendr´a entonces la forma E E D E 1 D 1 D (1) (2) (1) (2) (2) (2) (2) (1) (2) = √ u(1) + u(1) hun ; un |ϕ1 ; ϕ2 i = √ u(1) n , un (1 + P21 ) ϕ1 , ϕ2 n , un ϕ1 , ϕ2 n , un P21 ϕ1 , ϕ2 2 2 1 nD (1) (2) (1) (2) E D (1) (2) (1) (2) Eo √ D (1) (2) (1) (2) E hun ; un |ϕ1 ; ϕ2 i = √ un , un ϕ1 , ϕ2 + un , un ϕ1 , ϕ2 = 2 un , un ϕ1 , ϕ2 2 √ hun ; un |ϕ1 ; ϕ2 i = 2 hun | ϕ1 i hun | ϕ2 i de modo que la probabilidad est´ a dada por P (bn , bn ) = 2 |hun | ϕ1 i|2 |hun | ϕ2 i|2
(26.65)
n´ otese que no hay t´ermino de interferencia en contraste con la ecuaci´ on (26.64). El factor de dos que aparece en (26.65) est´ a relacionado con el hecho de que el t´ermino directo coincide con el de intercambio en este caso. Generalizando, para un sistema de N part´ıculas, hay en general N !, t´erminos de intercambio que se adicionan o sustraen en la amplitud de probabilidad. En el caso de bosones, el n´ umero de intercambios es menor cuando algunas part´ıculas est´ an en el mismo estado. La figura 26.4, ilustra los t´erminos de intercambio para tres part´ıculas id´enticas que est´ an caracterizadas por los estados individuales iniciales |ϕ1 i , |ϕ2 i , |ϕ3 i, y para las cuales asumimos que los valores propios individuales bn1 , bn2 , bn3 que se obtienen en el proceso de medida son todos diferentes. Estos seis t´erminos (N ! = 3!) ilustran los posibles “caminos”, algunos de los cuales contribuyen con signo positivo (caminos que se obtienen a partir del
´ 26.11. PREDICCIONES F´ISICAS DEL POSTULADO DE SIMETRIZACION
615
Figura 26.4: Ilustraci´ on del t´ermino directo y los t´erminos de intercambio asociados a una medida sobre un sistema de tres part´ıculas id´enticas. t´ermino directo con un n´ umero par de transposiciones de los estados iniciales o finales) otros contribuyen con signo ε dependiendo de si son bosones o fermiones (cuando el n´ umero de transposiciones para obtener el intercambio es impar). Si algunos de los estados finales coinciden, habr´ a algunos t´erminos de intercambio iguales y tendremos menos sumandos en la amplitud de probabilidad.
26.11.1.
Predicciones sobre part´ıculas aparentemente id´ enticas
Una manera de examinar que tan intr´ınseco es el postulado de simetrizaci´ on, es realizando un experimento del siguiente tipo: Supongamos que tenemos dos part´ıculas de diferente naturaleza. Escogeremos un estado inicial del sistema en el producto tensorial (el cual se supone que describe a un sistema f´ısico en este caso) E |ψi = ϕ(1) , χ(2)
consideremos un instrumento de medida que no puede distinguir a las dos part´ıculas. Por ejemplo, podr´ıamos tener un instrumento que solo mide carga el´ectrica y el sistema consiste en un electr´ on y un mu´ on (que poseen la misma carga). Otro ejemplo, ser´ıa un instrumento que solo mide masa y el sistema f´ısico consiste de un electr´ on y un positr´ on (que tiene la misma masa pero carga opuesta al electr´ on). Al obtener bn y E bm no sabemos si bn est´ a asociado a la part´ıcula (1) o a la part´ıcula (2). Los los resultados E (1) (2) (1) (2) dos estados un , um y um , un representan en este caso a diferentes estados f´ısicos, pero corresponden a los mismos resultados de la medida antes descrita. Puesto que son ortogonales, debemos adicionar las probabilidades asociadas, las cuales dan D E 2 D E (1) (2) (1) (2) 2 (2) (1) (2) P ′ (bn ; bm ) = u(1) , u , χ + u , u , χ ϕ ϕ n m m n P ′ (bn ; bm ) = |hun |ϕi|2 |hum |χi|2 + |hum |ϕi|2 |hun |χi|2
(26.66)
comparando las probabilidades (26.66) y (26.64) podemos ver que hay una diferencia significativa en las predicciones f´ısicas sobre part´ıculas que son “id´enticas para nuestro experimento” pero que no son “intr´ınsecamente id´enticas”, con respecto al caso de part´ıculas que s´ı son intr´ otese que esto tiene que ver ınsecamente E id´enticas. E N´ (1) (2) (1) (2) con el hecho de que para part´ıculas distinguibles los kets un , um y um , un representan diferentes estados f´ısicos, en tanto que para part´ıculas id´enticas representan el mismo estado f´ısico. Por esta raz´ on, las probabilidades se suman en el caso de part´ıculas distinguibles, en tanto que para part´ıculas indistinguibles lo que se suman son las amplitudes (raz´ on por la cual surgen interferencias en el u ´ltimo caso). Ver discusi´ on en la secci´ on 5.11, p´ ag. 240.
616
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
Veamos ahora el caso en el cual las dos part´ıculas diferentes arrojan el mismo resultado de la medida bn , en cuyo caso la amplitud de probabilidad y la probabilidad nos dan D E ′ (1) (2) (1) A (bn ; bn ) = un , un ϕ , χ(2) = hun |ϕi hun |χi P ′ (bn ; bn ) = |hun |ϕi|2 |hun |χi|2
(26.67)
Comparando con la Ec. (26.65) asociada a part´ıculas intr´ınsecamente id´enticas, podemos notar la diferencia con respecto a las predicciones para part´ıculas aparentemente id´enticas.
26.11.2.
Colisi´ on el´ astica de dos part´ıculas id´ enticas
Examinaremos el problema de la colisi´ on el´ astica de dos part´ıculas id´enticas en el sistema de referencia centro de masa. Por simplicidad ignoraremos el efecto del esp´ın. Sin embargo, el c´ alculo ser´ a v´ alido siempre que la interacci´ on no dependa del esp´ın, y si las dos part´ıculas est´ an inicialmente en el mismo estado de esp´ın. En este caso debemos tomar en cuenta la evoluci´ on temporal, pero veremos que el t´ermino de intercambio entra de una manera muy similar al caso de medidas que no involucran evoluci´ on temporal.
Figura 26.5: Colisi´ on el´ astica entre dos part´ıculas id´enticas vista desde el sistema de referencia del centro de masa. (a) Momentos de las dos part´ıculas en el estado inicial. (b) Momentos de las dos part´ıculas en el estado final (justo despu´es de la medici´ on). La Fig. 26.5a, muestra el estado inicial en el cual las dos part´ıculas se acercan la una a la otra con momentos opuestos ±pu3 , donde hemos definido la direcci´ on X3 a lo largo de los momentos. El ket f´ısico inicial |ψi i estar´ a descrito entonces por la expresi´ on E 1 (1) (2) |ψi i = √ (1 + εP21 ) pu3 , −pu3 (26.68) 2
|ψi i es el estado del sistema en el tiempo inicial t0 antes de la colisi´ on. Describiremos la evoluci´ on temporal a trav´es del operador lineal U (t, t′ ) conocido como operador evoluci´ on temporal (ver secci´ on 7.1, P´ agina 260). Si definimos t1 como el tiempo en el cual se ejecutar´ a la medida, tendremos que para este tiempo el estado del sistema justo antes de la medida ser´ a |ψ (t1 )i = U (t1 , t0 ) |ψi i (26.69) puesto que el Hamiltoniano conmuta con P21 y el operador U (t, t′ ) solo depende del Hamiltoniano y del tiempo, se tiene que este operador tambi´en conmuta con P21
U t, t′ , P21 = 0
(26.70)
este fen´ omeno ya fu´e descrito en la secci´ on 26.2, P´ ag. 591. Calcularemos la amplitud de probabilidad de detectar una part´ıcula en la direcci´ on n (recordemos que por conservaci´ on de momento, la otra ir´ıa en direcci´ on −n). Puesto que la colisi´ on es el´ astica, los m´ odulos de los momentos no cambian y las part´ıculas en el estado cuya
´ 26.12. SITUACIONES EN LAS CUALES SE PUEDE IGNORAR EL POSTULADO DE SIMETRIZACION617 probabilidad queremos evaluar tendr´ an momentos ±pn. El ket final f´ısico |ψf i (justo despu´es de la medida) estar´ a entonces dado por E 1 (26.71) |ψf i = √ (1 + εP21 ) pn(1) , −pn(2) 2 la amplitud de probabilidad deseada se obtiene aplicando las Ecs. (26.68, 26.69, 26.71)
E 1 (1) (2) hψf |ψ (t1 )i = hψf | U (t1 , t0 ) |ψi i = √ hψf | U (t1 , t0 ) (1 + εP21 ) pu3 , −pu3 2 E 1 D (1) (1) (2) † hψf |ψ (t1 )i = pn , −pn(2) 1 + εP21 U (t1 , t0 ) (1 + εP21 ) pu3 , −pu3 2
utilizando las propiedades de P21 y la Ec. (26.70) resulta † 1 + εP21 U (t1 , t0 ) (1 + εP21 ) = (1 + εP21 ) (1 + εP21 ) U (t1 , t0 ) 2 U (t1 , t0 ) = (1 + 2εP21 + 1) U (t1 , t0 ) = 1 + 2εP21 + P21 † † 1 + εP21 U (t1 , t0 ) (1 + εP21 ) = 2 (1 + εP21 ) U (t1 , t0 ) = 2 1 + εP21 U (t1 , t0 )
sustituyendo (26.73) en (26.72) tenemos D E (1) (2) † hψf |ψ (t1 )i = pn(1) , −pn(2) 1 + εP21 U (t1 , t0 ) pu3 , −pu3 D E (1) (2) hψf |ψ (t1 )i = pn(1) , −pn(2) U (t1 , t0 ) pu3 , −pu3 D E (1) (2) +ε −pn(1) , pn(2) U (t1 , t0 ) pu3 , −pu3
(26.72)
(26.73)
(26.74)
En la Ec. (26.74) vemos de nuevo que hay un t´ermino directo y uno de intercambio en la amplitud. Diagram´ aticamente, estos corresponden a los procesos que se ilustraron en las figuras 26.2a y 26.2b, de la P´ agina 592. De nuevo, las amplitudes de probabilidad asociadas a estos dos t´erminos se suman o restan dependiendo de si las part´ıculas son fermines o bosones. La presencia de los dos t´erminos genera un t´ermino de interferencia cuando realizamos el m´ odulo al cuadrado de la expresi´ on (26.74). Se puede notar que si cambiamos n por −n, la expresi´ on (26.74) se multiplica por ε, de modo que la probabilidad permanece invariante. Esto es de esperarse ya que la Fig. 26.5b nos muestra claramente que el cambio n → −n, ser´ıa indistinguible en el proceso.
26.12.
Situaciones en las cuales se puede ignorar el postulado de simetrizaci´ on
Si el postulado de simetrizaci´ on fuera siempre esencial, ser´ıa imposible describir a un sistema de part´ıculas id´enticas con un n´ umero restringido de part´ıculas, ya que habr´ıa que inclu´ır todas las part´ıculas id´enticas a ellas en el universo para simetrizar el sistema. Veremos que hay situaciones en las cuales el postulado de simetrizaci´ on se puede ignorar, considerando a las part´ıculas como si fueran de distinta naturaleza, y obtener las mismas predicciones. La discusi´ on de la secci´ on 26.11, nos muestra que esto ocurre cuando los t´erminos de intercambio introducidos por el postulado de simetrizaci´ on son nulos o despreciables. Veremos algunos ejemplos
26.12.1.
Part´ıculas id´ enticas ubicadas en regiones espaciales distintas
Es com´ un que las funciones de onda de dos o m´ as part´ıculas no se traslapen significativamente. Por ejemplo si las funciones de onda de dos part´ıculas (en una dimensi´ on por simplicidad) son sim´etricas y tienen anchos ∆x1 y ∆x2 , tales funciones no se traslapan de manera significativa si los centros de las funciones est´ an separados por una distancia mucho mayor que ∆x1 + ∆x2 . En la pr´ actica hay por supuesto un traslapamiento no nulo a todas las
618
´ ´ CAP´ITULO 26. SISTEMAS CUANTICOS DE PART´ICULAS IDENTICAS
distancias, ya que las funciones de onda usualmente no se anulan exactamente en ninguna regi´ on del espacio. Sin embargo, cuando se cumple la condici´ on antes mencionada se pueden trazar dos (o mas) regiones disyuntas en las cuales esta casi toda la probabilidad de ubicar a cada part´ıcula. En tal caso las part´ıculas se pueden asumir como localizadas6 en cada regi´ on ∆1 y ∆2 . Por simplicidad ignoraremos los efectos de esp´ın. Consideremos entonces dos part´ıculas id´enticas una de ellas en el estado individual |ϕ1 i y la otra en el estado individual |ϕ2 i. Vamos a suponer el caso ideal en el cual la funci´ on de onda ϕ1 (r) es exactamente nula por fuera de la regi´ on ∆1 y la funci´ on de onda ϕ2 (r) es exactamente nula por fuera de ∆2 . En tal sentido podemos “rastrear” a las part´ıculas y decir categ´ oricamente que la part´ıcula rotulada como (1) (por convenci´ on) est´ a dentro de la regi´ on ∆1 , y la rotulada como (2) est´ a dentro de la regi´ on ∆2 . La ausencia de traslapamiento de las funciones de onda nos lleva a una situaci´ on similar a la de la mec´ anica cl´ asica y es de esperarse que el postulado de simetrizaci´ on sea innecesario en estas circunstancias. Pensemos ahora en medir un observable relacionado con una de las part´ıculas. Debemos colocar el aparato de medida de manera que no pueda registrar lo que ocurre digamos en el dominio ∆2 . La medida solo estar´ a relacionada entonces con la part´ıcula dentro de la regi´ on ∆1 [rotulada como (1) por convenci´ on]. Ahora imaginemos una medida asociada a las dos part´ıculas simult´ aneamente, pero realizadas por dos instrumentos de medida diferentes, uno que no es sensible a los fen´ omenos que ocurren dentro de ∆1 y otro que no es sensible a lo que ocurre dentro de ∆2 . Por simplicidad asumamos que los autoestados asociados a la medida son discretos y no-degenerados. Sean b1 y b2 las cantidades f´ısicas que se obtienen para cada part´ıcula, y sean |u1 i y |u2 i los estados individuales (vectores propios asociados a b1 y b2 ) en que queda preparada cada part´ıcula luego on espacial de los instrumentos de de las medidas dentro de ∆1 y ∆2 respectivamente. Ahora bien, la disposici´ medida implica que ui (r) = hr |ui i = 0 si r ∈ ∆j ; i, j = 1, 2 , i 6= j de modo que las funciones justo despu´es de la medida est´ an localizadas en los mismos dominios ∆1 y ∆2 que las funciones justo antes de la medida. Esto implica que las funciones de onda u1 y ϕ2 no se traslapan, lo mismo ocurre con las funciones u2 y ϕ1 . En consecuencia Z Z Z Z ∗ ∗ ∗ hu1 |ϕ2 i = u1 (r) ϕ2 (r) dV = u1 (r) ϕ2 (r) dV + u1 (r) ϕ2 (r) dV + u∗1 (r) ϕ2 (r) dV ∆1
∆2
∆
donde ∆ es la regi´ on complementaria entre ∆1 y ∆2 . En la regi´ on ∆ ambas funciones de onda se anulan, en ∆1 se anula ϕ2 (r) y en ∆2 se anula u1 (r), de manera que cada integral es nula. De una forma similar podemos ver que hu2 |ϕ1 i se anula. Tenemos entonces hu1 |ϕ2 i = hu2 |ϕ1 i = 0 (26.75) ahora bien, empleando el postulado de simetrizaci´ on la amplitud de probabilidad de obtener los resultados b1 y b2 viene dada por la Ec. (26.63) A (b1 ; b2 ) = hu1 ; u2 |ϕ1 ; ϕ2 i = hu1 | ϕ1 i hu2 | ϕ2 i + ε hu2 | ϕ1 i hu1 | ϕ2 i pero de acuerdo con (26.75) el t´ermino de intercambio es nulo de modo que A (b1 ; b2 ) = hu1 | ϕ1 i hu2 | ϕ2 i y recordando que el t´ermino de intercambio es el t´ermino que agrega el postulado de simetrizaci´ on, vemos que el resultado es el mismo que si hubi´eramos ignorado dicho postulado. Por tanto, bajo ciertas circunstancias es posible estudiar las part´ıculas como si fuesen de diferente naturaleza. En particular, si tenemos un conjunto de N part´ıculas id´enticas suficientemente alejadas de cualquier otra part´ıcula id´entica adicional, podemos aplicar el postulado de simetrizaci´ on a este sistema restringido de N part´ıculas id´enticas, obteniendo resultados correctos. 6 Estamos asumiendo las part´ıculas como localizadas en dos o m´ as regiones disyuntas. Esto no implica que cada part´ıcula est´e en un autoestado de posici´ on |ri i (ni siquiera aproximadamente), ya que la localizaci´ on es en regiones finitas (y no en puntos), cuya u ´nica condici´ on es que sean disyuntas.
´ 26.12. SITUACIONES EN LAS CUALES SE PUEDE IGNORAR EL POSTULADO DE SIMETRIZACION619 En el estado inicial hemos supuesto funciones de onda que no se traslapan, adem´ as hemos definido el estado del sistema especificando dos estados de part´ıcula individual. Podemos preguntarnos si despu´es de que el sistema evoluciona temporalmente a´ un es posible estudiar a una de las part´ıculas e ignorar la otra. Para ello no solo es necesario que las dos part´ıculas permanezcan en regiones distintas del espacio, tambi´en se requiere que no interact´ uen. Incluso para part´ıculas de diferente naturaleza, la interacci´ on introduce correlaciones y el vector de estado del sistema completo ya no se puede escribir como el producto tensorial de dos estados asociados a cada part´ıcula individual (ver secci´ on 6.1, P´ ag. 244). Vale enfatizar que el hecho de que podamos ignorar el postulado de simetrizaci´ on cuando apartamos suficientemente las part´ıculas, es una condici´ on esencial para poder definir un sistema aislado de part´ıculas id´enticas en mec´anica cu´ antica.
26.12.2.
Identificaci´ on de part´ıculas por su direcci´ on de esp´ın
Consideremos una colisi´ on el´ astica de dos part´ıculas con esp´ın 1/2 (por ejemplo dos electrones), y asumamos que la interacci´ on no depende del esp´ın, de modo que los estados de esp´ın de las dos part´ıculas se conservan en el proceso. Si los estados de esp´ın de las dos part´ıculas son ortogonales entre s´ı, tales estados servir´ an para distinguir entre las dos part´ıculas para todo tiempo, como si las part´ıculas fueran de distinta naturaleza. Para verlo, usaremos el c´ alculo realizado en la secci´ on 26.11.2, agregando apropiadamente los estados de esp´ın. El ket f´ısico inicial (26.68) junto con las variables de esp´ın se escribir´ a por ejemplo en la forma E 1 (1) (2) |ψi i = √ (1 − P21 ) pu3 , (+)(1) ; −pu3 , (−)(2) 2
(26.76)
donde los s´ımbolos + y − indican esp´ın arriba y abajo respectivamente. El estado final (26.71) con las variables de esp´ın se escribir´ a como E 1 |ψf i = √ (1 − P21 ) pn(1) , (+)(1) ; −pn(2) , (−)(2) (26.77) 2
ahora bien, si la interacci´ on es independiente del esp´ın, entonces el Hamiltoniano H y por tanto el operador evoluci´ on temporal ser´ an independientes de las variables de esp´ın. En consecuencia el operador U (t1 , t0 ) no puede cambiar las variables de esp´ın de un ket o un bra. Esto implica que D E (1) (2) −pn(1) , (−)(1) ; pn(2) , (+)(2) U (t1 , t0 ) pu3 , (+)(1) ; −pu3 , (−)(2) = 0 (26.78) uan siendo ortogonales. La Ec. (26.78) ya que U (t1 , t0 ) no cambia los estados de esp´ın de modo que ´estos contin´ implica que el t´ermino de intercambio en la Ec. (26.74) se anula, quedando D E (1) (2) hψf |ψ (t1 )i = pn(1) , (+)(1) ; −pn(2) , (−)(2) U (t1 , t0 ) pu3 , (+)(1) ; −pu3 , (−)(2) (26.79)
Se obtiene entonces el mismo resultado si tratamos a las dos part´ıculas como diferentes, es decir si no antisimetrizamos los kets inicial y final, y si asociamos el ´ındice (1) con el estado de esp´ın |+i y el ´ındice (2) con el estado de esp´ın |−i. Esta argumentaci´ on deja de ser v´ alida si U (t1 , t0 ) [o equivalentemente el Hamiltoniano], dependen de variables de esp´ın.
Cap´ıtulo 27
´ Atomos de muchos electrones y aproximaci´ on de campo central El estudio del ´atomo de hidr´ ogeno es relativamente simple debido a que es un ´ atomo con un solo electr´ on. Por un lado, esto permite reducir el problema a un problema de dos cuerpos desacoplados en donde solo la din´ amica de un cuerpo es no-trivial y ´este u ´ltimo est´ a sometido a una fuerza central. Adicionalmente, el principio de exclusi´ on de Pauli no es relevante. En este cap´ıtulo se estudiar´ an ´ atomos de muchos electrones para los cuales el problema es mucho m´ as complejo debido a que incluso en el sistema de referencia del centro de masa, el problema contin´ ua siendo acoplado (no se puede reducir al problema de varias part´ıculas imaginarias desacopladas), y el principio de exclusi´ on de Pauli juega un papel esencial ya que tenemos Z fermiones id´enticos (electrones). Consideremos un ´ atomo de Z electrones. Puesto que el n´ ucleo es mucho m´ as masivo que los electrones, vamos a despreciar la din´ amica de los n´ ucleos y asumiremos que la posici´ on de ´este coincide con la posici´ on del centro de masa del sistema. En lo que sigue no consideraremos los efectos relativistas y en particular no incluiremos los t´erminos de esp´ın. El Hamiltoniano que describe el movimiento de los Z electrones vendr´ a dado por Z Z Z−1 Z X X P2i Ze2 X X e2 − + H= 2me Ri |Ri − Rj | i=1
i=1
;
i=1 j=i+1
e2 ≡
q2 4πε0
(27.1)
los electrones se han numerado arbitrariamente de 1 a Z. El primer t´ermino en el Hamiltoniano es la energ´ıa cin´etica total del sistema de Z electrones, el segundo describe la atracci´ on que el n´ ucleo ejerce sobre cada electr´ on del sistema. Finalmente, el tercer t´ermino se refiere a la repulsi´ on de los electrones entre s´ı. N´ otese que la suma en el tercer t´ermino contiene Z (Z − 1) /2 sumandos que corresponden a todos los pares posibles de electrones. Este Hamiltoniano es sim´etrico bajo el intercambio i ↔ j como lo requiere el postulado de simetrizaci´ on. N´ otese que en ausencia del tercer t´ermino en (27.1), el Hamiltoniano queda Z Z X X P2i Ze2 Ha = − 2me Ri i=1
i=1
para este Hamiltoniano de part´ıculas no interactuantes, pueden determinarse con facilidad sus kets y valores propios. Como se discuti´ o en el ejemplo ag. 246, en este caso el problema se desacopla. Calculando los E 6.1, P´ (i) (i) valores propios Eni y kets propios ψni para el operador Hi asociado a cada valor de i Hi =
P2i Ze2 − 2me Ri
se puede construir un conjunto de kets y valores propios de H0 en la forma En =
Z X i=1
En(i)i ;
E E E (2) (Z) |ψn i = ψn(1) ⊗ ψ ⊗ ψ n2 nZ 1 620
´ DE CAMPO CENTRAL 27.1. APROXIMACION
621
y solo resta antisimetrizar el producto tensorial para cumplir con el postulado de simetrizaci´ on. Sin embargo, la introducci´ on de la interacci´ on hace que este desacople ya no sea posible. A priori podr´ıa pensarse en tratar al t´ermino de interacci´ on como una perturbaci´ on. No obstante, es de esperarse que la distancia relativa entre electrones est´e en promedio en el mismo orden de magnitud que la distancia promedio entre cada electr´ on y el n´ ucleo. El cociente entre el t´ermino de interacci´ on repulsiva y el de atracci´ on hacia el n´ ucleo tendr´ a el siguiente orden de magnitud
kHnuc k = kHint k =
Hint
Hnuc ≈
Z X Ze2 i=1 Z−1 X
Z
1 X 2 Z 2 e2 ≈ Ze ≈ Ri hRi hRi Z X
i=1 j=i+1
(Z − 1) 2Z
i=1
Z−1 Z X X 1 1 Z (Z − 1) e2 e2 ≈ e2 ≈ |Ri − Rj | h|Ri − Rj |i hRi 2 i=1 j=i+1
este cociente var´ıa entre 1/4 para Z = 2, y 1/2 para Z ≫ 1. Por tanto, ambos Hamiltonianos son del mismo orden de magnitud, de modo que una tratamiento perturbativo escasamente funciona en forma muy aproximada (y poco confiable) para el ´ atomo de Helio con Z = 2. Para ´ atomos de muchos electrones la aproximaci´ on perturbativa ser´ıa a´ un peor. Por esta raz´ on debemos recurrir a m´etodos alternativos. Uno de los m´ as utilizados es la llamada aproximaci´ on de campo central, que describiremos a continuaci´ on.
27.1.
Aproximaci´ on de campo central
Para desarrollar el m´etodo recurriremos a una imagen semi-cl´ asica. Un electr´ on dado (i), se mueve bajo la influencia repulsiva de los otros Z − 1 electrones que compensan parcialmente la interacci´ on atractiva del n´ ucleo. En esta aproximaci´ on, se considera que el electr´ on (i) se mueve bajo la influencia de un potencial que solo depende de su posici´ on ri que tiene en cuenta a la fuerza atractiva nuclear y al efecto promedio de los electrones restantes. Podemos adicionalmente hacer la suposici´ on de que dicho potencial solo depende de la magnitud de ri . Denotando este potencial como Vc (ri ), esta suposici´ on adicional implica que la fuerza resultante es central, al menos en promedio. Por esta raz´ on hablamos de una aproximaci´ on de campo central. Esta aproximaci´ on est´ a ignorando efectos tales como el hecho de que el movimiento del electr´ on (i) influye sobre la distribuci´ on electr´ onica restante, cambiando a su vez al potencial en el cual est´ a inmerso el electr´ on (i), es decir hay una correlaci´ on entre el electr´ on en cuesti´ on y los electrones restantes. Por otro lado, la interacci´ on no es exactamente central. Por ejemplo, un electr´on muy cercano tendr´ a una interacci´ on dominante con respecto a los otros, y la repulsi´ on no es en general colineal con la fuerza de atracci´ on del n´ ucleo, en cuyo caso la suma vectorial no corresponde a una fuerza central. Sin embargo, en esta imagen cl´ asica (ya que impl´ıcitamente hemos supuesto los electrones como localizados), es razonable una aproximaci´ on de campo central si tomamos un promedio sobre un tiempo mucho mayor al periodo de revoluci´ on de los electrones. En un escenario cu´ antico, los electrones ya no est´ an localizados y la imagen de una nube electr´ onica distribu´ıda por todo el espacio hace que la aproximaci´ on de campo central funcione mejor que en el escenario cl´ asico. Ya no es necesario tomar un promedio en el tiempo para que la aproximaci´ on central sea razonable. El promedio sobre la distribuci´ on espacial puede dar cuenta de esta aproximaci´ on.
´ ´ DE CAMPO CENTRAL 622 CAP´ITULO 27. ATOMOS DE MUCHOS ELECTRONES Y APROXIMACION Para tener en cuenta la anterior discusi´ on escribiremos el Hamiltoniano (27.1) en la forma Z Z Z Z Z−1 Z X X X X P2i Ze2 X X e2 H = + Vc (Ri ) − Vc (Ri ) − + 2me Ri |Ri − Rj | i=1
i=1
i=1
i=1
i=1 j=i+1
H = H0 + W
H0 ≡
Z X i=1
P2i + 2me
Z X i=1
Vc (Ri ) , W ≡ −
Z X i=1
Vc (Ri ) −
Z X i=1
Ze2 + Ri
Z−1 X
Z X
i=1 j=i+1
e2 |Ri − Rj |
(27.2) (27.3)
las Ecs. (27.2, 27.3) son v´ alidas para cualquier valor de Vc (Ri ), de modo que no determinan a dicho potencial. Sin embargo, una escogencia adecuada de Vc (Ri ), ser´ a una en la cual |W | ≪ |H0 |, de manera que W se pueda tratar como una perturbaci´ on. H0 ser´ıa el Hamiltoniano no perturbado, que se resuelve con facilidad dado que es un Hamiltoniano de part´ıculas independientes. Bastar´ a con resolver el problema de valores propios de un Hamiltoniano de un electr´ on P2 + Vc (R) (27.4) Hb ≡ 2me La determinaci´ on de un potencial Vc (Ri ) ´ optimo es un problema muy complejo, debido a la correlaci´ on entre el electr´ on para el cual se eval´ ua el potencial y la nube electr´ onica restante. La idea es llegar a una soluci´ on autoconsistente, es decir que las funciones de onda que se determinan con Vc (Ri ) deben predecir una distribuci´ on de carga que reconstituya al mismo potencial (al menos aproximadamente). alisis cualitativo nos muestra como debe Si bien la determinaci´ on del potencial Vc (r) es muy compleja, un an´ ser el comportamiento asint´ otico de Vc (r). Para valores muy peque˜ nos de r, el electr´ on (i) est´ a dentro de la nube electr´ onica creada por los otros electrones de modo que solo “siente” el potencial atractivo debido al n´ ucleo1 . Por otro lado para r muy grande, el electr´ on (i) est´ a esencialmente por fuera de la nube electr´ onica formada por la contribuci´ on de los Z − 1 electrones restantes. En este caso el electr´ on “siente” el equivalente a una carga puntual situada en el origen igual a la suma algebraica de la carga del n´ ucleo m´ as la de la nube de (Z − 1) electrones. Podemos entonces resumir el comportamiento asint´ otico de la siguiente manera e2 para r grande (27.5) r Ze2 Vc (r) ≃ − para r peque˜ no (27.6) r Para valores intermedios de r se requiere la determinaci´ on completa del potencial. La Fig. 27.1, muestra un potencial t´ıpico de Vc (r) descrito por la l´ınea cont´ınua junto con las l´ıneas asint´ oticas (l´ıneas punteadas) definidas por las Ecs. (27.5, 27.6). Esta figura muestra efectivamente que el potencial tiende a la funci´ on (27.5) para r grande y a la funci´ on (27.6) para r peque˜ no. alida toda la As´ı mismo podemos extraer informaci´ on cualitativa del espectro. Puesto que Vc (r) es central, es v´ discusi´ on realizada en el cap´ıtulo 12. En particular, este problema posee las degeneraciones esenciales propias de la naturaleza central de la interacci´ on [ver secci´ on 12.6.1, P´ ag. 354], de manera que los autovalores del Hamiltoniano (27.4) dependen de los n´ umeros cu´ anticos n y l, pero no del n´ umero cu´ antico m. Puesto que Vc (r) no es en general coulombiano, no estar´ an presentes las degeneraciones accidentales propias de este potencial [ver secci´ on 13.6, P´ ag. 2 368]. l caracteriza al valor propio de L y n es la suma del n´ umero cu´ antico l mas el n´ umero cu´ antico radial k que se introdujo al resolver la ecuaci´ on radial para un l dado [ver Ecs. (12.37), P´ ag. 352]. Los n´ umeros cu´ anticos n y l son enteros (recordemos que no hemos introducido el esp´ın), y satisfacen la condici´ on Vc (r) ≃ −
0≤l ≤n−1 1
(27.7)
En una imagen semi-cl´ asica, si pensamos que el electr´ on (i) (asumido como puntual) est´ a inmerso en una nube electr´ onica esf´ericamente sim´etrica, los “cascarones externos” al electr´ on (i) no contribuyen al campo. Solo contribuye la “carga neta” de la nube electr´ onica interna, es decir la nube localizada entre 0 ≤ r < ri , siendo ri la posici´ on del electr´ on en cuesti´ on. Si ri es mucho menor que el radio de Bohr, podemos despreciar la fracci´ on de carga electr´ onica que est´ a en tal intervalo radial, comparada con la carga del n´ ucleo.
´ DE CAMPO CENTRAL 27.1. APROXIMACION
623
Figura 27.1: Perfil t´ıpico del potencial Vc (r) como funci´ on de r. La l´ınea cont´ınua representa el perfil completo de este potencial, y las l´ıneas punteadas son las funciones definidas en las Ecs. (27.5, 27.6) que definen el comportamiento asint´ otico de dicho potencial. Para un valor dado de l, las energ´ıas se incrementan con n En,l > En′ ,l
si n > n′
(27.8)
Por otro lado, para un valor fijo de n, la energ´ıa es m´ as baja cuando el autoestado est´ a asociado a una capa m´ as profunda. Es decir, cuando la densidad de probabilidad del electr´ on en la vecindad del n´ ucleo es mayor, en este caso el efecto de apantallamiento debido a la nube electr´ onica es muy peque˜ no como ya se discuti´o. Las energ´ıas En,l asociadas con el mismo valor de n se pueden ordenar en el orden en el cual se aumenta el momento angular En,0 < En,1 < En,2 < . . . < En,n−1
(27.9)
Podemos entender la jerarqu´ıa (27.9) teniendo en cuenta que en un an´ alogo cl´ asico un valor menor de l (para el mismo n) significa menor par´ ametro de impacto, de modo que el electr´ on estar´ıa en una capa m´ as profunda. Ocurre que en general la jerarqu´ıa de los estados es aproximadamente la misma para todos los ´ atomos. Si bien los valores espec´ıficos de las energ´ıas dependen de Z. La Fig. 27.2 muestra esta jerarqu´ıa e ilustra la degeneraci´ on esencial de orden 2 (2l + 1), donde el factor de 2 se debe al esp´ın. Los estados dentro del mismo corchete est´ a muy cercanos el uno al otro y de hecho para algunos ´ atomos pr´ acticamente coinciden, dentro de estos estados muy cercanos las posiciones relativas pueden variar de un ´ atomo a otro. Es importante mencionar que esta figura solo muestra posiciones relativas de los estados pero no brinda ninguna informaci´ on sobre los valores espec´ıficos de las energ´ıas. Hay diferencias notables con respecto al espectro del ´ atomo de Hidr´ ogeno. Esto se deriva del hecho de que en el presente contexto la energ´ıa depende de los n´ umeros cu´ anticos n y l. Esto hace que el orden de los estados sea diferente. Por ejemplo, la Fig. 27.2 muestra que la capa 4s tiene una energ´ıa ligeramente menor que la de la capa 3d (en el ´ atomo de Hidr´ ogeno es al contrario puesto que la energ´ıa solo depende de n), esto tiene que ver con que la funci´ on de onda 4s es “m´ as penetrante” (i.e. pertenece a una capa m´ as profunda) debido a que pertenece a un menor momento angular. Inversiones similares se ven entre otras capas. Esto nos muestra la importancia del efecto repulsivo entre los electrones.
´ ´ DE CAMPO CENTRAL 624 CAP´ITULO 27. ATOMOS DE MUCHOS ELECTRONES Y APROXIMACION
Figura 27.2: Representaci´ on de la posici´ on relativa de los niveles de energ´ıa electr´ onicos en un potencial central del tipo Vc (r). La degeneraci´ on de cada nivel se indica en par´entesis. Los niveles dentro de un corchete est´ an muy cercanos entre s´ı. Al lado derecho se escriben los s´ımbolos de los ´ atomos para los cuales la capa electr´ onica que aparece en la misma l´ınea corresponde a la capa m´ as externa ocupada en el estado base.
27.2.
Configuraciones electr´ onicas de los ´ atomos
En la aproximaci´ on de campo central, despreciamos la contribuci´ on de la perturbaci´ on W en las Ecs. (27.2, 27.3) y calculamos los autoestados del Hamiltoniano H0 descrito por dichas ecuaciones. Puesto que los autoestados surgen de la antisimetrizaci´ on del producto tensorial de las soluciones de part´ıcula individual, tales autoestados est´ an descritos por un determinante de Slater. El estado base del ´ atomo se obtiene cuando los Z electrones ocupan los estados de energ´ıa m´ as bajos compatibles con el principio de exclusi´ on de Pauli. El m´ aximo n´ umero de electrones que puede tener un nivel de energ´ıa dado En,l es la degeneraci´ on 2 (2l + 1) de dicho nivel. El conjunto de estados individuales asociados a una energ´ıa dada En,l se denomina una capa. La configuraci´ on electr´ onica describe cuales capas est´ an ocupadas y cu´ antos electrones posee cada capa. La caracterizaci´ on de las funciones de onda y los niveles de energ´ıa asociados, permiten conocer el n´ umero de enlaces formados por los ´ atomos, as´ı como su geometr´ıa y estabilidad. Para determinar la configuraci´ on electr´ onica del estado base, se “llenan” las capas sucesivas desde el nivel 1s en forma sucesiva en el orden indicado en la Fig. 27.2, hasta que se agoten los Z electrones. Por ejemplo, en el estado base del ´ atomo de Hidr´ ogeno, el u ´nico electr´ on del ´ atomo ocupa el nivel 1s. En el atomo de Helio con Z = 2, la configuraci´ ´ on electr´ onica consiste en los dos ´ atomos ocupando el mismo nivel 1s, uno con esp´ın arriba y el otro con esp´ın abajo para ser compatible con el principio de exclusi´ on He : 1s2 la notaci´ on espectrosc´ opica indica entonces que los dos electrones ocupan estados ortogonales de la capa 1s, con la misma funci´ on espacial pero espinores ortogonales. Para el Litio con Z = 3, la configuraci´ on electr´ onica viene
´ ´ 27.2. CONFIGURACIONES ELECTRONICAS DE LOS ATOMOS
625
dada por Li : 1s2 , 2s ya que la capa 1s solo puede aceptar dos electrones y el tercer electr´ on debe ir al nivel inmediatamente superior, que de acuerdo con la Fig. 27.2 es el nivel 2s. Para el caso del Berilio (Z = 4), la configuraci´ on electr´ onica es Be : 1s2 , 2s2 ya que la capa 2s puede aceptar otro electr´ on. Para Z > 4, se procede al llenado de las capas superiores hasta agotar los Z electrones, llenando las capas 2p, 3s, 3p etc. En la figura 27.2, se muestra en el lado derecho los s´ımbolos de los elementos para los cuales la capa en cuesti´ on es la m´ as externa, cuando los ´ atomos est´ an en el estado base. Esta es la clasificaci´ on de la tabla peri´ odica de Mendeleev. Debe tenerse en cuenta sin embargo, que los niveles que aparecen dentro de los corchetes en la Fig. 27.2 est´ an muy cercanos entre s´ı, y su llenado puede ocurrir en forma irregular. Por ejemplo, aunque en la figura 27.2 el nivel 4s aparece debajo del nivel 3d, para el cromo (Z = 24) hay 5 electrones en la capa 3d a pesar de que la capa 4s est´ a incompleta Cr : 1s2 , 2s2 , 2p6 , 3s2 , 3p6 , 4s1 , 3d5 irregularidades similares ocurren para el cobre (Z = 29), Niobio (Z = 41), etc. Cuando todas las capas est´ an llenas, hay tantos estados individuales ortogonales como electrones. En otras palabras, hay solo un determinante de Slater no-nulo asociado a configuraciones con todas las capas llenas (o capas cerradas). En consecuencia, el estado base de los gases nobles (ns2 , np6 . . .) es no-degenerado al igual que el de las tierras alcalinas (. . . , ns2 ). Por otro lado, si el n´ umero de electrones externos es menor que el grado de degeneraci´ on de la capa m´ as externa, el estado base del ´ atomo es degenerado. Para los alcalinos (. . . , ns), hay una degeneraci´ on de 2, para el carbono (1s2 , 2s2 , 2p2 ) la degeneraci´ on es C62 = 15, puesto que los estados individuales se pueden escoger de los seis estados ortogonales que constituyen la capa 2p. Adicionalmente, puede demostrarse que para una capa completa todos los momentos angulares electr´ onicos 2 3 netos (orbital, de esp´ın y total) son cero . Por tanto el momento angular electr´ onico de un ´ atomo , es debido solo a los electrones externos. Tal momento angular es entonces nulo para los gases nobles y las tierras alcalinas, en tanto que para metales alcalinos el momento angular total electr´ onico ser´ a 1/2, puesto que poseen un solo electr´ on externo, cuyo momento angular orbital es cero y cuyo esp´ın es 1/2. Ahora bien, los estados excitados de m´ as baja energ´ıa del Hamiltoniano H0 en la aproximaci´ on de campo central, se obtienen cuando se mueve uno de los electrones a una estado individual de energ´ıa m´ as alto que la u ´ltima capa ocupada en el estado base. Hemos dicho los estados excitados de m´ as baja energ´ıa, puesto que el electr´ on que se mueve y los otros electrones de la capa m´ as externa del estado base, no est´ an en general llenando capas, y por tanto hay varios estados ortogonales asociados a la energ´ıa del primer estado excitado. Por ejemplo, el primer estado excitado del ´ atomo de Helio posee la configuraci´ on electr´ onica He∗ : 1s, 2s
2 3
Veremos esta caracter´ıstica para el ´ atomo de Helio en el estado base [ver Ec. (28.9) P´ ag. 628 y discusi´ on posterior]. El momento angular del ´ atomo debe adicionar al momento angular de la nube electr´ onica, el momento angular del n´ ucleo.
Cap´ıtulo 28
El ´ atomo de Helio Estudiaremos el ´ atomo de Helio en el marco de la aproximaci´ on de campo central. Teniendo en cuenta solo la interacci´ on electrost´ atica, el Hamiltoniano del ´ atomo de Helio se escribe como H=
P21 P2 2e2 2e2 e2 + 2 − − + 2me 2me R1 R2 |R1 − R2 |
(28.1)
De acuerdo con la estrategia desarrollada en el cap´ıtulo 27, escribiremos el Hamiltoniano del ´ atomo de Helio en la forma H = H0 + W P21 P2 H0 ≡ + 2 + Vc (R1 ) + Vc (R2 ) 2me 2me 2e2 2e2 e2 W = − − + − Vc (R1 ) − Vc (R2 ) R1 R2 |R1 − R2 |
(28.2) (28.3) (28.4)
donde el potencial central Vc (Ri ) se elige adecuadamente para que W se pueda considerar una peque˜ na correcci´ on 1 (perturbaci´ on) con respecto a H0 . Como primer paso, se desprecia la contribuci´ on de W (aproximaci´ on de campo central) lo cual nos lleva a estudiar las configuraciones electr´ onicas del ´ atomo bajo esta aproximaci´ on. Posteriormente, se estudia la correcci´ on de W via teor´ıa estacionaria de perturbaciones.
28.1.
Configuraciones del ´ atomo de Helio
Cuando se desprecia W , los electrones se pueden considerar independientes. Sin embargo, parte de la contribuci´on de la repulsi´ on est´ atica promedio est´ a impl´ıcitamente inclu´ıda en el potencial central Vc . De acuerdo con la discusi´ on de la secci´ on 27.1, las configuraciones del ´ atomo de Helio en la aproximaci´ on de campo central (en la cual los electrones est´ an embebidos en un campo central Vc ), se especifican a trav´es de los n´ umeros cu´ anticos n, l y n′ , l′ de los dos electrones. La energ´ıa electr´ onica total es entonces Ec = En,l + En′ ,l′
(28.5)
De acuerdo con la Fig. 27.2, la configuraci´ on del estado base consiste en los dos electrones en la capa 1s, denot´ andose 2 entonces como la configuraci´ on 1s . El primer estado excitado se obtiene cuando uno de los electrones est´ a en la capa 1s y el otro en la capa 2s, la configuraci´ on electr´ onica es entonces 1s, 2s. El segundo estado excitado corresponde a la configuraci´ on 1s, 2p. Las configuraciones excitadas del ´ atomo de Helio tienen la forma 1s, n′ l′ . Sin embargo, tambi´en existen ′ ′ configuraciones nl, n l “doblemente excitadas” en las cuales ambos electrones est´ an en estados excitados. No 1
Por supuesto, la simetr´ıa nos indica que Vc (R1 ) y Vc (R2 ) deben tener la misma forma funcional.
626
´ 28.1. CONFIGURACIONES DEL ATOMO DE HELIO
627
obstante, en el caso del Helio la energ´ıa total de estas configuraciones es mayor que la energ´ıa de ionizaci´ on del 2 ′ ′ ′ atomo, es decir la energ´ıa necesaria para pasar del estado 1s al estado 1s, n l con n → ∞. En consecuencia, los ´ estados doblemente excitados son muy inestables, ya que tienden a disociarse r´ apidamente en un electr´ on y un i´ on, raz´ on por la cual suelen denominarse “estados de autoionizaci´ on”. Sin embargo, existen configuraciones doblemente excitadas que no son autoionizantes, pero que decaen emitiendo fotones. Algunas de las correspondientes l´ıneas espectrales han sido observadas experimentalmente.
28.1.1.
Degeneraci´ on de las configuraciones
Puesto que Vc es central, la energ´ıa de las configuraciones no depende de los n´ umeros cu´ anticos m y m′ donde −l ≤ m ≤ l
;
−l′ ≤ m′ ≤ l′
adicionalmente, puesto que Vc no depende del esp´ın, la energ´ıa tampoco depende de los n´ umeros cu´ anticos ε y ε′ con ε = ±1/2 y ε′ = ±1/2. Por esta raz´ on, la mayor parte de las configuraciones son degeneradas. Para calcular la degeneraci´ on, tendremos en cuenta que un estado perteneciente a una configuraci´ on est´ a definida por 8 n´ umeros cu´ anticos (cuatro para cada electr´ on) dados por (n, l, m, ε) y (n′ , l′ , m′ , ε′ ). Puesto que los electrones son fermiones id´enticos, debe tenerse en cuenta el postulado de simetrizaci´ on y el consecuente principio de exclusi´ on de Pauli. El estado f´ısico (antisimetrizado) estar´ıa dado por E n, l, m, ε; n′ , l′ , m′ , ε′ = √1 (1 − P21 ) n(1) , l(1) , m(1) , ε(1) ; n′(2) , l′(2) , m′(2) , ε′(2) 2
(28.6)
el principio de exclusi´ on de Pauli prohibe los estados con id´enticos n´ umeros cu´ anticos n = n′ , l = l′ , m = m′ y ε = ε′ . El conjunto de kets f´ısicos para n, l; n′ l′ fijos forma un subespacio E (n, l; n′ , l′ ) del espacio EA , donde dicho subespacio est´ a asociado con la configuraci´ on n, l; n′ l′ . Una base ortonormal del subespacio E (n, l; n′ , l′ ) nos dar´ a el grado de degeneraci´ on del correspondiente nivel de energ´ıa. Para evaluar el grado de degeneraci´ on de una ′ ′ configuraci´ on nl; n l dada, debemos distinguir dos casos: Electrones en diferentes capas Cuando los dos electrones no est´ an en la misma capa. Es decir no se cumple la condici´ on n = n′ y l = l′ . En tal caso, ya que al menos uno de los n´ umeros cu´anticos n, l de los dos electrones es diferente, los estados individuales nunca coinciden y por tanto m, m′ y ε, ε′ pueden tomar de forma independiente cualquier valor. Por tanto, la degeneraci´ on est´ a dada por gnl,n′ l′ = [2 (2l + 1)] × 2 2l′ + 1 = 4 (2l + 1) 2l′ + 1 ; si n 6= n′ ´ o l 6= l′ (28.7) por ejemplo, la degeneraci´ on de la configuraci´ on 1s, 2s (primer estado excitado) es 4, y la degeneraci´ on de la configuraci´ on 1s, 2p (segundo estado excitado) es 12. Electrones en la misma capa Cuando los dos electrones est´ an en la misma capa se tiene que n = n′ y l = l′ . En tal caso deben excluirse los ′ ′ estados con m = m y ε = ε . El n´ umero total de estados individuales es 2 (2l + 1). Para calcular el n´ umero total de estados compatibles con el principio de exclusi´ on de Pauli podemos proceder de la siguiente forma: consideremos un estado de dos part´ıculas de la forma (n, l, m, ε) n, l, m′ , ε′ podemos proceder a recorrer independientemente a los pares (m, ε) y (m′ , ε′ ) lo cual nos da un total de [2 (2l + 1)]× [2 (2l + 1)] estados. Ahora contamos los estados que no son compatibles con el principio de exclusi´on, es decir tal que m = m′ y ε = ε′ , para dichos estados el esp´ın solo toma dos valores y la tercera componente de momento
´ CAP´ITULO 28. EL ATOMO DE HELIO
628
angular toma 2l + 1 valores, para un total de 2 (2l + 1) estados. Sustrayendo los estados que violan el principio de exclusi´ on de los anteriores tenemos [2 (2l + 1)] × [2 (2l + 1)] − 2 (2l + 1) = 2 (2l + 1) (4l + 1) sin embargo, al recorrer los n´ umeros cu´ anticos de manera independiente hacemos un doble conteo de cada estado, ya que el estado de dos part´ıculas (n, l, m, ε) (n, l, m′ , ε′ ) es igual al estado (n, l, m′ , ε′ ) (n, l, m, ε). El presente conteo est´ a tomando los dos en cuenta como si fueran diferentes, por tanto debemos dividir el anterior resultado por dos2 , con lo cual obtenemos gnl2 = (2l + 1) (4l + 1) (28.8) Otra forma de verlo es la siguiente: dado el conjunto fijo de n´ umeros cu´ anticos (n, l, m, ε), hay [2 (2l + 1) − 1] ′ ′ estados del tipo (n, l, m , ε ) compatibles con el principio de exclusi´ on, ya que el n´ umero de estados de la forma (n, l, m′ , ε′ ) es 2 (2l + 1) pero uno de ellos (cuando m = m′ y ε = ε′ ) viola dicho principio. Por otro lado, hay 2 (2l + 1) estados del tipo (n, l, m, ε), con lo cual el n´ umero de estados en el conteo ser´ a [2 (2l + 1)] × [2 (2l + 1) − 1] = 2 (2l + 1) (4l + 1) una vez m´ as este conteo toma en cuenta dos veces al mismo estado y el resultado debe dividirse por dos, con lo cual se reproduce de nuevo la Ec. (28.8). Example 28.1 La configuraci´ on 1s2 (estado base) no es degenerada. En tal caso es u ´til realizar la expansi´ on del determinante de Slater correspondiente a la configuraci´ on. Si en la Ec. (28.6) hacemos n = n′ = 1, l = l′ = m = m′ = 0, ε = (+) , ε′ = (−) podemos escribir 1, 0, 0, ε; 1, 0, 0, ε′ = =
=
E 1 √ (1 − P21 ) 1(1) , 0(1) , 0(1) , (+)(1) ; 1(2) , 0(2) , 0(2) , (−)(2) 2 E 1 h (1) (1) (1) √ 1 , 0 , 0 , (+)(1) ; 1(2) , 0(2) , 0(2) , (−)(2) 2 Ei − 1(2) , 0(2) , 0(2) , (+)(2) ; 1(1) , 0(1) , 0(1) , (−)(1) E 1 h √ 1(1) , 0(1) , 0(1) , (+)(1) ; 1(2) , 0(2) , 0(2) , (−)(2) 2 Ei − 1(1) , 0(1) , 0(1) , (−)(1) ; 1(2) , 0(2) , 0(2) , (+)(2)
podemos factorizar la parte espacial y escribir
h E Ei (1) (2) (1) (2) E ; (−) − (−) ; (+) (+) 1, 0, 0, ε; 1, 0, 0, ε′ = 1(1) , 0(1) , 0(1) ; 1(2) , 0(2) , 0(2) ⊗ √ 2
(28.9)
en la componente espinorial de la Ec. (28.9) reconocemos el estado singlete |S = 0, MS = 0i que surge de las reglas de adici´ on para S = S(1) + S(2) , cuando s(1) = s(2) = 1/2 [ver Ec. (16.32) P´ ag. 412]. Conclu´ımos que aunque el Hamiltoniano H0 no depende de variables de esp´ın, las ligaduras introducidas por el postulado de simetrizaci´ on requieren que el esp´ın total del estado base sea S = 0. N´ otese que de acuerdo con (28.8) ninguna configuraci´ on con l = 0, ser´ a degenerada independientemente del valor de n. 2 N´ otese que este problema de doble conteo no aparece cuando los dos electrones son de capas diferentes. Esto se debe a que en el conteo, el intercambio es solo de los n´ umeros cu´ anticos (m, ε) ↔ (m′ , ε′ ). Por tanto, los estados (n, l, m, ε) (n′ , l′ , m′ , ε′ ) son diferentes ′ ′ ′ ′ a los estados (n, l, m , ε ) (n , l , m, ε) cuando (n, l) es diferente de (n′ , l′ ).
´ ELECTROSTATICA ´ 28.2. EFECTO DE LA REPULSION (2, 1, 1, +) (2, 1, 1, −) (2, 1, 1, +) (2, 1, 0, +) (2, 1, 1, +) (2, 1, 0, −) (2, 1, 1, +) (2, 1, −1, +) (2, 1, 1, +) (2, 1, −1, −) (2, 1, 0, +) (2, 1, 1, +) (2, 1, 0, +) (2, 1, 1, −) (2, 1, 0, +) (2, 1, 0, −) (2, 1, 0, +) (2, 1, −1, +) (2, 1, 0, +) (2, 1, −1, −) (2, 1, −1, +) (2, 1, 1, +) (2, 1, −1, +) (2, 1, 1, −) (2, 1, −1, +) (2, 1, 0, +) (2, 1, −1, +) (2, 1, 0, −) (2, 1, −1, +) (2, 1, −1, −)
629
(2, 1, 1, −) (2, 1, 1, +) (2, 1, 1, −) (2, 1, 0, +) (2, 1, 1, −) (2, 1, 0, −) (2, 1, 1, −) (2, 1, −1, +) (2, 1, 1, −) (2, 1, −1, −) (2, 1, 0, −) (2, 1, 1, +) (2, 1, 0, −) (2, 1, 1, −) (2, 1, 0, −) (2, 1, 0, +) (2, 1, 0, −) (2, 1, −1, +) (2, 1, 0, −) (2, 1, −1, −) (2, 1, −1, −) (2, 1, 1, +) (2, 1, −1, −) (2, 1, 1, −) (2, 1, −1, −) (2, 1, 0, +) (2, 1, −1, −) (2, 1, 0, −) (2, 1, −1, −) (2, 1, −1, +)
Cuadro 28.1: Conteo de la degeneraci´ on asociada a dos electrones en el ´ atomo de Helio que est´ an en la misma capa con n = n′ = 2 y l = l′ = 1. En este conteo aparecen 30 estados pero en virtud de la duplicaci´ on, solo 15 de ellos son estados f´ıscamente diferentes. Example 28.2 Veamos el caso de dos electrones en la misma capa con n = n′ = 2 y l = l′ = 1. Para cada estado con (2, 1, m, ε) fijo, hay 5 estados del tipo (2, 1, m′ , ε′ ) compatibles con el principio de exclusi´ on de Pauli, adem´ as hay 6 estados de la forma (2, 1, m, ε), con lo cual el conteo nos arroja 30 estados. El lector puede sin embargo apreciar que cada estado aparece dos veces. Por ejemplo aparecen (2, 1, 1, +) (2, 1, 1, −) y (2, 1, 1, −) (2, 1, 1, +). Hay entonces en total 15 estados f´ısicamente diferentes con la misma energ´ıa. El procedimiento de conteo se aprecia en la tabla 28.1
28.2.
Efecto de la repulsi´ on electrost´ atica
El siguiente paso es estudiar el efecto de W usando teor´ıa estacionaria de perturbaciones. Para ello, debemos diagonalizar la restricci´ on de W dentro del subespacio E (n, l; n′ l′ ). Los autovalores de la correspondiente matriz nos dar´ an la correcci´ on a primer orden en W de la energ´ıa Ec . Los autoestados asociados son de orden cero en W . Veremos que para calcular la matriz representativa de la restricci´ on de W , podemos escoger una base en la cual dicha matriz ya es diagonal.
28.2.1.
Base de E (n, l; n′ , l′ ) adaptada a las simetr´ıas de W
Nuestro Hamiltoniano tiene la forma del Hamiltoniano (16.5) P´ ag. 405 H = H1 (P1 , R1 ) + H2 (P2 , R2 ) + W (|R2 − R1 |)
(28.10)
En la secci´ on 16.2.1, P´ ag. 404 vimos que un Hamiltoniano de la forma (28.10) no conmuta con L(1) ni con L(2) (1) pero s´ı conmuta con L + L(2) . Las Ecs. (16.3, 16.8) nos dicen que para un Hamiltoniano de la forma (28.10) tenemos que h i Hi , L(k) = [H, L] = [W (|R2 − R1 |) , L] = 0 ; L ≡ L(1) + L(2) ; i, k = 1, 2 (28.11)
en particular
e2 [W, L] = ,L = 0 R12
(28.12)
´ CAP´ITULO 28. EL ATOMO DE HELIO
630
de modo que el momento angular total es una constante de movimiento, en tanto que el momento angular de cada electr´ on no lo es. Esto est´ a asociado al hecho de que una rotaci´ on que involucre a los dos electrones no cambia la distancia relativa R12 entre ellos. En contraste, una rotaci´ on que involucre a un solo electr´ on cambiar´ a en general a la cantidad R12 . Adicionalmente, puesto que ni H ni W dependen de variables de esp´ın, conmutar´ an con cualquier operador de esp´ın. En particular, tenemos que (28.13) [W, S] = 0 ; S ≡ S(1) + S(2) Por tanto, los operadores L2 , S2 , L3 , S3 , W forman un conjunto de observables conmutantes. Mostraremos que de hecho L2 , S2 , L3 , S3 forman un C.S.C.O. en el subespacio E (n, l; n′ , l′ ) de EA . La tarea ser´ a entonces encontrar una base com´ un de vectores propios de los 2 2 observables L , S , L3 , S3 y constru´ır con ellos la representaci´ on matricial de la restricci´ on de W al subespacio E (n, l; n′ , l′ ) de EA . Para ello recordamos que el espacio de Hilbert total E es el producto tensorial E (1) ⊗ E (2) relativo a una numeraci´ on arbitraria de los electrones. El subespacio E (n, l; n′ , l′ ) de EA se puede obtener antisimetrizando los kets del subespacio En,l (1) ⊗ En′ ,l′ (2) de E. Por tanto elegimos una base del subespacio En,l (1) ⊗ En′ ,l′ (2) en la forma o n E E ′ (1) (1) (1) (1) (28.14) ⊗ n′(2) , l (2) , m′(2) , ε′(2) ; con (n, l) , n′ , l′ fijos n , l , m , ε
con los cuales obtenemos los kets f´ısicos (28.6) antisimetrizando. N´ otese que en t´erminos de momento angular orbital y de esp´ın, los vectores (28.14) forman una base desacoplada, en la cual los n´ umeros cu´ anticos que est´ an bien definidos son momentos angulares parciales tanto en el sentido orbital y de esp´ın, como en el sentido de que est´ an asociados a cada part´ıcula. Sin embargo, las reglas de adici´ on del momento angular permiten definir otra base para el subespacio En,l (1) ⊗ on de En′ ,l′ (2) compuesta por vectores propios comunes a L2 , S2 , L3 , S3 definida completamente por la especificaci´ 3 los correspondientes valores propios . Esta base la denotaremos en la forma n E o (1) (1) ′(2) ′ (2) (28.15) n , l , n , l ; L, ML ⊗ |S, MS i donde las reglas de adici´ on de momentos angulares nos dicen que L = l + l′ , l + l′ − 1, . . . , l − l′
;
S = 1, 0
(28.16)
Ahora bien, de las expresiones
L2 =
h h i2 i2 L(1) + L(2) , S2 = S(1) + S(2) (1)
(2)
L3 = L3 + L3
(1)
(2)
, S3 = S3 + S3
se observa que L2 , S2 , L3 , S3 son operadores sim´etricos ya que todos ellos son invariantes bajo la permutaci´ on P21 4 2 2 de las dos part´ıculas . Por tanto, tales operadores conmutan con P21 . Esto a su vez implica que L , S , L3 , S3 conmutan con el operador antisimetrizador total. Por tanto, los vectores que resultan de la antisimetrizaci´ on de 2 2 (28.15) contin´ uan siendo autovectores de L , S , L3 , S3 con los mismos valores propios, aunque algunos de ellos podr´ıan aniquilarse al ser proyectados sobre EA , en cuyo caso el estado f´ısico queda descartado por el principio de exclusi´ on de Pauli, y no formar´ıa parte de la base del subespacio E (n, l; n′ , l′ ) que estamos construyendo. Los vectores no nulos que se obtienen al antisimetrizar a los vectores (28.15) son ortogonales puesto que corresponden 3
Esta es una base acoplada en el sentido de las part´ıculas. Pero en la que permanecen desacoplados los momentos angulares orbital y de esp´ın. 4 Recordemos que esta condici´ on garantiza que estos operadores son observables adecuados para part´ıculas id´enticas. Ver secci´ on 26.9.1, P´ ag. 609.
´ ELECTROSTATICA ´ 28.2. EFECTO DE LA REPULSION
631
a autovalores diferentes de al menos uno de los cuatro observables involucrados. Puesto que tales vectores antisim´etricos expanden a E (n, l; n′ , l′ ), ellos constituyen una base ortonormal de dicho subespacio, que denotamos en la forma n E o ′ ; con (n, l) , n′ , l′ fijos (28.17) n, l, n′ , l ; L, ML ; S, MS con
E n E o ′ ′ n, l, n′ , l ; L, ML ; S, MS = c (1 − P21 ) n(1) , l(1) , n′(2) , l (2) ; L, ML ⊗ |S, MS i
(28.18)
siendo c una constante de normalizaci´ on. Por tanto, L2 , S2 , L3 , S3 forman un C.S.C.O. en el subespacio E (n, l; n′ , l′ ) de EA . (S) Introduciremos ahora el operador permutaci´ on P21 que act´ ua solo sobre el espacio de esp´ın E E (S) P21 ε(1) ; ε′(2) ≡ ε′(1) ; ε(2)
(28.19)
Ahora bien, en la secci´ on 16.4.3 vimos que la base acoplada de esp´ın |S, MS i para s1 = s2 = 1/2 consta de un singlete con S = M = 0 1 |0, 0i = √ [|+, −i − |−, +i] (28.20) 2 y un triplete con S = 1 y tres valores distintos de MS 1 |1, 1i = |+, +i ; |1, 0i = √ [|+, −i + |−, +i] ; |1, −1i = |−−i 2
(28.21)
adem´ as en dicha secci´ on vimos que el estado singlete es antisim´etrico bajo el intercambio de ε y ε′ en tanto que los estados del triplete son sim´etricos bajo tal intercambio, como se v´e claramente de las Ecs. (28.20, 28.21). Podemos sintetizar estos resultados con la ecuaci´ on (S)
P21 |S, MS i = (−1)S+1 |S, MS i
(28.22)
(0)
si ahora definimos la permutaci´ on P21 como el operador permutaci´ on en el espacio de estados de las variables orbitales, tenemos que (0)
(S)
P21 = P21 ⊗ P21
y aplicando las Ecs. (28.22, 28.23), la ecuaci´ on (28.18) queda en la forma E n h i Eo ′ S+1 (0) (1) (1) ′(2) ′ (2) P21 n , l , n , l ; L, ML ⊗ |S, MS i n, l, n′ , l ; L, ML ; S, MS = c 1 − (−1)
28.2.2.
(28.23)
(28.24)
Restricciones impuestas por el postulado de simetrizaci´ on
La dimensi´ on del espacio En,l (1) ⊗ En′ ,l′ (2) es obviamente 4 (2l + 1) (2l′ + 1). Sin embargo, esa no es necesariamente la dimensi´ on del espacio E (n, l; n′ , l′ ) ya que algunos kets de la base de En,l (1) ⊗ En′ ,l′ (2) pueden tener proyecci´ on nula sobre E (n, l; n′ , l′ ). Veremos en que casos aparecen algunas proyecciones nulas. Estudiaremos primero el caso en el cual los dos electrones no ocupan la misma capa de modo que n 6= n′ y/o l 6= l′ . En este caso, la parte orbital de (28.24) es una suma o diferencia entre dos kets ortogonales y por tanto nunca es cero. Lo mismo ocurre para la parte espinorial |S, MS i, de modo que todos los valores posibles de L y S√ dados por la Ec. (28.16) generan vectores no nulos. En este caso la constante de normalizaci´ on c en (28.24) es 1/ 2. Por ejemplo, para la configuraci´ on 1s, 2s; tenemos que n 6= n′ y que l = l′ = 0. En este caso podemos tener S = 0, L = 0 y S = 1, L = 0. Para la configuraci´ on 1s, 2p podemos tener S = 0, L = 1, y S = 1, L = 1.
´ CAP´ITULO 28. EL ATOMO DE HELIO
632
A continuaci´ on escribiremos el vector puramente orbital n(1) , l(1) ; n′(2) , l′(2) ; L, ML [donde (n, l) y (n′ , l′ ) son fijos], utilizando la completez dentro del espacio En,l ⊗ En′ ,l′ en la forma " # E ED X X (1) (1) ′(2) ′(2) (1) (1) (1) ′(2) ′(2) ′(2) (1) (1) (1) ′(2) ′(2) ′(2) = n ,l ,m ;n ,l ,m × n , l ; n , l ; L, ML n , l , m ; n , l , m m
′
m E (1) (1) ′(2) ′(2) n , l ; n , l ; L, ML E X X = n(1) , l(1) , m(1) ; n′(2) , l′(2) , m′(2) m
′
m
′
m
m′
m E D n(1) , l(1) , m(1) ; n′(2) , l′(2) , m′(2) n(1) , l(1) ; n′(2) , l′(2) ; L, ML E X X = n(1) , l(1) , m(1) ; n′(2) , l′(2) , m′(2)
m D E × l(1) , m(1) ; l′(2) , m′(2) l(1) ; l′(2) ; L, ML E E
X X (1) (1) ′(2) ′(2) = n , l ; n , l ; L, ML n(1) , l(1) , m(1) ; n′(2) , l′(2) , m′(2) l, l′ ; m, m′ l, l′ ; L, ML
En notaci´ on de coeficientes de Clebsch-Gordan escribimos E XX E (1) (1) ′(2) ′(2) (1) (1) (1) ′(2) ′(2) ′(2)
m, m′ n , l ; n , l ; L, ML = n , l , m ; n , l , m m
m′
l, l′
L, ML
(28.25)
donde hm, m′ (l, l′ ) L, ML i es el coeficiente de Clebsch-Gordan que genera el cambio de base. Ahora supondremos que n = n′ y l = l′ de modo que ambos electrones ocupan la misma capa. En tal caso algunos de los kets en (28.24) pueden ser nulos. Haciendo n = n′ y l = l′ esta expresi´ on se reduce a E XX E
(1) (1) (2) (2) (1) (1) (1) (2) (2) ′(2) m, m′ (l, l) L, ML (28.26) n , l ; n , l ; L, ML = n , l , m ; n , l , m m
m′
El coeficiente de Clebsch-Gordan asociado posee la siguiente propiedad
m, m′ (l, l) L, ML = (−1)L m′ , m (l, l) L, ML
(28.27)
Combinando las Ecs. (28.26) y (28.27), se obtiene E E XX
(0) (0) P21 n(1) , l(1) ; n(2) , l(2) ; L, ML = m, m′ (l, l) L, ML P21 n(1) , l(1) , m(1) ; n(2) , l(2) , m′(2) m
=
m
=
m′
XX
m′
XX m
m, m′ (l, l) L, ML L
(−1)
m′
(1) (1) ′(1) (2) (2) (2) E n , l , m ; n , l , m
(1) (1) ′(1) (2) (2) (2) E m , m (l, l) L, ML n , l , m ; n , l , m ′
intercambiando las variables mudas m y m′ , tenemos que E E XX
(0) P21 n(1) , l(1) ; n(2) , l(2) ; L, ML = (−1)L m, m′ (l, l) L, ML n(1) , l(1) , m(1) ; n(2) , l(2) , m′(2) m
m′
y utilizando nuevamente las ecuaciones (28.26) se obtiene finalmente E E (0) P21 n(1) , l(1) ; n(2) , l(2) ; L, ML = (−1)L n(1) , l(1) ; n(2) , l(2) ; L, ML
(28.28)
´ ELECTROSTATICA ´ 28.2. EFECTO DE LA REPULSION
633
sustituyendo (28.28) en (28.24) para n = n′ y l = l′ , resulta n h i Eo (0) |n, l, n, l; L, ML ; S, MS i = c 1 − (−1)S+1 P21 n(1) , l(1) , n(2) , l(2) ; L, ML ⊗ |S, MS i n h i Eo = c 1 − (−1)L+S+1 n(1) , l(1) , n(2) , l(2) ; L, ML ⊗ |S, MS i de lo cual se obtiene (tomando la constante de normalizaci´ on como c = 1/2) si (1) (1) (2) (2)0 |n, l, n, l; L, ML ; S, MS i = n , l , n , l ; L, ML ⊗ |S, MS i si
L + S es impar L + S es par
(28.29)
En consecuencia, cuando los dos electrones est´ an en la misma capa, L y S no pueden ser arbitrarios, ya que L + S debe ser par. En particular, para la configuraci´ on 1s2 , tenemos que L = 0, por tanto es necesario que S = 0, y el valor S = 1 est´ a exclu´ıdo, en concordancia con lo encontrado en la secci´ on 28.1.1 [ver Ec. (28.9) P´ ag. 628 y discusi´ on posterior]. Adicionalmente, se observa que el postulado de simetrizaci´ on introduce una correlaci´ on entre la simetr´ıa de la parte orbital y la simetr´ıa de la parte espinorial del ket f´ısico (28.24). Dado que el ket total debe ser antisim´etrico, se tiene que la parte orbital asociada a S = 0 (singlete espinorial antisim´etrico) debe corresponder a un ket orbital sim´etrico, en tanto que S = 1 (triplete espinorial sim´etrico) debe corresponder a un ket orbital antisim´etrico. Veremos que esto tiene consecuencias fenomenol´ ogicas importantes.
28.2.3.
T´ erminos espectrales generados por la repulsi´ on electrost´ atica
El t´ermino W conmuta con los cuatro observables L2 , L3 , S2 , S3 , los cuales forman un C.S.C.O. dentro de on de W dentro de dicho subespacio es diagonal en la base E (n, l; n′ , l′ ). Se sigue entonces que la restricci´ n, l; n′ , l′ ; L, ML ; S, MS y sus autovalores vienen dados por
δ (L, S) = n, l; n′ , l′ ; L, ML ; S, MS W n, l; n′ , l′ ; L, ML ; S, MS
(28.30)
Esta energ´ıa no depende de ML ni de MS ya que las ecuaciones (28.11, 28.13) nos dicen que W conmuta con L y S, o equivalentemente con L3 , L± y con S3 , S± . Por tanto W es un operador escalar tanto en el espacio de estados orbitales como en el espacio de estados espinoriales. Dentro de cada configuraci´ on nl, n′ l′ obtenemos niveles de energ´ıa del tipo Ec n, l; n′ , l′ + δ (L, S) (28.31)
que denotamos por sus valores de L y S, siendo Ec (n, l; n′ , l′ ) los niveles obtenidos con la aproximaci´ on de campo central. Cada nivel tiene una degeneraci´ on de orden (2L + 1) (2S + 1). Estos niveles se denominan t´ erminos espectrales, y se denotan de la siguiente forma: Para cada valor de L asociamos en notaci´ on espectrosc´ opica una letra del alfabeto, escribimos la correspondiente letra en may´ uscula y le a˜ nadimos en la parte superior izquierda un n´ umero igual a 2S + 1. Veamos los siguientes ejemplos La configuraci´ on 1s2 conduce a un solo t´ermino espectral que escribimos en la forma 1 S, ya que como hemos visto el t´ermino 3 S (asociado a esp´ın uno) est´ a prohibido por el principio de exclusi´ on de Pauli. La configuraci´ on 1s, 2s genera dos t´erminos 1 S (no degenerado) y 3 S (triplemente degenerado). La configuraci´ on 1s, 2p genera dos t´erminos 1 P (degeneraci´ on 3) y 3 P (degeneraci´ on 9). Para la configuraci´ on m´ as compleja 2p2 obtenemos los t´erminos espectrales 1 S, 1 D y 3 P (recordemos que L + S tiene que ser par, ya que los dos electrones est´ an en la misma capa). En conclusi´ on, bajo el efecto de la repulsi´ on electrost´ atica, la degeneraci´ on de cada configuraci´on se remueve parcialmente. La configuraci´ on 1s2 que no es degenerada simplemente sufre un corrimiento.
´ CAP´ITULO 28. EL ATOMO DE HELIO
634
28.3.
T´ erminos espectrales que surgen de la configuraci´ on 1s, 2s
Veremos que los dos t´erminos 1 S y 3 S que surgen de la configuraci´ on 1s, 2s y cuyos valores de esp´ın total son diferentes, tienen energ´ıas diferentes a pesar de que el Hamiltoniano original es puramente electrost´ atico. Vamos a discutir el origen de dicha diferencia. En la configuraci´ on 1s, 2s tenemos que n = 1, n′ = 2 y l = l′ = L = 0. Aplicando esto en la Ec. (28.25) se obtiene E XX E (1) (1) ′(2) ′(2) (1) (1) (1) ′(2) ′(2) ′(2)
m, m′ l, l′ L, ML ⇒ n , l ; n , l ; L, ML = n , l , m ; n , l , m m
m′
E (1) n = 1, l(1) = 0; n′(2) = 2, l′(2) = 0; L = 0, ML = 0 E = n(1) = 1, l(1) = 0, m(1) = 0; n′(2) = 2, l′(2) = 0, m′(2) = 0 h0, 0 (0, 0) 0, 0i
donde hemos tenido en cuenta que para l = l′ = 0, solo es posible que m = m′ = 0. El coeficiente de Clebsch Gordan es la unidad en este caso. Obtenemos entonces E E (1) n = 1, l(1) = 0; n′(2) = 2, l′(2) = 0; L = ML = 0 = n(1) = 1, l(1) = m(1) = 0; n′(2) = 2, l′(2) = m′(2) = 0 (28.32) este vector lo podemos escribir en notaci´ on simplificada como 1s(1) ; 2s(2) . Ya vimos que la configuraci´ on 1s, 2s produce dos t´erminos espectrales 1 S (no degenerado) y 3 S (triplemente degenerado). Los estados asociados a los dos t´erminos espectrales los denotaremos por 1 S, 0 , 3 S, MS ; MS = 1, 0, −1 (28.33)
debe tenerse cuidado de no confundir la letra S cuando denota esp´ın total, i.e. el valor propio asociado al operador 2 2 S2 ≡ S(1) + S(2) , o cuando denota que el momento angular orbital total es cero. En notaci´ on espectrosc´ opica on el estado 3 S se refiere a que el esp´ın total es S = 1 (2S + 1 = 3), y el momento angular es L = 0 (que en notaci´ espectrosc´ opica es la letra S). Por ahora estos vectores tienen una asignaci´ on espec´ıfica a una part´ıcula de modo que deben ser antisimetrizados. Para ello se utiliza la Ec. (28.24) E n h i Eo S+1 (0) (1) (1) ′(2) ′ (2) ′ ′ P21 n , l , n , l ; L, ML ⊗ |S, MS i (28.34) n, l, n , l ; L, ML ; S, MS = c 1 − (−1)
con n = 1, n′ = 2 y l = l′ = 0, el estado singlete en (28.33) con S = MS = 0 (t´ermino espectral 1 S), viene dado por 1 S, 0 ≡ 1 S, 0 =
E ′ n = 1, l = 0, n′ = 2, l = 0; L = ML = 0; S = MS = 0 n h i Eo ′ (0) c 1 − (−1)1 P21 n(1) = 1, l(1) = 0, n′(2) = 2, l (2) = 0; L = ML = 0 ⊗ |S = 0, MS = 0i
Y utilizando el vector (28.32) en notaci´ on simplificada como 1s(1) ; 2s(2) , esta ecuaci´ on se puede reescribir como
nh i Eo 1 (0) S, 0 = √1 1 + P21 1s(1) ; 2s(2) ⊗ |S = 0, MS = 0i 2 √ donde hemos usado c = 1/ 2 2 . Para el triplete en (28.33) con S = 1 y MS = 1, 0, −1, la Ec. (28.34) nos da E 3 S, MS ≡ n = 1, l = 0, n′ = 2, l′ = 0; L = ML = 0; S = 1, MS n h i Eo 3 ′ (0) S, MS = c 1 − (−1)2 P21 n(1) = 1, l(1) = 0, n′(2) = 2, l (2) = 0; L = ML = 0 ⊗ |S = 1, MS i
´ ´ 1S, 2S 28.3. TERMINOS ESPECTRALES QUE SURGEN DE LA CONFIGURACION
635
una vez m´ as en notaci´ on simplificada i Eo nh 3 (0) S, MS = √1 ⊗ |S = 1, MS i ; MS = 1, 0, −1 1 − P21 1s(1) ; 2s(2) 2
en s´ıntesis, los estados f´ısicos (antisimetrizados) en notaci´ on espectrosc´ opica est´ an dados por nh i Eo 3 (0) S, MS = √1 1 − P21 1s(1) ; 2s(2) ⊗ |S = 1, MS i ; MS = 1, 0, −1 2 nh i Eo 1 (0) S, 0 = √1 1 + P21 1s(1) ; 2s(2) ⊗ |S = 0, MS = 0i 2
(28.35) (28.36)
los autovalores de W de la Ec. (28.30) quedan
δ 3 S = 3 S, MS W 3 S, MS io i hnh i Eo i 1 hnD (1) (2) h (0)† (0) (1) 3 1s ; 2s 1 − P21 ⊗ hS = 1, MS | W 1 − P21 1s ; 2s(2) ⊗ |S = 1, MS i δ S = 2 (0)
teniendo en cuenta que W no act´ ua sobre variables de esp´ın y que P21 es herm´ıtico, resulta i h i E
1 D (1) (2) h (0) (0) δ 3 S = 3 S, MS W 3 S, MS = 1s ; 2s 1 − P21 W 1 − P21 1s(1) ; 2s(2) hS = 1, MS |S = 1, MS i 2 1 similarmente se calcula δ S . Obtenemos entonces i h i E 1 D (1) (2) h (0) (0) 1s ; 2s 1 − P21 W 1 − P21 1s(1) ; 2s(2) (28.37) δ 3S = 2 i h i E 1 D (1) (2) h (0) (0) δ 1S = 1s ; 2s 1 + P21 W 1 + P21 1s(1) ; 2s(2) (28.38) 2 (0)
Y teniendo en cuenta que P21 es nilpotente y conmuta con W , tenemos h i (0) (0) (0) (0) (0) 2 (0) (0) 1 ± P21 W 1 ± P21 = 1 ± P21 1 ± P21 W = 1 + P21 ± 2P21 W = 2 ± 2P21 W (0) (0) (0) = 2 1 ± P21 W (28.39) 1 ± P21 W 1 ± P21 aplicando (28.39) en las Ecs. (28.37, 28.38) obtenemos D E (0) δ 3S = 1s(1) ; 2s(2) 1 − P21 W 1s(1) ; 2s(2) D E D (1) (2) (1) (2) (1) (2) = 1s ; 2s W 1s ; 2s − 2s ; 1s W D E (0) δ 1S = 1s(1) ; 2s(2) 1 + P21 W 1s(1) ; 2s(2) D E D = 1s(1) ; 2s(2) W 1s(1) ; 2s(2) + 2s(1) ; 1s(2) W
que se puede escribir en la forma δ 3S = K − J ; δ 1S = K + J D E K ≡ 1s(1) ; 2s(2) W 1s(1) ; 2s(2)
;
E (1) (2) 1s ; 2s E (1) (2) 1s ; 2s
E J ≡ 2s(1) ; 1s(2) W 1s(1) ; 2s(2) D
(28.40) (28.41)
al sustituir (28.40) en (28.31), se observa que K representa un corrimiento de la energ´ıa como un todo, y no genera un desdoblamiento. En contraste, se observa que el t´ermino J s´ı introduce una diferencia de energ´ıa entre los t´erminos 1 S y 3 S. N´ otese que con respecto a K, el t´ermino J es un t´ermino de intercambio. El c´ alculo num´erico a por encima del nivel (no perturbado) muestra que K − J es positivo de modo que el nivel 3 S (perturbado) est´ 1s, 2s. As´ı mismo J es positivo de modo que el nivel 1 S est´ a por encima del nivel 3 S y el desdoblamiento est´ a dado por 2J ≈ 0,8eV. Estos hechos se ilustran en la Fig. 28.1
´ CAP´ITULO 28. EL ATOMO DE HELIO
636
Figura 28.1: Ilustraci´ on de la posici´ on relativa de los t´erminos espectrales que surgen de la configuraci´ on 1s, 2s del atomo de helio. El t´ermino directo Krepresenta un corrimiento del nivel como un todo, en tanto que J genera un ´ desdoblamiento, y por tanto una remoci´ on parcial de la degeneraci´ on.
28.3.1.
La integral de intercambio
Puesto que el t´ermino J (conocido como integral de intercambio) es el que genera el desdoblamiento, y por tanto la remoci´ on parcial de la degeneraci´ on, vamos a estudiarlo en mayor detalle. Recordando la forma de la perturbaci´ on para la aproximaci´ on de campo central Ec. (28.4) W
= F (R1 ) + F (R2 ) +
F (R) ≡ −
2e2 − Vc (R) R
e2 |R1 − R2 |
(28.42) (28.43)
la integral de intercambio J de la Ec. (28.41) queda D E e2 (1) (2) (1) (2) J ≡ 2s ; 1s F (R1 ) + F (R2 ) + 1s ; 2s |R1 − R2 | D E D E (1) (2) (1) (2) (1) (2) J = 2s ; 1s F (R1 ) 1s ; 2s + 2s ; 1s F (R2 ) 1s(1) ; 2s(2) D E e2 (1) (2) + 2s(1) ; 1s(2) 1s ; 2s |R − R | 1 ED 2 D E D ED E J = 2s(1) F (R1 ) 1s(1) 1s(2) 2s(2) + 1s(2) F (R2 ) 2s(2) 2s(1) 1s(1) D E e2 (1) (2) + 2s(1) ; 1s(2) 1s ; 2s |R1 − R2 |
(2) (2) (1) (1) pero es claro que 1s 2s = 2s 1s = 0, ya que son productos internos de estados ortogonales (estados con diferente valor de n). Por tanto, solo el t´ermino repulsivo contribuye a la integral de intercambio5 D J = 2s(1) ; 1s(2)
E e2 (1) (2) 1s ; 2s |R1 − R2 |
(28.44)
Denotaremos por ϕn,l,m (r) a las funciones de onda asociadas al estado estacionario |n, l, mi de un electr´ on en el potencial Vc 2 P + Vc (R) |n, l, mi = En,l |n, l, mi ; ϕn,l,m (r) ≡ hr |n, l, mi (28.45) 2m 5
N´ otese que para la integral K contribuyen en general todos los t´erminos, esto permite entender al menos cualitativamente porque K es mayor que J.
´ ´ 1S, 2S 28.3. TERMINOS ESPECTRALES QUE SURGEN DE LA CONFIGURACION
637
en la base {|ri} el c´ alculo de J de la Ec. (28.44) involucra a la integral J=
Z
3
d r1
Z
d3 r2 ϕ∗2,0,0 (r1 ) ϕ∗1,0,0 (r2 )
e2 ϕ1,0,0 (r1 ) ϕ2,0,0 (r2 ) |r1 − r2 |
(28.46)
no realizaremos el c´ alculo expl´ıcito de esta integral6 . Sin embargo, es importante observar que el valor num´erico de esta integraci´ on es positivo y J ≈ 0,4 eV. Las ecuaciones (28.35, 28.36) junto con las expresiones (28.37, 28.38) nos muestran el origen de la separaci´ on de los niveles de energ´ıa entre los t´erminos 3 S y 1 S. El origen de este desdoblamiento yace en las diferencias entre las propiedades de simetr´ıa de las partes orbitales de dichos t´erminos. Puesto que el triplete espinorial (S = 1, MS = 1, 0, −1) es sim´etrico, el postulado de simetrizaci´ on exige que la parte orbital asociada sea antisim´etrica, (0) originando el signo (−) para P21 en las Ecs. (28.35, 28.37). An´ alogamente, el singlete espinorial (S = 0, MS = 0) (0) es antisim´etrico y por tanto la parte orbital debe ser sim´etrica, originando el signo (+) para P21 en las Ecs. (28.36, 28.38). Lo anterior permite explicar porqu´e la energ´ıa del t´ermino 1 S es mayor que la del t´ermino 3 S. Para el t´ermino singlete, la funci´ on de onda orbital es sim´etrica con respecto al intercambio de los dos electrones, lo cual implica una probabilidad diferente de cero de que ambos electrones est´en en el mismo punto del espacio. Por esta raz´ on, 2 la energ´ıa electrost´ atica repulsiva e / |r1 − r2 | , que es grande para valores peque˜ nos de la distancia relativa entre los electrones, se v´e significativamente incrementada para el estado singlete. De otra parte, para el estado triplete, la funci´ on de onda orbital es antisim´etrica con respecto al intercambio de los dos electrones, implicando una probabilidad nula de que los electrones est´en en el mismo punto del espacio. Por tanto, el valor medio de la distancia relativa entre los electrones es mayor, y por tanto es menor el valor medio de la repulsi´ on electrost´ atica. Es interesante observar de la anterior discusi´ on que a pesar de que W no depende del esp´ın, el desdoblamiento que este operador produce tiene su origen en el valor total del esp´ın, ya que dependiendo de dicho valor tendremos una simetr´ıa diferente para el t´ermino orbital, en virtud del postulado de simetrizaci´ on.
28.3.2.
An´ alisis del papel del postulado de simetrizaci´ on
A priori, podr´ıa pensarse que el postulado de simetrizaci´ on es el responsable del desdoblamiento entre los 1 3 niveles S y S. Veremos sin embargo que no es as´ı. Encontraremos que este postulado simplemente fija el valor del esp´ın total de los t´erminos que surgen de una configuraci´ on dada en virtud de la repulsi´ on electrost´ atica entre los electrones. Para verlo, supongamos que uno de los electrones es reemplazado por una part´ıcula (imaginaria hasta donde sabemos) que tenga la misma carga, masa y esp´ın del electr´ on, pero que posea alg´ un n´ umero cu´ antico intr´ınseco adicional que lo diferencie de los electrones. N´ otese que el Hamiltoniano (28.2) tendr´ a exactamente la misma alculos y simplemente forma7 . Por otro lado, puesto que H no depende del esp´ın, podemos ignorar el esp´ın en los c´ multiplicar por 4 las degeneraciones asociadas. El nivel de energ´ıa asociado a H0 en (28.3) correspondiente a la configuraci´ es desde el punto de vista orbital, debido a que los dos estados on(1)1s, 2s (1) (2)degenerado doblemente (2) ortogonales 1s , 2s y 2s , 1s son dos estados f´ısicamente diferentes (cuando las part´ıculas eran id´enticas se consideraban iguales) asociados a dicha configuraci´ on. Para estudiar el efecto de W perturbativamente, diagonalizamos la restricci´ on de W en el espacio dos dimensional expandido por estos dos kets. La matriz asociada 6
Es importante observar que aunque la integral de intercambio no depende expl´ıcitamente de Vc (R), s´ı depende impl´ıcitamente de dicho potencial. Para verlo, basta con observar que las funciones de onda que aparecen en (28.46) son soluciones de la ecuaci´ on (28.45) que depende de Vc (R). 7 Por supuesto que si una part´ıcula as´ı existiera, tendr´ıa que existir alguna contribuci´ on en el Hamiltoniano debida a la propiedad intr´ınseca adicional, que estar´ıamos despreciando.
´ CAP´ITULO 28. EL ATOMO DE HELIO
638 es entonces W1s,2s W1s,2s
(1) (2)
1s(1) ; 2s(2) W = 2s ; 1s W (1) (2)
1s(1) ; 2s(2) W = 2s ; 1s W
(1) (2) 1s ; 2s (1) (2) 1s ; 2s (1) (2) 1s ; 2s (1) (2) 1s ; 2s
(1) (2)
1s(1) ; 2s(2) W 2s ; 1s W
(1) (2)
2s(1) ; 1s(2) W 1s ; 2s W
(1) (2) 2s ; 1s (1) (2) 2s ; 1s (1) (2) 1s ; 2s (1) (2) 1s ; 2s
donde la u ´ltima igualdad es debida a que W es invariante bajo el intercambio de las dos part´ıculas (incluso cuando son distinguibles), de modo que las integrales J y K tambi´en son invariantes bajo dicho intercambio [ver por ejemplo la Ec. (28.46)]. Por tanto, esta matriz se puede escribir exclusivamente en t´erminos de J y K W1s,2s =
K J J K
esta matriz se diagonaliza de inmediato y se obtienen los valores propios K + J y K respectivamente − J, asociados con la combinaci´ on lineal sim´etrica y antisim´etrica de los dos kets 1s(1) , 2s(2) y 2s(1) , 1s(2) . N´ otese sin embargo que no hemos antisimetrizado y de hecho hemos tratado a los dos kets anteriores como f´ısicamente distintos. Por tanto, el hecho de que estos autoestados orbitales tengan una simetr´ıa bien definida relativa al intercambio de las part´ıculas, no tiene nada que ver con el postulado de simetrizaci´ on ni con el principio de exclusi´ on de Pauli. (0) Este hecho solo surge de que W conmuta con P21 de modo que podemos encontrar autoestados comunes a W y (0) P21 . N´ otese en consecuencia que al ignorar el postulado de simetrizaci´ on, es posible acoplar el estado orbital sim´etrico con el estado espinorial sim´etrico (triplete), as´ı como acoplar el estado orbital antisim´etrico con el estado espinorial antisim´etrico (singlete). En s´ıntesis, cuando las dos part´ıculas no son id´enticas obtenemos el mismo arreglo de niveles y la misma simetr´ıa orbital anterior. Sin embargo, la degeneraci´ on de los niveles es diferente ya que no hay estados linealmente independientes que sean aniquilados por el antisimetrizador. En el caso distinguible, el nivel m´ as bajo puede tener esp´ın total S = 0 ´ o S = 1, lo mismo ocurre con el nivel m´ as alto K + J. Volviendo de nuevo al ´ atomo de Helio real vemos que el principio de exclusi´ on de Pauli no es el responsable del desdoblamiento del nivel 1s, 2s en dos niveles K ± J, pues hemos visto que este desdoblamiento tambi´en aparece cuando se consideran distinguibles las part´ıculas en cuesti´ on. Esto se debe a que el car´ acter sim´etrico o antisim´etrico de la parte orbital de la funci´ on de onda, se relaciona con la invarianza de la interacci´ on electrost´ atica bajo la permutaci´ on de dos electrones. Lo que hace el principio de exclusi´ on de Pauli es prohibir que el estado m´ as bajo tenga esp´ın total S = 0, y que el nivel m´ as alto tenga esp´ın S = 1, dado que en estos dos casos el estado ser´ıa globalmente sim´etrico lo cual est´ a prohibido para fermiones por el postulado de simetrizaci´ on, y por tanto por el principio de exclusi´ on de Pauli. En otras palabras, con o sin distinguibilidad obtenemos funciones de onda con simetr´ıa de permutaci´ on global bien definida, y al aplicar el antisimetrizador se anulan los estados globalmente sim´etricos, dejando intactos los estados globalmente antisim´etricos.
28.3.3.
Hamiltoniano efectivo dependiente del esp´ın
Si reemplazamos a W por el operador f = α + βS(1) · S(2) W
(28.47)
donde S(1) y S(2) denotan el esp´ın de cada electr´ on, tenemos que S2 = S(1) · S(2) =
h
i2 2 2 S(1) + S(2) = S(1) + S(2) + 2S(1) · S(2) ⇒ 2 2 S2 − S(1) − S(2) 2
(28.48) (28.49)
´ ´ 1S, 2S 28.3. TERMINOS ESPECTRALES QUE SURGEN DE LA CONFIGURACION
639
sin embargo debemos tener en cuenta que el esp´ın de los electrones es intr´ınseco, de modo que para todo ket de estado que describa a este sistema de dos electrones y que incluya a los espinores, se tiene que s(1) = s(2) ≡ s = 1/2. Por tanto 2 2 h i 3 (1) (2) S + S |. . .i = ~2 s(1) s(1) + 1 + s(2) s(2) + 1 |. . .i = 2~2 [s (s + 1)] |. . .i = ~2 |. . .i 2 como esto es v´ alido para todos los kets que describen nuestro sistema, tenemos que para nuestros prop´ ositos se puede escribir8 2 2 3 S(1) + S(2) ≡ ~2 1 (28.50) 2 sustituyendo (28.50) en (28.49) se tiene que S(1) · S(2) =
S2 3 2 − ~ 2 4
f definido por (28.47) queda por tanto el operador W 3β~2 β β 3β~2 f W = α− + S2 ≡ κ + S2 ; κ ≡ α − 4 2 2 4
este operador claramente act´ ua de manera no trivial solo sobre los espinores. Puesto que (β/2) S2 es proporcional a S2 , posee los mismos vectores propios |S, MS i de S2 con valores propios dados por (β/2) ~2 S (S + 1) β 2 β 2 2 2 S |S, MS i = ~ S (S + 1) |S, MS i ⇔ S |S, MS i = ~ S (S + 1) |S, MS i 2 2 f solo difiere de (β/2) S2 por un operador proporcional a la identidad κ1, se tiene Adicionalmente, puesto que W que posee los mismos vectores propios con valores propios dados por β 2 β 2 β 2 β 2 S |S, MS i = ~ S (S + 1) |S, MS i ⇔ κ + S |S, MS i = κ + ~ S (S + 1) |S, MS i 2 2 2 2 y teniendo en cuenta la definici´ on de κ 3β~2 β 3β~2 β 2 α− + S2 |S, MS i = α − + ~ S (S + 1) |S, MS i 4 2 4 2 de manera que los vectores propios son el triplete |S = 1, MS i y el singlete |S = 1, MS = 0i con valores propios 3β~2 β~2 + β~2 = α + 4 4 3β~2 |S = 0, MS = 0i → α − 4
|S = 1, MS = 1, 0, −1i → α −
finalmente si redefinimos
J ; 2 los valores propios asociados al triplete y singlete quedan α≡K−
β≡−
2J ~2
J 2J ~2 − 2 =K −J 2 ~ 4 J 2J 3~2 |0, 0i → K − + 2 =K +J 2 ~ 4
|1, MS i → K −
8
Para una discusi´ on similar asociada al esp´ın de una sola part´ıcula, ver Eq. (15.9), P´ ag. 391, y la discusi´ on alrededor.
(28.51) (28.52)
(28.53)
´ CAP´ITULO 28. EL ATOMO DE HELIO
640
f obtenemos los mismos autoestados y autovalores que encontramos con el operador por tanto, al diagonalizar W f (Hamiltoniano W definido en (28.4), como se puede ver de la Ec. (28.40). En un sentido efectivo, el potencial W efectivo) act´ ua de manera an´ aloga al potencial real W . Ahora bien, el Hamiltoniano efectivo (28.47) tiene la forma de la interacci´ on magn´etica entre dos espines. Sin embargo, no es correcto decir que la energ´ıa de acople entre los electrones que son responsables de la aparici´ on de los dos t´erminos K ± J, sea de origen magn´etico. Un an´ alisis de ordenes de magnitud muestra que dos momentos magn´eticos iguales a los del electr´ ´ on y colocados a una distancia del orden de 1 Armstrong entre ellos, tendr´ıan una energ´ıa de interacci´ on mucho menor que J. f , hace que este Hamiltoniano efectivo se utilice A pesar de lo anterior, la simplicidad de la estructura de W con frecuencia en lugar de W . Debe tenerse presente sin embargo, que es un t´ermino efectivo que no nos describe a priori el verdadero origen de la interacci´ on. Por ejemplo, una construcci´ on similar se hace para la descripci´ on de materiales ferromagn´eticos, en los cuales los espines tienen la tendencia a alinearse paralelamente entre ellos. Puesto que el estado de esp´ın ser´ıa completamente sim´etrico (espines todos arriba o abajo), el principio de exclusi´ on de Pauli requiere que el estado orbital sea completamente antisim´etrico. Por las mismas razones que en el ´ atomo de Helio, la energ´ıa de repulsi´ on electr´ onica es entonces m´ınima. Para estudiar este fen´ omeno se suele utilizar Hamiltonianos efectivos de la forma (28.47). Sin embargo, una vez m´ as debe notarse que el origen de la interacci´ on es tambi´en electrost´ atico y no magn´etico.
28.4.
T´ erminos espectrales que surgen de otras configuraciones excitadas
El segundo nivel excitado corresponde a la configuraci´ on 1s, 2p. Para esta configuraci´ on podemos hacer un tratamiento an´ alogo. En este caso tenemos L = 1 de modo que ML = 1, 0, ´ o −1. Ahora bien, puesto que para la configuraci´ on 1s, 2p las capas ocupadas por los dos electrones son diferentes (n 6= n′ y l 6= l′ ), los dos t´erminos 3 P 1 y P existen simult´ aneamente, donde 3 P es nueve veces degenerado y 1 P tiene degeneraci´ on triple. Un an´ alisis similar al realizado para la configuraci´ on 1s, 2s muestra que para la configuraci´ on 1s, 2p el t´ermino 3 P posee una energ´ ıa m´ as baja que la del t´ermino 1 P , y que la diferencia de energ´ıas es proporcional a la integral de intercambio an´ aloga a la obtenida en (28.46). Un estudio similar se puede realizar para las dem´ as configuraciones del tipo 1s, n′ l′ .
28.5.
Validez del tratamiento perturbativo
A priori, para que W pueda tratarse coherentemente en forma perturbativa con respecto a H0 , es necesario que los corrimientos de energ´ıa asociados con W [por ejemplo la integral de intercambio (28.46)] sean mucho menores que las diferencias de energ´ıa entre configuraciones (no perturbadas). Sin embargo, este no es el caso. Por ejemplo, para la configuraci´ on 1s, 2s, los t´erminos (perturbados) 1 S y 3 S tienen una diferencia de energ´ıa dada por E (1s, 2s)
1
− E (1s, 2s)
− E (1s, 2s)
S
3
S ≃ 0,8eV
en tanto que la m´ınima distancia entre los niveles (no perturbados) 1s, 2s y 1s, 2p, est´ a dada por E (1s, 2p)
3
P
1
S ≃ 0,35eV
Es notable que a pesar de lo anterior, el tratamiento hecho anteriormente es adecuado. Esto se debe a que para configuraciones del tipo 1s, n′ l′ tenemos que L = l′ (puesto que l = 0). En consecuencia, dado que W conmuta con L, posee elementos matriciales nulos entre estados con diferentes valores de L. En particular, W tiene elementos matriciales nulos entre estados de la configuraci´ on 1s, 2s y 1s, 2p. Vemos por tanto que W acopla una configuraci´ on 1s, n′ l′ solo a una configuraci´ on del tipo 1s, n′′ l′ (dos capas distintas que solo difieren en el valor de n), o del tipo nl, n′′ l′′ con n y n′′ diferentes de uno. Este u ´ltimo caso solo ocurre cuando l y l′′ se adicionan para dar l′ , y corresponder´ıa a estados doblemente excitados.
´ 28.6. ESTRUCTURA FINA DEL ATOMO DE HELIO Y MULTIPLETES
28.6.
641
Estructura fina del ´ atomo de helio y multipletes
En el ´ atomo de helio hemos tenido en cuenta hasta ahora solo interacciones de naturaleza electrost´ atica. Sin embargo, tambi´en existen las interacciones de ´ındole relativista como las estudiadas para el ´ atomo de hidr´ ogeno, esto es correcciones a la energ´ıa cin´etica, acoplamiento esp´ın-´ orbita, y t´ermino de Darwin. No obstante, en el caso del ´ atomo de helio la presencia simult´ anea de dos electrones da origen por ejemplo a un t´ermino de acople magn´etico esp´ın-esp´ın y ´ orbita-´ orbita en el Hamiltoniano, que act´ ua tanto en el espacio espinorial como en el orbital de estados de los dos electrones. Por fortuna, las diferencias de energ´ıa que surgen de estos acoples de origen relativista y magn´etico son mucho menores que las existentes entre dos t´erminos espectrales diferentes. Por tanto, el correspondiente Hamiltoniano de estructura fina se puede tratar perturbativamente. En la presente secci´ on no pretendemos realizar un estudio detallado de la estructura fina asociada al ´ atomo de Helio. Solo discutiremos las simetr´ıas del problema, y la notaci´ on espectrosc´ opica que surge para distinguir entre los diferentes niveles de energ´ıa. Si despreciamos la contribuci´ on esp´ın-esp´ın y ´ orbita-´ orbita, la forma gen´erica del Hamiltoniano de estructura fina tanto para el ´atomo de helio como para a´tomos de muchos electrones es de la forma HSF ≃
N X i=1
ξ (Ri ) Li · Si
(28.54)
donde Ri , Li y Si son los observables de posici´ on, momento angular y de esp´ın asociados a cada electr´ on. Si calculamos el conmutador de este Hamiltoniano con los momentos angulares orbital y de esp´ın tenemos " # N N X N h i X X (m) (m) (n) [HSF , Lk ] = HSF , Lk ξ (Rn ) L(n) S , L = p p k [HSF , Sk ] =
m=1 N N XX
ξ (Rn )
m=1 n=1
m=1 n=1
h
(m)
(n) L(n) p Sp , Sk
i
donde el super´ındice denota part´ıculas y el sub´ındice denota componentes. Estos conmutadores quedan entonces en la forma [HSF , Lk ] = =
N X N X
m=1 n=1 N X N X
m=1 n=1
(n) ξ (Rn ) δnm i~εpkr L(n) r Sp = i~
m=1 n=1 N X
[HSF , Lk ] = i~
N X N n h i h i o X h i (m) (m) (m) (n) (n) (n) (n) L(n) S , L + L , L S = ξ (R ) L , L Sp(n) n p p p p p k k k
ξ (Rn )
n=1
h
L(n) × S(n)
N N X X
ξ (Rn )
m=1 n=1 N X N X
= i~
m=1 n=1 N X
[HSF , Sk ] = −i~ tenemos entonces que
(n) ξ (Rn ) εrpk L(n) r Sp
n=1
ξ (Rn )
[HSF , Sk ] =
N X
k
N N X h i X h i (m) (m) (n) (n) (n) L(n) S , S = ξ (R ) L S , S n p p p p k k m=1 n=1 N X
(n) ξ (Rn ) L(n) = −i~ p δnm εpkr Sr
ξ (Rn )
n=1
i
h
L(n) × S(n)
i
(n) ξ (Rn ) εprk L(n) p Sr
n=1
k
[HSF , L] = − [HSF , S] 6= 0 ⇒ [HSF , J] = 0 , J ≡ L + S
(28.55)
´ CAP´ITULO 28. EL ATOMO DE HELIO
642
la Ec. (28.55) implica que el Hamiltoniano de estructura fina no es invariante si rotamos solo las variables orbitales o solo las variables de esp´ın, pero s´ı es invariante bajo la rotaci´ on simult´ anea de todas las variables orbitales y de esp´ın. Por tanto, el momento angular total de los electrones es una constante de movimiento. El espacio de estados asociado con un t´ermino es expandido por los estados del tipo |n, l; n′ , l′ ; L, ML ; S, MS i escritos en la Ec. (28.24), donde L y S son fijos, y tal que −L ≤ ML ≤ L ; −S ≤ MS ≤ S se puede demostrar que en este espacio los observables J2 y J3 forman un C.S.C.O. que de acuerdo con la Ec. (28.55) conmuta con HSF . En consecuencia los vectores propios |J, MJ i comunes a J2 [con valores propios J (J + 1) ~2 ] y a J3 [con valor propio MJ ~] son necesariamente autovectores de HSF con autovalor que depende de J pero no de MJ , debido a que HSF conmuta con J+ y J− . Las reglas de adici´ on del momento angular nos dicen que J = L + S, L + S − 1, L + S − 2, . . . , |L − S|
(28.56)
De modo que HSF remueve parcialmente la degeneraci´ on. Para cada “t´ermino” aparecen tantos niveles distintos como valores de J, de acuerdo con la Ec. (28.56). Cada uno de estos niveles tiene una degeneraci´ on 2J + 1 en virtud de su independencia con MJ y se denomina un “multiplete”. Estos multipletes poseen tambi´en una notaci´ on espectrosc´ opica: es la notaci´ on espectrosc´ opica del t´ermino, a la que le a˜ nadimos un sub´ındice a la derecha igual al valor de J. Veamos algunos ejemplos: El estado base del ´ atomo de helio nos da un solo multiplete 1 S0 . Para la configuraci´ on 1s, 2s, cada uno de los dos t´erminos 1 S y 3 S nos llevan a un solo multiplete: 1 S0 y 3 S1 respectivamente. Para la configuraci´ on 1s, 2p, el t´ermino 1 P conduce a un solo multiplete 1 P1 , en tanto que el t´ermino 3 P posee tres multipletes, 3 P2 ,3 P1 y 3 P0 . La posici´ on relativa de estos multipletes se ilustra en la Fig. 28.2. La medida experimental y el c´ alculo te´ orico de los multipletes que surgen de la configuraci´ on 1s, 2p son de gran importancia, debido a que conducen a un conocimiento bastante preciso de la constante de estructura fina α = e2 /~c. A partir de la estructura (28.54) del Hamiltoniano de estructura fina y utilizando el teorema de Wigner-Eckart se puede demostrar que la energ´ıa del multiplete J es proporcional a J (J + 1) − L (L + 1) − S (S + 1). Esto es v´ alido no solo para el ´ atomo de helio sino para ´ atomos de muchos electrones y se conoce como la “regla del intervalo on 1s, 2p son mucho m´as cercanos de de Land´e”. Para el helio los niveles 3 P1 y 3 P2 que surgen de la configuraci´ lo que predice esta regla, debido a la importancia del acople magn´etico dipolo-dipolo de los espines de los dos electrones, efecto que ha sido ignorado en el Hamiltoniano (28.54). Por supuesto tambi´en surgen efectos debidos a la existencia del esp´ın del n´ ucleo. Sin embargo la estructura 3 hiperfina que emerge existe solo para el is´ otopo He cuyo n´ ucleo posee esp´ın I = 1/2. El is´ otopo 4 He tiene esp´ın nuclear cero y por tanto no hay efectos hiperfinos. Para el 3 He cada multiplete de momento angular total electr´ onico J se desdobla en dos niveles hiperfinos de momento angular total F = J ± 1/2, que ser´ıa (2F + 1) veces degenerado, a menos que J = 0, en cuyo caso F solo puede tomar el valor 1/2.
´ 28.6. ESTRUCTURA FINA DEL ATOMO DE HELIO Y MULTIPLETES
643
Figura 28.2: Ilustraci´ on de la posici´ on relativa de los t´erminos espectrales y multipletes que surgen de la configuraci´ on 1s, 2p del ´ atomo de helio. La distancia entre los tres multipletes 3 P0 , 3 P1 y 3 P2 se ha reescalado con respecto a la distancia entre los t´ermino 1 P y 3 P , para que se pueda apreciar el desdoblamiento del t´ermino 3 P .
Cap´ıtulo 29
M´ etodo de Hartree-Fock La idea es estudiar la estructura electr´ onica para ´ atomos de N electrones (de hecho, el m´etodo es f´ acilmente extendible para el estudio de sistemas f´ısicos de N fermiones id´enticos). Como ya se ha discutido, una posibilidad es dividir el Hamiltoniano total (27.1)1 X N N X N X e2 P2i Ze2 H= − + 2me Ri |Ri − Rj | i=1
i=1 j>i
;
e2 ≡
q2 4πε0
(29.1)
en un Hamiltoniano desacoplado H0 y un Hamiltoniano acoplado W en la forma H = H0 + W X N N N N X X X e2 P2i Ze2 H0 ≡ + Vc (Ri ) , W ≡ − Vc (Ri ) + + 2me Ri |Ri − Rj | i=1
i=1
(29.2) (29.3)
i=1 j>i
donde el potencial efectivo Vc (Ri ) se introduce con el fin de que W se pueda considerar una perturbaci´ on con respecto a H0 . Podemos definir tambi´en Vc (Ri ) ≡ −
Ze2 + U (Ri ) Ri
(29.4)
donde U (Ri ) contendr´ıa la informaci´ on del potencial efectivo promedio debida u ´nicamente a los otros electrones. La idea es encontrar una soluci´ on aproximada al problema de valores propios Hψ (T) = Eψ (T)
(29.5)
combinando un modelo de part´ıcula independiente (descrito por el Hamiltoniano H0 ) con el m´etodo variacional. Donde T ≡ (T1 , T2 , . . . , TN ) ; Tk ≡ (rk , εk ) (29.6) es una abreviaci´ on de las variables de posici´ on rk y de esp´ın εk de cada part´ıcula. El m´etodo de Hartree-Fock busca determinar la funci´ on ψHF (T) que nos proporcione la mejor aproximaci´ on variacional a la soluci´ on del problema de valores propios (29.5) utilizando el modelo de part´ıcula independiente. El punto de partida ser´ a entonces una funci´ on de onda Φ (T) basada en un modelo de part´ıcula independiente para N electrones. Por tanto la funci´ on de prueba debe ser una combinaci´ on lineal de uno o m´ as determinantes 1
Hay una ligera diferencia entre el Hamiltoniano (27.1) y el Hamiltoniano (29.1), ya que para el primero asumimos que el n´ umero de electrones es Z (´ atomo neutro), en tanto que en el segundo asumimos un n´ umeros N de electrones que puede ser distinto de Z.
644
645 de Slater ψa1 (T1 ) ψa1 (T2 ) · · · 1 ψa2 (T1 ) ψa2 (T2 ) · · · D (T1 , . . . , TN ) = √ .. .. .. . N ! . . ψa (T1 ) ψa (T2 ) · · · N N √ N ! AΦH (T1 , . . . , TN ) D (T1 , . . . , TN ) =
(TN )
ψa1 (TN ) ψa2 (TN ) .. . ψaN
ΦH (T1 , . . . , TN ) = ψa1 (T1 ) ψa2 (T2 ) . . . ψaN (TN )
donde A es el antisimetrizador definido en (26.32) P´ ag. 600 y ΦH es un producto de orbitales que denominamos funci´ on de Hartree. ak representa los cuatro n´ umeros cu´ anticos que identifican completamente cada orbital. La funci´ on de Hartree representa un sistema de N electrones independientes pero distinguibles. Ya sabemos que la antisimetrizaci´ on hace que se introduzcan correlaciones entre espines y que surja el principio de exclusi´ on de Pauli, haciendo que los electrones no sean del todo independientes. Los orbitales pueden escribirse a su vez como el producto de un orbital espacial y uno espinorial ψak (Tk ) = ϕak (rk ) χ (εk )
(29.7)
los espinores que describen un electr´ on con esp´ın arriba y abajo los denotaremos como α y β respectivamente 1 1 χ + ≡α ; χ − ≡β (29.8) 2 2 la notaci´ on α (k) implica que el k−´esimo electr´ on tiene esp´ın arriba. Puesto que nuestro Hamiltoniano no contiene correcciones de esp´ın, la ecuaci´ on de valores propios (29.5) se convierte en una ecuaci´ on puramente orbital ~2 2 Ze2 − ∇ − + U (rk ) ϕak (rk ) = εak ϕak (rk ) (29.9) 2m k rk Ze2 Vc (rk ) = − + U (rk ) (29.10) rk por el momento los orbitales ψak (Tk ) son desconocidos. Sin embargo, podemos suponer su existencia para escribir la energ´ıa de interacci´ on efectiva U (rk ) que experimenta el k−´esimo electr´ on debido a los otros electrones. Puesto que |ϕak (rk )|2 d3 rk es la probabilidad de encontrar el k−´esimo electr´ on dentro del elemento de volumen d3 rk centrado en rk , se tiene entonces que la carga efectiva dQ dentro de dicho volumen viene dada por dQ = −e |ϕak (rk )|2 d3 rk y la energ´ıa de interacci´ on entre las cargas dQ y −e ubicadas en las posiciones rk y rj viene dada por dU (|rk − rj |) = −
e dQ e2 = |ϕak (rk )|2 d3 rk |rk − rj | |rk − rj |
de modo que la energ´ıa potencial U (rk ) se obtiene integrando sobre todo el volumen (para inclu´ır toda la carga efectiva Q) y sumando sobre todos los dem´ as electrones (j 6= k) X Z |ϕa (rk )|2 2 k U (rk ) = e d3 rk (29.11) |rk − rj | j6=k
Si conoci´eramos los N orbitales ϕak (rk ) del problema de N electrones, podemos conocer el potencial efectivo completo que experimenta cada uno de los electrones usando (29.11) junto con (29.10). Rec´ıprocamente, si conoci´eramos el potencial efectivo Vc (rk ) podr´ıamos determinar los orbitales usando las ecuaciones (29.9, 29.10) de
´ CAP´ITULO 29. METODO DE HARTREE-FOCK
646
valores propios. Sin embargo, en la pr´ actica no conocemos ni los orbitales ni los potenciales efectivos. El objetivo del m´etodo de Hartree-Fock es encontrar ambas cantidades de tal manera que resulten autoconsistentes. Es decir, que dadas las soluciones de los orbitales podamos determinar los potenciales efectivos por medio de (29.11) y que una vez determinados dichos potenciales podamos insertarlos en las Ecs. (29.9) de manera que las soluciones de (29.9) reproduzcan los mismos orbitales, al menos en forma aproximada. Estrictamente hablando, el m´etodo descrito hasta aqu´ı no requiere asumir que el potencial efectivo Vc (rk ) sea central. Cuando asumimos que dicho potencial es de car´ acter central hablamos del m´ etodo restringido de Hartree-Fock. La aproximaci´ on de campo central es particularmente acertada en el caso de capas cerradas, debido a que todos los momentos angulares son cero y esto le da simetr´ıa esf´erica al problema. En el caso de capas abiertas la aproximaci´ on de campo central es menos acertada pero suele producir a´ un muy buenos resultados al considerar la aproximaci´ on de llenado que consiste en promediar V (rk ) [que no se considera central] sobre todos los ´ angulos en la forma Z 1 Vc (rk ) ≡ V (rk ) dΩ 4π
cuando se considera que Vc (rk ) es central, exigimos que ψΓ (T) sea funci´ on propia de los operadores H, L2 , L3 , S2 , S3 , ya que todos ellos conmutan entre s´ı. Tenemos entonces que HψΓ (T) = EΓ ψΓ (T) ; L2 ψΓ (T) = l (l + 1) ~2 ψΓ (T) ; L3 ψΓ (T) = m~ψΓ (T) S2 ψΓ (T) = s (s + 1) ~2 ψΓ (T) ; S3 ψΓ (T) = ε~ψΓ (T)
(29.12)
Sin embargo, es posible que estos operadores no formen un C.S.C.O por lo cual el conjunto de todos los n´ umeros cu´ anticos Γ podr´ıa contener n´ umeros cu´ anticos adicionales a los de estos operadores Γ ≡ (γ, l, m, s, ε)
(29.13)
donde γ se refiere a los n´ umeros cu´ anticos necesarios para definir la energ´ıa, y tal vez otros n´ umeros cu´ anticos adicionales requeridos para determinar al estado ψΓ . Cada determinante de Slater es funci´ on propia de L3 y de S3 . En consecuencia, las funciones ψΓ que satisfacen las ecuaciones de valores propios (29.12) deben ser combinaciones lineales de determinantes de Slater asociados a una misma configuraci´ on electr´ onica y con los mismos valores de m y ε X ψγLS (T) = Cλ Dγ(λ)LS (T) (29.14) λ
Donde los coeficientes Cλ son par´ ametros variacionales que se escogen de manera que la funci´ on de onda (29.14) sea tambi´en funci´on propia de L2 y S2 . Si la capa es abierta tendremos en general varios coeficientes Cλ . En contraste, si la capa es cerrada solo se requiere un determinante de Slater para describir la estructura electr´ onica ya que en este caso L = S = J = 0.
29.1.
Producto interno entre determinantes de Slater y un operador sim´ etrico
Denotamos el determinante de Slater en la forma D (a |T ) ≡
D (a |T ) =
N! N Y 1 X N !A ψa (T) = √ εk Pk ψai (Ti ) N ! k=1 i=1 ψa1 (T1 ) ψa1 (T2 ) · · · ψa1 (TN ) 1 ψa2 (T1 ) ψa2 (T2 ) · · · ψa2 (TN ) √ .. .. .. .. . N ! . . . ψa (T1 ) ψa (T2 ) · · · ψa (TN ) N N N
√
(29.15)
(29.16)
´ 29.1. PRODUCTO INTERNO ENTRE DETERMINANTES DE SLATER Y UN OPERADOR SIMETRICO647 en algunas ocasiones se describe el determinante de Slater escribiendo solo la diagonal principal entre barras o corchetes D (a |T ) ≡ =
1 √ |ψa1 (T1 ) ψa2 (T2 ) · · · ψaN (TN )| N! 1 √ |ψ (a1 |1 ) ψ (a2 |2 ) · · · ψ (aN |N )| N!
(29.17)
sea O un observable sim´etrico de manera que conmuta con todas las N ! permutaciones [Pk , O] = 0
; k = 1, 2, . . . , N !
para prop´ ositos futuros, expresaremos los elementos matriciales del operador sim´etrico O en la base de un conjunto de determinantes de Slater (normalizados a uno) Z (29.18) hD (b)| O |D (a)i ≡ D ∗ (b |T ) O D (a |T ) dT para calcular este elemento matricial, sustitu´ımos (29.15) en (29.18) hD (b)| O |D (a)i ≡
Z
Z N! N Y 1 X D (b |T ) O D (a |T ) dT = √ εk D ∗ (b |T ) O Pk ψai (Ti ) dT N ! k=1 i=1 ∗
por construcci´ on cada determinante de Slater es antisim´etrico con respecto al grupo de permutaciones de las N part´ıculas. Por tanto Pk D ∗ (b |T ) = εk D ∗ (b |T ) (29.19) on Pk . Teniendo en cuenta (29.19) y el hecho de que Pk conmuta con O se siendo εk la paridad de la permutaci´ tiene " # N! Z N Y 1 X ∗ hD (b)| O |D (a)i = √ [Pk D (b |T )] Pk O ψai (Ti ) dT N ! k=1 i=1 ahora bien, es claro que la aplicaci´ on del operador permutaci´ on sobre un producto de funciones ψA y ψB es equivalente al producto de la aplicaci´ on del permutador sobre cada funci´ on2 Pk [ψA ψB ] = [Pk ψA ] [Pk ψB ]
(29.20)
con lo cual tenemos " # N! Z N Y 1 X ∗ hD (b)| O |D (a)i = √ Pk D (b |T ) O ψai (Ti ) dT N ! k=1 i=1 finalmente, el permutador solo cambia los r´ otulos de los argumentos de las funciones. Puesto que las variables de integraci´ on son mudas, el resultado no depende del r´ otulo asignado a cada variable. Por tanto, cada una de las N ! permutaciones contribuye con el mismo valor al integrar. Con lo cual se obtiene finalmente hD (b)| O |D (a)i = 2
√
N!
Z
D ∗ (b |T ) O
"N Y i=1
#
ψai (Ti )
dT
La identidad (29.20) est´ a relacionada con el hecho de que la permutaci´ on intercambia los ´ındices Ti en la funci´ on ψA (T1 , . . . , TN ) as´ı como en la funci´ on ψB (T1 , . . . , TN ), pero no intercambia un argumento de ψA con un argumento de ψB .
´ CAP´ITULO 29. METODO DE HARTREE-FOCK
648
sustituyendo la Ec. (29.15) en esta expresi´ on tenemos que el elemento matricial se puede escribir alternativamente en la forma " # Z N! N N X Y Y εk dT Pk ψb∗j (Tj ) O ψai (Ti ) hD (b)| O |D (a)i = j=1
k=1
i=1
en s´ıntesis, la representaci´ on matricial de un operador sim´etrico O en la base de los determinantes de Slater D (a) viene dada por Z
D ∗ (b |T ) O D (a |T ) dT √ Z ∗ = N ! D (b |T ) O [ψa1 (T1 ) ψa2 (T2 ) · · · ψaN (TN )] dT
hD (b)| O |D (a)i ≡
=
N! X k=1
εk
Z
dT
∗ Pk ψb1 (T1 ) · · · ψb∗N (TN ) {O [ψa1 (T1 ) · · · ψaN (TN )]}
(29.21) (29.22) (29.23)
recordemos que el signo de integraci´ on significa integraci´ on sobre las variables espaciales de todos los electrones y suma sobre las variables de esp´ın, y que a ≡ {a1 , . . . , aN } es una abreviaci´ on que denota el conjunto de n´ umeros cu´ anticos que definen a los N orbitales con los cuales se construye el determinante de Slater. En particular, tomando O = 1, se puede verificar la ortonormalidad de los determinantes de Slater con base en la ortonormalidad de los orbitales. Podemos escribir estos elementos matriciales de una forma m´ as condensada definiendo la funci´on de Hartree ΦH (T) ≡ ψa1 (T1 ) ψa2 (T2 ) · · · ψaN (TN )
(29.24)
φk (T) ≡ Pk [ψa1 (T1 ) ψa2 (T2 ) · · · ψaN (TN )] = Pk ΦH (T)
(29.25)
y la funci´ on auxiliar3
de modo que la Ec. (29.23) se puede reeescribir como hD (b)| O |D (a)i = hD (b)| O |D (a)i =
29.1.1.
N! X k=1 N! X k=1
εk
Z
dT {φ∗k (T)} {OΦH }
εk hφk (T)| O |ΦH (T)i
(29.26)
Ejemplo de aplicaci´ on para N = 3
Vamos a calcular expl´ıcitamente el determinante de Slater para N = 3 i.e. un sistema de tres electrones. El antisimetrizador se escribir´ a como A=
1 {P123 + P231 + P312 − P213 − P321 − P132 } 3!
donde P123 es la identidad. Una funci´ on de Hartree tiene la forma ΦH (T1 , T2 , T3 ) = ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 ) 3
Recordemos que el permutador puede actuar sobre el conjunto {T1 , . . . , TN }, o sobre el conjunto {a1 , . . . , aN }, pero no sobre los dos al tiempo, ya que en este u ´ltimo caso el producto quedar´ıa invariante, pues solo se reordenar´ıan los orbitales en el producto.
29.2. VALOR ESPERADO DE LA ENERG´IA
649
un determinante de Slater se escribe en la forma √ D (T1 , T2 , T3 ) = 3!AΦH (T1 , T2 , T3 ) √ 3! = {P123 + P231 + P312 − P213 − P321 − P132 } [ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )] 3! 1 = √ {ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 ) + ψa1 (T2 ) ψa2 (T3 ) ψa3 (T1 ) + ψa1 (T3 ) ψa2 (T1 ) ψa3 (T2 ) 3! −ψa1 (T2 ) ψa2 (T1 ) ψa3 (T3 ) − ψa1 (T3 ) ψa2 (T2 ) ψa3 (T1 ) − ψa1 (T1 ) ψa2 (T3 ) ψa3 (T2 )} D (T1 , T2 , T3 ) =
1 √ {ψa1 (T1 ) [ψa2 (T2 ) ψa3 (T3 ) − ψa2 (T3 ) ψa3 (T2 )] 3! +ψa1 (T2 ) [ψa2 (T3 ) ψa3 (T1 ) − ψa2 (T1 ) ψa3 (T3 )]
+ψa1 (T3 ) [ψa2 (T1 ) ψa3 (T2 ) − ψa2 (T2 ) ψa3 (T1 )]} ψa1 (T1 ) ψa1 (T2 ) ψa1 (T3 ) 1 D (T1 , T2 , T3 ) = √ ψa2 (T1 ) ψa2 (T2 ) ψa2 (T3 ) 3! ψ (T ) ψ (T ) ψ (T ) a3
1
a3
2
a3
3
si rotulamos las permutaciones en la forma
P1 ≡ P123 ; P2 ≡ P231 ; P3 ≡ P312
P4 ≡ P213 ; P5 ≡ P321 ; P6 ≡ P132
(29.27)
el determinante de Slater tambi´en se puede escribir como D (T1 , T2 , T3 ) = =
29.2.
1 √ {P1 + P2 + P3 − P4 − P5 − P6 } ΦH (T) 3! 1 √ {φ1 (T) + φ2 (T) + φ3 (T) − φ4 (T) − φ5 (T) − φ6 (T)} 3!
Valor esperado de la energ´ıa
Dado que la funci´ on de onda que describe al sistema de N electrones es una combinaci´ on lineal de determinantes de Slater, es de gran utilidad calcular el valor esperado de la energ´ıa con base en un determinante de Slater. En particular, cuando una capa es cerrada, la funci´ on de onda f´ısica estar´ a dada por un solo determinante de Slater de tal manera que este valor esperado de la energ´ıa coincide con el valor promedio f´ısico de esta cantidad. En lo que sigue a continuaci´ on, nos limitaremos a c´ alculos sobre capas cerradas. Supongamos que tenemos una funci´ on de prueba Φ (T1 , . . . , TN ) que por simplicidad asumiremos normalizada. El teorema 21.1 P´ag. 515 nos dice que la energ´ıa del estado base E0 cumple con la desigualdad E0 ≤ hΦ| H |Φi Puesto que la capa es cerrada, suponemos que la funci´ on de prueba es un determinante de Slater Φ = D (T1 , T2 , . . . , TN ) Descompondremos el Hamiltoniano H de la Ec. (29.1) en la forma H = H (0) + H (1) ; H (0) ≡
N N −1 X N X X P2i Ze2 e2 − ; H (1) ≡ 2me Ri |Ri − Rj | i=1
i=1 j=i+1
(29.28)
´ CAP´ITULO 29. METODO DE HARTREE-FOCK
650
Que es una descomposici´ on diferente a la realizada en las Ecs. (29.2, 29.3). Esto se debe a que utilizaremos un m´etodo variacional y no teor´ıa de perturbaciones, por lo cual no es esencial que H (1) sea mucho menor que H (0) . El valor esperado con respecto a la funci´ on de prueba (determinante de Slater) estar´ a dado por E [D] = hD| H |Di = hD| H (0) |Di + hD| H (1) |Di
(29.29)
puesto que el Hamiltoniano es un observable asociado a part´ıculas id´enticas, debe ser un operador sim´etrico como efectivamente se observa de (29.28). As´ı mismo, cada operador H (0) y H (1) es sim´etrico. Por tanto podremos aplicar las relaciones de la secci´ on 29.1.
29.2.1.
Valor esperado de H (0)
El hamiltoniano H (0) es la suma de N operadores de una part´ıcula. El producto interno viene dado en este caso por 2 N N X X Pi Ze2 (0) hD| − |Di = hD| h (i) |Di (29.30) hD| H |Di = 2me ri i=1
i=1
donde
P2i Ze2 − (29.31) 2me ri donde i constituye un r´ otulo para el i−´esimo electr´ on. La condici´ on de ortonormalidad de los orbitales se escribe como hψak (Ti )| ψap (Ti ) = δak ap = δkp h (i) ≡
en la u ´ltima igualdad hemos tenido en cuenta el principio de exclusi´ on de Pauli de modo que para k 6= p (es decir para dos electrones diferentes) tenemos que ak 6= ap (es decir no todos los n´ umeros cu´ anticos pueden coincidir). Para calcular (29.30) utilizamos (29.26) para lo cual debemos calcular t´erminos de la forma hφk | h (i) |ΦH i. Tomemos el caso particular N = 3, y calculemos con k = i = 1 hφ1 | h (i = 1) |ΦH i = hP1 ΦH | h (i = 1) |ΦH i = hΦH | h (i = 1) |ΦH i
= hψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )| h (i = 1) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= [hψa1 (T1 )| ⊗ hψa2 (T2 )| ⊗ hψa3 (T3 )|] h (i = 1) [|ψa1 (T1 )i ⊗ |ψa2 (T2 )i ⊗ |ψa3 (T3 )i] = hψa1 (T1 )| h (i = 1) |ψa1 (T1 )i hψa2 (T2 )| ψa2 (T2 )i hψa3 (T3 )| ψa3 (T3 )i y usando la condici´ on de ortonormalidad de los orbitales resulta hφ1 | h (i = 1) |ΦH i = hψa1 (T1 )| h (i = 1) |ψa1 (T1 )i tomemos ahora i = 1 y k = 2, utilizando (29.27) y la condici´ on de ortonormalidad de los orbitales, se tiene entonces hφ2 | h (i = 1) |ΦH i = hP2 ΦH | h (i = 1) |ΦH i
= hP231 [ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )]| h (i = 1) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= hψa1 (T2 ) ψa2 (T3 ) ψa3 (T1 )| h (i = 1) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= hψa3 (T1 )| h (i = 1) |ψa1 (T1 )i hψa1 (T2 )| ψa2 (T2 )i hψa2 (T3 )| ψa3 (T3 )i
hφ2 | h (i = 1) |ΦH i = 0
de una forma similar se puede demostrar que para cada electr´ on (i = 1, 2, 3) solo contribuye la funci´ on auxiliar φ1 = ΦH . Tenemos entonces que hφk | h (i) |ΦH i = δk,1 hφk | h (i) |ΦH i = δk,1 hΦH | h (i) |ΦH i
(29.32)
29.2. VALOR ESPERADO DE LA ENERG´IA
651
sustituyendo (29.26) y (29.32) en (29.30), el valor esperado de H (0) queda entonces (N ) (N ) N! N X N! X X X X (0) hD| H |Di = hD| h (i) |Di = εk hφk (T)| h (i) |ΦH (T)i = δk,1 εk hφk (T)| h (i) |ΦH (T)i i=1
hD| H (0) |Di =
N X i=1
i=1
k=1
i=1 k=1
hΦH (T)| h (i) |ΦH (T)i
por otro lado se tiene que hΦH (T)| h (i) |ΦH (T)i = = hΦH (T)| h (i) |ΦH (T)i = con lo cual hD| H (0) |Di =
N X i=1 N X i=1 N X i=1
N X
hψa1 (T1 ) · · · ψai (Ti ) · · · ψaN (TN )| h (i) |ψa1 (T1 ) · · · ψai (Ti ) · · · ψaN (TN )i hψa1 (T1 )| ψa1 (T1 )i · · · hψai (Ti )| h (i) |ψai (Ti )i · · · hψaN (TN )| ψaN (TN )i hψai (Ti )| h (i) |ψai (Ti )i
I (ai )
(29.33)
i=1
I (ai ) ≡ hψai (Ti )| h (i) |ψai (Ti )i =
Z
ϕ∗ai
~2 2 Ze2 (ri ) − ∇ − ϕai (ri ) d3 ri 2m i ri
(29.34)
donde hemos recordado la definici´ on (29.31) de h (i). N´ otese sin embargo, que ri es una variable muda que puede sustitu´ırse por r.
29.2.2.
Valor esperado de H (1)
Dado que este t´ermino acopla pares de part´ıculas, solo se podr´ a reducir a productos internos donde cada bra y cada ket estar´ a asociado a dos funciones de onda de electr´ on individual. Tomando la expresi´ on (29.28) podemos escribir N −1 X N X e2 hD| H (1) |Di = hD| |Di (29.35) rij i=1 j=i+1
utilizando (29.26) el valor esperado de
e2 /rij
nos da
N!
X e2 hD| |Di ≡ hD| W (i, j) |Di = εk hφk (T)| W (i, j) |ΦH (T)i ; j > i rij
(29.36)
k=1
W (i, j) ≡
e2 rij
una vez m´ as ilustraremos el caso N = 3. En tal caso hay tres valores esperados asociados a todos los posibles pares (i, j) con j > i, que son (1, 2) , (1, 3) y (2, 3). En virtud de (29.36) cada valor esperado es la suma de 3! = 6 contribuciones. Bastar´ a con detallar el c´ alculo de la contribuci´ on para (i, j) = (1, 2). Como se v´e de (29.36), el primero de los 6 t´erminos para este par lo origina el producto hφ1 (T)| W (1, 2) |ΦH (T)i = hΦH (T)| W (1, 2) |ΦH (T)i
= hψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= hψa1 (T1 ) ψa2 (T2 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i hψa3 (T3 )| ψa3 (T3 )i
hφ1 (T)| W (1, 2) |ΦH (T)i = hψa1 (T1 ) ψa2 (T2 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i ≡ J (a1 , a2 )
´ CAP´ITULO 29. METODO DE HARTREE-FOCK
652
usando (29.27), la contribuci´ on debida a la funci´ on auxiliar φ4 (T) est´ a dada por hφ4 (T)| W (1, 2) |ΦH (T)i = hP4 ΦH (T)| W (1, 2) |ΦH (T)i = hP213 ΦH (T)| W (1, 2) |ΦH (T)i
= hψa1 (T2 ) ψa2 (T1 ) ψa3 (T3 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= hψa1 (T2 ) ψa2 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i hψa3 (T3 )| ψa3 (T3 )i
= hψa1 (T2 ) ψa2 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i ≡ K (a1 , a2 )
es decir se obtiene por una permutaci´ on de los electrones 1 y 2 con respecto a la contribuci´ on de φ1 . Ahora consideramos la contribuci´ on de φ2 (T) hφ2 (T)| W (1, 2) |ΦH (T)i = hP2 ΦH (T)| W (1, 2) |ΦH (T)i = hP231 ΦH (T)| W (1, 2) |ΦH (T)i
= hψa1 (T2 ) ψa2 (T3 ) ψa3 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= hψa1 (T2 ) ψa3 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i hψa2 (T3 )| ψa3 (T3 )i
= 0
dado que los orbitales son ortogonales. Similarmente la contribuci´ on de φk es nula para k = 2, 3, 5, 6. Por tanto, para (i, j) = (1, 2) y para N = 3, solo dos de los seis t´erminos en (29.36) son no nulos 3!
X e2 hD| |Di ≡ hD| W (1, 2) |Di = εk hφk (T)| W (1, 2) |ΦH (T)i r12 k=1
= ε1 hφ1 (T)| W (1, 2) |ΦH (T)i + ε4 hφ4 (T)| W (1, 2) |ΦH (T)i
e2 |Di = J (a1 , a2 ) − K (a1 , a2 ) r12 J (a1 , a2 ) ≡ hψa1 (T1 ) ψa2 (T2 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i
hD|
K (a1 , a2 ) ≡ hψa1 (T2 ) ψa2 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i
(29.37) (29.38)
realizando el mismo procedimiento para los otros pares de electrones (i, j) resulta e2 |Di ≡ hD| W (1, 3) |Di = J (a1 , a3 ) − K (a1 , a3 ) r13 e2 hD| |Di ≡ hD| W (2, 3) |Di = J (a2 , a3 ) − K (a2 , a3 ) r23 hD|
(29.39) (29.40)
sustituyendo (29.37, 29.39) y (29.40) en (29.35) con N = 3, se obtiene hD| H
(1)
hD| H
(1)
|Di =
2 X 3 X
i=1 j=i+1
hD|
e2 e2 e2 e2 |Di = hD| |Di + hD| |Di + hD| |Di rij r12 r13 r23
|Di = [J (a1 , a2 ) − K (a1 , a2 )] + [J (a1 , a3 ) − K (a1 , a3 )] + [J (a2 , a3 ) − K (a2 , a3 )]
(29.41)
a los productos internos J (ak , ap ) y K (ak , ap ) se les denomina t´ermino directo y t´ermino de intercambio, por las mismas razones descritas en la secci´ on 28.3. Teniendo en cuenta que estos t´erminos tienen la propiedad4 J (ak , ap ) = J (ap , ak ) ; K (ak , ap ) = K (ap , ak ) ; K (ak , ak ) − J (ak , ak ) = 0 4
La propiedad (29.42) se debe a que las integrales definidas en (29.38) son invariantes ante el intercambio de T1 y T2 .
(29.42)
29.2. VALOR ESPERADO DE LA ENERG´IA
653
podemos reescribir (29.41) en la forma hD| H (1) |Di =
1 {[J (a1 , a2 ) − K (a1 , a2 )] + [J (a2 , a1 ) − K (a2 , a1 )]} 2 1 + {[J (a1 , a3 ) − K (a1 , a3 )] + [J (a3 , a1 ) − K (a3 , a1 )]} 2 1 + {[J (a2 , a3 ) − K (a2 , a3 )] + [J (a3 , a2 ) − K (a3 , a2 )]} 2 1 + {[J (a1 , a1 ) − K (a1 , a1 )] + [J (a2 , a2 ) − K (a2 , a2 )] + [J (a3 , a3 ) − K (a3 , a3 )]} 2
n´ otese que los t´erminos de la u ´ltima l´ınea son ceros. Por tanto aparecen todos los pares de la forma J (ai , aj ) − K (ai , aj ) sin la restricci´ on j > i. Podemos escribir la generalizaci´ on de la expresi´ on anterior para N arbitrario en la forma N −1 X
N X
N
N
e2 1 XX |Di = [J (ak , ap ) − K (ak , ap )] rij 2 p=1 i=1 j=i+1 k=1
J (ak , ap ) ≡ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
K (ak , ap ) ≡ ψak (Tp ) ψap (Tk ) W (k, p) ψak (Tk ) ψap (Tp )
hD| H (1) |Di =
hD|
(29.43)
la doble suma corre sobre todos los pares de orbitales de manera independiente, con lo cual la expresi´ on (29.43) recupera una total simetr´ıa entre dichos pares.
29.2.3.
Valor esperado de H = H (0) + H (1)
Tomando los resultados (29.33) y (29.43) el valor esperado (29.29) de la energ´ıa vendr´ a dado por E [D] = hD| H |Di = hD| H (0) |Di + hD| H (1) |Di E [D] =
N X
I (ak ) +
k=1
1 2
N X N X k=1 p=1
[J (ak , ap ) − K (ak , ap )]
~2 2 Ze2 (rk ) − ∇ − I (ak ) ≡ hψak (Tk )| h (k) |ψak (Tk )i = ψak (rk ) d3 rk 2m k rk
J (ak , ap ) ≡ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
K (ak , ap ) ≡ ψak (Tp ) ψap (Tk ) W (k, p) ψak (Tk ) ψap (Tp ) Z
ψa∗k
(29.44) (29.45) (29.46) (29.47) (29.48)
La notaci´ on E [D] indica que la energ´ıa es un funcional del determinante de Slater, por lo cual la expresi´ on (29.45) es adecuada para un tratamiento variacional.
29.2.4.
Interpretaci´ on f´ısica de los t´ erminos directo y de intercambio
Hemos definido el t´ermino directo (tambi´en conocido como energ´ıa de Coulomb) en la Ec. (29.47) de la forma e2
ψa (Tk ) ψap (Tp ) ψak (Tk ) ψap (Tp ) k rkp Z Z e2 = ϕ∗ak (rk ) ϕ∗ap (rp ) ϕa (rk ) ϕap (rp ) d3 rk d3 rp rkp k Z Z 2 e2 3 = |ϕak (rk )|2 ϕap (rp ) d rk d3 rp rkp
J (ak , ap ) =
´ CAP´ITULO 29. METODO DE HARTREE-FOCK
654
de la expresi´ on integral vemos que este t´ermino corresponde al valor promedio de 1/rkp entre un par de electrones (k, p) relativo al estado ϕak (rk ) ϕap (rp ) del par en cuesti´ on. En este estado el electr´ on k se encuentra en el orbital ϕak y el electr´ on p se encuentra en el orbital ϕap . N´ otese que en las integrales no aparece la suma sobre las variables de esp´ın ya que se escribi´ o cada orbital como el producto de una funci´ on espacial y un espinor [ver Ec. (29.7)], y se utiliz´ o la normalizaci´ on de los espinores. A este t´ermino se le suele llamar energ´ıa de Coulomb debido a que tiene un an´ alogo en la electrost´ atica cl´ asica. Para un orbital dado ak podemos definir una densidad de carga ρak (rk ) ≡ −e |ϕak (rk )|2 que al ser integrada sobre todo el espacio nos da la carga total −e del electr´ on dado que el orbital est´a normalizado. El potencial electrost´ atico generado por esta densidad de carga viene dado por Z ρak (rn ) 3 Φak (rk ) = d rn (29.49) rkn con lo cual la energ´ıa de Coulomb se escribe como J (ak , ap ) =
Z
ρak (rp ) Φap (rp ) d3 rp
que en el an´ alogo electrost´ atico representa la energ´ıa potencial de interacci´ on entre las distribuciones de carga asociadas con los orbitales ak y ap . Ahora examinemos el t´ermino de intercambio (29.48)
K (ak , ap ) ≡ ψak (Tp ) ψap (Tk ) W (k, p) ψak (Tk ) ψap (Tp ) Z Z e2 = δ (χk , χp ) ϕ∗ak (rp ) ϕ∗ap (rk ) ϕa (rk ) ϕap (rp ) d3 rk d3 rp rkp k que corresponde al elemento de matriz de la interacci´ on coulombiana entre el par de electrones (k, p) relativo a los estados ϕak (rp ) ϕap (rk ) y ϕak (rk ) ϕap (rp ). Estos estados difieren entre s´ı por el intercambio del par (k, p) de electrones. La delta de Kronecker proviene de la ortonormalidad de la parte espinorial. on p Ya hab´ıamos visto que para el t´ermino directo el electr´ on k se encontraba en el orbital ϕak y el electr´ en el orbital ϕap . Si solo contribuyera el t´ermino directo, esto implicar´ıa que las part´ıculas son distinguibles. De hecho la presencia del t´ermino de intercambio surge del car´ acter antisim´etrico de la funci´ on de onda y por tanto del postulado de simetrizaci´ on. En consecuencia, dicho t´ermino no posee un an´ alogo cl´ asico.
29.3.
M´ etodo de Hartree-Fock para una capa cerrada
Nos limitaremos al caso de un ´ atomo en una capa cerrada. En este caso, solo requerimos un determinante de Slater D para describir la estructura electr´ onica del ´ atomo. Tenemos entonces un determinante de Slater D = D [a1 , a2 , . . . , aN ] formado por N orbitales ortonormalizados S (ak , ap ) ≡ hψak (Tk ) ψap (Tp ) = δkp
(29.50)
como ya se mencion´ o, la energ´ıa E [D] dada por (29.45) es un funcional del determinante de Slater y por tanto, de los N orbitales ψak (Ti ). De acuerdo con el principio variacional, el conjunto ´ optimo de orbitales {ψa1 , . . . , ψaN } est´ a formado por aquellos orbitales que minimizan la energ´ıa E [D], sujetos a la ligadura (29.50) de ortonormalidad. En el procedimiento variacional, se fija un cierto conjunto de n´ umeros cu´ anticos a = {a1 , . . . , aN } y se var´ıa la forma de los orbitales hasta lograr que la energ´ıa E [D] sea un m´ınimo. En consecuencia, el m´etodo de HartreeFock es un m´etodo para calcular los orbitales ´ optimos con el m´etodo variacional dentro del modelo de part´ıcula independiente.
´ 29.3. METODO DE HARTREE-FOCK PARA UNA CAPA CERRADA
29.3.1.
655
Minimizaci´ on de E [D] con ligaduras
Es bien sabido que cuando se quiere minimizar un funcional manteniendo un conjunto de ecuaciones de ligadura, debemos introducir unas variables auxiliares (multiplicadores de Lagrange), una por cada ecuaci´ on de 2 ligadura. Tendremos que introducir entonces un conjunto N de multiplicadores de Lagrange λkp , uno por cada ecuaci´ on de ligadura (29.50). Al introducir estas variables auxiliares podemos trabajar los orbitales como si fueran independientes introduciendo el funcional auxiliar N X N X λkp S (ak , ap ) F {ψa1 , ψa2 , . . . , ψaN } , ψa∗1 , ψa∗2 , . . . , ψa∗N ≡ E [D] − k=1 p=1
F [ψ, ψ ∗ ] =
N X
N
I (ak ) +
N
N
k=1 p=1
k=1
N
XX 1 XX [J (ak , ap ) − K (ak , ap )] − λkp S (ak , ap ) 2
(29.51)
k=1 p=1
ψ ≡ {ψa1 , ψa2 , . . . , ψaN }
de modo que este es un funcional con 2N variables independientes puesto que cada orbital es complejo y por tanto posee dos grados de libertad: su parte real y su parte imaginaria. Es m´ as conveniente sin embargo tomar a ψak y a ψa∗k como las variables independientes, en lugar de la parte real e imaginaria de ψak . Ahora debemos escribir el funcional F [ψ, ψ ∗ ] de manera que queden expl´ıcitas las 2N variables (orbitales) de las cuales depende. Para ello se sustituyen (29.46, 29.47, 29.48) y (29.50) en (29.51) y se obtiene F [ψ, ψ ∗ ] ≡
N X k=1
hψak (Tk )| h (k) |ψak (Tk )i
N N 1 X X
ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp ) 2 k=1 p=1
− ψak (Tp ) ψap (Tk ) W (k, p) ψak (Tk ) ψap (Tp )
+
−
N X N X k=1 p=1
λkp hψak (Tk )| ψap (Tp )
(29.52)
aplicando el principio variacional, buscamos el conjunto de 2N orbitales ψ,ψ ∗ que dejen a F [ψ, ψ ∗ ] estacionario con respecto a variaciones arbitrarias de las variables independientes δF {ψa1 , ψa2 , . . . , ψaN } , ψa∗1 , ψa∗2 , . . . , ψa∗N = 0
la estructura de la Ec. (29.52) permite escribir δF =
N X k=1
δk F
;
δk F ≡ F ψa∗k + δψa∗k − F ψa∗k
δk F es la variaci´ on del funcional F cuando se modifica la variable independiente ψa∗k dejando fijas las dem´ as variables independientes (variaci´ on parcial)5 . Vale a˜ nadir que la variaci´ on de un orbital se realiza solo en su parte espacial dejando inmodificadas las variables de esp´ın, ya que las variables de esp´ın no permiten una variaci´ on cont´ınua. 5
Incluso se deja fijo el orbital ψak
´ CAP´ITULO 29. METODO DE HARTREE-FOCK
656
29.3.2.
C´ alculo de δF [ψ, ψ ∗ ]
Realizaremos la variaci´ on de los t´erminos asociados a pares de electrones. Comenzamos con el t´ermino directo o energ´ıa de Coulomb N
N
1 XX J≡ J (ak , ap ) ; 2 p=1
J (ak , ap ) ≡ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
k=1
a variaci´ on dado que solo se realizar´ a una variaci´ on sobre los orbitales conjugados ψa∗n , esto implica que solo se har´ sobre el bra (sin variaci´ on sobre el ket). Tendremos por tanto
δJ (ak , ap ) = δ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
= {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
+ ψak (Tk ) δ ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
de modo que
≡
δJ
N N 1 XX
{δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp ) 2 k=1 p=1
N N 1 XX
+ ψak (Tk ) δ ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp ) 2 k=1 p=1
puesto que las variables Tk , y Tp de integraci´ on son mudas podemos asignar Tk → Ti , y Tp → Tj , para escribir ≡
δJ
N N 1 XX
{δψak (Ti )} ψap (Tj ) W (i, j) ψak (Ti ) ψap (Tj ) 2 k=1 p=1
+
N N 1 XX
ψak (Ti ) δ ψap (Tj ) W (i, j) ψak (Ti ) ψap (Tj ) 2 k=1 p=1
adicionalmente, las variables de suma tambi´en son mudas de modo que podemos intercambiar los ´ındices k ↔ p en la segunda sumatoria para obtener ≡
δJ
N N 1 XX
{δψak (Ti )} ψap (Tj ) W (i, j) ψak (Ti ) ψap (Tj ) 2 k=1 p=1
+
N N 1 XX
ψap (Ti ) δ {ψak (Tj )} W (i, j) ψap (Ti ) ψak (Tj ) 2 k=1 p=1
puesto que el operador de repulsi´ on W (i, j) es sim´etrico y las variables de integraci´ on i, j son mudas, podemos intercambiar los ´ındices (i, j) en el segundo t´ermino, con lo cual vemos que las dos sumas son iguales. Retornando a las antiguas variables de integraci´ on se tiene δJ =
N X N X
k=1 p=1
{δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
para el t´ermino de intercambio podemos hacer un proceso similar N
N
1 XX K≡ K (ak , ap ) ; 2 k=1 p=1
K (ak , ap ) ≡ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tp ) ψap (Tk )
(29.53)
´ 29.3. METODO DE HARTREE-FOCK PARA UNA CAPA CERRADA
657
la variaci´ on de este t´ermino se puede obtener intercambiando Tk ↔ Tp en el ket (tambi´en se debe invertir en W (k, p) pero este es sim´etrico) en la expresi´ on (29.53) para obtener δK =
N X N X
k=1 p=1
{δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tp ) ψap (Tk )
la variaci´ on del t´ermino asociado a H (0) y de la ligadura son mucho m´ as simples. La variaci´ on del funcional (29.52) estar´ a dada por δF
=
N X
hδψak (Tk )| h (k) |ψak (Tk )i
k=1 N X N X
+
k=1 p=1
− −
N X N X
k=1 p=1
N X N X k=1 p=1
{δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp ) {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tp ) ψap (Tk )
λkp hδψak (Tk )| ψap (Tp )
(29.54)
puesto que los bras y kets de pares de part´ıculas son productos tensoriales de bras y kets de part´ıcula individual, los sumandos en el segundo y tercer t´ermino en esta variaci´ on se escriben como
δJ (ak , ap ) = {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
= hδψak (Tk )| ⊗ ψap (Tp ) W (k, p) |ψak (Tk )i ⊗ ψap (Tp )
= hδψak (Tk )| ⊗ ψap (Tp ) W (k, p) |ψak (Tk )i ⊗ ψap (Tp )
ahora bien, el principio variacional exige que δF = 0 para una variaci´ on arbitraria del bra (o del orbital conjugado) hδψak |. Dado que las variaciones de cada ψa∗k son independientes, esto se cumple si y solo si δk F = 0 para cada orbital. Por tanto, la Ec. (29.54) nos da h (k) |ψak (Tk )i + − = 0
N X
p=1
N X
p=1
ψap (Tp ) W (k, p) ψap (Tp ) |ψak (Tk )i
N X ψap (Tp ) W (k, p) |ψak (Tp )i ψap (Tk ) − λkp ψap (Tp ) p=1
(29.55)
este es un conjunto de N ecuaciones acopladas cuya soluci´ on nos lleva a determinar los orbitales ´ optimos ψak (Ti ) requeridos por el principio variacional. Los multiplicadores de Lagrange λkp forman un arreglo matricial N × N que se puede diagonalizar gracias a que los orbitales se escriben como el producto de un orbital espacial y otro espinorial Ec. (29.7). En notaci´ on de Dirac escribimos 1 |ψak (Tp )i = |ϕak (rp )i ⊗ sp = , (ms )p ≡ |ϕak (rp )i ⊗ |εk (p)i 2 donde se omite la informaci´ on sobre sp ya que el esp´ın solo puede tomar el valor 1/2. Puesto que los espinores son ortonormales hεm (p) |εk (p)i = δ (εm , εk ) (29.56)
´ CAP´ITULO 29. METODO DE HARTREE-FOCK
658
podemos diagonalizar la matriz de los multiplicadores de Lagrange multiplicando la ecuaci´ on (29.55) por el bra espinorial hεk (p)|, teniendo en cuenta la descomposici´ on (29.7) para cada orbital en (29.55), as´ı como las relaciones de ortonormalidad (29.56) y el hecho de que los operadores involucrados en (29.55) son independientes del esp´ın. Con todas estas consideraciones se obtiene
h (k) |ϕak (rk )i + − = 0 λak
N X p=1
N X
p=1
ϕap (rp ) W (k, p) ϕap (rp ) |ϕak (rk )i
δ (εp , εk ) ϕap (rp ) W (k, p) |ϕak (rp )i ϕap (rk ) − λak |ϕak (rk )i
≡ λkp δpk
(29.57) (29.58)
on pueden sustitu´ırse por r y r′ . finalmente, puesto que las variables rk y rp son variables mudas de integraci´
29.4.
Operadores de Hartree-Fock
La Ec. (29.57) es claramente una ecuaci´ on de valores propios para el ket |ϕak (rk )i, o en la base de las |ri para la funci´ on de onda ϕak (rk ) Fϕak (r) = λak ϕak (r) ; k = 1, 2, . . . , N 2 ~ Ze2 2 F ≡ − ∇ − + V (r) ; V (r) ≡ J (r) − K (r) 2m r J (r) ≡
N X
p=1
N X
ϕap (rp ) W (k, p) ϕap (rp ) = ϕap r′ p=1
2 N Z X ϕap (r′ ) 3 ′ J (r) ≡ −e Φap (r) = e d r |r − r′ | p=1 p=1 N X
K (r) ϕak (r) ≡
N X p=1
N X
2
δ (εp , εk ) ϕap (rp ) W (k, p) |ϕak (rp )i
e2 ϕak r′ ϕap (r) ′ |r − r | p=1 # " Z ∗ N ′ ) ϕ (r′ ) X ϕ (r a a k p K (r) ϕak (r) = e2 δ (εp , εk ) d3 r′ ϕap (r) ′| |r − r p=1 =
e2 ϕap r′ ′ |r − r |
(29.59) (29.60) (29.61)
(29.62)
(29.63)
δ (εp , εk ) ϕap r′
(29.64)
recordemos que de acuerdo con la Ec. (29.58) λak son los multiplicadores “diagonales”de Lagrange λkk . La Ec. (29.59) nos dice que los λak son valores propios del operador de Hartree-Fock F, de manera que podemos escribir λak = hϕak (r)| F |ϕak (r)i ; k = 1, 2, . . . , N A los t´erminos J (r) y K (r) se les denomina t´erminos directo y de intercambio, ya que son similares a los t´erminos directo y de intercambio definidos en la secci´ on 29.2.4, donde Φap (r) es el potencial (29.49) generado por el orbital ap de acuerdo con la discusi´ on en la secci´ on 29.2.4. N´ otese que la suma sobre p en estas expresiones, se recorre sobre los orbitales que definen a la funci´ on de Hartree.
´ DE LA ECUACION ´ DE HARTREE-FOCK 29.5. INTERPRETACION
659
Por otro lado, el operador K (r) (operador de intercambio) se define como un operador integral de acuerdo con la expresi´ on (29.64). El delta de Kronecker indica que solo sobreviven los pares de orbitales que tienen el mismo n´ umero cu´ antico magn´etico de esp´ın, es decir cuando ambos tienen esp´ın arriba o ambos esp´ın abajo. La ecuaci´ on (29.59) de valores propios que surge de los multiplicadores de Lagrange diagonalizados, con las definiciones (29.60-29.64) se conoce como Ecuaci´ on de Hartree-Fock.
29.5.
Interpretaci´ on de la ecuaci´ on de Hartree-Fock
La ecuaci´ on (29.59) de Hartree-Fock, nos muestra que el operador de Hartree-Fock F puede interpretarse como un Hamiltoniano efectivo de part´ıcula individual, y los valores propios λak son energ´ıas efectivas de part´ıcula individual. Recordemos que nuestro objetivo es caracterizar la estructura electr´ onica de un ´ atomo formado por N electrones. Para ello hemos partido de un Hamiltoniano H de N part´ıculas [ver Ec. (29.1)], y lo reducimos al problema de una part´ıcula descrita por un Hamiltoniano efectivo F. De otra parte, la expresi´ on (29.60) nos muestra que la determinaci´ on del potencial V (r) requiere la determinaci´on de los t´erminos de Coulomb J (r) y de intercambio K (r). A su vez, las expresiones (29.62, 29.64) muestran que la determinaci´on de J (r) y K (r) requiere del conocimiento de los N orbitales ϕak (r) [los cuales de entrada son desconocidos]. Adicionalmente, la Ec. (29.64) nos muestra que la evaluaci´ on del t´ermino de intercambio requiere conocer el n´ umero cu´ antico magn´etico de esp´ın de cada orbital. En s´ıntesis se necesitan los N orbitales completos ψak (Ti ) para determinar el potencial V (r) [o equivalentemente, para determinar el operador de Hartree-Fock (29.60)]. F es un operador herm´ıtico y por tanto sus valores propios (energ´ıas efectivas) son reales. Los orbitales de Hartree-Fock incluyen entonces la informaci´ on del esp´ın. Un ´ atomo de N electrones tiene en principio infinito n´ umero de orbitales. Los orbitales de Hartree-Fock se dividen en dos grupos: (a) Orbitales ocupados que se llenan en concordancia con el principio de exclusi´ on de Pauli y (b) Orbitales desocupados o virtuales que pueden ser ocupados si se introduce una perturbaci´ on. Por ejemplo, el ne´ on (gas noble con capa cerrada) tiene la configuraci´ on electr´ onica N e : 1s2 , 2s2 , 2p6 los orbitales 1s, 2s, 2p son los orbitales ocupados (para el Ne´ on en el estado base). Para estos orbitales un c´ alculo de Hartree-Fock conduce aproximadamente a los siguientes valores [11] ε1s = −32,772ε0 , ε2s = −1,930ε0 , ε2p = −0,850ε0 por supuesto hay infinitos orbitales desocupados o virtuales tales como 3s, 3p, 3d, 4s, . . . y que pueden ser ocupados si se introduce alguna perturbaci´ on que excite al ´ atomo.
29.6.
Soluci´ on por iteraci´ on de la ecuaci´ on de HF
Ya vimos que la ecuaci´ on de Hartree-Fock (29.59) tiene la estructura de un problema de valores propios en donde el operador de Hartree-Fock F hace las veces de un Hamiltoniano efectivo de una part´ıcula y sus valores propios son energ´ıas efectivas de part´ıcula individual. No obstante, a diferencia de un Hamiltoniano normal, el operador F no se conoce a priori ya que el potencial V depende de los operadores directo y de intercambio, que a su vez dependen de los orbitales que hasta este punto son desconocidos. Por tanto, debemos determinar tanto los orbitales como al operador de Hartree-Fock. Para ello partimos de un conjunto de orbitales de prueba n o n o (1) (1) (1) ψ (1) ≡ ψ (T ) , ψ (T ) , . . . , ψ (T ) 1 2 N a a1 a2 aN que se postulan con base en alg´ un argumento f´ısico (por ejemplo orbitales hidrogenoides). Con estos orbitales de prueba se calculan los t´erminos directo y de intercambio por medio de las Ecs. (29.62, 29.64). Posteriormente, se
´ CAP´ITULO 29. METODO DE HARTREE-FOCK
660
calcula el operador de Hartree-Fock F(1) a trav´es de las Ecs. (29.60). Denotamos n o a este operador con el supra´ındice (1) (1) para indicar que se construy´ o con base en las funciones de prueba ψ a . Procedemos entonces a resolver la ecuaci´ on de valores propios de Hartree-Fock con el operador F(1) , los orbitales obtenidos que denotaremos como n o (2) ψa se utilizan a su vez para constru´ır un nuevo operador de Hartree-Fock F(2) , con base en el cual volvemos n o (3) a resolver la ecuaci´ on de Hartree-Fock para obtener un nuevo conjunto de orbitales ψ a y luego un nuevo operador de Hartree-Fock F(3) . El proceso se puede continuar iterativamente digamos hasta realizar M iteraciones que esquem´ aticamente ilustramos de la siguiente forma n o n o n o (1) (2) (2) (M ) ψ (1) → F → ψ → F → · · · → ψ → F(M ) a a a | {z } | {z } | {z } hasta lograr la autoconsistencia, es decir cuando la siguiente iteraci´ on no produzca un cambio significativo ni en los orbitales ni en el operador F. Es decir, logramos la autoconsistencia si n
o n o n o ) (M +1) (N ) ψ (M ≃ ψ ≃ ψ a a a
y
F(M ) ≃ F(M +1) ≃ F(N )
; N >M
El potencial V de Hartree-Fock que se calcula de esta forma se denomina potencial de campo autoconsistente.
29.7.
Determinaci´ on del valor F´ısico de la energ´ıa
La ecuaci´ on de Hartree-Fock es una ecuaci´ on efectiva que no nos da en forma directa el valor F´ısico de las energ´ıas. Sin embargo, las energ´ıas efectivas de part´ıcula individual λak se pueden conectar con la energ´ıa f´ısica si escribimos el Hamiltoniano f´ısico H en t´erminos del operador F. Para ello tenemos en cuenta las expresiones (29.1, 29.28) y (29.60) para H y F
H = H (0) + H (1) N Z X Z X X ~2 2 Ze2 e2 (0) (1) H ≡ − ∇i − ; H ≡ 2m ri |ri − rj | i=1 i=1 j>i ~2 2 Ze2 − ∇ − + J (ri ) − K (ri ) F (ri ) ≡ 2m i ri con lo cual
H
(0)
≡
N X i=1
[F (ri ) − J (ri ) + K (ri )]
(29.65)
´ DEL VALOR F´ISICO DE LA ENERG´IA 29.7. DETERMINACION
661
con el m´etodo antes descrito podemos calcular el determinante de Slater D, con el cual podemos calcular el valor esperado de la energ´ıa. Combinando las Ecs. (29.33, 29.34) y (29.65) podemos determinar el valor esperado de H (0) hD| H
(0)
|Di = =
N Z X
ψa∗k
k=1 N Z X
=
N Z X k=1 N X
ψa∗k (rk ) [λak − J (rk ) + K (rk )] ψak (rk ) d3 rk
λak
k=1 N Z X
+
hD| H
(0)
|Di =
k=1 N X k=1
~2 2 Ze2 ∇ − (rk ) − ψak (rk ) d3 rk 2m k rk
ψa∗k (rk ) [F (rk ) − J (rk ) + K (rk )] ψak (rk ) d3 rk
k=1
hD| H (0) |Di =
Z
ψa∗k (rk ) ψak (rk ) d3 rk −
N Z X
ψa∗k (rk ) J (rk ) ψak (rk ) d3 rk
k=1
ψa∗k (rk ) K (rk ) ψak (rk ) d3 rk
λak −
N X k=1
hψak (r)| J (r) |ψak (r)i +
N X k=1
hψak (r)| K (r) |ψak (r)i
donde hemos usado la ortonormalidad de los orbitales y el hecho de que tales orbitales son funciones propias de F. Y teniendo en cuenta las relaciones hψak (r)| J (r) |ψak (r)i ≡ hψak (r)| K (r) |ψak (r)i ≡
Z Z
ψa∗k (rk ) J (rk ) ψak (rk ) d3 rk =
N X
J (ak , ap )
p=1
ψa∗k (rk ) K (rk ) ψak (rk ) d3 rk =
N X
K (ak , ap )
p=1
Este valor esperado se puede escribir como hD| H
(0)
|Di =
N X k=1
λak −
N X N X k=1 p=1
[J (ak , ap ) − K (ak , ap )]
por otro lado, el valor esperado de H (1) viene dado por (29.43) N
hD| H (1) |Di =
N
1 XX [J (ak , ap ) − K (ak , ap )] 2 k=1 p=1
con lo cual el valor esperado del Hamiltoniano completo es E [D] = hD| H |Di = hD| H (0) |Di + hD| H (1) |Di =
N X k=1
N
λak −
N
1 XX [J (ak , ap ) − K (ak , ap )] 2 p=1
(29.66)
k=1
esta energ´ıa posee entonces tres contribuciones, la energ´ıa efectiva asociada a los electrones independientes donde cada energ´ıa est´ a asociada a uno de los orbitales ocupados, la energ´ıa de Coulomb (originada en la interaccci´ on de Coulomb cl´ asica), y la energ´ıa de intercambio que tiene su origen en la combinaci´ on entre la interacci´ on de Coulomb entre los electrones y la naturaleza indistinguible de ´estos.
662
´ CAP´ITULO 29. METODO DE HARTREE-FOCK
N´ otese que a pesar de que el determinante de Slater surge de un modelo de part´ıculas independientes, el Hamiltoniano F equivalente de part´ıcula independiente depende de la interacci´ on repulsiva entre electrones por medio de los t´erminos J (r) y K (r). Adicionalmente, las dos u ´ltimas contribuciones en la Ec. (29.66) tambi´en surgen de la repulsi´ on electrost´ atica entre pares de electrones del sistema. En consecuencia, tanto el determinante de Slater como el valor esperado E [D] contienen la informaci´ on sobre la interacci´ on, a pesar de provenir de un modelo de part´ıcual independiente. La Ec. (29.66) es equivalente a (29.45), pero la Ec. (29.66) tiene la ventaja de on de Hartree-Fock. estar escrita en t´erminos de las soluciones λak de la ecuaci´ ————————————————— —————————————————–
Bibliograf´ıa [1] Robert M. Eisberg. Fundamentals of Modern Physics. John-Wiley & Sons, Inc. [2] Arthur Beiser. Perspectives of Modern Physics. McGraw-Hill International Editions, Physics Series (1969). [3] Frank J. Blatt. Modern Physics. McGraw-Hill International Editions, Physics Series (1992). [4] Claude Cohen-Tannoudji, Bernard Diu, Franck Lal¨ oe. Quantum Mechanics Vols. I, II English version published by Hermann and by John Wiley & Sons. Inc. Second Ed. (1977). [5] Di´ ogenes Campos Romero. Fundamentos de F´ısica At´ omica y Molecular. Editorial Universidad Nacional. Bogot´ a, Colombia (1997). [6] Jerry B. Marion, Stephen Thornton. Classical Dynamics of Particles and Systems. 5th Ed., Thomson Brooks/Cole (2004). [7] Leonard I. Schiff. Quantum Mechanics. 3rd Ed., McGraw-Hill International Editions, Physics Series (1968). [8] John S. Townsend. A modern Approach to Quantum Mechanics. McGraw-Hill International Editions, Physics Series (1992). [9] David J. Griffiths. Introduction to Quantum Mechanics. 2nd Ed., Pearson Prentice Hall (2005). [10] Fujia Yang, Joseph H. Hamilton. Modern Atomic and Nuclear Physics. McGraw-Hill International Editions, Physics & Astronomy Series (1996). [11] E. Kryachko, E. V. Lude˜ na. Energy Density Functional Theory of Many-Electron systems, Dordrecht, Kluwer Academic Publishers, (1990). [12] G. Esposito, G. Marmo and G. Sudarshan. From Classical to Quantum Mechanics, Cambridge University Press, (2004).
663