Teoría cuántica de Campos.
Esther Quintana Tudela
1. Introducción: 1.1. Campos. El desarrollo de la teoría cuántica de campos se llevó a cabo simultáneamente con el de la propia mecánica cuántica. Entre 1926 y 1928 se desarrollaron los primeros intentos de encontrar una ecuación de onda relativista, debidos al propio Erwin Schrödinger y a Paul Dirac. Por otro lado, en 1926 Werner Heisenberg, Pascual Jordan y Max Born calcularon el espectro de energías de la radiación en ausencia de cargas —el problema del cuerpo negro—, en el primer ejemplo de teoría cuántica de campos aplicada al campo electromagnético. Esto condujo a una reformulación de las mencionadas ecuaciones de onda relativistas, conocida como segunda cuantización, de forma que pasaron a describir campos en lugar de funciones de onda. Esta reinterpretación fue llevada a cabo por Heisenberg, Wolfgang Pauli, Vladimir Fock, Wendell Furry, Robert Oppenheimer y Victor Weisskopf. A pesar de sus éxitos iniciales, la teoría cuántica de campos tenía problemas teóricos muy serios. El cálculo de muchas cantidades físicas en apariencia inocuas, como las pequeñas correcciones a los niveles energéticos del electrón en el átomo de hidrógeno —la llamada estructura fina—, daba un valor infinito, un resultado sin sentido. Este «problema de las divergencias» fue resuelto durante las décadas de 1930 y 1940 por Julian Schwinger, Freeman Dyson, Richard Feynman y Shin'ichiro Tomonaga entre otros, a través de un proceso conocido como renormalización. Esta etapa culminó con el desarrollo de la moderna electrodinámica cuántica —QED, por Quantum Electrodynamics—. La técnica de los diagramas de Feynman, un procedimiento gráfico de cálculo desarrollado por Richard Feynman, se convirtió en una de las herramientas básicas de la teoría cuántica de campos. Comenzando la década de 1950 con el trabajo de Chen Ning Yang y Robert Mills, QED fue generalizada a una clase más general de teorías conocidas como teorías gauge. A finales de la década de 1960, Sheldon Glashow, Abdus Salam y Steven Weinberg unificaron las interacciones electromagnética y débil en la teoría electrodébil —una teoría gauge— mediante el concepto de ruptura espontánea de simetría, introducido originariamente para explicar la superconductividad. Sin embargo, la intensidad de las interacciones fuertes entre hadrones fue un desafío para los teóricos de campos hasta el desarrollo del concepto de libertad asintótica por Frank Wilczek, David Gross y Hugh David Politzer en 1973.También durante la década de 1970, la teoría cuántica de campos «rompió los grilletes de los diagramas de Feynman», al descubrirse que las soluciones no perturbativas de las ecuaciones de los campos clásicos juegan un papel crucial a nivel cuántico. La ecuación de Schrödinger, una de las más importantes de la mecánica cuántica, describe la evolución de un sistema cuántico en el tiempo. La forma convencional de esta ecuación es:
donde Ψ(r) ≡ Ψ(r1,...,rn) es la función de onda de n partículas, m su masa, y V su energía potencial. Sin embargo, en esta forma básica, la ecuación de Schrödinger no es capaz de describir algunos aspectos de ciertos sistemas físicos: Creación y destrucción: Durante la evolución de este sistema, el número de partículas se mantiene finito e invariable —a saber, n—. Sin embargo, en experimentos de altas energías es corriente que el número de partículas varíe —por ejemplo en la desintegración de un neutrón, o la aniquilación de un electrón y un positrón en fotones—, como consecuencia de la famosa relación masa-energía de la relatividad. Además, en el contexto de física del estado sólido, las excitaciones de un colectivo de átomos se reinterpretan como cuasipartículas, como el fonón, cuyo número es también variable. La ecuación de Schrödinger no es apropiada para describir estos sistemas en el que el número de cuerpos no es fijo. Invariancia relativista: Esta ecuación no refleja las propiedades de la cinemática relativista. Su límite clásico describe el movimiento de una partícula bajo las leyes de la mecánica galileana, en lugar de la mecánica relativista: el primer término de la izquierda en se corresponde con la energía cinética no relativista p2/2m, en lugar de la expresión relativista (p2c2+m2c4)1/2. Campo clásico: Las interacciones entre las n partículas del sistema tienen lugar mediante fuerzas a distancia, dadas por el portencial V. Sin embargo, en la física clásica existen sistemas más generales, que no pueden entenderse mediante este esquema. Es por ejemplo el caso de un conjunto de cargas eléctricas en movimiento: para describir su evolución es necesario tener en cuenta de forma independiente a las propias partículas cargadas, así como también al campo electromagnético que generan.En general, la ecuación no es válida para sistemas de campos continuos. Es posible modificar la ecuación de Schrödinger para hacerla invariante relativista, dando por resultado la ecuación de Klein-Gordon o la ecuación de Dirac. Sin embargo, estas ecuaciones tienen muchas propiedades insatisfactorias: por ejemplo, predicen la existencia de partículas con energía negativa, de modo que el sistema resulta ser inestable. Estos defectos son debidos a que dichas ecuaciones tampoco contemplan la posibilidad de que las partículas puedan crearse o destruirse y, como se menciona en el primer epígrafe, es inconsistente suponer una teoría relativista con un número constante de partículas en interacción. 1.2. Principios variacionales. 1.2.1. Cálculo de variaciones. El cálculo de variaciones es un problema matemático consistente en buscar máximos y mínimos (o más generalmente extremos relativos) de funcionales continuos definidos
sobre algún espacio funcional. Constituyen una generalización del cálculo elemental de máximos y mínimos de funciones reales de una variable. Uno de los problemas típicos en cálculo diferencial es el de encontrar el valor de x para el cual la función f(x) alcanza un valor extremo (máximo o mínimo). En el cálculo de variaciones el problema es encontrar una función f(x) para la cual un funcional I[f] alcance un valor extremo. El funcional I[f] está compuesto por una integral que depende de x, de la función f(x) y algunas de sus derivadas.
Donde la función f(x) pertenece a algún espacio de funciones (espacio de Banach, espacio de Hilbert), y tanto ella como sus derivadas pueden tener restricciones. Esta fórmula integral puede ser más complicada permitiendo a x ser un vector, y por lo tanto incluyendo derivadas parciales para f. 1.2.2. Principio de mínima acción. El principio de mínima o menor acción o principio de Hamilton es un presupuesto básico de la mecánica clásica y la mecánica relativista para describir la evolución a lo largo del tiempo del estado de movimiento de una partícula como de un campo físico. También en mecánica cuántica Feynman y Kac intentaron formulaciones inspiradas en el principio. 1.2.2.1. La integral de acción para partículas La formulación del principio para un sistema lagrangiano es: fijado un sistema de coordenadas generalizadas sobre el espacio de configuración (o una parte del mismo, llamada carta local), se tiene que de todas las trayectorias posibles que transcurren entre el instante t1 y t2, el sistema escogerá aquella que minimice la acción S. La magnitud acción viene dada para cada trayectoria por la integral:
Donde: son las coordenadas paramétricas de una trayectoria posible. es la función lagrangiana del sistema.
1.2.2.2. La integral de acción para campos La formulación anterior es adecuada para partículas puntuales, o incluso sistemas mecánicos con un número finito de grados de libertad aunque no sean puntuales como
un sólido rígido. Sin embargo para campos físicos que tienen una variación espacial o para la mecánica de medios continuos la formulación anterior no es adecuada y debe generalizarse. La generalización más obvia es definir la acción como la integral de una función escalar, denominada densidad lagrangiana integrada sobre el volumen donde existe el campo o medio continuo:
En teoría clásica de campos es frecuente escribir la ecuación anterior de forma totalmente covariante:
1.2.2.3. Principio de mínima acción en mecánica relativista: Partículas: En mecánica relativista la acción de una partícula se obtiene mediante cálculo a lo largo de la línea de universo de una partícula, concretamente una partícula material de masa m se mueve a lo largo de una geodésica. La integral de acción a lo largo de una curva L viene dada en coordenadas curvilíneas por:
, Si se introduce en las ecuaciones de Euler-Lagrange el integrando de la anterior integral se obtienen las ecuaciones de las geodésicas:
, Campos: Un campo físico es cualquier tipo de magnitud que presenta variación tanto espacial como temporal. El tratamiento de este tipo de entidades físicas requiere el tratamiento mediante densidades lagrangianas, ya que no son representables como sistemas con un número finito de grados de libertad. Además su tratamiento riguroso generalmente requiere el uso de la mecánica relativista para explicar su propagación. Los campos con los que usualmente trata la teoría clásica de campos:
Campo electromagnético, que es el campo asociado a la interacción de partículas cargadas, y que en última instancia explica las propiedades de la materia
convencional, como las propiedades de sólidos, líquidos y gases, fenómenos como el color, la luz, etc. Campo gravitatorio, es un tipo de campo relativamente débil, comparado con el campo electromagnético, pero al ser acumulativo su efecto, es el único relevante a escala cósmica para explicar la evolución del universo.
La integral de acción para el campo electromagnético viene dado por un escalar construido a partir del tensor campo electromagnético:
De hecho este lagrangiano puede reescribirse en términos de los campos elétrico y magnético para dar (en unidades cgs):
Introduciendo este lagrangiano en las ecuaciones de Euler-Lagrange, el resultado son las ecuaciones de Maxwell no homogéneas. En relatividad general el campo gravitatorio es visto como una manifestación de la geometría curva del espacio tiempo, por tanto la formulación lagrangiana del campo gravitatorio relativistamente tratado debe involucrar a algún escalar relacionado con el tensor métrico y sus derivadas primeras (equivalentemente los símbolos de Christoffel ) o con el tensor de curvatura. Puede probarse que no es posible hallar ningún escalar que involucre sólo las componentes del tensor métrico y los símbolos de Christoffel, ya que mediante cierta transformación de coordenadas se pueden anular éstos últimos (lo cual es precisamente el contenido del llamado principio de equivalencia). Es interesante que la curvatura escalar R, nos da una forma de acción adecuada: aunque contiene derivadas segundas del tensor métrico, la variación de su integral de acción sobre una región puede acabar expresándose en términos de sólo derivadas primeras. De hecho la forma común de la integral de acción para el campo gravitatorio más comúnmente en la teoría de la relatividad general es:
Donde: , es la curvatura escalar del espacio-tiempo. , son la constante de la gravitación y la velocidad de la luz. son las componentes de la métrica (pseudo)riemanniana efectiva.
, es el determinante del tensor métrico. Algunas teorías métricas de la gravitación como la teoría relativista de la gravitación usan lagrangiano ligeramente más complicado que incluye términos asociados a la masa del gravitón. Si se substituye la integral de acción anterior en las ecuaciones de EulerLagrange se obtienen como resultado las ecuaciones de campo de Einstein. 1.3. Formalismo lagrangiano. 1.3.1. Lagrangiano. En física, un lagrangiano es una función matemática a partir de la cual se pueden obtener la evolución temporal, las leyes de conservación y otras propiedades importantes de un sistema físico. De hecho, en física moderna el lagrangiano se considera el objeto más fundamental que describe un sistema físico. El formalismo lagrangiano permite alcanzar, tanto las leyes de Newton como las ecuaciones de Maxwell, los cuales pueden ser derivados como las ecuaciones de EulerLagrange de un lagrangiano clásico. Igualmente la forma del lagrangiano determina las propiedades básicas del sistema en teoría cuántica de campos. En mecánica clásica la función lagrangiana de un sistema conservativo, denotada mediante L, es simplemente la diferencia entre su energía cinética, T, y su energía potencial, V. El dominio apropiado del lagrangiano es un espacio de fases, y debe obedecer las ecuaciones de Euler-Lagrange. El concepto fue utilizado originalmente en una reformulación de la mecánica clásica conocida como la mecánica lagrangiana. En coordenadas generalizadas este lagrangiano toma usualmente la forma:
, Donde es el tensor métrico del espacio euclídeo expresado en las coordenadas generalizadas coorrespondientes, que sólo depende de las propias coordenadas de las velocidades . En mecánica relativista la acción de una partícula se obtiene mediante cálculo a lo largo de la línea de universo de una partícula, concretamente una partícula material de masa m se mueve a lo largo de una geodésica. La integral de acción a lo largo de una curva L viene dada en coordenadas curvilíneas por:
1.3.1.1. Lagrangiano en teoría clásica de campos Un campo físico es cualquier tipo de magnitud que presenta variación tanto espacial como temporal. El tratamiento de este tipo de entidades físicas requiere el tratamiento mediante densidades lagrangianas, ya que no son representables como sistemas con un
número finito de grados de libertad. Además su tratamiento riguroso generalmente requiere el uso de la mecánica relativista para explicar su propagación. Los campos con los que usualmente trata la teoría clásica de campos:
Campo electromagnético, que es el campo asociado a la interacción de partículas cargadas, y que en última instancia explica las propiedades de la materia convencional, como las propiedades de sólidos, líquidos y gases, fenómenos como el color, la luz, etc. Campo gravitatorio, es un tipo de campo relativamente débil, comparado con el campo electromagnético, pero al ser acumulativo su efecto, es el único relevante a escala cósmica para explicar la evolución del universo. Campos cuánticos tratados clásicamente, que permiten formular primeras aproximaciones para campos libres que resultan útiles cuando se trata la evolución de campos cuánticos con interacción. 1.3.1.2. Lagrangiano del campo electromagnético
El lagrangiano del campo electromagnético viene dado por un escalar construido a partir del tensor campo electromagnético:
De hecho este lagrangiano puede reescribirse en términos de los campos eléctrico y magnético para dar (en unidades cgs):
Introduciendo este lagrangiano en las ecuaciones de Euler-Lagrange, el resultado son las ecuaciones de Maxwell y aplicando una transformación de Legrendre generalizada se obtiene la expresión de la energía electromagnética:
1.3.1.3. Lagrangiano del campo gravitatorio En relatividad general el campo gravitatorio es visto como una manifestación de la geometría curva del espacio tiempo, por tanto la formulación lagrangiana del campo gravitatorio relativistamente tratado debe involucrar a algún escalar relacionado con el tensor métrico y sus derivadas primeras (equivalentemente los símbolos de Christoffel ) o con el tensor de curvatura. Puede probarse que no es posible hallar ningún escalar que involucre sólo las componentes del tensor métrico y los símbolos de
Christoffel, ya que mediante cierta transformación de coordenadas se pueden anular éstos últimos (lo cual es precisamente el contenido del llamado principio de equivalencia). Es interesante que la curvatura escalar R, nos da una forma de acción adecuada: aunque contiene derivadas segundas del tensor métrico, la variación de su integral de acción sobre una región puede acabar expresándose en términos de sólo derivadas primeras. De hecho la forma común de la integral de acción para el campo gravitatorio más comúnmente en la teoría de la relatividad general es:
Algunas teorías métricas de la gravitación como la teoría relativista de la gravitación usan lagrangiano ligeramente más complicado que incluye términos asociados a la masa del gravitón:
Donde: , es la curvatura escalar del espacio-tiempo. , son la constante de la gravitación y la velocidad de la luz. son las componentes de la métrica (pseudo)riemanniana efectiva y del espacio de Minkowski subyacente. , se calculan a partir de los determinantes de la métrica efectiva y minkowskiana, calculados en las mismas coordenadas. , es la masa del gravitón.
1.3.1.4. Lagrangiano en teoría cuántica de campos En mecánica cuántica el lagrangiano es un funcional definido sobre el espacio de Hilbert del sistema físico bajo consideración. En teoría cuántica de campos generalmente los campos son distribuciones sobre definidas sobre el espacio-tiempo cuyos valores son operadores. En teoría cuántica de campos el lagrangiano de interacción, determina la forma del exponente de la exponencial del propagador. Como usualmente dicha exponencial se computa como serie de potencias en que cada término se asocia a un diagrama de Feynman.
1.3.1.5. Lagrangiano para la ecuación de Dirac La ecuación de Dirac describe partículas fermiónicas de espín 1/2, de hecho la ecuación describe a dichas partículas como un campo fermiónico. Esa ecuación del campo fermiónico que representa las partículas se puede derivar de una densidad lagrangiana. En concreto para un campo fermiónico libre sin interacción la densidad lagrangiana de la que se puede derivar la ecuación de Dirac viene dada por:
Donde: es un espinor de Dirac que representa el campo fermiónico de partículas. es el adjunto de Dirac del espinor anterior. es la derivada parcial respecto a las coordenadas. 1.3.1.6. Lagrangiano para QED El lagrangiano de la electrodinámica cuántica o QED incluye un campo campo de gauge conmutativo que representa el análogo cuántico potencial electromagnético en interacción con partículas cargadas de tipo fermiónico (electrones, quarks, ...). El lagrangiano habitual de partida para QED suele tomarse como:
Donde: es el el campo ferminónico que representa las partículas con carga eléctrica. es el campo adjunto de Dirac. , son las matrices de Dirac que intervienen en forma covariante de la ecuación de Dirac para los fermiones. , es la carga eléctrica de la partícula. , es el tensor de campo electromagnético. , es la derivada covariante asociada al campo.
1.3.1.7. Lagrangiano de QCD La cromodinámica cuántica o QCD que describe la interacción entre los quarks y el campo de gluones puede ser descrita mediante la siguiente acción euclídea, con lagrangiano dado por:
Donde: , espinor de Dirac que representa los campos fermiónicos que describen los quarks (y su adjunto de Dirac). representa las matrices de Dirac. , es la derivada covariante asociada al campo gauge gluónico. , es el tensor de campo gluónico, análogo al tensor campo electromagnético. , son las matrices de Gell-Mann para su(3) que satisfacen la reglas de conmutación es el espinor del campo "fantasma" de Faddeev–Popov. 1.3.2. Las Ecuaciones de Euler-Lagrange. Las ecuaciones de Euler-Lagrange son las condiciones bajo las cuales cierto tipo de problema variacional alcanza un extremo. Aparecen sobre todo en el contexto de la mecánica clásica en relación con el principio de mínima acción aunque también aparecen en teoría clásica de campos (electromagnetismo, Teoría general de la relatividad). 1.3.2.1. Caso discreto En mecánica clásica, estas ecuaciones establecen que la integral de acción para un sistema físico es un mínimo. Los sistemas de partículas o sistemas discretos pueden tienen un número finito de grados de libertad, y en esos casos la integral de acción es del tipo:
Y su correspondiente variación viene dada por:
Si se impone ahora que
para variaciones "cercanas", esto implica que:
donde L es el lagrangiano para el sistema, y xa son las coordenadas generalizadas del sistema. 1.3.2.2. Caso continuo La formalización de ciertos problemas físicos requiere construir una integral de acción sobre un sistema continuo que no puede ser tratado mediante un número finito de variables o grados de libertad. Así en teoría de campos y mecánica de medios continuos la acción física puede expresarse como una integral sobre un volumen:
Donde
es el elemento de volumen que usualmente viene dado por una n-forma y representan las variables del campo y sus derivadas respecto a las coordenadas espaciales (o espacio-temporales). Cuando la acción toma esa forma las ecuaciones de Euler-Lagrange para el campo que minimiza la anterior integral, usando el convenio de sumación de Einstein, vienen dadas por:
1.3.2.3. Ecuaciones de Euler-Lagrange en geometría Las ecuaciones de Euler-Lagrange pueden ser usadas para encontrar fácilmente la ecuación de las curvas geodésicas en una variedad de Riemann o "espacio curvo". Para ello consideremos un conjunto de coordenadas (x1, ...xn) sobre una región abierta U de la variedad de Riemann VR donde el tensor métrico viene dado por la expresión:
Puesto que dados dos puntos cualesquiera de VR las geodésicas son las líneas de mínima longitud entre ellos podemos plantear el siguiente problema variacional, para el cuadrado de la longitud de una curva:
La minimización de la expresión anterior al ser la raíz una función monótona, es equivalente a la minimización de una integral de acción donde el lagrangiano sea:
De ahí que la ecuación diferencial de las geodésicas venga dada por:
La ecuación anterior de hecho puede, usando la simetría del tensor métrico, escribirse como:
Que en términos de los símbolos de Christoffel (de primera o segunda especie) sencillamente como:
Donde se han definido los símbolos de Christoffel como a partir de las derivadas del tensor métrico y el tensor inverso del tensor métrico:
1.4. Grupos, Álgebra y representaciones de Lie. 1.4.1. El grupo de Lie.
En matemática, un grupo de Lie es una variedad diferenciable real o compleja que es también un grupo tal que las operaciones de grupo: multiplicación e inversión son funciones analíticas. Los grupos de Lie son importantes en análisis matemático, física y geometría porque sirven para describir la simetría de estructuras analíticas. Fueron introducidos por Sophus Lie en 1870 para estudiar simetrías de ecuaciones diferenciales. Los grupos de Lie se clasifican con respecto a sus propiedades algebraicas (simple, semisimple, resoluble, nilpotente, abeliano), su conexidad (conexo o no conexo) y su compacidad. Si G y H son grupos de Lie (reales o complejos ambos), entonces un homomorfismo de grupo-de-Lie- f: G → H es un homomorfismo de grupo que es también una función analítica. (Se puede demostrar que es equivalente a requerir solamente que sea función continua.) La composición de dos tales homomorfismos es otra vez un homomorfismo, y la clase de todos los grupos de Lie (reales o complejos), junto con estos morfismos, forma una categoría. Dos grupos de Lie se dicen isomorfos si existe un homomorfismo biyectivo entre ellos cuyo inverso es también un homomorfismo. Los grupos de Lie isomorfos no necesitan, para cualquier propósito práctico, ser distinguidos; se diferencian solamente en la notación de sus elementos. 1.4.2. Álgebra de Lie. En matemática, un álgebra de Lie es la estructura algebraica que describe un conjunto de transformaciones infinitesimales. Su uso principal reside en el estudio de objetos geométricos tales como grupos de Lie y variedades diferenciables. A cada grupo de Lie, podemos asociar un álgebra de Lie que captura totalmente la estructura local del grupo. Un álgebra de Lie A es un espacio vectorial sobre un cierto cuerpo F junto con una operación binaria [·, ·] : A × A -> A, llamada corchete de Lie, que satisface las propiedades siguientes:
es bilineal, es decir, [a x + b y, z] = a [x, z] + b [y, z] y [z, a x + b y] = a [z, x] + b [z, y] para todo a, b en F y todo x, y, z en A.
satisface la identidad de Jacobi, es decir, [[x, y], z] + [[z, x], y] + [[y, z], x] = 0 para todo x, y, z en A.
[x, x] = 0 para todo x en A.
Observe que la primera propiedad y la tercera juntas implican [x, y] = − [y, x] para todo x, y en A ("anti-simetría") si el cuerpo F es de característica diferente de dos. Observe también que la multiplicación representada por el corchete de Lie no es, en general, asociativa, es decir, [[x, y], z] no necesariamente es igual a [x, [y, z]]. Un homomorfismo φ : A -> B entre las álgebra de Lie A y B sobre el mismo cuerpo de base F es una función F-lineal tal que [φ(x),φ(y)] =φ([x, y]) para todo x y y en A. La composición de tales homomorfismos es otra vez un homomorfismo, y las álgebras de
Lie sobre el cuerpo F, junto con estos morfismos, forman una categoría. Si tal homomorfismo es biyectivo, se llama un isomorfismo, y las dos álgebras de Lie A y B se llaman isomorfas. Para todos los efectos prácticos, las álgebras de Lie isomorfas son idénticas. Una subalgebra del álgebra de Lie A es un subespacio vectorial B de A tal que [x, y] ∈ B para todo x, y ∈ B. i.e. [B, B] ⊆ B. La subalgebra es entonces un álgebra de Lie. Un ideal del álgebra de Lie A es un subespacio vectorial I de A tales que [a, y ] ∈ I para toda a ∈ A y y ∈ I. i.e. [A, I] ⊆ I. Todos los ideales son subalgebras. Si I es un ideal de A, entonces el espacio cociente A/I se convierte en una álgebra de Lie definiendo [x + I, y + I] = [x, y] + I para todo x, y ∈ A. Los ideales son precisamente los núcleos de homomorfismos, y el teorema fundamental de homomorfismos es válido para las álgebras de Lie. Las álgebras de Lie reales y complejas se pueden clasificar hasta un cierto grado, y esta clasificación es un paso importante hacia la clasificación de los grupos de Lie. Cada álgebra de Lie real o compleja finito-dimensional se presenta como el álgebra de Lie de un único grupo de Lie simplemente conexo real o complejo (teorema de Ado), pero puede haber más de un grupo, aún más de un grupo conexo, dando lugar a la misma álgebra. Por ejemplo, los grupos SO(3) (matrices ortogonales 3×3 de determinante 1) y SU(2) (matrices unitarias 2×2 de determinante 1), ambos dan lugar a la misma álgebra de Lie, a saber R³ con el producto vectorial. Un álgebra de Lie es abeliana si el corchete de Lie se anula, es decir [x, y] = 0 para todo x e y. Más generalmente, un álgebra de Lie A es nilpotente si la serie central descendente A ⊇ [A, A] ⊇ [[A, A]], A] ⊇ [[[A, A]], A], A] ⊇... acaba haciéndose cero. Por el teorema de Engel, un álgebra de Lie es nilpotente si y solo si para cada x en A, la función ad(x): A -> A definida por ad(x)(y) = [x, y] es nilpotente. Más generalmente aún, un álgebra de Lie A es soluble si la serie derivada A ⊇ [A, A] ⊇ [[A, A]], [A, A]] ⊇ [[[A, A]], [A, A]],[[A, A]], [A, A]]] ⊇ ... acaba haciéndose cero. Una subálgebra soluble maximal se llama una subálgebra de Borel. Un álgebra de Lie A se llama semisimple si el único ideal soluble de A es trivial. Equivalente, A es semisimple si y solamente si la forma de Killing K(x, y) = tr(ad(x)ad(y)) es no-degenerada; aquí tr denota el operador de traza. Cuando el cuerpo F es de característica cero, A es semi-simple si y solamente si cada representación es totalmente reducible, esto es, que para cada subespacio invariante de la representación hay un complemento invariante (teorema de Weyl). Un álgebra de Lie es simple si no tiene ningún ideal no trivial. En particular, un álgebra de Lie simple es semi-simple, y más generalmente, las álgebras de Lie semi-simples son suma directa de simples. Las álgebras de Lie complejas semi-simples se clasifican a través de sus sistemas de raíz.
1.5. Grupo de Lorentz. El producto escalar euclídeo se puede expresar en términos matriciales < x, y > = xt·I·y, donde los vectores se escriben como matrices columna. Si G = diag(1,….,1,-1,…..-1) p
q
con p+q = n, se puede definir un nuevo producto(·,·) mediante G: ∑ Si A es una matriz real no singular nxn, entonces:
Comparando con la expresión para (x, y), resulta que (Ax, Ay) = (x, y) para todo x, y pertenecientes a si y solo si . Con O(p,q) se denota al grupo pseudo-ortogonal, constituido por los automorfismos de que preservan el producto (·,·). Por lo anterior: ∈ El grupo de Lorentz es isomorfo a al grupo ortonormal generalizado , es decir, el grupo de transformaciones lineales que deja invariante la métrica del espacio de Minkowski o grupo de isometría del espacio de Minkowski. Matemáticamente está formado por cualquier matriz que satisfaga la relación:
O en forma matricial más compacta:
El grupo de Lorentz no es el conjunto más general de transformaciones que dejan invariantes las ecuaciones de la teoría general de la relatividad, ya que no incluye las traslaciones espacio-temporales. De hecho, el grupo de Lorentz es el subgrupo maximal del grupo de Poincaré tal que no incluye las traslaciones. 1.5.1. Subgrupos.
El grupo de Lorentz está formado por cuatro componentes conexas, algunos de los subgrupos más importantes que dicho grupo son:
El subgrupo con transformaciones de Lorentz cuyo determinante es igual a 1. El subgrupo de Lorentz de trasformaciones propias, que es un subgrupo del anterior tal que todas las transformaciones dentro de él cumplen que Λ00 > 0.
El subgrupo de rotaciones en isomorfo a , que es un subgrupo del anterior. El subgrupo de transformaciones ortocrono formado por todas aquellas transformaciones tales que Λ00 > 0.
1.5.2. Transformación de Lorentz. Las transformaciones de Lorentz, dentro de la teoría de la relatividad especial, son un conjunto de relaciones que dan cuenta de cómo se relacionan las medidas de una magnitud física obtenidas por dos observadores diferentes. Estas relaciones establecieron la base matemática de la teoría de la relatividad especial de Einstein, ya que las transformaciones de Lorentz precisan el tipo de geometría del espacio-tiempo requeridas por la teoría de Einstein. Las transformaciones de Lorentz relacionan las medidas de una magnitud física realizadas por dos observadores inerciales diferentes, siendo el equivalente relativista de la transformación de Galileo utilizada en física hasta aquel entonces. La transformación de Lorentz permite preservar el valor de la velocidad de la luz constante para todos los observadores inerciales. Una de las consecuencias de que —a diferencia de lo que sucede en la mecánica clásica— en mecánica relativista no exista un tiempo absoluto, es que tanto el intervalo de tiempo entre dos sucesos, como las distancias efectivas medidas por diferentes observadores en diferentes estados de movimiento son diferentes. Eso implica que las coordenadas de tiempo y espacio medidas por dos observadores inerciales difieran entre sí. Sin embargo, debido a la objetividad de la realidad física las medidas de unos y otros observadores son relacionables por reglas fijas: las transformaciones de Lorentz para las coordenadas. Para examinar la forma concreta que toman estas transformaciones de las coordenadas se consideran dos sistemas de referencia inerciales u observadores inerciales: y y se supone que cada uno de ellos representa un mismo suceso S o punto del espacio-tiempo (representable por un instante de tiempo y tres coordenadas espaciales) por dos sistemas de coordenadas diferentes:
Puesto que los dos conjuntos de cuatro coordenadas representan el mismo punto del espacio-tiempo, estas deben ser relacionables de algún modo. Las transformaciones de Lorentz dicen que si el sistema está en movimiento uniforme a velocidad a lo largo del eje X del sistema y en el instante inicial ( ) el origen de coordenadas de
ambos sistemas coinciden, entonces las coordenadas atribuidas por los dos observadores están relacionadas por las siguientes expresiones:
O equivalentemente por las relaciones inversas de las anteriores:
Donde es la velocidad de la luz en el vacío. Las relaciones anteriores se pueden escribir también en forma matricial:
Donde se ha introducido para abreviar las expresiones el factor de Lorentz y la velocidad relativa respecto de la luz:
La transformación de Lorentz anterior toma esa forma en el supuesto de que el origen de coordenadas de ambos sistemas de referencia sea el mismo para t = 0; si se elimina esta restricción la forma concreta de las ecuaciones se complica. Si, además, se elimina la restricción de que la velocidad relativa entre los dos sistemas se dé según el eje X y que los ejes de ambos sistemas de coordenadas sean paralelos, las expresiones de la transformación de Lorentz se complican más aún, denominándose la expresión general transformación de Poincaré. Hasta ahora se ha considerado sólo sistemas inerciales en movimiento relativo respecto al eje X, pero igualmente se podría haber considerado sistemas de ejes paralelos respecto a los ejes Y y Z y, en ese caso, las matrices de transformación de coordenadas vendrían dadas por matrices similares a las consideradas en los apartados anteriores de la forma:
Las transformaciones anteriores se llaman a veces boosts, rotaciones espacio-temporales o a veces transformaciones de Lorentz propiamente dichas. El producto de cualquier número de transformaciones del tipo anterior constituye también una transformación de Lorentz. Todos esos productos conforman un subgrupo del grupo de Lorentz propio. En general el grupo de Lorentz propio está formado por:
Rotaciones espacio-temporales o boosts, que pueden escribirse como el producto de un número finito de boosts del tipo [*]. Rotaciones espaciales, consistentes en un giro de ejes. Este tipo de transformación también forma parte del grupo de Galileo.
El grupo de Lorentz propio así definido es un grupo de Lie conexo. Si a estas transformaciones propias se le añaden transformaciones impropias como las inversiones temporales y las reflexiones espaciales resulta el grupo de Lorentz completo, formado por cuatro componentes conexas cada una de ellas homeomorfa al grupo de Lorentz propio. Una vez definido el grupo de Lorentz podemos escribir las transformaciones lineales más generales posibles entre medidas tomadas por observadores inerciales cuyos ejes de coordenadas coinciden en el instante inicial:
Donde además del boost que da la transformación de coordenadas según la velocidad de separación relativa se han incluido las dos rotaciones en términos de los ángulos de Euler:
La matriz R(φ1,φ2,φ3) alinea el primer sistema de coordenadas de tal manera que el eje X transformado pase a ser paralelo a la velocidad de separación de los dos sistemas. La matriz R(θ1,θ2,θ3) es la rotación inversa de la que alinearía el eje X del segundo observador con la velocidad de separación.
En forma más compacta podemos escribir la última transformación en forma tensorial usando el convenio de sumación de Einstein como:
1.5.3. Transformaciones de Lorentz para el momento y la energía. El requerimiento de covariancia de la teoría de la relatividad requiere que cualquier magnitud vectorial de la mecánica newtoniana venga representada en mecánica relativista por un cuadrivector o cuadritensor en teoría de la relatividad. Así, el momento lineal requiere ser ampliado a un cuadrivector llamado cuadrivector energíamomento o cuadrimomento, que viene dado por cuatro componentes, una componente temporal (energía) y tres componentes espaciales (momentos lineales en cada dirección coordenada):
Cuando se examina los cuadrimomentos medidos por dos observadores inerciales, se encuentra que ambos miden componentes diferentes del momento según su velocidad relativa a la partícula observada (algo que también sucede en mecánica newtoniana). Si se denota al cuadrimomento medido por dos observadores inerciales y con sistemas de coordenadas cartesianas de ejes paralelos y en movimiento relativo según el eje X, como los que se consideraron en el apartado anterior, los cuadrimomentos medidos por ambos observadores están relacionados por una transformación de Lorentz dada por:
Y la transformación inversa viene dada similarmente por:
O equivalentemente en forma matricial los dos conjuntos anteriores de ecuaciones se representan como:
Donde se ha introducido de nuevo para abreviar las expresiones el factor de Lorentz y la velocidad relativa respecto de la luz. 1.5.4. Transformaciones de Lorentz en forma tensorial. Supongamos ahora que en lugar de medir magnitudes vectoriales dos observadores se ponen a medir las componentes de alguna otra magnitud tensorial, supongamos que los observadores y miden en sus sistemas de coordenadas la misma magnitud tensorial pero cada uno su propio sistema de coordenadas llegando a:
El postulado de que existe una realidad objetiva independiente de los observadores y que las medidas de estos pueden ser comparadas mediante las transformaciones de covariancia adecuadas conduce a que si estos observadores son inerciales sus medidas estarán relacionadas por las siguientes relaciones:
Donde las matrices Λ se definen, al igual que el apartado anterior mediante el producto de dos rotaciones espaciales y una rotación temporal (boost) simple. 1.6. Teorema de Noether. El teorema de Noether es un resultado central en física teórica. Expresa que la existencia de ciertas simetrías abstractas en un sistema físico comporta la existencia de las leyes de conservación. El teorema se denomina así por la matemática Emmy Noether, quien lo formuló. Además de permitir aplicaciones físicas prácticas, este teorema constituye una explicación de por qué existen leyes de conservación y magnitudes físicas que no cambian a lo largo de la evolución temporal de un sistema físico. El teorema de Noether relaciona pares de ideas básicas de la física: una es la invariancia de la forma que una ley física toma con respecto a cualquier transformación (generalizada) que preserve el sistema de coordenadas (aspectos espaciales y temporales tomados en consideración), y la otra es la ley de conservación de una cantidad física. Informalmente, el teorema de Noether se puede establecer como: A cada simetría (continua) le corresponde una ley de conservación y viceversa. El enunciado formal del teorema deriva una expresión para la cantidad física que se conserva (y, por lo tanto, también la define) de la condición de invariancia solamente. Por ejemplo:
la invariancia con respecto a la (dirección del eje de) rotación da la ley de conservación del momento angular. la invariancia de sistemas físicos con respecto a la traslación (dicho simplemente, las leyes de la física no varían con la localización en el espacio) da la ley de conservación del momento lineal. la invariancia con respecto a (la traslación en) el tiempo da la ley de conservación de la energía.
Al subir a la teoría cuántica de campos, la invariancia con respecto a la transformación general de gauge da la ley de la conservación de la carga eléctrica, etcétera. Así, el resultado es una contribución muy importante a la física en general, pues ayuda a proporcionar intuiciones de gran alcance en cualquier teoría general en física, con sólo analizar las diversas transformaciones que harían invariantes la forma de las leyes implicadas. Rotaciones y momento angular
Cuando el lagrangiano de un sistema físico presenta simetría rotacional, es decir, existe un grupo de transformaciones isomorfo a un subgrupo unidimensional del grupo de rotaciones o grupo especial ortogonal entonces existe una magnitud física conservada llamada momento angular que tiene un valor constante a lo largo de la evolución temporal. Es decir, dicha magnitud no cambia de valor a medida que el sistema evoluciona, razón por la cual dicha magnitud se llama constante del movimiento o magnitud conservada. Traslaciones y momento lineal
Análogamente si el lagrangiano de un sistema físico es invariante bajo cierto grupo uniparamétrico de traslaciones entonces existe una componente del momento lineal paralela a dichas traslaciones que no varía con el tiempo, a medida que el sistema evoluciona. Es decir, a pesar de que el estado de movimiento de una partícula o el estado físico del sistema varíe, dicha magnitud física siempre mantiene el mismo valor, por complicada que sea la evolución del sistema. Invariancia temporal y energía De modo similar al caso anterior, la independencia del tiempo del lagrangiano, puede ser vista como una invariancia frente a "traslaciones temporales". En este caso la magnitud conservada es el Hamiltoniano o la integral de Jacobi-Painlevé. En un sistema natural si el lagrangiano no depende explícitamente del tiempo se tiene que la energía se conserva. Es decir, en cualquier en la evolución temporal del sistema la energía no cambia de valor. Invariancia gauge y carga En el contexto de la teoría cuántica de campos la existencia de una simetría gauge abstracta del lagrangiano que describe la interacción electromagnética implica que existe una magnitud conservada que puede identificarse con la carga eléctrica, dado que el grupo de simetría gauge del campo electromagnético es el grupo unitario U(1) la magnitud conservada es un escalar. Análogamente, aunque ligeramente más complicado, es el caso de la interacción débil y la interacción fuerte, cuyos grupos de simetría gauge son SU(2) y SU(3), que no son conmutativos y llevan a la conservación de la carga de sabor y la carga de color. 1.6.1. Enunciado y demostración.
El teorema de Noether implementa un procedimiento natural para encontrar cantidades conservadas de un lagrangiano a partir de las simetrías continuas que posee. Aquí vamos a obtener este teorema de forma constructiva. Comenzamos por considerar una transformación infinitesimal de la forma
Supongamos que esta transformación es tal que deja invariantes las ecuaciones del movimiento, es decir, deja la acción invariante, S’=S. En este contexto, la variación no tiene porque conmutar con la derivación parcial, ya es la diferencia de dos términos con argumentos distintos. Por lo tanto, nos será útil considerar la variación con argumentos iguales,
Desarrollando
alrededor de x’=x,
Donde hemos considerado tan solo variaciones de primer orden, y además hemos tenido en cuenta que . Por lo tanto, tenemos:
Por otra parte, la variación de la acción vendrá dada en función de la variación de la densidad lagrangiana,
Donde . Para escribir las dos integrales para la misma variable de integración, debemos utilizar un cambio de variable entre ambas. El jacobiano de la transformación será de la forma
El determinante a primer orden es:
Con lo que la expresión para la variación de la acción queda:
Dado que todos los integrandos son de primer orden en las variaciones, podemos pasar todas las integrales a la variable x (sin prima) sin ningún jacobiano, ya que este nos daría contribución de segundo orden:
La variación de la densidad lagrangiana será:
El primer término se anula por las ecuaciones del movimiento, por lo que finalmente tenemos:
Si
, esto significa que existe un vector conservado:
Llamado corriente de Noether tal que . La versión integral de esta conservación, teniendo en cuenta las componentes espaciales y temporales, nos da
Donde la segunda integral se puede escribir como una integral a la superficie, que se anulara. Por lo tanto, vemos que la integral a todo el volumen de j0 es una constante del movimiento, que conocemos como carga de Noether.
Existe una versión más sencilla, pero menos potente, del teorema de Noether donde no se tiene en cuenta la variación del campo debido a la variación de su argumento. En este caso, no es necesario definir la variación de tipo , pero a la hora de aplicar el teorema es necesario tener en cuenta cual es la variación a causa de la variación de su argumento. En el caso más general que hemos presentado, tan solo es necesario incluir aquellas variaciones del campo debidas al cambio en su forma funcional. 1.6.2. Ejemplos de amplificación del teorema de Noether. Para profundizar en el estudio del teorema de Noether, resolvemos algunos ejemplos de interés. EJEMPLO 1 (simetría de translaciones). Estudiamos transformaciones del tipo:
Donde es el vector de translación. En este caso, el campo no sufre ninguna variación intrínseca . Dado que el parámetro de la transformación tiene un índice, la corriente de Noether tendrá un segundo índice extra:
Y, por lo tanto, tendremos cuatro cargas conservadas para
:
Para i=1, 2, 3. Estas cargas se interpretan físicamente como la energía y el momento total. Por lo tanto, tal y como ocurre en la mecánica de Newton, la energía se conserva si el sistema es invariante bajo translaciones temporales, y el momento es constante si hay invariancia ante cambios en el origen de coordenadas. EJEMPLO 2 (Simetrías internas). En este caso consideraremos un sistema descrito por una serie de campos, , que es invariante ante transformaciones del tipo:
Sin variación en el sistema de coordenadas, x’=x. En este caso la corriente de Noether es:
Y la carga conservada:
EJEMPLO 3 (Simetrías de fase global). Consideramos el lagrangiano de un campo escalar complejo de masa m:
Que es obviamente simétrico respecto de la transformación de fase global:
Donde
es constante. En este caso, la corriente de Noether se obtiene considerando como campos independientes:
EJEMPLO 4 (Transformaciones de Lorentz). Las transformaciones de Lotentz se representan mediante aquellas matrices que dejan invariante la métrica de Minkowski,
Comencemos por caracterizar una transformación de Lorentz infinitesimal, ,
Y por tanto tenemos
Consideramos la transformación infinitesimal de las coordenadas y el campo:
Donde son los generadores infinitesimales de las transformaciones de Lorentz, que satisfacen el algebra de Lie:
Una posible representación de este algebra es Noether en esta ocasión es:
. La corriente de
Y en este caso, las cargas conservadas tienen dos índices:
Resultado de interés considerar las componentes espaciales de estas cargas
Donde:
Que están asociadas con el momento angular orbital y de spin, respectivamente. Las componentes M0i están relacionadas con la conservación de las coordenadas del centro de masas y no son de nuestro interés. En el grupo de Poincare, que agrupa las translaciones espacio temporales, con carga de Noether , y las transformaciones de Lorentz, generadas por , define la llamada algebra de Poincare, que cumple las relaciones:
1.6.3. Obtención de la simetría a partir de las cargas.
Una de las ventajas de la versión del teorema de Noether que hemos presentado es que dada la carga conservada podemos recuperar cual es la simetría que la garantiza. De hecho, se puede demostrar que la variación a argumentos iguales se puede escribir como el corchete de Poisson del campo con la carga:
Para demostrarlo, tan solo tenemos que calcular el corchete de Poisson según su definición:
Que es la expresión para
.
1.7. El campo electromagnético y ondas electromagnéticas. Un campo electromagnético es un campo físico, de tipo tensorial, producido por aquellos elementos cargados eléctricamente, que afecta a partículas con carga eléctrica. Fijado un sistema de referencia podemos descomponer convencionalmente el campo electromagnético en una parte eléctrica y en una parte magnética. Sin embargo, un observador en movimiento relativo respecto a ese sistema de referencia medirá efectos eléctricos y magnéticos diferentes, lo cual ilustra la relatividad de lo que llamamos parte eléctrica y parte magnética del campo electromagnético. Como consecuencia de lo anterior tenemos que ni el "vector" campo eléctrico ni el "vector" de inducción magnética se comportan genuinamente como magnitudes físicas de tipo vectorial, sino que juntos constituyen un tensor para el que sí existen leyes de transformación físicamente esperables.
Campo electromagnético en teoría de la relatividad En electrodinámica clásica y sobre todo en teoría de la relatividad el campo electromagnético se representa por un tensor 2-covariante y antisimétrico, cuyas componentes son las componentes de lo que en cada sistema de referencia se reflejan como parte eléctrica y parte magnética del campo:.....
Fuerza de Lorentz
La fuerza de Lorentz puede escribirse de forma mucho más sencilla gracias al tensor de campo electromagnético que en su escritura vectorial clásica: (expresión vectorial)
(expresión tensorial relativista) Ecuaciones de Maxwell
Las ecuaciones de Maxwell también toman formas muy sencillas en términos del tensor de campo electromagnético:
Donde en la última expresión se ha usado el convenio de sumación de Einstein y donde la magnitud Jα es el cuadrivector de corriente que viene dado por:
Potencial vector
La forma de las ecuaciones de Maxwell permite que sobre un dominio simplemente conexo (estrellado) el campo electromagnético puede expresarse como la derivada exterior de un potencial vector, lo cual facilita enormemente la resolución de dichas ecuaciones. Usando el convenio de sumación de Einstein tenemos:
Relación que escrita más explícitamente en componentes es:
2. Campos escalares reales y complejos, masivos y son masa, corrrientes conservadas. 2.1. Campos escalares reales. Ahora aplicaremos la cuantización del oscilador armónico al campo escalar libre. Escribimos y como combinación lineal de un numero infinito de operadores creación y aniquilación, etiquetados por el trimomento ⃗
Las relaciones de conmutación para y son equivalentes a las siguientes relaciones de conmutación para los operadores escalera
Esto es fácil de comprobar. Asumimos que
Entonces
Ahora calcularemos el Hamiltoniano en términos de los operadores creación y aniquilación
Ahora, usando la
expresión para la frecuencia
⃗
⃗
, el primer término
desaparece, dejándonos
En este punto nos encontramos con una función delta, evaluada en cero, donde tiene un pico infinito. Además la integral sobre
⃗
diverge para
grande.
Para enfrentarnos a esto, primero observaremos el estado fundamental, donde este infinito aparece explícitamente. 2.2. Campos escalares complejos. Consideremos ahora un campo escalar complejo
con el Lagrangiano
Las ecuaciones de movimiento serán
Donde la segunda ecuación es el complejo conjugado de la primera. Si desarrollamos el operador de campo complejo como suma de ondas planas
Dado que el campo clásico no es real, el campo cuántico correspondiente no es hermítico. Esta es la razón de que tengamos operadores diferentes y en los términos de las frecuencias positivas y negativas. El momento clásico del campo es
Que convertimos en un operador cuántico de la forma
Las relaciones de conmutación entre campos y momentos vienen dadas por
Además de las relaciones típicas debidas a la conjugación compleja. Se puede ver que estas relaciones de conmutación del campo son equivalentes a las relaciones de conmutación para los operadores ⃗ y ⃗
y
Resumiendo, cuantizar un campo escalar complejo da lugar a dos operadores de creación,
⃗
y
⃗
. Estos operadores tienen la interpretación de la creación de dos tipos
de partículas, ambos de masa M y spin cero. Se interpretan como partículas y antipartículas. Al contrario del campo escalar real, donde solo existía un tipo de partícula, para el campo escalar complejo cada partícula tiene su propia antipartícula.
La teoría tiene una carga conservada clásica
Que podemos transformar en el operador cuántico
cuenta el número de anti-partículas, menos el ] una magnitud conservada, tenemos que [ demasiado importante, porque tanto como adelante veremos que en teorías de interacción mientras que y individualmente no.
número de partículas. Dado que Q es . Para nuestra teoría libre esto no es se conservan por separado, pero más sigue siendo una cantidad conservada,
2.3. Campos escalares masivos (Partículas). Es fácil verificar que
Lo que significa que, como en el oscilador armonico, podemos construir los autoestados de energía actuando sobre el vacío con
⃗.
Dado
Este estado tiene energía
Donde
Esta es la relación de dispersión relativista para una partícula de masa ⃗
y trimomento
Interpretamos el estado ⃗⟩ como el momento del autoestado de una única partícula de masa m. Para recalcar esto, de ahora en adelante escribiremos ⃗ en lugar de ⃗ . Comprobaremos esta interpretación estudiando otros números cuánticos de ⃗⟩.
Podemos tomar el momento total clásico ⃗⃗, y escribirlo como un operador. Tras normalizarlo nos queda
Actuando sobre nuestro estado ⃗⟩ con ⃗⃗, vemos que es realmente un autoestado
Que nos dice que el estado ⃗⟩ tiene momento ⃗ Otra propiedad de ⃗⟩ que podemos estudiar es su momento angular. Una vez más, tomaremos la expresión clásica del momento angular total de un campo y la convertiremos en un operador
⟩ No es difícil ver que al actuar sobre el estado partícula con momento cero, ⃗ , lo que se interpreta como que la partícula no posee momento angular interno. En otras palabras, la cuantización del campo escalar da lugar a una partícula de spin 0. Podemos crear múltiples estados partícula haciendo actuar muchas veces . Interpretamos el estado en que actúan sobre el vacío como un estado n-partícula
. Dado que todos los conmutan entre ellos, el estado es simétrico bajo el intercambio de dos partículas. Por ejemplo
Esto significa que dichas partículas son bosones. El espacio de Hilbert de nuestra teoría se abarca por completo actuando sobre el vacío con todas las combinaciones posibles de .
Este espacio se conoce como Espacio de Fock. El espacio de Fock es simplemente la suma de los espacios de Hilbert de n-partículas, para todo . Existe un operador útil que cuenta el número de partículas de un estado concreto en el espacio de Fock. Se llama operador número N.
Y satisface que
] Este operador conmuta con el Hamiltoniano, [ , asegurando que el número de partículas se conserva. Esto significa que podemos colocarnos en un sector de nparticular, y seguir ahí. Esta es una propiedad de las teorías libres, pero no seguirá siendo cierta cuando consideremos interacciones. Las interacciones crean y destruyen particular, moviéndonos entre diferentes sectores del espacio de Fock. Aunque nos estemos refiriendo a los estados ⃗⟩ como particular, estos no están localizados en el espacio, son autoestados del momento. Recordemos que en mecánica cuántica los autoestados de la posición y el momento no son buenos elementos de un espacio de Hilbert, dado que no son normalizables. De forma similar, en teoría cuántica de campos ni los operadores ⃗ ni ⃗ son buenos operadores sobre el espacio de Fock, dado que no producen estados normalizables. Son distribuciones evaluadas en operadores, en lugar de funciones. Esto significa que aunque ⃗ tiene un valor esperado en el vacío bien definido, las fluctuaciones del operador sobre un punto fijado son infinitas.
Podemos construir operadores bien definidos dispersando estas distribuciones sobre el espacio. Por ejemplo, podemos crear un paquete de ondas
Que está parcialmente localizado tanto en el espacio de momentos como en el de posiciones.
3. Campos escalares lineales con fuentes, propagadores, desarrollo en ondas planas de campos escalares en el vacío. 3.1. Microcausalidad.
La amplitud de probabilidad de que una partícula se propague de viene dada por
(
)
Esta última integral se puede resolver de forma aproximada mediante el método de la máxima pendiente. Para una separación de tipo espacial, , y para una gran separación radial, , se obtiene
Que nunca se anula de forma exacta. Por lo tanto, las partículas pueden viajar a velocidades superiores a la de la luz. Sin embargo, esto no viola el principio de causalidad, ya que no implica la posibilidad de transmitir información a velocidades hiperluminicas. La condición que debemos pedir para garantizar la causalidad es que el hacho de efectuar dos acciones en dos puntos del espacio tiempo, x e y, separados por un vector de tipo espacial, no se afecten mutuamente; dicho de otra forma, que conmuten,
(FIGURA: Circuito de integración para el propagador retardado. El radio se debe hacer tender a infinito) El cálculo para comprobar que se cumple la formula anterior es trivial
Dado que la separación x-y es un cuadrivector de tipo espacio, podemos realizar un cambio de sistema de referencia tal que x0-y0=0, y dado que integramos a todo el espacio de trimomentos, los dos términos de la ecuación anterior se cancelan exactamente. Otros resultados interesantes y que nos serán de utilidad posteriormente son los siguientes
3.2. Campos escalares lineales con propagadores. Preparamos una partícula en un punto encontraremos en un punto ?
del espaciotiempo. ¿Qué amplitud
La función se conoce como propagador. Para separaciones de género espacio decae rápidamente como una exponencial, pero no se anula.
El campo cuántico se escapa del cono de luz. Antes hemos visto que las medidas de genero espacio conmutan, y que la teoría es causal. Para unir ambas cosas reescribimos el conmutador
Si Cuando se cumple que no existe manera invariante Lorentz de ordenar eventos. Si una particula puede viajar en una dirección de genero espacio de , puede hacerlo también de . En cualquier medida, las amplitudes de estos dos eventos se cancelan. ] Con un campo escalar complejo podemos echar un ojo a la ecuación [ fuera del cono de luz. La interpretación es que la amplitud de una partícula propagándose de cancela la amplitud de la antipartícula que viaja de . De hecho, esta es también la interpretación en el campo escalar real, dado que cada partícula es su propia antipartícula. Existe otra forma de presentar el propagador. Esto es utilizar una función de Green del operador de Klein-Gordon. Manteniéndonos lejos de las singularidades, tenemos
Es esta derivación no hemos hecho uso del contorno, pero para algunos propósitos es útil usar los contornos que dan lugar a las funciones de Green.
Por ejemplo, la función de Green atrasada, que viene dada por el contorno de la izquierda, y que tiene la propiedad de
La función de Green atrasada es útil en teoría clásica de campos si conocemos el valor inicial de alguna configuración y queremos saber cómo evolucione en presencia de
alguna fuente. Queremos conocer la solución de la ecuación inhomogenea de KleinGordon para alguna función .
De forma similar podemos construir la función adelantada que se anula para , lo que es útil si queremos conocer el estado inicial de una configuración a partir de su estado actual. 3.3. Desarrollo en ondas planas de campos escalares en el vacío. Siguiendo el mismo procedimiento que con el oscilador armonica, definiremos el vacío ⟩, imponiendo que es aniquilado por cualquier ⃗
Con esta definición, la energía del estado fundamental viene del segundo término de la ecuación para hallada al final del apartado anterior
El objetivo de la teoría cuántica de campos es enfrentarse a los infinitos. Cada uno nos dice algo importante, normalmente que estamos haciendo algo mal, o haciendo la pregunta equivocada. Ahora veremos de donde aparece este infinito y qué hacer con él. Realmente hay dos infinitos diferentes en nuestra expresión. El primero aparece debido a que el espacio es infinitamente grande (divergencia infrarroja) . Para extraer este infinito pondremos nuestra teoría en una caja de lado , imponemos condiciones de contorno periódicas al campo, y finalmente tomamos el límite cuando
Donde es el volumen de la caja. Entonces la divergencia de aparece porque estamos calculando la energía total, en lugar de la densidad de energía. Para llegar a la densidad de energía podemos simplemente dividir entre el volumen
Lo que sigue siendo infinito. Vemos que es la suma las energías de los estados fundamentales de cada uno de los osciladores armónicos, pero debido al límite
de la integral ⃗ . Este infinito aparece al asumir que la teoría es válida para distancias arbitrariamente cortas, correspondientes a energías arbitrariamente altas (divergencia ultravioleta). Esto es absurdo. Podemos tratar este infinito de una manera práctica. En física solo estamos interesados en medir diferencias de energías. No existe un modo de medir directamente, por lo que simplemente redefinimos el Hamiltoniano eliminando ese infinito.
De manera que con esta nueva definición
⟩
.
Normalización relativista: Hemos definido el vacío, ⟩ que se normaliza como ⟨ ⟩ entonces satisfacen particula ⃗⟩ ⃗
⟩
. Los estados una-
¿Es esto invariante Lorentz? Supongamos que tenemos una transformación de Lorentz
Tal que el trivector transforma como ⃗ ⃗ . En teoría cuántica lo deseable sería que los dos estados estuviesen relacionados mediante una transformación unitaria.
Esto significaría que la normalización de ⃗⟩ y ⃗ ⟩ sería la misma siempre que ⃗ y ⃗ estuviesen relacionadas mediante una transformación de Lorentz. Pero eso no es realmente lo que tenemos. En general
Para una función desconocida
⃗ ⃗ . ¿Cómo solucionamos esto?
Lo que tenemos que hacer es buscar un objeto que sepamos que es invariante Lorentz. Ese objeto es el operador identidad de los estados una-particula. Tras normalizarlo, sabemos que viene dado por
Este operador es invariante Lorentz, pero está formado por dos términos, la unidad y el proyector ⃗⟩⟨ ⃗ , que de forma individual no son invariantes Lorentz. ∫ Para construir una unidad invariante Lorentz, tomaremos ∫ , que es un invariante Lorentz. Y la relación de dispersión relativista para una partícula masiva, que también lo es.
Resolviendo para obtenemos dos ramas de soluciones: ⃗ . Pero la elección de rama es otro concepto invariante Lorentz. Uniéndolo todo, la siguiente combinación debe ser un invariante Lorentz.
La unidad invariante es entonces
Entonces obtenemos que la función
invariante Lorentz para los trivectores es
Que viene de que
Los estados momento relativista normalizados vienen dados por
Que ahora satisfacen
Y por último podemos reescribir la identidad para los estados una-partícula como
3.4. Propagador retardado. Volvamos a considerar el conmutador del operador campo en dos puntos diferentes, ahora considerando una separación arbitraria, no necesariamente de tipo espacio,
Si consideramos x0>y0, para simplificar esta igualdad podemos hacer uso de la igualdad
Donde la integración se hace sobre el contorno de la figura anterior. El factor (-1) se debe incluir ya que la integración se hace en el sentido de las agujas del reloj. En el momento de calcular los polos hemos tenido en cuenta que .
(FIGURA: Prescripción para el paso de los polos en el propagador de Feynman). En el caso y0>x0, el circuito de integración debe cerrarse por el semiplano superior, y por lo tanto no contiene ningún polo, por lo que la integración da cero. Esto nos permite definir el propagador retardado,
Para comprobar que el propagador es, en efecto, una función de Green retardada asociada a la ecuación de Klein-Gordon, debemos comprobar que dicho propagador cumple la ecuación de Klein-Gordon inhomogenea, donde el termino inhomogeneo es proporcional a la delta de Dirac en todas las variables,
El ultimo término de la segunda igualdades nulo. Teniendo en cuenta que la derivada de la función paso de Heaviside es la delta de Dirac, esta ecuación se escribe de la forma
Finalmente obtenemos el resultado deseado
El hecho de que el propagador retardado corresponda a la función de Green retardada del sistema nos permite calcularlo empleando toda la potencia del método de las funciones de Green. En particular, el propagador retardado se puede calcular realizando la transformada de Fourier de la ecuación de Klein-Gordon para el propagador.
4. La ecuación de Dirac, representaciones espinoriales del Grupo de Lorentz y covariancia relativisra, corrientes conservadas, desarrollo en ondas planas de las soluciones de la ecuación de Dirac en el vacío. 4.1. La ecuación de Dirac.
En esta sección describiremos la ecuación de Dirac, cuya cuantización da lugar a las partículas fermionicas de spin ½ . De forma general, un campo puede transformar como
Donde las matrices que
[ ] forman una representación del grupo de Lorentz. Implicando
[ ] [ ] [ ] Y que y que . ¿Cómo buscamos las diferentes representaciones? Tenemos que fijarnos en las transformaciones infinitesimales del grupo de Lorentz y estudiar el álgebra de Lie resultante. Si escribimos
Para
infinitesima, entonces la condición para una transformación de Lorentz
Implica que
debe ser antisimetrica
Una matriz antisimetrica tiene componentes independientes, lo que encaja con las seis transformaciones básicas del grupo de Lorentz. Introduciremos ahora una base para estas matrices. Llamaremos a estas matrices , con , índices atisimetricos. La antisimetría de estos índices nos dice que, por ejemplo , con lo que nos etiquetan seis matrices diferentes. Estas matrices también son antisimetricas en los índices . Con esta notación podemos escribir una base para seis matrices como
antisimetricas
Donde los índices son los de las matrices, mientras que denotan con que elemento de la base estamos trabajando. Para usar estas matrices de manera practica tendremos, casi siempre, que bajar uno de los índices, con lo que nos quedaría
Al haberlo bajado mediante la métrica de Minkowski, aceptamos varios signos menos que hacen que, al escribirlas de esta forma, las matrices no tengan por qué seguir siendo siempre antisimetricas. Dos ejemplos son
La primera genera los boosts en la dirección . Es real y simétrica. La segunda genera rotaciones en el plano . Es real y antisimetrica. Ahora podemos escribir cualquier como combinación lineal de las
Donde son simplemente seis números que nos indican que transformación de Lorentz estamos haciendo. Las seis matrices se llaman generadores de las transformaciones de Lorentz. Los generadores obedecen las relaciones del algebra de Lie del grupo de Lorentz
Una transformación de Lorentz finita podemos entonces expresarla como exponencial
Ahora tenemos un campo nuevo con el trabajar, el espinor de Dirac , y queremos construir una ecuación del movimiento que sea invariante Lorentz. Para ello, tenemos que construir una acción que sea invariante Lorentz. Cojamos una representación del algebra de Clifford, que satisfaga que ( )
. Entonces para
y que
tenemos
Que, por otro lado, significa que
Y que
Sabiendo esto, definimos el adjunto de Dirac.
A partir del espinor de Dirac y su adjunto ahora podemos construir escalares de Lorentz ̅ y vectores de Lorentz ̅ , que nos implican que
Y tensores de Lorentz ̅
).
Ahora que tenemos estos tres objetos podemos tratar de construir una acción invariante Lorentz. Realmente solo necesitamos los dos primeros, y con ellos planteamos
Que se conoce como acción de Dirac. Esta teoría, tras la cuantización, describe partículas y antipartículas de masa y .
La ecuación de movimiento aparece de la acción anterior al variarla con respecto a ̅ de forma independiente.
y
Variándola respecto a ̅ tenemos
Esta es la ecuación de Dirac. Y variando respecto a
obtenemos la ecuación conjugada
La ecuación de Dirac es una ecuación de primer orden en las derivadas, y aun así invariante Lorentz. Si hubiésemos tratado de escribir ecuaciones de movimiento de primer orden para campos escalares, habrían aparecido necesariamente un vector privilegiado de espacio tiempo, lo que no es invariante Lorentz, pero para el campo espinorial, el uso de las matrices nos conserva la invariancia. La ecuación de Dirac mezcla diferentes componentes de mediante matrices , no obstante cada una de esas componentes individuales es solución de la ecaución de Klein Gordon.
Con
Dejándonos
Donde la última ecuación no posee matrices componente , con .
, y por tanto se aplica a cada
Ahora introduciremos algo de notación. En adelante muchas veces tendremos que escribir cuadrivectores contraídos con matrices . Escribiremos
Con esta notación la ecuación de Dirac sería
4.2. Representaciones espinoriales del Grupo de Lorentz y covariancia relativista.
Estamos interesados en encontrar otras matrices que satisfagan las relaciones de conmutación anteriormente expuestas. Lo que vamos a construir se conoce como Representación Espinorial. Para ello empezamos trabajando con el álgebra de Clifford.
Donde , con , son un conjunto de cuatro matrices, y el 1 en el lado derecho representa la matriz unidad. Esto significa que tenemos que encontrar cuatro matrices tales que para satisfagan que
Y que
No existen representaciones del algebra de Clifford usando matrices o . La representación más simple que se puede construir se hace en términos de matrices . Existen muchos ejemplos de matrices de este último grupo que satisfacen el álgebra de Clifford, por ejemplo una puede ser
Donde
Son las matrices de Pauli, que satisfacen por si mismas que {
}
Se pueden construir muchas representaciones del algebra de Clifford cogiendo para cualquier matriz invertible . Pero resulta que solo existe una representación irreducible. Las matrices anteriores se conocen como representación quiral o representación de Weyl. De aquí en adelante solo consideraremos representaciones del algebra de Clifford que se relaciones con la representación quiral mediante transformaciones unitarias de . ¿Pero que tiene esto que ver con el grupo de Loretnz? Consideremos el conmutador de dos
Estas matrices tienen la propiedad de que
Las matrices que
forman una representación del algebra de Lorentz, lo que significa
Espirones: Las son matrices , porque lo son. Hasta ahora no le hemos dado índices a las filas y columnas de estas matrices. Las llamaremos simplemente . Necesitamos un campo sobre el que las matrices pueden actuar. Introducimos el campo espinorial de Dirac , un objeto con cuatro componentes complejas etiquetadas como . Bajo transformaciones de Lorent tenemos
Donde
Tanto como [ ] son matrices . ¿Cómo podemos estar ahora seguros de que esta representación espinorial es algo nuevo y no es equivalente a la representación típica ? Para ver que son diferentes, compararemos algunas transformaciones específicas. Rotaciones
Si escribimos los parámetros de la rotación como la rotación es
Donde tenemos que recordar que
, entonces la matriz de
.
Considerando ahora una rotación de ángulo alrededor del eje ⃗⃗ y la matriz espinorial de rotación es
, tenemos que
Entonces, bajo rotaciones de ángulo
Que definitivamente no es lo que le ocurre a un vector. Boosts
Escribiendo los parámetros del boost como
tenemos
Espinores Quirales Cuando hemos necesitado una forma explícita de las matrices representación quiral
, hemos utilizado la
Em esta representación ya hemos calculado la transformación de rotación [ boost [ ], y ambos son diagonales por cajas.
] y el
Esto significa que la representación espinrial de Dirac del grupo de Lorentz es reducible. Se descompone en dos representaciones irreducibles, actuando solo sobre espinores de dos componentes , que están definidos como
Los objetos de dos componentes se llaman espinores de Weyls o espinores quirales. Transforman de la misma manera bajo rotaciones.
Y bajo boosts como
La Ecuación de Weyl Veamos ahora en que se convierte el Lagrangiano de Dirac al descomponerlo en espinores de Weyl
Donde hemos introducido notación nueva para las matrices de Pauli con
Los fermiones con masa requieren tanto como , dado que se acoplan en el termino de masa. Pero un fermión sin masa puede describirse con solo uno de los dos, con una de las siguientes ecuaciones de movimiento:
Estas son las ecuaciones de Weyl.
Las matrices del grupo de Lorentz [ ] son diagonales por cajas porque elegimos la representación
De hecho, por esta razón esta representación se conoce como quiral, porque la descomposición del espinor de Dirac viene dada por
¿Pero qué ocurre si elegimos una representación diferente del algebra de Clifford? Una tal que
Ahora [ ] no serán diagonales por bloques. ¿Hay alguna manera invariante de definir los espinores quirales? Podemos hacerlo introduciendo
Que satisface que
La razón por la que esto se llama
es porque el conjunto de matrices
Con
satisfacen el álgebra de Clifford de cinco dimensiones
Tambien se puede comprobar que
Lo que significa que
es un escalar bajo rotaciones y boosts.
Debido a estas propiedades podemos formar elos operadores de proyección invariantes Lorentz
De forma que
y
, y en la representación quiral
De donde vemos que los operadores proyectan sobre los espinores de Weyk . De todas formas, para una representación arbitraria del algebra de Clifford, podemos usar para definir los espinores quirales
Que forman las representaciones irreducibles del grupo de Lorentz. espinor “a derechas”, mientras que es “a izquierdas”.
suele llamarse
Paridad Los espinores están relacionados entre ellos mediante paridad. Ahora nos pararemos un momento a definir este concepto. El grupo de Lorentz se define por unas transformaciones tales que
De momento solo hemos considerado transformaciones conectadas con la identidad de forma continua. Pero hay también dos transformaciones de simetría discretas incluidas en el grupo de Lorentz, la inversión de tiempo y paridad .
Paridad juega un papel muy importante en el modelo estándar y, concretamente, en la interacción débil. Bajo paridad se los espinores a izquierdas y a derechas se intercambian. Este viene de las transformaciones de los espinores bajo el grupo de Lorentz. En la representación quiral, las rotaciones y los boosts de los espinores de Weyl tienen la forma
Bajo paridad, las rotaciones se mantienen invariantes, pero los boosts cambian de signo. Esto nos confirma que
Y si ⃗ paridad
satisface la ecuación de Dirac, entonces el espinor transformado por ⃗ también la satisface, implicando que
Interacciones Quirales Veamos cómo cambian nuestros términos de interacción bajo paridad. Para ello nos fijaremos en los objetos a partir de los que hemos construido nuestra acción.
Que es la transformación de un escalar. Para el vector ̅ componentes espaciales y temporales por separado
Que nos dice que ̅ signo.
, podemos trabajar con las
transforma como un vector, con la parte espacial cambiando de
Pero ahora también conocemos , y podemos formar otro escalar de Lorentz y otro vector. ̅ y ̅ . ¿Cómo transforman bajo paridad?
Lo que significa que ̅ un vector axial.
transforma como un pseudoescalar y ̅
lo hace como
Con estos nuevos términos de podemos modificar nuestra Lagrangiano para construir nuevas teorías. En general estos términos romperán la invariancia bajo paridad, aunque esto no es siempre cierto. En la naturaleza esta violación de paridad, mediante , aparece en la interacción débil. Una teoría que trate que diferencie y
de la misma manera se llama teoría vectorial, mientras que una es una teoría quiral.
Fermiones de Majorana Nuestro espinor es un objeto complejo. Debe serlo porque la representación [ ] normalmente es también compleja. Esto significa que si vamos a intentar conseguir un real, por ejemplo imponiendo que , este no seguirá siendo real tras realizar una transformación de Lorentz. Pero hay una manera de imponer una condición de realidad al espinor de Dirac. Para motivar esta posibilidad nos fijaremos en una de las bases del algebra de Clifford, conocida como la base de Majorana.
Estas matrices satisfacen el álgebra de Clifford. Lo que tienen de especial, es que todas son imaginarias puras . Esto significa que los generadores del grupo de Lorentz y las matrices [ ] son reales. Con esta base del algebra de CLifford podemos trabajar con espinores reales simplemente imponiendo la condición , que ahora si es preservada bajo transforamciones de Lorentz. Estos espinores se llaman espinores de Majorana. Pero ¿Qué ocurre si utilizamos una base general del algebra de CLifford? Vamos a pedir solo que esta base satisfaga que y que ( ) la carga conjugada del espinor de Dirac como
Donde
es una matriz
que satisface
. Entonces definiremos
En primer lugar comprobaremos que Lorentz
transforma bien bajo transformaciones de
No solo transforma como esperábamos, sino que si Dirac, entonces también lo es. Este se ve en que
es solución de la ecuación de
Por ultimo imponemos la condición de realidad invariante Lorentz al espinor de Dirac, para producir el espinor de Majorana
La cuantización del espinor de Majorana da lugar a un fermión que es su propia antipartícula. Este es exactamente el mismo caso del campo escalar, donde vimos que un campo escalar real daba lugar a un bosón de spin 0 que era su propia antipartícula. Y ¿Qué es la matriz ? En la base de Majorana, donde las matrices gamma son imaginarias, simplemente tenemos que y la condición de Majorana es simplemente . En la base quiral, solo es imaginaria, y tenemos entonces que . Podemos descomponer un espinor de Majorana en términos de espinores de Weyls como
4.3. Corrientes conservadas. La ecuación de Dirac disfruta de un buen número de simetrías, a continuación hablaremos de algunas de ellas y de sus corrientes conservadas asociadas. Traslaciones espaciotemporales Bajo traslaciones de espacio tiempo el espinor transforma como
El Lagrangiano depende de energía-impulso
, pero no de
̅ , con lo que obtenemos un tensor de
Dado que una corriente se conserva solo si se obedecen las ecuaciones de movimiento, no perdemos nada por imponer las ecuaciones de movimiento alrededor del tensor de energía impulso. Para el campo espinor, donde las ecuaciones de movimiento son de primer orden, tenemos que , dejándonos
Y una energía total
Transformaciones de Lorentz Bajo una transformación de Lorentz infinitesimal, el espinor de Dirac transforma como
Donde tenemos que
Y donde
Son los generadores del algebra de Lorentz, que tras sustituirlos en la ecuación nos dicen que . Dejandonos
La corriente conservada que aparece debido a las transformaciones de Lorentz se encuentra mediante los mismos cálculos que hicimos en el primer capítulo para el campo escalar, con dos diferencias. La primera es que, como antes, , la segunda es que tenemos un término extra debido al segundo término de nuestra ecuación. Al final tenemos
Que tras la cuantización, cuando lo convirtamos en un operador, nos dará, debido al término extra, estados partícula con momento angular interno. Concretamente a partículas de spin ½ . Simetría interna vectorial El Lagrangiano de Dirac es invarante bajo cambios de fase del espinor, eso nos da la corriente
Donde significa vector, reflejando el hecho de que ambas componentes de transforman de la misma manera bajo esta simetría. Es faicl comprobar que es una corriente conservada bajo las ecuaciones de movimiento
La carga conservada que surge de esta simetría es
Que tiene la interpretación de carga eléctrica, o número de partícula, para los fermiones. Simetría Axial Cuando el Lagrangiano de Dirac admite una simetría interna extra, que rota fermiones a izquierdas y a derechas en su dirección opuesta.
Esto nos da una corriente conservada
Donde cuando
significa axial, dado que esto es un vector axial. Esta corriente se conserva . Podemos calcular, con el Lagrangiano de Dirac completo
Que solo se anula para
.
4.4. Desarrollo en ondas planas de las soluciones de la ecuación de Dirac en el vacío. Pasemos ahora a estudiar las soluciones de la ecuación de Dirac
Empezaremos por un simple ansatz
Donde ⃗ es un espinor de cuatro componentes, independiente del espacio tiempo . La ecuación de Dirac entonces se convierte en
Donde estamos usando las definiciones
Esa ecuación tiene como solución
Para cualquier espinor de dos componentes
que se pueda normalizar como
.
Encontramos más soluciones a la ecuación de Dirac del ansatz
Las soluciones del primer ansatz, que oscilan en el tiempo como , se conocen como soluciones de frecuencia positiva. Las del segundo, que lo hacen como se conocen como soluciones de frecuencia negativa. Es importante recordar que ambas son soluciones de ecuaciones clásicas de campo y tienen energía positiva. La ecuación de Dirac requiere que los espinores de cuatro componentes que
⃗ satisfagan
Cuya solución es
Para espinores
de 2 componentes que podamos normalizar como
5. Campo de Dirac con fuentes, propagadores. La visión original de Dirac acerca de su ecuación era la de que se trataba de una versión relativista de la ecuación de Schrödinger, con interepretada como la función de onda para una única partícula con spin. Para reforzar esta interpretación, escribió
Como
Donde ⃗ ⃗y un estado una-partícula.
. Aquí, el operador ̂ se interpreta como el Hamiltoniano de
Este es un punto de vista radicalmente diferente del actual, donde es un campo clásico que debe ser cuantizado. Desde el punto de vista de Dirac, el Hamiltoniano del sistema es ̂ , mientras que para nosotros el Hamiltoniano es el operador del campo. Indaguemos un poco hacía donde nos lleva la visión de Dirac. Con la interpretación de como la función de onda de una única particula, las soluciones de onda plana a la ecuación de Dirac se interpretan como autoestados de energía con
Que tienen el aspecto de soluciones de energía positiva y negativa. El espectro carece, de nuevo, de límite inferior. Hay estados ⃗ con energía arbitrariamente baja. A primera vista esto es un completo desastre, pero Dirac postuló una ingeniosa solución a este problema. Dado que los electrones son fermiones, obedecen el principio de exclusión de Pauli, con lo que podemos simplemente estipular que en el vacío autentico todos los estados de energía negativa están ya ocupados. Solo los estados de energía positiva son accesibles. Estos estados ocupados de energía negativa se conocen como mar de Dirac. Aunque podría ser preocupante pensar en la carga infinita negativa del vacío, Dirac argumentó que solo serían observables las diferencias de carga. Tras evitar el desastre creando un mar infinito de estados de energía negativos, Dirac se dio cuenta de que su teoría hacía una predicción impactante. Supongamos que un estado de energía negativo es excitado a un estado de energía positivo, dejando tras de sí un agujero. El agujero tendría las propiedades de un electrón, salvo por la carga, que sería positiva: el positrón. Ademas, cuando el positrón se encontrase con un electrón, ambos podrían aniquilarse. Dirac había predicho la antimateria. Aunque la intuición física de Dirac le llevó a la respuesta correcta, ahora sabemos que su interpretación no es correcta. 5.1. Propagadores. Pasemos ahora a la imagen de Heisenberg. Definimos los espinores punto del espacio tiempo, tal que satisfacen
Lo resolvemos con el desarrollo
Y definimos el propagador femionico usando anticonmutadores
Que, en adelante, escribiremos como
⃗
en cada
Metiendo los desarrollos anteriores, tenemos
Podemos entonces escribir
En términos del propagador para un campo escalar real que, como recordatorio, se escribe
6. Cuantificación canónica de campos escalares, espacio de Fock, propagador de Feyman. 6.1. Cuantificación canónica de campos escalares.
En Mecánica Cuántica, la cuantización canónica es una receta que nos lleva desde el formalismo Hamiltoniano de la dinámica clásica a la teoría cuántica. Esta receta nos dice que cojamos coordenadas generalizadas y sus momentos generalizados y los convirtamos en operadores. El corchete de Poisson de la mecánica clásica se transforma en la estructura de las relaciones de conmutación entre operadores. En unidades donde
En teoría de campos hacemos lo mismo, ahora para el campo ⃗ y su momento conjugado ⃗ . De este modo un campo cuántico es una función evaluada en operadores del espacio, que obedece las relaciones de conmutación
Debe hacerse notar que, al separar el espacio y el tiempo, hemos perdido la invariancia Lorentz. Estamos trabajando en la imagen de Schrödinger, de modo que los operadores ⃗ y ⃗ no dependen del tiempo. Toda la dependencia temporal descansa en los estados ⟩ que evolucionan mediante la ecuación de Schrödinger
Es recomendable tener cuidado por la notación de los estados. Pese a lo simple que parece, si fuésemos a escribir la función de onda en una teoría cuántica de campos, dicha función de onda sería un funcional. La información típica que querremos conocer de la teoría cuántica, es el espectro del Hamiltoniano. Esto es, por lo general, muy difícil. Una de las razones de que esto ocurra es que tenemos un número infinito de grados de libertad, al menos uno para cada punto del espacio. Pero para algunas teorías, conocidas como teorías libres, tenemos un modo de escribir la dinámica de modo que cada grado de libertad evolucione independientemente del resto. Las teorías de campo libre suelen tener Lagrangianos con dependencias cuadráticas en los campos, de modo que las ecuaciones de movimiento sean lineales. La teoría libre relativista más sencilla es la ecuación de Klein-Gordon para un campo escalar real.
Para exponer las coordenadas en que los grados de libertad se desacoplan unos de otros, simplemente tenemos que tomar la transformada de Fourier
Entonces
⃗
satisface
De modo que, para cada valor de ⃗, armónico vibrando con frecuencia
⃗
es solución dela ecuación de un oscilador
La solución general de la ecuación de Klein-Gordon es una superposición lineal de osciladores armónicos simples, cada uno vibrando a diferente frecuencia con diferente amplitud. Para cuantizar ⃗ debemos cuantizar este número infinito de osciladores armónicos. 6.2. El oscilador armónico simple. Consideremos el Hamiltoniano de la mecánica cuántica
] Con las relaciones de conmutación canonicas [ . Para hallar el espectro definimos los operadores de creación y aniquilación (operadores escalera)
Que pueden invertirse fácilmente para darnos
Sustituyendo en las expresiones anteriores tenemos que
Mientras que el Hamiltoniano viene dado por
Se puede ver fácilmente que los conmutadores entre el Hamiltoniano y los operadores escalera están dados por
Estas relaciones entre los operadores escalera nos mueven entre autoestados de energía. ⟩ ⟩, podemos construir el Sea ⟩ un autoestado con energía , para el que resto de autoestados haciendo actuar los operadores de creación y aniquilación.
Encontramos así que el sistema tiene una escalera de estados con energías
Si la energía tiene un mínimo, debe haber un estado fundamental ⟩ . Este tendrá una energía de estado fundamental
Los estados excitados que aparecen de aplicar
⟩ que satisfaga que
repetidas veces serán
Con
6.3. Espacio de Fock. El espacio de Fock , en mecánica cuántica es un espacio de Hilbert especial, que se construye como suma directa de productos tensoriales de otro espacio de Hilbert dado . Este espacio se usa para describir el estado cuántico de un sistema formado por un número variable o indeterminado de partículas. Recibe su nombre de Vladimir Fock.
Representación del espacio de Fock, cada cuadro representa un sumando de la suma directa usada para definir el espacio completo. Técnicamente, el espacio de Fock es el espacio de Hilbert preparado como suma directa de los productos tensoriales de los espacios de Hilbert para una partícula:
donde Sν es el operador que simetriza (o antisimetriza) el espacio, de forma que el espacio de Fock describa adecuadamente a un conjunto de bosones ν=+ (o fermiones ν=-). H es el espacio de Hilbert para una sola partícula. Esta forma de combinación de H, que resulta en un espacio de Hilbert "mayor" (el espacio de Fock), contiene estados para un número arbitrario de partículas. Téngase en cuenta de que aunque el espacio es aparene mayor, el espacio de Fock es un espacio de Hilbert separable y por tanto puede construirse un isomorfismo con el espacio original al ser también separable, por lo que la construcción de Fock puede considerarse más bien una manera de representar el espacio de Fock más que un ente matemáticamente diferente Los estados de Fock son la base natural para este espacio. Espacio de Fock bosónico Esta construcción se realiza usando como proyector uno que simetriza los elementos, por ejemplo, para simetrizar el producto de dos vectores que representan cada el estado de una partícula:
Este último estado simetrizado representa un estado con dos bosones indistinguibles. Para el caso de n vectores el operador de simetrización viene dado por:
Donde el sumatorio se extiende a todas las permutaciones posibles del grupo simétrico de orden n. Obviamente la simetrización de los espacios de cero y de una partícula son triviales:
Espacio de Fock fermiónico Generalizando los resultados de la sección anterior construimos los operadores de antisimetrización. El antisimetrizador de dos partículas viene dado por:
Así este estado antisimetrizado representa, por tanto, un estado con dos fermiones indistinguibles. Para el caso de n fermiones un estado vendría dado por:
Donde nuevamente el sumatorio se extiende a todas las permutaciones posibles del grupo simétrico de orden n y donde 1 si es impar).
es el signo de la permutación (+1 si es par, -
6.4. Propagador de Feymann. Una de las cantidades más importantes de la teoría de interacciones es el Propagador de Feynman.
Donde T aparece para marcar el ordenamiento temporal, colocando todos los operadores evaluados en tiempos posteriores a la izquierda.
Existe una manera de escribir el propagador en término de una integral de cuadrimomentos
Esta es una integral con singularidades, para cada valor posible de ⃗ el denominador ⃗ produce un polo en ⃗ . Para ⃗ evitarlo debemos elegir un contorno sobre el que integrar.
Donde el residuo para el polo en ⃗ es contorno en el semiplano inferior, donde anula, dado que
(
)
⃗.
Cuando , cerramos el , asegurando que la integral se
.
Aplicando el teorema del residuo al contorno en sentido horario tenemos entonces
Que es el propagador de Feynman para . Por otro lado cuando cerramos el contorno en sentido anti horario en el semiplano superior, y obtenemos
De nuevo llegamos al propagador de Feynman.
,
Viendo esto, en lugar de especificar el contorno, podemos simplemente escribir el propagador como
Con e infinitesimal. Esto tiene el efecto de desplazar ligeramente los polos fuera del eje real, con lo que la integral a lo largo del eje real es equivalente al contorno antes usado.
7. Cuantificación canónica del campo electromagnético. El método que se utiliza usualmente para cuantizar el campo electromagnético de basa en descomponer a éste en osciladores armónicos, lo cual resulta inmediata la cuantización sin más que utilizar la conocida cuantización del oscilador armónico. Un punto de partida conveniente son las ecuaciones de Maxwell clásicas en el espacio libre:
Donde son la permeabilidad magnética y permitividad eléctrica en el vacío respectivamente, que cumplen . Si no hay fuentes presentes, las ecuaciones de Maxwell son invariantes gauge, es decir, los potenciales escalares y vector de los que se derivan los campos están determinados salvo una derivada total con respecto al tiempo el potencial escalar y salvo un gradiente el potencial vector. En los problemas de óptica cuántica es conveniente elegir el gauge de Coulomb, en el cual la divergencia del potencial vector es nula. En este gauge, los campos E y B están determinados por el potencial vector como sigue:
Con la condición del gauge de Coulomb:
Sustituyendo los valores de B y E en función del potencial vector en la última ecuación de Maxwell y teniendo en cuenta la ecuación anterior se encuentra que el potencial vector debe cumplir la siguiente ecuación de ondas:
Por sencillez podemos considerar la solución de esta ecuación en un volumen finito V desarrollando A(r,t) en serie de Fourier:
Introduciendo esta expresión en la ecuación de ondas se llega a una ecuación de Helmholtz para el conjunto de funciones vectoriales como la siguiente:
Los modos
también deben satisfacer la condición de transversalidad:
Además, estos modos forman un conjunto ortonormal completo:
La solución de la ecuación está sujeta a las condiciones de contorno impuestas sobre el volumen considerando. Supondremos condiciones periódicas para discutir ondas viajeras en lugar de ondas estacionarias. Para una onda plana en dicho volumen, los modos se expresan de la siguiente forma:
Siendo ̂ el vector de polarización, que es unitario. El índice puede tomar los valores 1 ó 2, es decir, hay dos polarizaciones posibles. Las condiciones de contorno periódicas imponen a las componentes del vector de onda las siguientes restricciones:
La condición de transversalidad impone que el vector de polarización sea perpendicular al vector de ondas, así que:
Con vistas a la cuantización expresamos A(r,t) de la forma:
Donde son constantes adimensionales que representan la amplitud compleja del modo correspondiente. El campo eléctrico que proporciona este potencial vector se calcula de forma inmediata:
Clásicamente, estas amplitudes de Fourier son números complejos. La cuantización del campo va acompañada de la elección de estas amplitudes como operadores mutuamente adjuntos con la identificación y los estados de luz son los vectores en el espacio de Hilbert en el que actúan estos operadores. En las subsecciones siguientes se presentan los estados de luz relevantes: los estados número o de Fock, coherentes y comprimidos. Como los fotones son partículas de spin 1 la elección de las reglas de conmutación debe hacerse de acuerdo a las reglas bosónicas:
Así, las propiedades dinámicas del campo pueden describirse como un conjunto de osciladores armónicos independientes que obedecen las reglas de conmutación. Esto se
ve claramente expresando el hamiltoniano del campo. Dicho hamiltoniano viene dado por:
Introduciendo aquí la expresión de E obtenida y la análoga para B y haciendo uso de las condiciones anteriores, se llega a la siguiente expresión para el hamiltoniano:
Que es la suma de hamiltonianos de osciladores armónicos independientes. Los autovalores de cada uno de estos hamiltonianos son conocidos y vienen dados por:
Con . Esta expresión puede interpretarse como la excitación de ⁄ . Cabe destacar que la fotones de energía cada uno más la energía del vacío energía del vacío calculada sumando para todos los modos es infinita. Sin embargo, lo importante para nosotros es la medición de diferencias de intensidades, por lo que podemos considerar que todos los procesos ocurren en una mar del vacío, siendo detectables sólo las variaciones con respecto a ese fondo, como se pone de manifiesto en el efecto Casimir. Matemáticamente, esta dificultad puede solventarse tomando como origen de energías dicha energía del vacío. A partir de ahora y por sencillez se considerará que sólo hay un modo excitado, con lo cual la suma en modos y los subíndices k desaparecen. Comparando las últimas dos expresiones resulta natural llamar al operador operador número de fotones ya que sus autovalores son precisamente n, que se ha identificado con el número de fotones existente. Los autovectores del operador número de fotones son los llamados estados número o estados Fock:
Los estados número son ortonormales y forman un conjunto completo del espacio de Hilbert asociado. A partir de las relaciones de conmutación se tiene que la acción de los operadores sobre los estados número es:
Por lo que es natural llamarlo operador creación y destrucción respectivamente. El estado de vacío se define como aquél que cumple:
Y, a partir de él, es posible crear todos los estados excitados sin más que aplicar reiteradamente el operador creación, siendo válida la siguiente expresión:
Por ser los operadores creación y destrucción complejos, se puede hacer una descomposición en sus partes real e imaginaria:
Los operadores X e Y son los llamados operadores cuadratura y pueden despejarse de las ecuaciones anteriores:
La regla de conmutación entre estos operadores cuadratura es la siguiente:
Y da lugar a la relación de indeterminación:
Donde, como de costumbre,
.
Es útil expresar el operador número en función de los operadores cuadratura:
7.1. Estados coherentes. Consideramos el operador , siendo ecuación de autovalores correspondiente:
un número real, y planteemos la
Los autovectores que satisfacen dicha ecuación son los llamados estados de incertidumbre mínima, ya que, para ellos, se satisface:
Si las dos incertidumbres coinciden y son iguales a ½. Los estados que cumplen esta condición son los estados coherentes, y, para ellos, la ecuación de autovalores se reduce a:
Es decir, son autoestados del operador destrucción. Puede comprobarse que el estado de vacío definido anteriormente cumple la condición de estado coherente. Luego, el estado de vacío es a la vez estado número y estado coherente. Como ya se mencionó anteriormente, los estados número forman un conjunto completo de vectores, por lo que podemos expresar los estados coherentes como la combinación lineal de los estados número. Dicho desarrollo es el siguiente:
A partir de este desarrollo es posible calcular el producto escalar de dos estados coherentes:
Utilizando que los estados número son ortonormales finalmente:
, se obtiene
Como esta expresión es distinta de cero, los estados coherentes no son ortogonales. De hecho, los estados coherentes son más de los necesarios para construir una base completa del espacio de Hilbert. Esto permite desarrollar un estado coherente como suma del resto de estados coherentes. Nótese, sin embargo, que si , el producto escalar es igual a 1, es decir, los estados coherentes están normalizados. Además, para los estados coherentes tienden a ser ortonormales, ya que el módulo de su producto escalar tiende a cero exponencialmente. El valor medio del número de fotones en un estado coherente es:
A continuación se calculará la incertidumbre en el número de fotones en un estado coherente. Para ello es necesario calcular el valor medio del cuadrado del operador número de fotones:
Por lo tanto, la incertidumbre del número de fotones es un estado coherente será:
La probabilidad de encontrar n fotones en un estado coherente
viene dada por:
Donde , como se ha demostrado más arriba. La expresión obtenida es una ⁄ distribución de Poisson centrada en y de anchura .
7.2. Estados coherentes comprimidos. Los estados que cumplen la ecuación de autovalores
Con se denominan estados coherentes comprimidos. Esta denominación se debe a que las incertidumbres en las cuadraturas ya no son iguales, estando la fluctuación en una de las cuadraturas comprimidas con respecto a la otra. Una propiedad muy importante de los estados comprimidos es que tienen fluctuaciones en una de las cuadraturas menores que las fluctuaciones del vacío. En efecto, recordando que el vacío es un estado coherente tiene una fluctuación correspondiente a la de un estado coherente que es mayor que la correspondiente a una de las cuadraturas de un estado comprimido. La idea de que exista un estado de luz con fluctuación menor que la del vacío es inconcebible en el marco de la mecánica clásica, por lo que los estados comprimidos son estados de luz puramente cuánticos. Un ejemplo interesante de estado comprimido es el estado de vacío comprimido definido como el estado que cumple la ecuación de autovalores con . De la ecuación de autovalores que cumple el estado de vacío comprimido se deduce que: , al igual que en el caso en el vacío normal. Esto se comprueba multiplicando por el bra la ecuación de autovalores con y teniendo en cuenta que un número complejo es nulo si sus partes real e imaginaria lo son simultáneamente. El valor medio del número de fotones en un estado coherente comprimido es:
Utilizando ahora que para Y: valor medio del número de fotones:
⁄
⁄ y, análogamente , resulta finalmente para el
Nótese que es un estado coherente, el valor medio del número de fotones es igual a la suma de los cuadrados de los valores medios de los operadores cuadratura. Por tanto, estos primeros términos de esta ecuación pueden interpretarse como la contribución de la parte coherente y el resto de términos corresponde a la parte comprimida. Mientras que un estado coherente se representa en el plano de amplitudes complejas por un círculo, indicando que la incertidumbre en las dos cuadraturas son iguales, un estado comprimido viene representado por una elipse cuyo eje menor se dirige a lo largo del eje de la cuadratura comprimida (ver figura).
8. Cuantificación canónica del campo de Dirac. Llegado este momento procederemos a cuantizar el Lagrangiano de Dirac.
Comenzaremos trabajando con como hicimos con el campo escalar, aunque pronto nos daremos cuenta de que ese no es el camino. Teorema de Spin-Estadistica Empezamos definiendo el momento
Para el Lagrangiano de Dirac, el momento conjugado de es . No implica derivada temporal de . Esto es justo lo que debe ocurrir para una ecuación de movimiento de primer orden en el tiempo, donde solo necesitamos especificar y para determinar la evolución completa. Para cuantizar la teoría ascendemos el campo y su momento satisfaciendo las relaciones de conmutación canonicas
a operadores,
Como estamos trabajando con una teoría libre, donde cada solución clásica es una suma de ondas planas, escribimos los operadores como
Donde los operadores ⃗
⃗
crean partículas asociadas a los espinores
⃗ , mientras que
⃗ . Como con los escalares, las relaciones de
crean partículas asociadas a
conmutación de los campos implican relaciones de conmutación entre los operadores de aniquilación y creación. Las relaciones de conmutación de los campos son equivalentes a
Con el resto de conmutadores anulándose. Hamiltoniano Usando el momento
, tenemos
Que significa que ∫ mediante el teorema de Noether.
coincide con una cantidad conservada calculada
Queremos ahora convertir el Hamiltoniano en un operador. Para ello en primer lugar echémosle un ojo a
Ahora usamos las definiciones de los espinores anterior, para hacer las siguientes sustituciones
⃗ y
⃗ dadas en el tema
Con lo que ahora podemos escribir
Que usamos ahora para escribir el operador Hamiltoniano
Trabajando sobre él, llegamos a que
El termino implica que nuestro Hamiltoniano no tiene límite inferior, haciendo que nuestra teoría no tenga sentido. La pieza que nos ha faltado añadir es el hecho de que las partículas de spin ½ son fermiones, que siguen la estadística de Fermi-Dirac. Para evitar inconsistencias, como la que acabamos de encontrar, debemos tomar en cuenta el teorema de espin-estadistica, que para este caso nos dice que debemos cuantizar estos campos como fermiones. Cuantización Fermionica ¿Qué hemos de hacer para cuantizar el campo como un fermión? Debemos recordar que cuando cuantizamos el campo escalar, las partículas resultantes obedecían la estadística
bosonica porque los operadores de creación y aniquilación satisfacían las relaciones de conmutación
Para tener estados que obedezcan la estadística fermionica, necesitamos relaciones de anticonmutación
Seguimos pudiendo desarrollar los campos en términos de los operadores de creación y aniquilación, pero ahora lo que tenemos es que
Con el resto de los anticonmutadores anulándose. Los cálculos del Hamiltoniano son similares a los de antes, pero esta vez obtenemos
Donde el uso de los anticonmutadores ha eliminado el problema del limite inferior. La Estadistica de Fermi-Dirac Como en el caso bosonico, definimos el vacío
⟩ de manera que satisfaga.
Aunque y obedezcan relaciones de anticonmutación, el Hamiltoniano obedece relaciones de conmutación con ellos
Esto significa que, de nuevo, podemos construir los autoestados de energía haciendo actuar los operadores de creación sobre el vacío para crear partículas y antipartículas. Por ejemplo, los estados una-particula satisfacen
Los estados dos-partículas ahora satisfacen
Confirmando que las partículas obedecen la estadística de Fermi-Dirac. Tendremos que tener en cuenta también el principio de exclusión de Pauli ⃗ ⃗ ⟩ . Y por ulimo, si quisiéramos asegurarnos de cuál es el valor del spin de una partícula, podríamos actuar con el operador momento angular y confirmaríamos que una partícula estacionaria tiene momento angular ½, tal y como esperábamos.
9. Campos en interacción. Las teorías libres de campos de las que he hablado hasta ahora son muy especiales: Podemos determinar su espectro, pero después no ocurre nada interesante. Tienen excitaciones de partículas, pero esas partículas no interaccionan entre ellas. Ahora empezaremos a examinar teorías más complicadas que incluyen términos de interacción, que tomaran la forma de Lagrangianos de orden superior. Algunas teorías de interacción, de las que hablaremos más adelante, son La teoría
La teoría escalar de Yukawa
Esta teoría acopla un campo escalar complejo
con un campo escalar real .
9.1. La Imagen de Interacción Volvemos al terreno familiar de la mecánica cuántica con un numero finito de grados de libertad. En la imagen de Schrödinger, los estados evolucionan como
Mientras que los operadores
son independientes del tiempo.
En contraste, en la imagen de Heinsenberg, los estados están fijados y los operadores cambian en el tiempo
La imagen de interacción es un hibrido de ambas. Dividimos el Hamiltoniano de la siguiente manera
La dependencia temporal de los operadores está incluida en , mientras que la dependencia temporal de los estados la gobierna . Aunque esta división es arbitraria, es útil cuando es resoluble. Los estados y operadores de la imagen de interacción se denotaran con el subíndice vienen dados por
y
La ultima ecuación también se aplica a , que es dependiente del tiempo. El Hamiltoniano de interacción en la imagen de interacción es
Y la ecuación de Schrödinger para los estados de la imagen de interacción pueden derivarse desde la imagen de Schrödinger
De donde obtenemos que
9.1.1. Formula de Dyson Queremos resolver la ecuación anterior. Escribimos la solución como
Donde
operador y imagen de interacción obliga a que
Si
es
el
unitario de evolución temporal tal que . Entonces la ecuación de Schrödinger de la
fuese una función, podríamos simplemente resolver esto como
Pero se trata de un operador, y la exponencial de un operador se define en términos del siguiente desarollo
Cuando tratamos de diferenciar esto respecto de cuadrático nos da
, encontramos que el termino
El segundo término tiene buen aspecto, porque nos va a dar una parte de que necesitamos en el lado derecho de la ecuación, pero el primer termino tiene a en el lado incorrecto del termino integral, y no podemos conmutarlo porque [ ] cuando . La solución nos la da la Formula de Dyson.
Donde T está colocado para dar la ordenación temporal.
Desarrollado la expresión de
tenemos
Donde los últimos dos términos realmente son el mismo
Podemos entonces escribir
9.2. Dispersión Vamos ahora a aplicar la imagen de interacción a la teoría de campos, empezando con el Hamiltoniano de interacción de la teoría escalar de Yukawa
Al contrario de las teorías explicadas anteriormente, la interaccion no conserva el número de partículas, permitiendo a las partículas de un tipo cambiar en otras. Para ver por qué ocurre eso usaremos la imagen de interacción y seguiremos la evolución de un estado
Donde viene dado por la fórmula de Dyson, que es un desarrollo en potencias de . Pero contiene operadores de creación y aniquilación para cada tipo de partículas. Concretamente Este operador puede crear o destruir partículas
. Las llamaremos
mesones Este operador puede destruir partículas mediante antipartículas mediante . Llamaremos a estas partículas nucleones. Este operador puede crear nucleones mediante antinucleones mediante .
, y crear
y destruir
Realmente los nucleones son partículas de spin ½ y no aparecen al cuantizar un campo escalar, pero aun así utilizaremos la teoría de Yukawa como modelo de juguete para tratar nucleones en interacción con mesones. Es importante recordar que se conserva en presencia de . A primer orden de teoría de perturbaciones encontramos términos en como . Esto destruye un mesón, produciendo un par nucleón- antinucleón. Contribuirá al ̅. decaimiento de mesones A segundo orden de perturbación, encontramos términos más complicados en , por ejemplo ( . Este término da contribuciones a los procesos de ̅ ̅ . A lo largo del resto de esta sección, calcularemos las dispersión amplitudes cuánticas de estos procesos. Para ello en primer lugar supondremos que los estados iniciales y finales son autoestados de la teoría libre. Esto significa que tomamos un estado inicial ⟩ en , y un estado final ⟩ en , que sean autoestados del Hamiltoniano libre . 9.2.1. Decaimiento de Mesones Consideremos los estados normalizados
El estado inicial contiene un único mesón de momento ; el estado final contiene un par nucleón – antinucleón de momentos y . Podemos calcular las amplitudes para el decaimiento del mesón en el par. A primer ordne de esto es
En primer lugar desarrollamos . La parte convertirá ⟩ en algo proporcional a ⟩, mientras que la parte de lo convertirá en un estado de dos mesones. Pero el estado de dos mesones no tendrá solapamiento con ⟨ , y nada en los operadores y cambiará eso. Entonces tenemos
Donde, en la segunda línea, hemos conmutado
⃗⃗
tras
⃗
utilizando una función delta
⃗⃗ que elimina la integral en . De forma similar desarrollamos y . Para conseguir un solapamiento no nulo con ⟨ , solo contribuyen , porque son quienes crean el nucleón y el antinucleón de ⟩ . Entonces tenemos ⃗
y
La función delta limita los posibles decaimientos a aquellos casos donde . Más adelante trataremos estas amplitudes cuánticas de un modo más físico, como el periodo de desintegración de los mesones. 9.3. Teorema de Wick ⟩, De la fórmula de Dyson queremos calcular cantidades como ⟨ donde ⟩ y ⟩ son autoestados de la teoría libre. El ordenamiento de los operadores está fijado por De todas maneras, dado que contiene operadores de creación y aniquilación, empezaremos por colocarlos en el lugar que más conveniente nos sea dentro de la ecuación. El teorema de Wick nos dirá como ir de productos ordenados por temporalmente a productos normalmente ordenados. Consideremos el campo escalar real que descomponemos en la imagen de Heisenberg como
Donde
Entonces, eligiendo
, tenemos
Donde la última línea está normalmente ordenada, y hemos sacado un factor [ ], que es el propagador que habíamos definido en el capítulo sobre el campo libre. Entonces, para tenemos
Y para
, calculando análogamente
Poniéndolos juntos, obtenemos la expresión
Donde integral
es el propagador de Feynman, para el que tenemos la representación
Definimos ahora que la contracción de un par de campos en una sucesión de operadores signifique reemplaza esos operadores por el propagador de Feynman, dejando el resto de operadores intactos.
De forma similar, para el campo escalar complejo tenemos
Y definimos la contracción como
Teorema de Wick Para cualquier colección de campos
, etc… tenemos
Todas las contracciones posibles. Por ejemplo, para
tenemos
9.3.1. Dispersión de Nucleones Fijémonos en la dispersión
. Tenemos los estados iniciales y finales
⟩. De hecho, lo que queremos calcular es Podemos fijarnos en el desarrollo de ⟨ ⟨ ⟩, dado que las situaciones sin dispersión no nos interesan. A orden tenemos el término
Ahora, usando el teorema de Wick, vemos que hay una parte de la fila de operadores que tiene el aspecto de
Que contribuirá a la dispersión, porque los dos campos aniquilan partículas mientras que los dos campos crean partículas . Cualquier otra forma de ordenar estos dos campos dará contribución nula. Esto significa que tenemos
Donde, para alcanzar la tercera línea, hemos utilizado que
Ahora insertaremos esto en la ecuación
Para obtener la expresión de ⟨
⟩ a orden
Trabajando sobre ella obtenemos
Y utilizamos las funciones delta para resolver la integral en
Y dado que el denominador nunca se hace cero, podemos prescindir de los términos quedándonos
,
Más adelante veremos otra manera, mucho más simple, de alcanzar este resultado, utilizando los diagramas de Feynman. 9.4. Diagramas de Feynman Calcular amplitudes de dispersión utilizando el teorema de Wick es un proceso tedioso, pero por suerte tenemos otro camino. Este camino implica realizar una serie de dibujos, ⟩, y se conocen como Diagramas de Feynman. que representan el desarrollo de ⟨ ⟩, dado que no nos interesan los procesos donde El objetivo real es calcular ⟨ no existe dispersión. Los términos del desarrollo perturbativo pueden representarse de la manera siguiente: Dibuja una línea exterior por cada partícula en el estado inicial ⟩ y cada ⟩. Marcaremos los mesones con líneas partícula en el estado final punteadas, y los nucleones con líneas sólidas. Asigna un momento dirigido a cada línea. Añade una flecha a las líneas sólidas para denotar su carga; escogeremos una línea acercándose al estado inicial para , y alejándose para ̅ . Une las líneas exteriores con vértices trivalentes
Cada uno de esos diagramas está en correspondencia 1-1 con los términos del desarrollo ⟩ de ⟨
9.4.1. Reglas de Feynman A cada uno de estos diagramas le asignamos un número, usando las reglas de Feynman. Añade un momento a cada línea interior Para cada vértice, escribe un factor como el que aparece a continuación. Donde ∑ es la suma de todo el momento que fluye hacia el vértice.
Para cada línea interior punteada, correspondiente a una particula con momento , escribimos un factor como el que hay a continuación. Para líneas solidas interiores escribimos un factor igual, con reemplazada por .
9.5. Ejemplos de Amplitudes de Dispersión Ahora aplicaremos las reglas de Feynman a la medida de amplitudes para varios procesos. Empezaremos recalculando la amplitud de dispersión de nucleones. Para ello dibujamos los dos diagramas más simples que contribuyen al proceso.
Aplicando las reglas de Feynman a estos diagramas, obtenemos
Que coincide con el cálculo que habíamos llevado a cabo antes. La función delta viene de la conservación del cuadrimomento que aparece por la invariancia traslacional, y es común a todos los elementos de la matriz S. Definiremos la amplitud de la siguiente manera
Donde es la suma de los cuadrimomentos iniciales, y la de los finales, y el factor al principio es una convención utilizada para que en el límite no relativista coincida con la mecánica cuántica. Ahora podemos refinar las reglas de Feynman para calcular la amplitud en si misma:
Dibuja todos los diagramas posibles e impón la conservación del cuadrimomento a cada vértice. Escribe un factor en cada vertice Para cada línea interior, escribe un propagador Integra sobre el momento fluyendo sobre cada loop ∫ La última regla es innecesaria para los diagramas que hemos visto hasta ahora, de orden árbol. En estos casos es suficiente con imponer la conservación del momento en cada vértice, pero no son los únicos casos posibles. Al irnos a orden superior encontramos diagramas del tipo
Donde no es suficiente con esa condición. Podemos calcular ahora la amplitud de la dispersión nucleón-mesón. En este proceso un par nucleón-antinucleon se aniquila dando lugar a un par de mesones. Los diagramas de Feynman más simples posibles son
Donde la partícula virtual es ahora un nucleón en lugar de un mesón.
Para la dispersión de un nucleón y un antinucleón
̅
̅ tenemos los diagramas
Y la amplitud nos queda
Donde se puede ver que la dependencia del momento en el segundo término es diferente de la de la dispersión nucleón-nucleón, reflejando la diferencia en el diagrama de Feynman que contribuye al proceso. 9.5.1. Variables de Mandelstam En las amplitudes mostradas antes se puede ver que muchas veces aparecen las mismas combinaciones de momentos en los denominadores. Esto es una constante, sobre todo al tratar procesos en los que se produce el intercambio de una sola partícula. Existen unos nombres estándar para varias sumas y restas de momento, se conocen como variables de Mandelstam.
Donde, como en los ejemplos, y son los momentos de las dos partículas iniciales, y y los de las finales. Podemos definir estas variables independientemente de que las partículas involucradas en la dispersión sean las mismas o sean diferentes. Para hacernos una idea del significado de estas variables, asumiremos ahora que las cuatro partículas son del mismo tipo. Nos colocamos en el sistema de centro de masas. En ese caso las dos partículas iniciales tienen el cuadrimomento
Las partículas entonces se desvían un ángulo
y se alejan con un momento
De las definiciones anteriores, tenemos que
La variables y miden el intercambio de momento entre las partículas, mientras que la variable mide la energía total de la colisión. La amplitud del intercambio de una única partícula puede escribirse de forma muy simple en términos de las variables de Mandelstam. Por ejemplo, para la dispersión nucleón-nucleón tenemos
Para la dispersión nucleón-antinucleón
Se puede decir que el primer caso involucra diagramas canal t y canal u, mientras que el segundo hace lo propio con diagramas canal t y canal s. 9.5.2. El Potencial de Yukawa Hasta ahora hemos calculado amplitudes cuánticas para varios procesos de dispersión, pero estas cantidades son un tanto abstractas. Más adelante trabajaremos sobre cómo transformar estas amplitudes en cantidades medibles, tales como la sección eficaz o el periodo de desintegración de partículas inestables. En esta sección mostraremos como pasar de la amplitud de la dispersión de nucleones a algo más familiar: un potencial, o una fuerza, entre partículas. Supongamos que tenemos una función delta fijada como fuente de un campo real escalar , que persiste en el tiempo. ¿Cómo cambia el campo en el espacio? Para responder a esto empezaremos trabajando con la ecuación de Klein-Gordon.
Podemos resolverla usando transformadas de Fourier
Introducir esto en la ecuación anterior nos dice que
Y nos da la solución
Ahora resolveremos esta integral, trabajando en coordenadas polares, y escribiendo ⃗⃗ ⃗
Calculamos la última integral cerrando un contorno en el semiplano superior tomando el polo en . Nos queda
El campo se desvanece exponencialmente rápido en distancias de longitud de onda Compton de los mesones.
,
, que es la
¿Qué tiene esto que ver con la fuerza entre partículas? Podemos hacer un cálculo similar al anterior en la electrostática, donde una partícula cargada actúa como función delta fuente de un potencial gauge ⃗ , cuya solución es . ¿Podemos dar la misma interpretación al campo escalar? ¿Existe un límite clásico para la teoría escalar de Yukawa donde las partículas actúan como funciones delta fuentes de ? La respuesta es fundamentalmente si mientras nos mantengamos dentro del límite . Pero la manera correcta de describir el potencial que sienten las partículas no es hablar del campo clásico, sino trabajar directamente con las amplitudes cuánticas. Compararemos la amplitud de dispersión de nucleones con la correspondiente amplitud en mecánica cuántica no relativista para dos partículas interaccionando a través de un potencial. Para ello lo primero que tenemos que hacer es tomar el límite no relativista de la siguiente relación de la amplitud antes obtenida para la dispersión de nucleones. Esto significa tomar el límite cuando ⃗ lo que implica, por la conservación del momento, que ⃗ . Para este ejemplo particular el límite no afecta la amplitud de dispersión.
¿Cómo comparamos esto con la dispersión en mecánica cuántica? Consideremos dos partículas, separadas por una distancia ⃗, interactuando a través de un potencial ⃗ .A primer orden de teoría de perturbaciones tenemos
Hay un factor relativo de que aparece al comparar la amplitud de teoría cuántica de campos con ⟨ ⃗ ⃗ ⃗⟩, que puede atribuirse a la normalización relativista de los estados y . Incluyendo este factor, e igualando las expresiones de las dos amplitudes tenemos
Donde hemos introducido el parámetro adimensional de forma trivial para obtener
. Podemos invertir esto
Que es exactamente la integral que resolvimos para la teoría clásica. Obtenemos:
Esta es el potencial de Yukawa. La fuerza se debilita con , la longitud de onda Compton de la partícula intercambiada. El signo menos indica que el potencial es atractivo. La teoría cuántica de campos da una nueva perspectiva de la naturaleza de la fuerza entre partículas. En lugar de ser un concepto fundamental, la fuerza surge del intercambio virtual de otras partículas, mesones en este caso. Más adelante veremos como la fuerza de Coulomb aparece en la teoría cuántica de campos debido al intercambio de fotones virtuales. 9.5.3. Diagramas Conectados y Diagramas Cortados Hemos visto que podemos calcular amplitudes de dispersión escribiendo todos los diagramas de Feynman y asignándoles integrales usando las reglas de Feynman. Pero
hay algunas advertencias acerca de cuáles escribir y cuáles no, relacionadas con la asunción de que los estados iniciales y finales son autoestados de la teoría libre. Son las siguientes: Solo consideraremos diagramas de Feynman conectados, donde cada parte del diagrama está conectado al menos con una línea exterior. No consideraremos diagramas como el que se ve a continuación. Esto se debe a que el vacío de la teoría libre no es el vacío auténtico de la teoría de interacciones.
No consideraremos diagramas con loops en las líneas externas, como el que se ve a continuación. Esto está relacionado con el hecho de que los estados partícula de la teoría libre no son los mismos que los de la teoría de interacciones.
9.6. Secciones eficaces y Decaimientos Hasta ahora hemos aprendido a calcular amplitudes cuánticas para partículas desintegrándose o en dispersión. Como suele ser habitual en teoría cuántica, las probabilidades de que ocurran cosas son el cuadrado del módulo de las amplitudes cuánticas. 9.6.1. Regla de Oro de Fermi En primer lugar derivaremos la regla de oro de Fermi de la fórmula de Dyson. Para dos autoestados ⟩ y ⟩, con , tenemos a primer orden de interacción
Donde tiempo de
. Esto nos da una probabilidad de transición de
⟩ a
⟩ en el
La función entre parentesis, para un fijado es
Podemos ver que para un tiempo , la mayoría de transiciones ocurren entre estados de energía separados por . Y cuando la función de la figura se acerca a una delta. Para encontrar una normalización, calculamos
Consideramos ahora una transición a un conjunto de estados con densidad límite donde , obtenemos la probabilidad de transición
. En el
Que nos da una probabilidad de transición constante por unidad de tiempo para estados de energías similares
Supongamos que ahora queremos calcular la amplitud de transición de un estado a un estado ⟩ en . Entonces tendríamos
⟩ en
Ahora, al calcular el cuadrado de la amplitud para ver la probabilidad nos encontraríamos con el problema de calcular el cuadrado de una función delta.
Dándonos cuenta de que el infinito extra aparece porque es la probabilidad de que la transición ocurra en un tiempo infinito. Podemos reescribir la función delta como
Donde es una abreviatura de . Podemos ahora dividir entre probabilidad de transición por unidad de tiempo
para obtener la
Que, tras integrar sobre la densidad de estados finales, nos trae la regla de oro de Fermi. La razón para haber hecho esto, es que en nuestra teoría de campos calculamos amplitudes de esta manera, y ahora podemos reinterpretar los cuadrados de las funciones como elementos de volumen de espacio tiempo. 9.6.2. Decaimientos Ahora nos fijaremos en la probabilidad de que una única partícula ⟩ de momento desintegre en cierto número de partículas ⟩ con momentos y momento total ∑ .
Nuestros estados siguen formula de normalización relativista
Donde sustituimos la De forma similar
por el volumen del tres-espacio.
se
Si colocamos nuestra partícula inicial en reposo, tenemos la probabilidad de desintegración
Donde, de nuevo, hemos intercambiado una de las funciones delta por el elemento de volumen del espacio tiempo
Ahora podemos dividir entre para obtener la función de transición por unidad de tiempo. Pero aun tendremos que preocuparnos de sumar sobre todos los estados finales. Esto lo haremos en dos pasos. El primero será integrar sobre todos los momentos posibles de las partículas finales
El resultado es una expresión para la densidad de estados finales dada por la cantidad invariante Lorentz
El segundo paso es sumar sobre todos los estados finales con diferente número (y posiblemente tipo) de partículas. Esto da una expresión final de probabilidad de ̇. desintegración por unidad de tiempo
Donde
es el reciproco de la vida media
.
9.6.3. Secciones Eficaces Hagamos ahora colisionar dos haces de partículas. Algunas partículas chocarán entre ellas, y rebotarán. Otras simplemente pasaran de largo. La probabilidad de que colisionen se conoce como sección eficaz y se denota . Si el flujo incidente se define como el numero de partículas incidentes por unidad de área y tiempo, entonces el número total de eventos de dispersión por unidad de tiempo viene dado por
Nuestra intención es calcular a partir de la teoría cuántica de campos, o más concretamente , la sección eficaz diferencial, que es la probabilidad de que un proceso de dispersión dado ocurra dentro de un ángulo sólido. Más concretamente
Donde hemos usado la expresión de la probabilidad por unidad de tiempo que calculamos antes, y y son las energías de las partículas incidentes. Ahora nos falta una expresión para la unidad de flujo. Por simplicidad nos colocaremos en el sistema de centro de masas. Hemos estado considerando una única particula por unidad de volumen espacial , lo que significa que el flujo viene dado en función de las 3velocidades como ⃗ ⃗ . Tenemos entonces
Podemos escribirlo en función de los módulos simplemente dándonos cuenta de que la 3-velocidad ⃗ ⃗ . La ecuación que hemos obtenido será nuestra relación definitiva entre la sección eficaz diferencial y las matrices S. 9.7. Funciones de Green Hasta ahora hemos aprendido a calcular amplitudes de dispersión, pero quedan aún muchas preguntas que queremos hacernos en el marco de la teoría cuántica de campos y que no están directamente relacionadas con experimentos de dispersión. Para ello necesitaremos calcular objetos elementales conocidos como funciones de correlación. En esta sección las definiremos y explicaremos como calcularlas usando diagramas de Feynman. Denotamos el vacío auténtico de la teoría de interacción como adecuadamente normalizado tenemos
Y⟨
⟩
⟩. Con
. . Definimos también
Donde es en la imagen de Heinseberg para la teoría completa, en lugar de la teoría de interacción con la que hemos trabajado hasta ahora. Las funciones son las funciones de correlación, o funciones de Green. Existen un buen número de formas de
trabajar con estos objetos, que encajan bien entre ellas. Empezaremos calculándolas usando diagramas de Feynman. Utilizamos la notación imagen de Heinsemberg y
, y utilizamos para denotar el campo en la en la imagen de interacción. Entonces
Donde los operadores en el lado derecho están evaluados en el vacío de la teoría libre. 9.7.1. Diagramas conectados y Burbujas de Vacío Dado que las cantidades
Con cosas con las que sabemos trabajar, nuestro objetivo de calcular las funciones de correlación está más cerca. Pero ¿Qué podemos dividir una entre la otra? Realmente podemos, y la interpretación es sencilla. Para este desarrollo trabajaremos con la teoría . Dado que no va a haber confusión entre los diferentes tipos de línea de los diagramas de Feynman, dibujaremos las partículas como líneas sólidas. Escribimos el desarrollo de ⟨
⟩ en diagramas.
Estos diagramas se conocen como burbujas de vacío. Los factores combinatorios asociados a cada diagrama son tales que la serie completa suma una exponencial
Así que tenemos que la amplitud de la evolución del vacío de la teoría libre en si mismo tiene forma de exponencial de la suma de las burbujas de vacío distintas. Para las funciones de correlación genéricas ocurre algo parecido.
Donde hablar de diagramas conectados quiere decir que cada parte del diagrama tiene que estar conectados al menos a una de las líneas exteriores. Además con esto tenemos
⟩ nos queda que solo nos interesan los diagramas de que al dividirlo entre ⟨ Feynman conectados, no tenemos que preocuparnos por las burbujas de vacío. Uniendo este resultado con la definición anterior de las funciones de Green tenemos que
Podemos calcular dichas funciones simplemente sumando sobre los diagramas de Feynman conectados.
10. Electrodinámica Cuántica y diagramas de Feyman. 10.1. Electrodinámica Cuántica. La electrodinámica cuántica es una descripción detallada de la interacción entre fotones y partículas cargadas de tipo fermiónico. La teoría cuántica comparte ciertos rasgos con la descripción clásica. De acuerdo con la descripción de la óptica clásica la luz viaja sobre todos los caminos permitidos, y su interferencia determina los frentes de onda que se propagan de acuerdo con el principio de Fermat. Similarmente, en la descripción cuántica de los fotones (y los fermiones), estos pasan por cada camino posible permitido por aberturas o sistemas ópticos. En ambos casos el observador detecta simplemente el resultado matemático de la superposición de todas las ondas consideradas a lo largo de integrales de línea. Una diferencia es que en la electrodinámica la velocidad efectiva de un fotón puede superar la velocidad de la luz en promedio. Además QED fue la primera teoría cuántica del campo en la cual las dificultades para construir una descripción completa de campos y de creación y aniquilación de partículas cuánticas, fueron resueltas satisfactoriamente. Formalismo
Diagrama de Feynman ilustrando la interacción entre dos electrones producida mediante el intercambio de un fotón. Matemáticamente, podemos decir que la electrodinámica cuántica tiene la estructura de una teoría de gauge abeliana con U(1) el grupo de gauge. El campo de gauge que media la interacción entre campos de espín -1/2 con carga es el campo electromagnético.
La evolución temporal de un sistema de partículas cargadas y fotones puede ser calculada mediante un cálculo perturbativo. En concreto la comparación con los experimentos realizables frecuentemente requiere el cálculo de los elementos de la matriz S que permiten encontrar las secciones eficaces de dispersión para partícula que puede ser comparada con los resultados de los experimentos. La electrodinámica cuántica reduce este tipo de cálculos a un desarrollo perturbativo en serie de potencias que permite encontrar con la precisión deseada esas secciones eficaces. Cada uno de los términos perturbativos admite una representación gráfica conocida como diagrama de Feynman. De hecho, la electrodinámica cuántica fue históricamente la primera teoría donde se usaron diagramas de Feynman como ayuda en el cálculo perturbativo. La forma de cada uno de los términos perturbativos y, por tanto, la representación gráfica asociada depende de la forma del lagrangiano que caracteriza dicha teoría (ver más adelante). La invarianza gauge local U(1) Es interesante observar como se puede hallar el lagrangiano de la QED como simple exigencia de que el lagrangiano de un fermión libre con carga eléctrica no nula sea invariante gauge local. Sea el lagrangiano del fermión libre:
En otras palabras, queremos que sea invariante bajo una transformación local U(1) de manera que el campo cambie como:
En ese caso, la derivada covariante y el gauge serán:
Con todo esto, nos queda el lagrangiano de la electrodinámica cuántica:
Adecuación experimental Es importante señalar que la electrodinámica cuántica no da valores concretos de lo que sucedería en un experimento concreto, sino sólo probabilidades de que suceda un determinado tipo de situación. Es por eso, que los experimentos usan un número relativamente grande de partículas que son dispersadas estadísticamente de acuerdo con las probabilidades predichas por la teoría. A partir de la distribución de partículas dispersadas puede medirse la sección eficaz comparable con las predicciones numéricas de la teoría.
Las predicciones de la electrodinámica cuántica han sido confirmadas por los experimentos hasta un nivel insólito de precisión: habitualmente se tienen experimentos que coinciden en 12 cifras decimales correctas con las predicciones de la teoría. Esto hace de la electrodinámica cuántica la teoría más precisa construida por el hombre. Formulación matemática La dinámica y propiedades básicas de una teoría de campo depende de la forma seleccionada para el lagrangiano. La selección de lagrangiano depende de las simetrías del grupo de gauge y del hecho de que la teoría describa adecuadamente la interacción entre fermiones cargados. En una teoría que describa campos fermiónicos interactuando mediante un campo de gauge bosónico asociado a partículas sin masa (fotones) cuyo grupo de gauge es conmutativo, el lagrangiano de partida puede tomarse como:
Donde el campo ferminónico y su adjunto de Dirac son los campos que representan partículas de carga eléctrica, específicamente el electrón y los campos del positrón representados como espinor de Dirac. La parte del lagrangiano que contiene el tensor de campo electromagnético describe la evolución libre del campo electromagnético, mientras que la ecuación de Dirac con la derivada covariante de gauge describe la evolución libre de los campos del electrón y del positrón así como su interacción con el campo electromagnético. Ecuaciones de movimiento Las ecuaciones de "movimiento" o ecuaciones de evolución temporal de la QED pueden obtenerse mediante las ecuaciones de Euler-Lagrange del lagrangiano de la teoría. Insertando ese lagrangiano en las ecuaciones de Euler-Lagrange se obtiene la ecuación de evolución temporal de la teoría:
Colocando los dos términos dentro de la ecuación de Euler-Lagrange resulta finalmente la siguiente ecuación de evolución para el campo fermiónico:
El miembro de la izquierda es precisamente la ecuación de Dirac y el término de la derecha representa la interacción con el campo electromagnético. Las mismas ecuaciones de Euler-Lagrange, aplicadas ahora al campo Aμ, permiten encontrar las ecuaciones de evolución del campo electromagnético:
Y la ecuación de evolución del campo electromagnético resulta finalmente:
Donde el segundo miembro puede ser interpretado como la densidad de corriente asociada al campo fermiónico. Reglas de Feynman Para dar cuenta de todos los efectos cuánticos, es necesario reemplazar las componentes de los campos en las anteriores ecuaciones diferenciales por operadores autoadjuntos interpretables como genuinos operadores cuánticos. En general eso lleva a unos sistemas de ecuaciones que no sabemos como integrar exactamente, pero que admiten un tratamiento perturbativo, descomponiendo el operador de evolución temporal en series de potencias o serie perturbativa. El cálculo de cada término de la serie anterior puede realizarse de manera casi automática con la ayuda de los llamados diagramas de Feynman, a los que se puede asociar unas reglas de Feynman. La precisión del cálculo depende de cuantos términos se consideran en la serie perturbativa anterior. Renormalización Un serio problema con las reglas de Feynman es que tal que fueron establecidas por primera vez conducen a diagramas y términos divergentes en la serie perturbativa, es decir, términos no finitos que echan a perder el cálculo de los términos finitos. Obviamente todos los resultados físicos son finitos y esos términos divergentes del cálculo no son observables en la realidad. La renormalización es un conjunto de reglas adicionales que interpretan qué relación existe entre los términos calculados y los términos medibles en la realidad y generan reglas adicionales que permiten "normalizar" los cálculos y garantizar que se producen resultados numéricos finitos comparables con la realidad mediante experimento. Es conocido que el hecho de que una teoría cuántica sea una teoría de campo de gauge le confiere la propiedad de ser renormalizable, en el sentido de que existe un conjunto de reglas adicionales que permiten eliminar términos divergentes no observables y dar lugar a resultados finitos. 10.2.Diagramas de Feyman. Un diagrama de Feynman, en física, es un dispositivo de conteo para realizar cálculos en la teoría cuántica de campos, inventada por el físico estadounidense Richard
Feynman. El problema de calcular secciones eficaces de dispersión en física de partículas se reduce a sumar sobre las amplitudes de todos los estados intermedios posibles, en lo qué se conoce como expansión perturbativa. Estos estados se pueden representar por los diagramas de Feynman, que son más fáciles de no perder de vista en, con frecuencia, cálculos tortuosos. Feynman mostró cómo calcular las amplitudes del diagrama usando, las así llamadas, reglas de Feynman, que se pueden derivar del lagrangiano subyacente al sistema. Cada línea interna corresponde a un factor del propagador de la partícula virtual correspondiente; cada vértice donde las líneas se reúnen da un factor derivado de un término de interacción en el lagrangiano, y las líneas entrantes y salientes determinan restricciones en la energía, el momento y el espín. Además de su valor como técnica matemática, los diagramas de Feynman proporcionan penetración física profunda a la naturaleza de las interacciones de las partículas. Las partículas obran recíprocamente en cada modo posible; de hecho, la partícula "virtual" intermediaria se puede propagar más rápidamente que la luz.1 La probabilidad de cada resultado entonces es obtenida sumando sobre todas tales posibilidades. Esto se liga a la formulación integral funcional de la mecánica cuántica, también inventada por Feynman El uso ingenuo de tales cálculos produce a menudo diagramas con amplitudes infinitas, lo que es intolerable en una teoría física. El problema es que las auto-interacciones de las partículas han sido ignoradas erróneamente. La técnica de la renormalización, iniciada por Feynman, Schwinger, y Tomonaga, compensa este efecto y elimina los términos infinitos molestos. Después de realizada la renormalización, los cálculos de diagramas de Feynman emparejan a menudo resultados experimentales con exactitud muy buena. El diagrama de Feynman y los métodos de la integral de trayectorias también se utilizan en la mecánica estadística. Murray Gell-Mann se refirió siempre a los diagramas de Feynman como diagramas de Stückelberg, por un físico suizo, Ernst Stückelberg, que ideó una notación similar. Interpretación Los diagramas de Feynman son realmente una manera gráfica de no perder de vista los índices de Witt como la notación gráfica de Penrose para los índices en álgebra multilineal. Hay varios diversos tipos para los índices, uno para cada campo (éste depende de cómo se agrupan los campos; por ejemplo, si el campo del quark "up" y el campo del quark "down" se trata como campos diversos, entonces habría diverso tipo asignado a ambos pero si se tratan como solo campo de varios componentes con "sabores", entonces sería solamente un tipo) los bordes, (es decir los propagadores) son tensores de rango (2,0) en la notación de deWitt (es decir con dos índices contravariantes y ninguno covariante), mientras que los vértices de grado n son tensores covariantes de rango n que son totalmente simétricos para todos los índices bosónicos del mismo tipo y totalmente antisimétricos para todos los índices fermiónicos del mismo tipo y la contracción de un propagador con un tensor covariante de rango n es indicado por un borde incidente a un vértice (no hay ambigüedad con cual índice contraer porque los vértices corresponden a los tensores totalmente simétricos). Los vértices externos corresponden a los índices contravariantes no contraídos. Una derivación de las reglas de Feynman que usa integral funcional gaussiana se da en el artículo integral funcional. Cada diagrama de Feynman no tiene una interpretación
física en sí mismo. Es solamente la suma infinita sobre todos los diagramas de Feynman posibles lo que da resultados físicos. Desafortunadamente, esta suma infinita es solamente asintóticamente convergente. Los experimentos de física de altas energías involucran habitualmente colisiones de partículas a altas velocidades. La teoría cuántica de campos permite calcular los detalles de dichas colisiones, a partir de la probabilidad M de que estas ocurran: , expresión que relaciona la probabilidad de encontrar las partículas β tras la colisión, partiendo de las partículas α, en términos de S, la llamada matriz de scattering: un operador que recoge la evolución del sistema durante el experimento. Este operador puede obtenerse mediante un desarrollo perturbativo, en términos del hamiltoniano de interacción: , donde se ha escrito explícitamente la constante de acoplo g. Este desarrollo supone que la interacción es débil o pequeña, frente a la probabilidad de no interacción. Los diagramas (o reglas) de Feynman son una técnica para calcular dicha probabilidad de manera gráfica. Estos diagramas representan todos las posibles «versiones» subyacentes a un proceso dado: la emisión y absorción de un número cualquiera de partículas virtuales por parte de las partículas en interacción. Estos procesos virtuales ocurren debido a la incertidumbre inherente a una teoría cuántica. La energía necesaria para la aparición de estas partículas virtuales proviene de la relación de incertidumbre entre energía y tiempo: , de modo que estas «existen» por muy poco tiempo. En realidad, las partículas virtuales son sólo una abstracción y no pueden detectarse. El proceso físico real (la colisión) se entiende como una suma de todos estos procesos virtuales. Por ejemplo, en el estudio de la dispersión Compton de un electrón por un fotón en electrodinámica cuántica (QED), la amplitud cuántica viene dada por:
En estos diagramas, las líneas curvadas son fotones y las líneas rectas, electrones. El estado inicial y final son las líneas externas, iguales en todos los diagramas, puesto que todos corresponden al mismo experimento. La propagación de partículas se representa mediante líneas internas, y la emisión o absorción de un fotón por un electrón mediante vértices. Utilizando estos elementos, pueden escribirse todos los (infinitos) diagramas que contribuyen a este experimento.
La exactitud del cálculo aumenta con el número de vértices, que es igual a la potencia de la constante de acoplo en el desarrollo perturbativo. Así, los dos primeros diagramas del miembro derecho son proporcionales a e2 y el siguiente, a e4, donde e, la carga del electrón, es la constante de acoplo en QED. Las distintas «versiones» de la dispersión Compton pueden leerse «cronológicamente» en cada diagrama del miembro derecho de izquierda a derecha: en el primer diagrama, el electrón absorbe el fotón incidente y más tarde emite el fotón saliente; en el segundo, el electrón emite el fotón final y más tarde absorbe el fotón inicial; etc. Los diagramas de Feynman son más que una técnica de cálculo, sino que constituyen la «piedra angular de la física de partículas». Se consideran tan o más relevantes incluso que la propia teoría cuántica de campos de la que surgen, pues en ellos se reflejan los principios físicos subyacentes más importantes, y son la herramienta básica para analizar las colisiones relativistas. Sin embargo, existen numerosos fenómenos en teoría cuántica de campos que no pueden ser analizados como una perturbación, como el confinamiento en QCD, o las soluciones no perturbativas.