Apuntes de C´ alculo alculo Tensor Tensorial ial Manuel Arias Zugasti, Pedro C´ ordoba ordoba Torres, ´ Alvaro Guillermo Perea Covarrubias y Cristina Crist ina Mar M ar´´ıa Santa Sa nta Marta Ma rta Pastrana Pastra na
´ Ultima Ultim a modificaci´ on: on: 7 de octubre de 2013
ii
ii
´ Indice Prefacio
XI
1. Espacios vectoriales
1
1.1. Concepto de espacio vectorial . . . . . . . . . . . . . . . 1.1.1. 1.1.1. Definic Definici´ i´ on y propiedades . . . . . . . . . . . . . . 1.1.2. 1.1.2. Bases Bases y dime dimensi nsi´´on . . . . . . . . . . . . . . . . . 1.2. M´etrica . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1. Espacios vectoriales normados . . . . . . . . . . . 1.2.2. Producto escalar . . . . . . . . . . . . . . . . . . 1.2.3. Tensor m´etrico . . . . . . . . . . . . . . . . . . . 1.2.4. Topologa m´etrica . . . . . . . . . . . . . . . . . . 1.3 1.3. Esp Espaci acios Eucl´ıdeos y no Eucl´ıdeos . . . . . . . . . . . . 1.3.1. Bases ortonormales . . . . . . . . . . . . . . . . . 1.3.2. Espacios no Eucl´ Eucl´ıdeos: espacio ıdeos: espacio dual y y base dual dual . 1.4. Cambios de base . . . . . . . . . . . . . . . . . . . . . . 1.4.1. 1.4.1. Definic Definici´ i´ on de cambio de base . . . . . . . . . . . 1.4.2. Cambios de base sobre vectores . . . . . . . . . . 1.4. 1.4.3. 3. Cam Cambios ios de base base sobr sobree apli aplica caci cion ones es line lineal alees . . . 1.4.4. 1.4.4. Ley de tran transfor sformac maci´ i´ on del tensor m´etrico . . . . 1.4.5. Resumen . . . . . . . . . . . . . . . . . . . . . . 1.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6. Bibliograf´ıa . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2. Tensores
1 2 3 6 6 7 9 10 11 11 12 15 16 17 18 18 20 21 23 25
2.1. Concepto de tensor . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1. Tensores en f´ısica . . . . . . . . . . . . . . . . . . . . . . 2.1.2. Rango tensorial . . . . . . . . . . . . . . . . . . . . . . . 2.1.3. 2.1.3. Ley de tran transfor sformac maci´ i´ on de tensores generales . . . . . . . 2.2. 2.2. Ma Magn gnit itud udees f´ f´ısic ısicas as de rang rango o te tensor nsoria iall sup super erio iorr . . . . . . . . . . 2.2.1 2.2 .1.. Tenso ensore ress de de polar polariz izab abil ilid idad ad y de de con condu duct ctiv ivid idad ad el´ el´ectri e ctrica ca 2.2 2.2.2. Tensor de esfuerzos o de tensiones . . . . . . . . . . . . 2.2.3. 2.2.3. Deriv Derivaci aci´ o´n de campos tensoriales . . . . . . . . . . . . . 2.3. Definic Definici´ i´ on de tensor . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1. Espacio produ oducto tensorial . . . . . . . . . . . . . . . . 2.3.2. Tensores afines . . . . . . . . . . . . . . . . . . . . . . . ´ lgebra tensorial . . . . . . . . . . . . . . . . . . . . . . 2.3.3. A iii
. . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
25 26 27 27 28 28 30 34 35 35 36 37
´ INDICE
iv
2.4.
2.5. 2.6. 2.7. 2.8.
2.3.4. Producto tensorial . . . Aplicaciones multilineales . . . 2.4.1. Contracci´ on de ´ındices . 2.4.2. Producto de contracci´ on Criterios de tensorialidad . . . Tipos de tensores . . . . . . . . Problemas . . . . . . . . . . . . Bibliograf´ıa . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
3. Densidades tensoriales
47
3.1. Ley de transformaci´ o n de densidades tensoriales generales 3.1.1. Producto de densidades tensoriales . . . . . . . . . 3.2. Espacios orientables . . . . . . . . . . . . . . . . . . . . . 3.2.1. Bases ordenadas y orientaci´ on . . . . . . . . . . . . 3.2.2. S´ımbolo alternante de Levi-Civita . . . . . . . . . 3.3. Producto vectorial en espacios tridimensionales . . . . . . 3.3.1. Definici´ on de producto vectorial . . . . . . . . . . 3.3.2. C´ alculo de vol´ umenes . . . . . . . . . . . . . . . . 3.3.3. Rotaciones infinitesimales . . . . . . . . . . . . . . 3.4. Introducci´ on al producto exterior de p-formas . . . . . . . 3.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6. Bibliograf´ıa . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
4. Campos tensoriales
48 49 50 51 52 54 54 56 57 58 59 60 61
4.1. Variedades diferenciables . . . . . . . . . . . . . . . . . . . 4.1.1. Curvas y superficies . . . . . . . . . . . . . . . . . 4.1.2. Geometr´ıa intr´ınseca y extr´ınseca . . . . . . . . . . 4.1.3. Ejemplos de variedades en f´ısica . . . . . . . . . . 4.1.4. Diferenciabilidad y parametrizaciones . . . . . . . 4.1.5. Ejemplos de variedades y parametrizaciones . . . . 4.2. Fibrados tangente y cotangente . . . . . . . . . . . . . . . 4.2.1. Espacio tangente a un espacio vectorial . . . . . . 4.2.2. Espacio tangente de una variedad diferenciable . . 4.3. El espacio vectorial n en coordenadas curvil´ıneas . . . . 4.3.1. Base natural y m´etrica del espacio tangente . . . . 4.3.2. Componentes f´ısicas . . . . . . . . . . . . . . . . . 4.3.3. El espacio Eucl´ıdeo 3 en coordenadas cil´ındricas 4.3.4. El espacio Eucl´ıdeo 3 en coordenadas esf´ericas . 4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5. Bibliograf´ıa . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
5. Derivaci´ on de campos tensoriales
5.1. Transporte paralelo . . . . . . . . . . . . . . . . . . . . 5.1.1. S´ımbolos de Christoffel . . . . . . . . . . . . . . 5.1.2. S´ımbolos de Christoffel en componentes f´ısicas 5.1.3. Transporte paralelo de vectores y tensores . . . 5.1.4. Curvatura . . . . . . . . . . . . . . . . . . . . .
37 38 38 39 40 42 45 46
62 63 65 67 71 74 76 76 77 81 82 83 86 87 88 88 89
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
89 91 94 95 97
´ INDICE
v
5.2. Derivada covariante . . . . . . . . . . . . . . . . . . . . . . 5.2.1. Comportamiento tensorial de la derivada covariante 5.2.2. Derivada covariante en componentes f´ısicas . . . . . 5.3. Vector aceleraci´ on . . . . . . . . . . . . . . . . . . . . . . . 5.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5. Bibliograf´ıa . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . 99 . . . . . . . . . . . . . . 101 . . . . . . . . . . . . . . 104 . . . . . . . . . . . . . . 104 . . . . . . . . . . . . . . 105 . . . . . . . . . . . . . . 105
6. Operadores diferenciales habituales
6.1. Operadores diferenciales . . . . . . . . . . . . . 6.1.1. Gradiente covariante . . . . . . . . . . . 6.1.2. Divergencia covariante . . . . . . . . . . 6.1.3. Rotacional covariante . . . . . . . . . . 6.1.4. Laplaciano covariante . . . . . . . . . . 6.2. Coordenadas curvil´ıneas ortogonales habituales 6.2.1. Coordenadas cartesianas . . . . . . . . . 6.2.2. Coordenadas cil´ındricas . . . . . . . . . 6.2.3. Coordenadas esf´ericas . . . . . . . . . . 6.3. Bibliograf´ıa . . . . . . . . . . . . . . . . . . . . A. F´ ormulas de an´ alisis vectorial
107
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. 107 . 107 . 108 . 108 . 109 . 109 . 109 . 111 . 112 . 114 115
A.1. Notaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 A.2. Productos escalares y vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 A.3. Gradiente, divergencia, rotacional y laplaciano . . . . . . . . . . . . . . . . . . . . . 116 A.4. Teoremas integrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 A.4.1. Teorema del gradiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 A.4.2. Teorema de la divergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 A.4.3. Teorema del rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 A.4.4. Otros teoremas integrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 A.4.5. Identidades de Green . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Bibliograf´ ıa
121
´ Indice alfab´ etico
125
vi
´ INDICE
Lista de figuras 1.1. Esquema de inclusiones para espacios vectoriales normados. . . . . . . . . . . . . . .
9
2.1. El producto τ n es la fuerza por unidad de superficie ejercida por el medio situado en el lado hacia donde apunta la normal sobre el medio situado al otro lado. . . . . . 31 2.2. Elemento infinitesimal de medio material con forma de tetraedro. . . . . . . . . . . . 32
·
3.1. Banda de Moebius. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.1. Deformaci´ on continua de una esfera en un cubo. . . . . . . . . . . . . . . . . . . . . 4.2. Ejemplos de variedades monodimensionales contenidas en el plano. . . . . . . . . . . 4.3. Ejemplos de variedades bidimensionales contenidas en 3 . En la imagen central se ha representado tambi´en el plano z = 1 y en la ´ultima el plano z = 0. . . . . . . . . 4.4. El p´endulo simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5. Plano de fases de un p´endulo simple. La trayectoria marcada en ro jo (E = E s ) es la separatriz entre las trayectorias cerradas (E < E s ) y las abiertas (E > E s ). . . . . . 4.6. Isotermas de un fluido de van der Waals. Las l´ıneas rojas corresponden al fluido supercr´ıtico, las azules a la fase l´ıquida y las verdes a la fase gas. . . . . . . . . . . . 4.7. Parametrizaci´ o n de una variedad diferenciable. . . . . . . . . . . . . . . . . . . . . . 4.8. Compatibilidad entre coordenadas generalizadas de una variedad diferenciable. . . . 4.9. Part´ıcula m´ovil en 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10. Coordenadas cil´ındricas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.11. Coordenadas esf´ericas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62 63 65 68 69 70 72 74 77 86 87
5.1. Transporte paralelo de un vector a lo largo de una curva cerrada en un plano y en una esfera. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 6.1. Coordenadas cartesianas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 6.2. Coordenadas cil´ındricas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 6.3. Coordenadas esf´ericas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
vii
viii
LISTA DE FIGURAS
Lista de tablas 1.1. Comportamiento de tensores de orden
≤ 2 bajo cambios de base (˜ei = C ji e j , D ≡ C −1). 21
3.1. Paridad del tensor dado por el producto (tensorial o de contracci´ on respecto de cualquier par de ´ındices) de dos tensores A y B . . . . . . . . . . . . . . . . . . . . . 50 3.2. Dimensionalidad del producto exterior de dos vectores en funci´ on de la dimensionalidad (n) del espacio vectorial al que pertenecen. . . . . . . . . . . . . . . . . . . . . 60
ix
x
LISTA DE TABLAS
Prefacio Contexto y objetivos Estos apuntes son el material b´asico para el estudio de la primera parte de la asignatura M´etodos Matem´ aticos IV, correspondiente al primer semestre del tercer curso del Grado en F´ısica, impartido por la Universidad Nacional de Eduaci´on a Distancia (UNED) a partir del curso 2012-2013. El material incluido es el habitual en un primer curso de c´ alculo tensorial para f´ısicos, incluyendo desde las nociones m´as b´asicas (componentes co- y contra-variantes de vectores) hasta temas m´as avanzados (transporte paralelo y derivada covariante). En la exposici´on se presuponen conocimientos b´asicos de ´algebra lineal, c´alculo con funciones de varias variables y tambi´ en algunos conocimientos de f´ısica general (mec´anica, electromagnetismo, termodin´ amica) que si bien no son necesarios para esta asignatura se emplean en algunos ejemplos y para mostrar la motivaci´on f´ısica de esta rama de las matem´aticas. Estos apuntes est´an especialmente orientados para estudiantes de f´ısicas. En la exposici´on hemos realizado un esfuerzo para complementar las definiciones formales habituales en estos temas con ejemplos y explicaciones intuitivas y pr´acticas, con el fin de poder aplicar esta herramienta para la descripci´on de campos tensoriales de inter´ es en f´ısica. A grandes rasgos podr´ıamos decir que las principales aplicaciones del c´alculo tensorial en f´ısica son la descripci´on de campos tensoriales (escalares, vectoriales y tambi´ en de rango tensorial superior) en coordenadas generalizadas en espacios de Riemann (en particular en espacios Eucl´ıdeos) por un lado, y la descripci´o n de la curvatura de variedades diferenciables con vistas al posterior estudio de las ecuaciones de Einstein (que relacionan esta curvatura con la densidad de energ´ıa y momento presentes en dicha variedad) por otro. Los tensores tambi´ en se emplean para describir operaciones de simetr´ıa de muchos sistemas f´ısicos, lo cual es importante ya que normalmente la existencia de cierto grado de simetr´ıa en un sistema f´ısico tiene importantes consecuencias en su din´amica. Las aplicaciones del c´alculo tensorial para la teor´ıa general de la relatividad son sobradamente conocidas, pero este campo no es el ´unico en el que esta materia es importante. El estudio de campos tensoriales en coordenadas generalizadas se aplica de manera rutinaria en todas las ´areas de la f´ısica basadas en teor´ıas de campos, por ejemplo este es el caso de ´areas como la mec´anica de fluidos (o en general la mec´anica de medios continuos) o el electromagnetismo, y por tanto es de gran inter´es no solo en f´ısica, sino tambi´en en ingenier´ıa. Por u ´ ltimo, el estudio de las relaciones de simetr´ıa de un sistema f´ısico y las consecuencias que esto tiene en su din´amica es importante en diversas ´areas de la f´ısica, incluyendo desde la mec´anica cu´antica (con aplicaciones, p. ej., en f´ısica molecular o en estado s´olido) hasta la termodin´amica de sistemas alejados del equilibrio (p. ej., dicho an´alisis explica el desacoplamiento entre fuerzas y flujos generalizados de rango tensorial distinto en medios is´otropos). xi
xii
PREFACIO
Gu´ıa de estudio Los objetivos de esta parte del curso son, por tanto, familiarizarse con los conceptos necesarios para operar con campos tensoriales en coordenadas generalizadas en espacios de Riemann de dimensi´on arbitraria, comprendiendo el significado geom´etrico de los objetos y operaciones matem´ aticas empleados. Posiblemente el objetivo m´as importante de esta parte del curso sea familiarizarse con la derivada covariante , tanto en componentes hol´onomas como en componentes f´ısicas (que son las empleadas generalmente en las aplicaciones en espacios Eucl´ıdeos). Por supuesto, para entender esta parte es necesario estudiar antes algunos conceptos previos, para ello el material est´ a distribuido de la siguiente forma: Cap´ıtulo 1: Se presenta un repaso general de conceptos relacionados con espacios vectoriales. Se
revisan desde el punto de vista tensorial diversos conceptos ya conocidos sobre ´algebra y vectores. Se define la operaci´on de cambio de base, estudi´andose su aplicaci´on sobre tensores de hasta segundo orden. Al hacer esto se definen las componentes co- y contra- variantes, que emplearemos constantemente durante el resto del curso. En este apartado se introduce tambi´ en el conocido convenio de suma de Einstein, para las expresiones con ´ındices repetidos (y los conceptos de ´ındice mudo o libre), cuyo uso ser´a frecuente durante el resto del curso. El contenido de este cap´ıtulo es totalmente b´asico, por este motivo es muy importante comprender bien estos conceptos. Para afianzar estas ideas se recomienda realizar la colecci´on de problemas propuestos al final del cap´ıtulo. Cap´ıtulo 2: Se emplean algunos ejemplos f´ısicos para justificar el uso de tensores de rango mayor
que la unidad. Se generalizan los conceptos presentados en el primer cap´ıtulo al caso de tensores de orden arbitrario. En este apartado es muy importante familiarizarse con el concepto de producto tensorial, tensor af´ın y producto de contracci´ o n, que son la base sobre la que trabajaremos el resto del curso. Como aplicaci´on directa de estos conceptos es importante comprender y saber emplear los criterios de tensorialidad, introducidos en este cap´ıtulo. Como ejercicio para esta parte se debe trabajar en la aplicaci´on de cambios de base y subida y bajada de ´ındices (mencionados en el primer cap´ıtulo) sobre tensores generales (en particular deben estudiarse algunos ejemplos de rango superior a 2). Al finalizar este cap´ıtulo tambi´ en debe estar totalmente dominado el uso del convenio de suma de Einstein y la manipulaci´on de expresiones con ´ındices mudos. Cap´ıtulo 3: El concepto de tensor definido en el cap´ıtulo 2 se generaliza aqu´ı para incluir los
pseudotensores, de gran importancia en f´ısica (p. ej. el producto vectorial, el rotacional de un campo vectorial, o el determinante del tensor m´etrico). En este apartado es especialmente importante comprender la definici´on tensorial del producto vectorial, que nos permitir´a posteriormente calcular productos vectoriales y rotacionales de campos vectoriales en coordenadas generalizadas. Como aplicaci´on de los conceptos introducidos hasta el momento, en este tema tambi´ en es especialmente importante observar que los pseudotensores se transforman como verdaderos tensores bajo cambios de base ortogonales (en particular bajo rotaciones de los ejes). Al final de este apartado se incluye una introducci´on m´as o menos intuitiva al c´alculo exterior, que queda fuera del temario de esta asignatura. Cap´ıtulo 4: Hasta este momento solo hemos hablado de tensores definidos sobre un espacio vecto-
rial. En este apartado se generaliza este concepto al espacio fibra, definido sobre una variedad diferenciable. El c´alculo con campos tensoriales era el objetivo b´asico de esta parte del curso,
xiii
por tanto son muy importantes los conceptos de fibrado tangente y cotangente y sus bases habituales, en particular las bases definidas p or las tangentes a las l´ıneas coordenadas (que dan lugar a las componentes hol´onomas) y la correspondiente base de vectores tangentes unitarios (que da lugar a las componentes f´ısicas). Como ejercicio para afianzar estos conceptos en este tema se deben estudiar ejemplos pr´acticos de cambios de base inducidos en los fibrados tangente y cotangente cuando se realiza un cambio de coordenadas en la variedad de partida. Los cambios de coordenadas m´as habituales en el espacio tridimensional Eucl´ıdeo son especialmente importantes (es decir, el paso de coordenadas cartesianas a coordenadas cil´ındricas y esf´ericas), aunque tambi´en deber´an considerarse otros ejemplos m´as complicados. Es muy importante saber distinguir entre las componentes hol´onomas (co- y contra-variantes) y las componentes f´ısicas, y tambi´en traba jar con ellas. ´ ltimo llegamos al que era el objetivo principal del curso, la derivada coCap´ ıtulos 5 y 6: Por u variante. Para comprender este concepto se estudia primero el transporte paralelo, ilustrado con diversos ejemplos sobre variedades con y sin curvatura, la conexi´on de Levi-Civita y los s´ımbolos de Christoffel. A continuaci´ on se define el concepto de derivada covariante, tanto en componentes hol´onomas como en componentes f´ısicas. Como ejercicio de aplicaci´o n de estos conceptos es importante estudiar la deducci´on de las expresiones de los operadores diferenciales habituales en f´ısica (gradiente, divergencia, rotacional y laplaciano) en coordenadas generalizadas, tanto en el caso de coordenadas generalizadas ortogonales como no ortogonales. En particular es importante el caso de las coordenadas de uso m´as extendido: cartesianas, cil´ındricas y esf´ericas. Tras esta primera parte del curso estamos en condiciones de poder calcular las expresiones de los operadores diferenciales habituales en f´ısica en cualquier sistema de coordenadas generalizadas, tanto en el espacio tridimensional Eucl´ıdeo habitual como en variedades diferenciables con m´etrica de Riemann. Esto es interesante, por ejemplo, para analizar problemas de mec´anica de fluidos o de electromagnetismo empleando un sistema de coordenadas adaptado a la geometr´ıa del problema (suponiendo que no haya singularidades geom´etricas, como esquinas o bordes, y siempre y cuando la geometr´ıa no sea demasiado complicada). Como ejercicio de aplicaci´ on de estos conceptos es interesante la programaci´ on del c´alculo de las expresiones de los operadores diferenciales habituales en coordenadas generalizadas en un entorno de c´alculo simb´olico, aunque el escaso tiempo de que disponemos y el car´acter algo avanzado de este problema lo desaconsejan, excepto para algunos estudiantes avanzados que tengan suficiente experiencia en programaci´on. Tras esta parte del curso estamos tambi´ en en condiciones ´optimas para iniciar el estudio de la segunda parte del curso: geometr´ıa diferencial , donde nos centraremos en el estudio de curvas y superficies (incluyendo temas como geometr´ıa intr´ınseca, primera y segunda forma fundamental, operador de Weingarten, etc.). El material para la segunda parte es el libro de Martin M. Lipschultz mencionado en la gu´ıa del curso (Differential Geometry , editado por McGraw-Hill). Tras esta segunda parte del curso estaremos en condiciones de estudiar la teor´ıa general de la relatividad de Einstein, en la que todas las nociones aprendidas en este curso (y algunas m´as no incluidas) se emplean de manera rutinaria.
Agradecimientos Nos gustar´ıa dejar constancia de nuestro agradecimiento hacia la Free Software Foundation y el proyecto GNU por poner a nuestra disposici´on herramientas inform´ aticas gratuitas de verdadera
xiv
PREFACIO
calidad. Este documento ha sido elaborado ´ıntegramente con el procesador de textos LATEX 2ε , los esquemas que aparecen en las figuras se han llevado a cabo o bien en LATEX o bien con el programa de dise˜ no xfig, ambos programas van incluidos en cualquier distribuci´on del sistema operativo gratuito Linux.
Cap´ıtulo 1
Espacios vectoriales Los espacios vectoriales son el punto de partida natural para el estudio de tensores. A continuaci´on revisaremos algunos de los conceptos m´as importantes relativos a vectores, cuya generalizaci´on al caso de tensores ser´a el objeto de esta parte del curso. Concretamente revisaremos los conceptos de vector, espacio vectorial, normas, distancias, productos escalares, bases, aplicaciones lineales y veremos c´ omo cambian las componentes de un vector, o de una aplicaci´on lineal, al realizar un cambio de base en el espacio, esto nos servir´a de punto de partida para definir el concepto de tensor en el pr´oximo cap´ıtulo.
1.1.
Concepto de espacio vectorial
En el lenguaje coloquial se denomina con cierta frecuencia “vector” a cualquier lista unidimensional de datos num´ericos dispuestos entre par´entesis y separados por comas. Desde el punto de vista matematico esto no siempre es correcto. Por ejemplo, si consideramos el conjunto de datos dados por el a˜ no en curso, la temperatura del sitio donde nos encontremos y la cotizaci´on de cualquier moneda frente al euro, es evidente que dicho conjunto de datos dif´ıcilmente podr´ıa considerarse como un vector. Sin embargo, la posici´o n de un m´ovil en el espacio o su velocidad s´ı est´an dados por vectores. ⋆ ¿Qu´e es lo que distingue a un verdadero vector de un mero conjunto de datos? Un vector es un elemento de un espacio vectorial, es decir, es un miembro de una estructura de elementos sobre los que se han definido ciertas operaciones (suma de vectores y multiplicaci´ on por escalares ) que tienen unas determinadas propiedades (conmutativa, asociativa, elemento neutro, elemento opuesto) las cuales dotan al conjunto de una determinada estructura. Concretamente estas propiedades garantizan que podamos construir cualquiera de los elementos de este espacio como combinaci´ on lineal de unos pocos de ellos. Es decir, cualquier elemento del espacio vectorial puede construirse como combinaci´on lineal de un conjunto de vectores linealmente independientes, que forman una base del espacio vectorial en consideraci´on, y definimos la dimensi´on del espacio vectorial como el cardinal (el n´umero de elementos) de cualquiera de sus bases. Esto es muy importante, ya que nos permite trabajar con vectores por medio de sus componentes respecto a una base cualquiera del espacio, y tambi´ en nos permite describir cualquier aplicaci´on lineal definida sobre el espacio vectorial por medio de su matriz asociada, dada por la acci´on de la aplicaci´on lineal sobre cualquier base del espacio. Lo que diferencia a un vector (o a una matriz) de una mera “caja de n´umeros” es que los vectores son objetos geom´etricos pertenecientes a un espacio vectorial, de tal 1
CAP ´ ITULO 1. ESPACIOS VECTORIALES
2
forma que sus componentes son las proyecciones de estos vectores sobre una determinada base del espacio, y las matrices por su parte son las proyecciones de la actuaci´on de una determinada aplicaci´on lineal, aplicada sobre una base del espacio vectorial. Como consecuencia de esto, si aplicamos un cambio de base en el espacio vectorial, las componentes de los vectores y de las aplicaciones lineales definidas sobre estos vectores cambian siguiendo una ley de transformaci´ on que est´a determinada por el cambio de base aplicado, tal y como veremos en este cap´ıtulo. Es muy importante que estos conceptos queden claros, ya que son la base indispensable para comprender los tensores. Normalmente los vectores que se emplean en f´ısica pertenecen a espacios vectoriales normados, es decir, espacios vectoriales sobre los que se ha definido una operaci´on (norma) que permite medir la “longitud” de los vectores. Se entiende que esta “longitud” est´a medida en las unidades que tengan los vectores del espacio en consideraci´on (p. ej. velocidad, aceleraci´ on, fuerza, campo el´ ectrico, . . . ), de forma que no tiene por qu´e ser una longitud en el sentido coloquial del t´ermino. La operaci´on norma nos permite medir la distancia que separa dos vectores cualesquiera del espacio (dada por la norma del vector diferencia), lo cual nos permite juzgar si dos vectores de este espacio son pr´oximos o no, y tambi´en nos permite juzgar si una sucesi´on de elementos de este espacio es convergente o no (dependiendo de si la distancia entre dos elementos consecutivos de la sucesi´on tiende a cero). La operaci´ on distancia dota al conjunto de vectores que forma el espacio vectorial de una topolog´ıa inducida por la m´etrica, convirtiendo el espacio vectorial en un objeto con significado geom´etrico, apropiado, por ejemplo, para describir el espacio en el que nos movemos, u otros espacios con una m´etrica diferente y por extensi´on nos permite tambi´en imaginar espacios similares con un n´ umero de dimensiones diferente a las 3 a las que estamos habituados, En el contexto de la f´ısica es habitual definir como magnitudes escalares a aquellas para cuya especificaci´on completa basta con proporcionar su magnitud, como por ejemplo la temperatura, la masa, la carga el´ectrica o el tiempo en la mec´anica Newtoniana. Por oposici´on a las anteriores, se definen como magnitudes vectoriales a aquellas para las que es preciso especificar, adem´a s de su magnitud, una direcci´on y un sentido. De esta forma resulta muy natural describir como vectores a la posici´on, la velocidad, la aceleraci´on, o las fuerzas. Estas magnitudes f´ısicas, que nos resultan tan conocidas y naturales, hacen que el concepto de vector resulte f´acil e intuitivo. Tambi´en resulta intuitivo el significado de las operaciones b´asicas definidas sobre los vectores. Por ejemplo, si un m´ovil est´a en el punto A y realiza un movimiento dado por el vector B , la posici´on final del m´ovil est´a dada por A + B , si sobre un m´ovil se aplican simult´aneamente las fuerzas f 1 y f 2 el m´ovil se ve sometido a una fuerza neta dada por la suma f 1 + f 2 , si estamos en el punto A y queremos ir al punto B tendremos que desplazarnos seg´un el vector dado por la diferencia B A.
−
1.1.1.
Definici´ on y propiedades
Un espacio vectorial , sobre el cuerpo de escalares , se define como una estructura dada por un conjunto de elementos llamados vectores (x), sobre los que se han definido las operaciones de suma de vectores y producto por escalares : Suma de vectores : Para cualquier pareja de vectores x y y pertenecientes a vector z perteneciente a dado por la suma x + y .
∀ x, y ∈
,
∃! z = x + y ∈
existe un ´unico
(1.1)
La operaci´ on suma de vectores cumple las siguientes propiedades:
• Propiedad conmutativa
∀ x, y ∈
,
x + y = y + x
(1.2)
3
1.1. CONCEPTO DE ESPACIO VECTORIAL
• Propiedad asociativa ∀ x, y, z ∈
,
(x + y ) + z = x + (y + z )
(1.3)
• Elemento nulo: Existe un ´unico vector nulo (0) en tal que para cualquier x de se cumple ∃!0 ∈ / ∀ x ∈ , 0 + x = x (1.4) • Elemento opuesto: Para cualquier x de existe un ´unico vector −x de tal que su suma con x es el elemeno nulo
∀x ∈
,
∃! − x ∈
/
x + ( x) = 0
Producto por escalares : Para cualquier vector x perteneciente a teneciente al cuerpo existe un ´unico vector perteneciente a
∀ x ∈ , ∀λ ∈
,
−
(1.5)
y cualquier escalar λ perdado por el producto λx
∃! z = λx ∈
(1.6)
La operaci´ on producto por escalares cumple las siguientes propiedades:
• Propiedad asociativa ∀ x ∈ , ∀λ, µ ∈
,
λ (µx) = (λµ) x
• Propiedad distributiva respecto de la suma de escalares ∀ x ∈ , ∀λ, µ ∈ , (λ + µ) x = λx + µx • Propiedad distributiva respecto de la suma de vectores ∀ x, y ∈ , ∀λ ∈ , λ (x + y) = λx + λy • Elemento neutro: ∀ x ∈ , 1x = x
(1.7)
(1.8)
(1.9) (1.10)
Estas propiedades garantizan que la suma de vectores responde a la idea intuitiva de composici´on de movimientos, o de fuerzas, que a todos nos resulta familiar. Los dos casos de cuerpos de escalares m´a s frecuentes son el de los n´umeros reales y el de los n´ umeros complejos . En f´ısica es especialmente frecuente considerar espacios vectoriales definidos sobre el cuerpo de los n´umeros reales, en este curso este ser´a el caso que consideraremos salvo que se diga lo contrario. 1.1.2.
Bases y dimensi´ on
Un conjunto de n vectores e1 , . . . , en se dice linealmente independiente cuando es imposible encontrar n n´ umeros λ1 , . . . , λn no todos nulos, tales que
{
{
}
}
λ1 e1 + λ2 e2 +
··· + λnen = 0
(1.11)
y en caso contrario se dice linealmente dependiente. Es obvio que la Ec. (1.11) siempre tiene la soluci´on trivial λ1 = λ 2 = = λ n = 0, si esta ecuaci´on tiene alguna otra soluci´on diferente de la trivial lo que sucede es que, en ese caso, podemos despejar uno de estos vectores como combinaci´on lineal de los restantes. Si la ´unica soluci´o n de Ec. (1.11) es la soluci´on trivial, entonces resulta imposible despejar ninguno de los vectores e1 , . . . , en como combinaci´on lineal de los restantes, esto es lo que significa que el conjunto e1 , . . . , en sea linealmente independiente.
···
{
{
}
}
CAP ´ ITULO 1. ESPACIOS VECTORIALES
4
⋆ ¿Cu´a l es el n´umero m´ aximo de vectores linealmente independientes que podemos tomar en un espacio vectorial? Consideremos el caso de un conjunto formado por un ´unico vector e1 (distinto de 0), es evidente que este conjunto siempre es linealmente independiente. La envolvente lineal del conjunto dados por e1 , definida por los vectores x
{ }
{ }
∈
x = λ 1 e1
∀λ1 ∈
(1.12)
nos genera la recta que pasa por el origen 0 y que tiene direcci´on dada por e 1 . Para cualquier vector x que pertenezca a esta recta el sistema e1 , x es linealmente dependiente, lo que implica que x es sencillamente proporcional a e 1 . Supongamos ahora un vector e 2 que no pertenezca a la envolvente lineal de e1 . En este caso el conjunto e1 , e2 es linealmente independiente, y la envolvente lineal de este conjunto, definida por los vectores x dados por
{
{
} } ∈
x = λ 1 e1 + λ2 e2
∀λ1, λ2 ∈
(1.13)
nos genera el plano que pasa por el origen y contiene a e 1 y e 2 . Para cualquier vector x contenido en este plano el conjunto e1 , e2 , x es linealmente dependiente, lo que indica que x puede escribirse como combinaci´ on lineal de e1 , e2 . Si a˜ nadimos otro vector e3 que no pertenezca a este plano el conjunto resultante vuelve a ser linealmente independiente, y su envolvente lineal nos da el espacio tridimensional engendrado por los vectores e1 , e2 , e3 , de tal forma que cualquier vector de este espacio puede construirse como combinaci´on lineal de e1 , e2 , e3 . En principio podr´ıamos seguir a˜ nadiendo sucesivamente m´as vectores ei linealmente independientes a todos los anteriores, pero si nuestro espacio vectorial es de dimensi´on finita (n) llega un momento que la envolvente lineal del conjunto e1 , . . . , en , dada por
{
{
}
}
{
x = λ 1 e1 + λ2 e2 +
··· + λnen
} {
}
∈
{ } ∀λ1, λ2, . . . , λn ∈
(1.14)
coincide con todo el espacio vectorial . En ese caso resulta imposible a˜nadir ning´ un elemento (distinto de 0) que sea linealmente independiente a todos los anteriores. en+1 En consecuencia, dado un espacio vectorial de dimensi´on finita n se define como base de a cualquier conjunto de n vectores linealmente independientes e1 , . . . , en , todos ellos pertenecientes a y distintos de 0 . La propiedad importante que define a una base es que para cualquier x el conjunto e1 , . . . , en , x es linealmente dependiente, lo que implica que x puede expresarse como combinaci´ on lineal de e1 , . . . , en
∈
{
{
} {
{
} ∀x ∈
x = x 1 e1 + x2 e2 +
}
··· + xnen
}
∈
(1.15)
y se definen los n´umeros x1 , x2 , . . . , xn como las componentes (o coordenadas) del vector x respecto a la base e1 , . . . , en . Por otra parte, el cardinal del mayor conjunto de vectores linealmente independientes que podamos tomar en el espacio vectorial se define como la dimensi´on del espacio vectorial. En la discusi´on anterior hemos asumido t´acitamente que el espacio vectorial estaba definido sobre el cuerpo de los reales , para simplificar la exposici´o n. En un caso m´as general podemos repetir los mismos pasos haciendo que los n´umeros λ i tomen valores en el cuerpo correspondiente, y el resultado final es totalmente an´alogo. En este curso s´olo estudiaremos espacios vectoriales de dimensi´on finita. En algunos casos consideraremos una dimensi´on finita arbitraria (n) y en otros nos centraremos en el caso especialmente
{
}
5
1.1. CONCEPTO DE ESPACIO VECTORIAL
relevante del espacio tridimensional. De todas formas conviene recordar que tambi´ en existen espacios vectoriales de dimensi´on infinita , de gran importancia en ciertas ´areas de las matem´aticas (p. ej. en an´alisis funcional) y tambi´ en extremadamente relevantes en f´ısica, por sus aplicaciones en el estudio de ecuaciones diferenciales y en mec´anica cu´antica. Como ejemplo de espacio vectorial de dimensi´on infinita tenemos los espacios funcionales, es decir, espacios cuyos elementos son funciones. Por ejemplo, es muy f´acil ver que el conjunto de polinomios de una variable (x) p(x) = a 0 + a1 x + a2 x2 + a3 x3 +
··· + anxn
(1.16)
cumple todas las propiedades necesarias para ser un espacio vectorial. Tambi´ en es muy f´acil ver n m que las funciones x y x son linealmente independientes siempre que n = m, esto parece indicar que podr´ıamos tomar como base de este espacio funcional al conjunto 1, x , x2 , x3 , . . . , xn , . . . . Pero en ese caso ¿cu´al es el valor m´aximo de n que debemos tomar para garantizar que cualquier polinomio de x est´a incluido en la envolvente lineal de la base? Claramente ning´un valor finito de n es suficiente, por tanto la dimensi´on de este espacio vectorial es infinita. Los espacios funcionales tienen (normalmente) infinitas dimensiones, y esa circunstancia hace que en ellos aparezcan otros problemas que no aparecen en los de dimensi´on finita. Volviendo a los espacios de dimensi´on finita, una propiedad interesante de las envolventes lineales de los sucesivos conjuntos de vectores que hemos ido considerando ( e1 , e1 , e2 , e1 , e2 , e3 , . . . , e1 , . . . , en ), es que todas estas envolventes lineales son, a su vez, espacios vectoriales, que adem´as est´an contenidos en el espacio vectorial y por tanto se denominan subespacios vectoriales. La demostraci´ on de que la envolvente lineal de cualquier conjunto de vectores es un espacio vectorial se deja para los ejercicios. Otra propiedad importante cuya demostraci´on se deja para los ejercicios, es que la descomposici´on de cualquier vector x como combinaci´on lineal de la base (Ec. (1.15)) es u ´ nica. Por u ´ ltimo, dada cualquier base e1 , . . . , en del espacio , se dice que se descompone en suma directa ( ) de los subespacios vectoriales engendrados por cada uno de los ei (con i = 1, . . . , n)
{̸
{
}
{ }{
}
{
⊕
}{
}
}
n
=
⊕
envolvente lineal de ei
(1.17)
i=1
donde la suma directa de dos subespacios vectoriales independientes 1 y 2 (es decir, cuya intersecci´on se reduzca al elemento nulo 0), se define sencillamente como el conjunto de vectores que pueden definirse como combinaci´on lineal de vectores de 1 y 2 . En general, dado un espacio vectorial con n dimensiones, se llama base can´ onica a la formada por los vectores e1 = 1, 0, 0, . . . , 0
{ } e2 = {0, 1, 0, . . . , 0}
(1.18)
(1.19)
... ... ... ... ... ...
(1.20)
en = 0, 0, 0, . . . , 1
(1.21)
{
}
Esta ser´a la base que emplearemos constantemente. Uno de los temas centrales del estudio de tensores es c´omo cambian las componentes de diversos objetos definidos en un espacio vectorial (vectores, aplicaciones lineales, tensor m´etrico, etc.) al realizar un cambio de base en el espacio, es decir, al pasar de la base can´onica a otra base distinta.
CAP ´ ITULO 1. ESPACIOS VECTORIALES
6
1.2.
M´ etrica
1.2.1.
Espacios vectoriales normados
El siguiente ingrediente que necesitamos para dotar al espacio vectorial de significado geom´etrico es definir una operaci´on distancia. Para ello basta con disponer de una funci´on, llamada norma , que nos permita medir la “longitud” de cada vector x de . Una vez definida esta funci´on, la distancia entre cualquier par de vectores x, y (d(x, y )) puede definirse, p. ej., como la norma del vector diferencia , d(x, y ) (1.22) x, y y x
∥·∥
∈
∀ ∈
≡∥ − ∥
Para que la funci´on distancia se corresponda con lo que intuitivamente se entiende por distancia esta funci´on debe cumplir ciertas propiedades, como por ejemplo que la distancia de x a y debe ser igual a la de y a x, que debe ser siempre mayor o igual que cero, que debe cumplir la propiedad triangular y que la distancia de λx a 0 debe ser λ veces la distancia de x a 0 (para cualquier vector x y cualquier escalar λ , siendo λ el valor absoluto de λ). Como consecuencia se define la operaci´on norma como cualquier funci´on definida sobre el espacio vectorial que cumpla las siguientes propiedades
∈
∥ · ∥
| | | |
∈
La operaci´ on norma es definida positiva ,
∀x ∈ El u ´ nico elemento de
∥x∥ ≥ 0
(1.23)
con “longitud” cero es el elemento nulo de
∥x∥ = 0 si y s´olo si x = 0
(1.24)
Comportamiento respecto al producto por escalares
∀x ∈ , ∀λ ∈
,
∥λx∥ = |λ|∥x∥
(1.25)
∥x + y∥ ≤ ∥x∥ + ∥y∥
(1.26)
Desigualdad triangular
∀x, y ∈
,
Una vez definida una operaci´on norma, la distancia entre dos vectores cualesquiera del espacio puede definirse de manera natural como se ha dicho anteriormente (Ec. (1.22)), aunque esta no es la u ´ nica posibilidad. En general puede tomarse como operaci´on distancia a cualquier funci´on que cumpla las siguientes propiedades La operaci´ on distancia es definida positiva
∀x, y ∈
,
d(x, y)
≥0
(1.27)
Dos vectores separados por una distancia nula son el mismo vector d(x, y ) = 0 si y s´olo si x = y
(1.28)
Simetr´ıa
∀x, y ∈
,
d(x, y ) = d(y , x)
(1.29)
´ 1.2. M ETRICA
7
Desigualdad triangular
∀x, y, z ∈
,
d(x, z )
≤ d(x, y) + d(y, z)
(1.30)
En el caso particular de definir la distancia como la norma del vector diferencia (Ec. (1.22)), que es la opci´on m´as habitual, las propiedades que cumple la operaci´ on norma garantizan que la operaci´on distancia d cumple las propiedades anteriores. Un espacio vectorial sobre el que se ha definido una operaci´on norma se denomina espacio normado, los espacios vectoriales sobre los que se ha definido una operaci´on distancia se denominan espacios m´etricos . 1.2.2.
Producto escalar
Una vez definida la operaci´on distancia, el ´ultimo ingrediente que necesitamos para dotar a los elementos de de una estructura geom´etrica es definir una operaci´on que nos permita medir ´angulos, lo cual nos permitir´a definir el concepto de ortogonalidad. Para ello se introduce la funci´ on producto escalar (o producto interior), que denotaremos indistintamente por producto escalar de x por y
≡ (x, y) ≡ x · y
(1.31)
Dado el espacio vectorial sobre el cuerpo , se define la operaci´on producto escalar ( , ) como una funci´on definida sobre con imagen en
··
⊗
∀x1, x2 ∈
,
(x1 , x2 )
,
(x1 , x2 ) = (x2 , x1 )
∈
(1.32)
que cumpla las siguientes propiedades Propiedad herm´ıtica
∀x1, x2 ∈
(1.33)
donde z es el complejo conjugado del n´umero complejo z . Si el cuerpo
es el de los n´umeros reales esta propiedad se reduce a la relaci´on de simetr´ıa
∀x1, x2 ∈
,
(x1 , x2 ) = (x2 , x1 )
(1.34)
Propiedad distributiva respecto a la suma de vectores en el segundo argumento
∀x1, x2, x3 ∈
,
(x1 , x2 + x3 ) = (x1 , x2 ) + ( x1 , x3 )
(1.35)
∀x1, x2, x3 ∈
,
(x1 + x2 , x3 ) = (x1 , x3 ) + ( x2 , x3 )
(1.36)
de donde se deduce
Linealidad respecto al producto por escalares en el primer argumento
∀x1, x2 ∈ , ∀λ ∈
,
(λx1 , x2 ) = λ (x1 , x2 )
(1.37)
∀x1, x2 ∈ , ∀λ ∈
,
(x1 , λx2 ) = λ (x1 , x2 )
(1.38)
de donde se deduce
En el caso en que
=
esta propiedad se reduce a
∀x1, x2 ∈ , ∀λ ∈
,
(λx1 , x2 ) = (x1 , λx2 ) = λ (x1 , x2 )
(1.39)
CAP ´ ITULO 1. ESPACIOS VECTORIALES
8
El producto escalar de un vector por s´ı mismo es definido positivo
∀x ∈
,
(x, x)
≥0
(1.40)
El u ´nico vector con producto escalar por s´ı mismo nulo es el vector nulo (x, x) = 0 si y s´olo si x = 0
(1.41)
Un espacio vectorial en el que se ha definido un producto escalar se denomina espacio dotado de producto interno. Una vez definido el producto escalar po demos definir el ´angulo (α) formado por dos vectores x e y a partir de la relaci´on
· ≡ ∥x∥∥y∥ cos α
x y
(1.42)
de tal forma que en el caso de un espacio vectorial definido sobre el cuerpo de los reales el producto escalar x ei (con ei = 1) corresponde a la proyecci´on ortogonal de x sobre la direcci´on definida por el vector unitario ei . Si = y la m´ etrica de es eucl´ıdea esta definici´o n de x y se corresponde con la definici´on cl´asica del ´angulo formado por estos dos vectores. Definimos tambi´ en que dos vectores son ortogonales si y s´olo si su producto escalar es nulo
·
∥ ∥
·
x
⊥ y si y s´olo si x · y = 0
(1.43)
Las propiedades que cumple la operaci´on producto escalar permiten definir una operaci´on norma de manera natural por medio de (x, x)1/2 (1.44) x
∥ ∥≡
A partir de las propiedades que cumple la operaci´on producto escalar es muy f´acil comprobar que la anterior relaci´ on define una norma. La existencia de una funci´on producto escalar implica que podemos definir una funci´on norma por medio de Ec. (1.44), sin embargo el rec´ıproco no es cierto. Es decir, dada una funci´ on norma no est´ a garantizado que sea posible definir una operaci´ on producto escalar compatible con esta norma. Existen funciones norma que no provienen de (o que no son compatibles con) ning´un producto escalar. No obstante los espacios vectoriales que suelen emplearse en f´ısica se caracterizan precisamente por tener funciones norma definidas a partir de un producto escalar. Este tipo de espacios vectoriales se denominan en general pre-Hilbert , y se denominan espacios de Hilbert cuando, adem´ as de tener una norma inducida por el producto escalar, son completos (o de Banach). Donde se entiende por espacio de Banach (o completo) aquel en el que para toda sucesi´on convergente de vectores enteramente contenida en el espacio (es decir, para toda sucesi´on de Cauchy), el l´ımite al que tiende la sucesi´on tambi´en est´a contenido en el espacio. Para darse cuenta del significado de esta propiedad es interesante considerar el ejemplo del espacio funcional dado por los polinomios de una variable a los que hac´ıamos referencia antes. Para ver que este espacio no es completo podemos considerar, p. ej., el desarrollo en serie de Taylor de sin x hasta orden N centrado en x = 0, que definimos como s N (x) N
sN (x) =
∑
n=0
( 1)n 2n+1 x (2n + 1)!
−
Como es bien sabido, en el l´ımite N este desarrollo converge uniformamente a sin x ( x ). N Para cualquier N finito este desarrollo es un polinomio, por tanto la sucesi´on si (x) i=1 (N = 1, 2, 3, . . . ) es convergente y est´a enteramente contenida en el espacio, pero el l´ımite al que tiende
→ ∞
{
}
∀ ∈
´ 1.2. M ETRICA
9
Espacios Lineales Normados Espacios de Banach (completos)
Norma inducida por el Producto Escalar Pre−Hilbert
Hilbert
Figura 1.1: Esquema de inclusiones para espacios vectoriales normados.
esta sucesi´on al hacer N no pertenece al espacio, ya que sin x no es un polinomio. Como consecuencia deducimos que el espacio vectorial definido por los polinomios de una variable no es completo. Los espacios de Hilbert son los espacios con un significado geom´etrico m´as intuitivo y sencillo, y son los m´as empleados en f´ısica. Como ejemplos t´ıpicos de espacios de Hilbert con dimensi´on finita tenemos n y n , y con dimensi´on infinita tenemos el espacio de Lebesgue 2 , formado por las funciones de cuadrado integrable.
→∞
1.2.3.
Tensor m´ etrico
A partir de este momento consideramos s´olamente el caso de un espacio vectorial de dimensi´on finita (n) definido sobre el cuerpo de los reales. Consideremos el producto escalar de dos vectores cualesquiera x e y . Dada una base cualquiera del espacio vectorial, x e y est´an dados por sus correspondientes desarrollos en componentes x = x 1 e1 + x2 e2 +
··· + xnen,
y = y 1 e1 + y 2 e2 +
··· + ynen
(1.45)
Aplicando las propiedades de linealidad del producto escalar, x y puede ponerse como n
x y =
·
·
n
∑∑
gij xi y j
(1.46)
i=1 j=1
donde hemos definido el tensor m´etrico gij como la tabla de todos los productos escalares de los vectores de la base gij ei e j , i, j, = 1, . . . , n (1.47)
≡ ·
M´as adelante veremos por qu´ e denominamos tensor a la matriz gij , lo que debe quedar claro de momento es que g ij contiene toda la informaci´on necesaria para calcular el producto escalar de cualquier par de vectores del espacio en consideraci´on. Por otra parte, en el caso de un espacio vectorial sobre los reales es evidente que el tensor m´etrico debe ser sim´etrico gij = g ji
(1.48)
CAP ´ ITULO 1. ESPACIOS VECTORIALES
10 Convenio de Suma de Einstein
Al manejar tensores aparecen con mucha frecuencia expresiones como Ec. (1.46), donde se realiza la suma de una expresi´on dependiente de uno o m´as ´ındices (aqu´ı i y j) para todos los valores posibles de los mismos (es decir, desde 1 hasta la dimensi´on del espacio n). El convenio de suma de Einstein es un m´etodo muy extendido para simplificar la escritura de este tipo de f´ormulas, consiste en asumir que: ⋆ cualquier monomio donde aparezca un ´ındice repetido representa la suma del monomio respecto al ´ındice repetido, para todos los valores posibles del ´ındice . Aplicando el convenio de suma de Einstein el desarrollo de un vector en componentes (Ec. (1.15)) se escribe como (1.49) x = x i ei y el producto escalar x y (Ec. (1.46)) puede escribirse sencillamente como
·
x y = g ij xi y j
(1.50)
·
donde los sumatorios respecto de i y j se sobreentienden. En la anterior expresi´on los ´ındices i y j se denominan ´ındices mudos ya que el resultado no depende de los s´ımbolos empleados para estos ´ındices gij xi y j = g pq x p y q = g αβ xα y β = g 11 x1 y 1 + g12 x1 y 2 +
··· + g21x2y1 + . . .
(1.51)
Por el contrario, se denominan ´ındices libres a aquellos respecto de los que no se realiza la suma. En los dos ejemplos anteriores todos los ´ındices eran mudos. En la expresi´on A ji x j = y i
(1.52)
no hay ning´ un monomio en el que el ´ındice i est´e repetido, esto nos indica que no se realiza la suma respecto del ´ındice i, y por tanto el resultado de esta operaci´on depende del valor que asignemos a este ´ındice. De hecho, A ji x j representa la componente i del vector y, resultante de aplicar la aplicaci´on lineal A (con matriz A ji ) sobre el vector x (con componentes x j ). El uso de sub´ındices y super´ındices no es arbitrario, responde a los dos tipos de comportamiento tensorial frente a cambios de base que existen (covariante y contravariante), tal y como veremos al final de este cap´ıtulo. A partir de este momento supondremos que se aplica el convenio de suma de Einstein para cualquier expresi´on en la que aparezca un monomio con ´ındices repetidos, a menos que se diga expl´ıcitamente lo contrario. 1.2.4.
Topologa m´ etrica
La operaci´ on distancia induce en el espacio vectorial una topolog´ıa, dada por la topolog´ıa m´ etrica. Es decir, una vez definida la operaci´ on distancia d sobre el espacio vectorial, podemos definir el conjunto de bolas abiertas (con radio r) en torno a cualquier punto x de , como el conjunto de puntos y tales que d(x, y) < r. Existen muchos ejemplos de normas y de distancias diferentes, cada uno de estos ejemplos genera una topolog´ıa diferente en el espacio. El ejemplo m´as habitual es el de la m´etrica eucl´ıdea, en el que definimos como distancia entre x e y a la longitud de la l´ınea recta que une estos puntos.
∈
1.3. ESPACIOS EUCL´ IDEOS Y NO EUCL´ IDEOS
1.3.
11
Espacios Eucl´ıdeos y no Eucl´ıdeos
En general se llama m´etrica Riemanniana a cualquier m´etrica definida a trav´ es de la norma inducida por un producto escalar dado por un tensor m´etrico gij que cumpla las dos propiedades siguientes: simetr´ıa: gij = g ji invertibilidad: det gij = 0
̸
Los espacios dotados de una m´etrica Riemanniana se llaman espacios de Riemann o Riemannianos. Un caso particular de estos espacios son los espacios Eucl´ıdeos, definidos por la m´etrica Eucl´ıdea habitual. En un espacio Eucl´ıdeo la distancia entre los puntos x e y est´a dada por la longitud de la l´ınea recta que une estos puntos, cuyo valor en un sistema de coordenadas cartesianas puede calcularse por medio del teorema de Pit´agoras d(x, y ) =
� − − ( ( x1 )2 + (y2
(y1
x2 )2 +
··· + (yn − xn)2
(1.53)
o lo que es lo mismo, el elemento diferencial de longitud ( ds) est´a dado por (ds)2 = dx1
2
+ dx2
2
+
··· + (dxn)2
(1.54)
donde x i , y i son las proyecciones de x e y sobre n direcciones mutuamente perpendiculares. El producto escalar que induce esta m´etrica es el producto escalar habitual x y = x 1 y 1 + x2 y 2 +
·
··· + xnyn
(1.55)
que corresponde al caso en que el tensor m´etrico es la identidad gij = δ ij (i,j, = 1, . . . , n), donde se define la delta de Kronecker como δ ij = δ ij = δ ji =
�
1 si i = j 0 si i = j
̸
(1.56)
En general se define como espacio Eucl´ıdeo a cualquier espacio Riemanniano en el que existe al menos una base tal que el tensor m´ etrico en esa base est´a dado por la delta de Kronecker. Los espacios Riemannianos en los que no existe ninguna base en la que g ij sea la identidad se dicen no Eucl´ıdeos. En general, dependiendo de la base que tomemos el tensor m´etrico puede dejar de ser la identidad incluso si el espacio es Eucl´ıdeo (esto es lo que sucede si tomamos como base un conjunto de vectores que no sean mutuamente ortogonales). 1.3.1.
Bases ortonormales
En los espacios Eucl´ıdeos se definen las bases ortonormales como aquellas en las que el tensor m´ etrico es la identidad. Como puede verse, la propiedad que caracteriza a las bases ortonormales es que todos los vectores de la base tienen longitud unidad (est´an normalizados) y son mutuamente perpendiculares (1.57) ei e j = δ ij ; i, j = 1, . . . , n
·
Multiplicando escalarmente el desarrollo en componentes de un vector cualquiera (Ec. (1.15)) por e j y recordando las relaciones de ortogonalidad Ec. (1.57), encontramos que la componente x j del vector x respecto de una base ortonormal est´a dada por x j = (e j , x) ;
j = 1, . . . , n
(1.58)
CAP ´ ITULO 1. ESPACIOS VECTORIALES
12
por tanto x j = x cos α (siendo α el ´angulo formado por x y e j ), es decir, x j es la proyecci´on ortogonal de x sobre la direcci´on definida por e j . En el caso de una base ortornormal las componentes de un vector est´an, por tanto, dadas por las correspondientes proyecciones ortogonales del vector sobre cada uno de los elementos de la base.
∥ ∥
M´ etodo de ortonormalizaci´ on de Gram-Schmidt
Dada una base cualquiera de un espacio Eucl´ıdeo, el m´etodo de ortonormalizaci´on de GramSchmidt es un procedimiento muy sencillo que permite construir una base ortonormal a partir de la base de partida. Supongamos que tenemos una base cualquiera dada por los vectores t1 , t2 , . . . , tn , siguiendo el m´etodo de ortonormalizaci´on de Gram-Schmidt definimos:
{
e1 = t′2 = t 2 t′3 = t 3
− (e1, t2) e1,
e2 =
− (e1, t3) e1 − (e2, t3) e2,
e3 =
...
...
... n 1
t′ = t n − n
−
∑
(ei , tn ) ei , en =
i=1
}
t1 , t1 t′2 , t′2
∥ ∥ ∥ ∥
t′3 , t′3
∥ ∥
...
t′n t′n
∥ ∥
(1.59)
De esta forma vamos construyendo una base ortonormal de forma sucesiva, restando a cada uno de los t j su proyecci´on sobre el subespacio generado por todos los ei anteriores (i = 1, . . . , j 1) y posteriormente normalizando. Dejamos para los ejercicios la demostraci´on de que este procedimiento genera una base ortonormal. Dado que los ei generados por este mecanismo son ortonormales, tambi´ en son linealmente independientes, y como son combinaci´ on lineal de los ti de partida y el cardinal de la base es el mismo, deducimos que la envolvente lineal de los ei coincide con la de la base de partida.
−
1.3.2.
Espacios no Eucl´ıdeos: espacio dual y base dual
Seg´ un hemos visto previamente, siempre es posible escribir un vector como combinaci´on lineal de los vectores de una base cualquiera, independientemente de si el espacio es Eucl´ıdeo o no. Si el espacio es Eucl´ıdeo y se emplea una base ortonormal las componentes de un vector est´an dadas por las correspondientes proyecciones ortogonales del vector sobre cada uno de los elementos de la base. En el caso general de un espacio vectorial no necesariamente Eucl´ıdeo ¿c´ omo se definen las componentes de un vector? Para responder esta pregunta es necesario introducir los conceptos de espacio dual y base dual. Dado el espacio vectorial sobre el cuerpo de los reales, el conjunto de aplicaciones lineales ⋆ (a ) definidas sobre con imagen en a⋆ : x
→ a⋆(x) ∈
(1.60)
tiene a su vez estructura de espacio vectorial y recibe el nombre de espacio dual ⋆ . En espacios de dimensi´ on finita (y en general en espacios de Hilbert) el espacio dual es isomorfo al espacio vectorial de partida. En este caso se deduce el teorema de Riesz-Fr´echet, seg´un el cual
1.3. ESPACIOS EUCL´ IDEOS Y NO EUCL´ IDEOS
⋆ dada la aplicaci´ on lineal a⋆ producto escalar a x
·
∈
∀a⋆ ∈
⋆,
⋆
13
existe un ´ unico a
∈
, !a
∃ ∈
tal que a⋆ (x) es sencillamente el
/ a ⋆ (x) = (a, x) = a x
·
(1.61)
El teorema de Riesz-Fr´ echet permite identificar, por medio de un isomorfismo, cada elemento de un espacio vectorial con un elemento del espacio dual, de la manera que acabamos de indicar (a⋆ (x) = (a, x)). Por su propia definici´on est´a claro que el isomorfismo que asocia la aplicaci´on lineal a⋆ de ⋆ con el vector a de (y viceversa) depende del producto escalar que estemos considerando en , de modo que distintos productos escalares nos llevar´ıan a asociar elementos distintos. Una vez definido el espacio dual ⋆ podemos considerar el espacio de las aplicaciones lineales definidas sobre ⋆ , es decir, el dual del dual de . En este caso se puede comprobar que el dual del dual ⋆⋆ es isomorfo al espacio de partida , y que el isomorfismo que relaciona cada elemento de ⋆⋆ con uno de es independiente de cu´al sea el producto escalar que estemos considerando en , motivo por el cual este isomorfismo se denomina isomorfismo can´ onico. Como resultado tenemos que el espacio ⋆⋆ coincide con el espacio de partida , independientemente del producto escalar considerado. Dado un vector x de y una base cualquiera ei ni=1 , la aplicaci´on que genera la componente xi de x respecto de esta base es una aplicaci´on lineal (que llamaremos ei )
{ }
ei (x) = x i
(1.62)
Como ei es una aplicaci´on lineal, ei pertenece al espacio dual
⋆.
⋆ ¿C´omo sabemos que la aplicaci´on que define cada componente i de un vector respecto a una base arbitraria es una aplicaci´on lineal? A primera vista esta afirmaci´on podr´ıa parecer arbitraria, sin embargo es totalmente natural. La aplicaci´on que genera las componentes de un vector respecto de una base cualquiera debe ser una aplicaci´ on continua y diferenciable. Esto es necesario si queremos que las componentes de cualquier vector var´ıen de forma continua y diferenciable al variar el vector de forma continua y diferenciable. Tambi´en parece l´ogico exigir que el vector nulo tenga todas sus componentes nulas, independientemente de la base considerada. Por otra parte, tambi´en exigimos que las operaciones de suma de vectores y multiplicaci´on por escalares puedan calcularse componente a componente en cualquier base. El resultado de estas condiciones es que la aplicaci´on que produce la componente del vector x respecto del elemento e i de cualquier base tiene que ser necesariamente una aplicaci´on lineal, que denotamos por ei . Aplicando ahora el teorema de Riesz-Fr´echet, para cada aplicaci´on ⋆ existe un ´ lineal bfei unico vector ei tal que xi = ei (x) est´a dado sencillamente por el producto escalar xi = e i x. El conjunto de aplicaciones lineales que nos dan las componentes xi respecto de una base cualquiera ei ni=1 son linealmente independientes y forman una base del espacio dual, llamada base dual . Claramente la base dual cumple
∈
·
∈
{ }
ei (e j ) = (ei , e j ) = δ ji ,
i, j = 1, . . . , n
(1.63)
independientemente de si la m´etrica de este espacio es Eucl´ıdea o no, e independientemente de si la base ei ni=1 es ortogonal o no. Dado que el espacio dual es isomorfo al espacio de partida, la base ei ni=1 del espacio dual tambi´ en es base del espacio de partida.
{ } { }
CAP ´ ITULO 1. ESPACIOS VECTORIALES
14
Como consecuencia, en un espacio vectorial (no necesariamente Eucl´ıdeo), dada una base n cualquiera ( ei i=1 ) existe otra base, llamada base dual ( ei ni=1 ), tal que e i e j = δ ji . Proyectando entonces el desarrollo en componentes de x (Ec. (1.15)) sobre la direcci´on e j de la base dual y aplicando las relaciones Ec. (1.63), encontramos que la componente xi de x respecto de ei ni=1 est´a dada por la proyecci´ on ortogonal de x sobre el vector e i de la base dual. En general la base dual de una base dada cualquiera ser´a otra base distinta. En el caso particular de un espacio vectorial Eucl´ıdeo, cuando se usa una base ortonormal se da la circunstancia excepcional de que la base dual coincide con la base de partida. Normalmente esto no se cumplir´a, en el caso general la base dual a una base dada ser´a diferente de la base dada. M´as adelante veremos c´omo calcular cada una de estas bases cuando se conoce la otra. Dejamos para los ejercicios la demostraci´on de las siguientes propiedades importantes: la base dual siempre existe y es ´unica; si ei ni=1 es la base dual de ei ni=1 , entonces ei ni=1 es la base dual de ei ni=1 (es decir, el dual del dual nos devuelve a la base de partida). Normalmente emplearemos sub´ındices para numerar los vectores de la base de partida, y super´ındices para numerar los vectores de la base dual. Como ya se ha mencionado, el uso de suby super-´ındices no es arbitrario, sino que corresponde a los comportamientos co- y contra-variante de estos objetos al aplicar un cambio de base, tal y como veremos a continuaci´on.
{ }
{ }
·
{ }
{ }
{ }
{ }
{ }
Tensor m´ etrico: relaci´ on entre una base y su dual
Aplicando que el espacio dual es isomorfo al espacio de partida hemos identificado los vectores de la base dual con vectores del espacio de partida, en el sentido del teorema de Riesz-Fr´echet (Ec (1.61)). Dado que son vectores del mismo espacio, entonces podemos escribir los vectores de la base dual como combinaci´ on lineal de los vectores de la base, escribimos esta combinaci´on lineal como ei = g ij e j
(1.64)
Nos queda por determinar cu´ales son las componentes de este objeto g ij . Para ello basta con sustituir en la propiedad que define a la base dual (Ec. (1.63)), de donde deducimos g ik gkj = δ ji
(1.65)
por tanto la matriz g ij es sencillamente la inversa del tensor m´etrico g ij (recordar que en espacios Riemannianos el tensor m´etrico siempre es invertible det gij = 0). Por tanto, la inversa del tensor m´etrico aplicada sobre la base de partida nos genera la base dual. Esta relaci´on nos indica de forma trivial que en el caso de un espacio Eucl´ıdeo, la base dual de una base ortonormal coincide con ella misma. Por otra parte, sustituyendo este desarrollo (Ec. (1.64)) en ei e j es inmediato demostrar que (1.66) ei e j = g ij , i, j = 1, . . . , n
̸
·
·
por tanto la inversa del tensor m´ etrico nos proporciona la tabla de productos escalares de los vectores de la base dual. En otras palabras, el objeto g ij es el tensor m´ etrico de la base dual, o tensor m´etrico dual. Por u ´ ltimo, dado que son vectores del mismo espacio tambi´en podemos escribir los vectores de la base de partida como combinaci´on lineal de la base dual. En este sentido dejamos para los ejercicios demostrar que el tensor m´etrico aplicado sobre la base dual nos genera la base de partida ei = g ij e j
(1.67)
15
1.4. CAMBIOS DE BASE
Matriz correspondiente a una aplicaci´ on lineal
Una vez hemos visto c´omo se calculan las componentes de un vector en el caso general (respecto de una base cualquiera en un espacio no necesariamente Eucl´ıdeo)
(
x = ei , x ei = x i ei
(1.68)
veamos ahora c´ omo se calculan las componentes de una aplicaci´on lineal A, que transforma vectores de en vectores de : A : x
→ A(x) = y ∈
(1.69)
Escribiendo los vectores x e y en componentes encontramos
(
A x j e j = y k ek
(1.70)
multiplicando escalarmente por ei por la izquierda y recordando que la aplicaci´on A es lineal encontramos
(·
ei A(e j ) x j = y i
(1.71)
donde identificamos e i A(e j ) como la componente i del vector que resulta de aplicar A sobre e j . Si definimos esto como la componente A ji de la aplicaci´on A respecto de la base ei ni=1 , encontramos que la aplicaci´on de A sobre x puede ponerse en componentes como
·
{ }
A ji x j = y i
(1.72)
es decir, como el producto de la matriz A ji por el vector columna x j . Por tanto, dada una aplicaci´ on lineal A y una base cualquiera ei ni=1 (no necesariamente ortonormal), la matriz A ji correspondiente a esta aplicaci´on est´a dada por
{ }
A ji
≡
(
ei , A(e j )
(1.73)
donde el super-´ındice i recorre las filas y el sub-´ındice j las columnas de la matriz A ji . En el caso en que el espacio sea Eucl´ıdeo y la base ei ni=1 sea ortonormal (y s´olo en ese caso) tendremos que ei = e i , en un caso general ei estar´ a dado por el correspondiente vector de la base dual.
{ }
1.4.
Cambios de base
El m´etodo de ortonormalizaci´on de Gram-Schmidt nos proporciona el primer ejemplo de cambio de base. En general, cuando se aplica un cambio de base sobre un espacio vectorial est´a claro que los vectores y las aplicaciones lineales definidas sobre estos vectores no cambian, es decir, permanecen invariantes bajo el cambio de base. Por el contrario, las componentes de estos vectores y aplicaciones lineales respecto a una base concreta s´ı cambian al cambiar los vectores de la base. Precisamente, la ley de transformaci´on que siguen las componentes de un vector se deduce al imponer que el vector es el mismo independientemente de cu´al sea la base a la que est´en referidas sus componentes ˜i ˜i e x = x i ei = x
(1.74)
CAP ´ ITULO 1. ESPACIOS VECTORIALES
16 1.4.1.
Definici´ on de cambio de base
Dado un espacio vectorial y dos bases, la base “antigua” e1 , . . . , en y la base “nueva” ˜1 , . . . , e ˜n , se define como cambio de base a la aplicaci´on invertible C tal que al aplicarla sobre e la base antigua genera la base nueva y viceversa.
{
{
}
C : C −1 :
}
{e1, . . . , en} → {e˜1, . . . , e˜n} {e˜1, . . . , e˜n} → {e1, . . . , en}
(1.75)
Para ver de qu´ e tipo de aplicaci´on estamos hablando recordamos que cada uno de los vectores de la base nueva pertenecen a , por tanto pueden ponerse como combinaci´on lineal de los vectores de la base antigua. Escribimos esta relaci´on en la forma siguiente j
˜ i = C i e j , e
i = 1, . . . , n
(1.76)
(donde se aplica el convenio de suma de Einstein para el ´ındice mudo j). Esto nos indica que la aplicaci´on cambio de base es una aplicaci´on lineal, descrita por una matriz con componentes C ji , dadas por la coordenada j del vector i de la base nueva referido a la base antigua. Es decir, la matriz del cambio de base est´a formada por las componentes de los vectores de la base nueva respecto a la base antigua, escritos como vectores columna
(
˜1 e ˜2 . . . e ˜n C = e
(1.77)
Para que la base nueva sea una base v´alida es necesario que sus vectores sean linealmente independientes, lo cual queda garantizado si el determinante de la matriz del cambio de base es distinto de cero (en caso contrario el cambio de base no es v´alido). Suponiendo entonces que det C = 0 tenemos que la matriz del cambio C es invertible. Para simplificar las expresiones definimos la matriz D como la inversa de C
̸
D
≡ C −1,
Dki C jk = C ki D jk = δ ji
(1.78)
Aplicando el cambio inverso D sobre la relaci´on Ec. (1.76) encontramos directamente j
˜ j , ei = D i e
i = 1, . . . , n
(1.79)
que nos proporciona la expresi´on de los vectores de la base antigua como combinaci´on lineal de la base nueva. Ley de transformaci´ on de la base dual
{ }ni=1, cuya base dual
˜i Por medio del cambio de base C (Ec. 1.75) pasamos a la nueva base e i n ˜ i=1 cumple por definici´on e ˜i e ˜ j = δ ji e
{ }
·
(1.80)
de donde se deduce directamente que la base dual se transforma con la matriz inversa a la matriz del cambio de base ˜i = D ji e j (1.81) e ˜i como combinaci´ Para verlo basta con escribir e on lineal de la base dual antigua, sustituir en Ec. (1.80) y aplicar la propiedades de linealidad del producto escalar (los detalles se dejan para los ejercicios). A partir de esta relaci´on (Ec. (1.81)) es trivial verificar ˜ j ei = C ji e
(1.82)
que nos proporciona los vectores de la base dual antigua como combinaci´on lineal de los vectores de la base dual nueva.
17
1.4. CAMBIOS DE BASE
Comportamiento covariante y contravariante
Seg´ un hemos visto, al aplicar un cambio de base los vectores de la base se transforman con la matriz del cambio de base (C ) y los vectores de la base dual se transforman con la matriz inversa del cambio de base (D). Estos dos tipos de comportamiento se denominan respectivamente como covariante y contravariante j
vectores de la base
ei :
comportamiento covariante
˜i = C i e j e
vectores de la base dual
ei :
comportamiento contravariante
˜i = D ji e j e
En general emplearemos super´ındices para denotar objetos con comportamiento contravariante y sub´ındices para los objetos con comportamiento covariante 1.4.2.
Cambios de base sobre vectores
Un vector cualquiera puede expresarse indistintamente en t´ erminos de cualquier base (Ec. (1.74)) ¿Qu´e relaci´on existe entre las componentes de x en ambas bases? Sustituyendo la expresi´on de los vectores de la base antigua en t´erminos de la nueva (Ec. (1.79)) en Ec. (1.74), e identificando componente a componente, deducimos x ˜i = D ji x j (1.83) Por tanto, las componentes de un vector respecto de una base cualquiera tienen comportamiento contravariante. A partir de esta relaci´on es inmediato demostrar la relaci´on inversa xi = C ji x ˜ j , lo cual se deja para los ejercicios. Por otra parte, dado que la base dual tambi´ en es una base v´ alida del espacio vectorial, podemos expresar cualquier vector del espacio por medio de sus componentes respecto a la base dual (antigua o nueva) ˜i ˜i e (1.84) x = x i ei = x Por medio de la ley de transformaci´on de los vectores de la base dual (Ecs. (1.81) y (1.82)) es muy f´acil comprobar que las componentes de x respecto a la base dual se transforman seg´un x ˜i = C ji x j ,
xi = D ji ˜ x j
(1.85)
Las componentes de un vector respecto de una base cualquiera tienen compontamiento contravariante y se denominan componentes contravariantes , mientras que las componentes respecto a la base dual de una base dada tienen comportamiento covariante, y se denominan componentes covariantes . En general las componentes co- y contra-variantes son distintas. En el caso particular de un espacio Eucl´ıdeo, cuando se emplea una base ortonormal las componentes co- y contra-variantes de cualquier vector coinciden, y en ese caso no es necesario establecer ninguna distinci´ on entre ellas. En el contexto del c´alculo tensorial tendremos siempre en mente el caso general de un espacio vectorial no necesariamente Eucl´ıdeo, por tanto es fundamental no confundir las componentes de uno y otro tipo. La relaci´on existente entre los vectores de la base de partida y la base dual y viceversa (Ecs. (1.64) y (1.67)) nos permiten calcular las componentes co-variantes de un vector a partir de sus componentes contravariantes relativas a cualquier base (y viceversa). El resultado es xi = g ij x j ,
xi = g ij x j
(1.86)
CAP ´ ITULO 1. ESPACIOS VECTORIALES
18
(dejamos la demostraci´ on para los ejercicios) que ilustra la conocida propiedad de subida y bajada de ´ındices por medio del tensor m´etrico y su inversa, que emplearemos con mucha frecuencia a lo largo del curso. Una de las propiedades interesantes que tiene conocer ambos tipos de componentes es la siguiente: una vez conocemos las componentes co- y contra-variantes de dos vectores x e y, su producto escalar x y puede calcularse indistintamente seg´un cualquiera de las expresiones siguientes
·
x y = g ij xi y j = g ij xi y j = x i yi = x i y i
(1.87)
·
Obs´ervese que las dos ´ultimas expresiones son an´alogas a la que encontrar´ıamos al usar una base ortonormal en el caso de una espacio vectorial Eucl´ıdeo, sin embargo x y = x i yi = x i yi es correcto independientemente de cu´al sea la base y de si el espacio es o no Eucl´ıdeo.
·
1.4.3.
Cambios de base sobre aplicaciones lineales
An´ alogamente a como hemos hecho con el caso de los vectores, imponiendo que las aplicaciones lineales permanecen invariantes al aplicar un cambio de base podemos deducir c´omo se transforman las componentes de estas aplicaciones lineales respecto de una base cualquiera bajo un cambio de base. Si la imagen de un vector x al aplicar la aplicaci´on lineal A es Ax = y, la expresi´o n en componentes de esta igualdad debe cumplirse independientemente de cu´al sea la base empleada A ji x j = y i ,
A˜ ji x ˜ j = y˜i
(1.88)
donde A ji , x j e y i son las componentes de A, x e y respecto a la base antigua e i y A˜ ji , x ˜ j e y˜i son las componentes respecto a la base nueva ˜ei , definida por medio del cambio Ec. (1.76). Sustituyendo la ley de transformaci´on de las componentes de un vector (Ec. (1.83)) es inmediato deducir la relaci´on que todos conocemos A˜ ji = D ki Akl C jl , A ji = C ki ˜ Akl D jl (1.89) Tambi´ en podemos llegar al mismo resultado sustituyendo la ley de transformaci´on de los vectores de la base (de partida y dual) en la expresi´o n an´ aloga a Ec. (1.73) pero en t´erminos de la base nueva, es decir ˜ i , A(˜ A˜ ji (1.90) e e j )
≡
(
Por tanto, vemos que la matriz correspondiente a una aplicaci´on lineal es un objeto 1-covariante 1-contravariante, ya que tiene un ´ındice de cada tipo. 1.4.4.
Ley de transformaci´ on del tensor m´ etrico
Dada una base cualquiera y su dual se define el tensor m´etrico gij y su inverso de acuerdo a las relaciones Ec. (1.47) y Ec. (1.66) respectivamente. Por tanto, en t´erminos de la base nueva y su dual tenemos las relaciones ˜ j , ˜ j g˜ij = ˜ei e g˜ij = ˜ei e (1.91)
·
·
˜i y e ˜ i deducimos que el tensor m´etrico en t´erminos de Aplicando las leyes de transformaci´on de e la nueva base est´a dado por g˜ij = C ik C jl gkl ,
gij = D ik D jl g˜kl
(1.92)
mientras que para el tensor m´etrico de la base dual encontramos g˜ij = D ki D jl g kl ,
g ij = C ki C jl ˜gkl
(1.93)
19
1.4. CAMBIOS DE BASE
Este resultado indica que g ij es un objeto 2-covariante, ya que se transforma aplicando 2 veces la matriz del cambio, y g ij 2-contravariante, ya que se transforma aplicando 2 veces la inversa de la matriz del cambio. Expresi´ on matricial de operaciones tensoriales
Similarmente a como sucede para la ley de transformaci´on de vectores (p. ej., para las componentes contravariantes [˜ x] = [D][x]), la ley de transformaci´on que hemos encontrado para aplicaciones lii i k ˜ = D A C l ) puede escribirse directamente como un producto matricial ([ A] ˜ = [D][A][C ]). neales (A j k l j Sin embargo el producto C ik C jl gkl no coincide con el producto matricial [C ][C ][g], ni tampoco con [C ][g][C ]. Recordando que en C ik el ´ındice k recorre las filas e i las columnas, si asignamos el primer ´ındice de gkl a las filas y el segundo a las columnas vemos que la expresi´on matricial de g˜ij = C ik C jl gkl estar´ıa dada por [˜ g ] = [C ]T [g][C ] , donde [C ]T es la traspuesta de la matriz [C ]. Por tanto la ley de transformaci´on de gij es distinta de la ley de transformaci´on que cumplen las matrices, a pesar de que ambos son objetos tensoriales de orden 2. Como veremos en este curso, el ´algebra tensorial generaliza al ´algebra matricial, de forma que hay expresiones tensoriales cuya transcripci´on en t´erminos de matrices es dif´ıcil, o incluso imposible. Por este motivo, al trabajar con tensores lo normal es escribir todos los productos en componentes, y no se insiste en la transcripci´on en t´erminos de matrices de estos productos, ni siquiera en aquellos casos en los que la transcripci´on matricial es posible. Ley de transformaci´ on de productos escalares
Por u ´ltimo, es muy f´acil comprobar que el producto escalar de dos vectores es, efectivamente, un escalar, es decir, un invariante bajo cambios de base. Independientemente de la base que estemos empleando el producto escalar x y se define como g ij xi y j . Sustituyendo la ley de transformaci´on de gij , xi e y j es muy f´acil comprobar que el comportamiento 2-covariante de gij cancela los comportamientos 1-contravariante de xi e y j , de forma que el resultado final es invariante bajo cambios de base, es decir, el producto escalar de dos vectores es un escalar. Tambi´ en es un escalar la traza de las aplicaciones lineales, definida como la suma de los elementos de la diagonal, trA Aii , en cualquier base. Aplicando la ley de transformaci´on de las aplicaciones lineales (Ec. (1.89)) se comprueba que, al tomar la traza, el comportamiento contravariante del super´ındice se cancela con el comportamiento covariante del sub´ındice, de forma que el resultado final es el mismo independientemente de qu´ e base estemos empleando.
·
≡
Transformaciones ortogonales
A lo largo de este curso veremos con mucha frecuencia c´omo se comportan las componentes de diversos objetos al aplicar un cambio de base. Normalmente consideraremos cambios de base totalmente generales, descritos por la matriz del cambio C (Ec. (1.77)) y su correspondiente inversa D C −1 (Ec. (1.78)). En un cambio de base general la matriz inversa D no coincide con la traspuesta C −1 = C T , la excepci´on a esta regla est´a dada por las conocidas transformaciones ortogonales en espacios Eucl´ıdeos. Para evitar confusiones en este sentido, vamos a ver a continuaci´on qu´e tipo de transformaciones cumplen la relaci´on excepcional C −1 = C T . Se denomina transformaci´ on unitaria (U ) a cualquier aplicaci´on que preserva los productos escalares para todo par de vectores x e y pertenecientes a un espacio vectorial
≡
̸
∀ x, y ∈
,
(U (x), U (y)) = (x, y )
(1.94)
CAP ´ ITULO 1. ESPACIOS VECTORIALES
20
Como caso particular de las anteriores, se denominan transformaciones ortogonales a las transformaciones unitarias definidas en un espacio vectorial sobre el cuerpo de los reales. Aplicando la relaci´on que define las transformaciones unitarias (Ec. (1.94)) puede demostrarse f´ acilmente que en un espacio vectorial Eucl´ıdeo la matriz de una transformaci´on unitaria respecto de una base ortonormal es una matriz unitaria, es decir, una matriz que cumple: T
U −1 = U ,
en componentes
T
( U −1
i j
j
= U i
(1.95)
donde U se denomina matriz adjunta de U y est´a dada por la traspuesta del complejo conjugado de U . Si el espacio est´a definido sobre el cuerpo de los reales, entonces la anterior relaci´on se simplifica a i U −1 = U T , en componentes U −1 j = U ji (1.96)
(
Este es el ´unico caso en que la inversa coincide con la traspuesta. Las matrices que verifican la relaci´on Ec. (1.96) se denominan matrices ortogonales . Por su propia definici´on, est´a claro que en un espacio vectorial Eucl´ıdeo las aplicaciones unitarias transforman bases ortonormales en bases ortonormales, lo que hace que este tipo particular de transformaciones sea especialmente importante. En un cambio de base la inversa de la matriz C coincide con C T s´olo si la base nueva es el resultado de aplicar una transformaci´on ortogonal sobre la base antigua. Como casos particulares de cambios de base ortogonales tenemos las siguientes operaciones: rotaciones (rotaci´ on de los vectores de la base un cierto ´angulo respecto a un eje dado que pase por el origen), inversiones (reflexi´on de los vectores de la base seg´un un determinado plano que pase por el origen), permutaciones (intercambio de dos vectores de la base antigua), cualquier combinaci´on de las anteriores. Si el cambio de base C es ortogonal entonces det(C ) = 1. Los cambios de base con det(C ) = +1 corresponden a rotaciones, o a permutaciones con paridad positiva de los vectores de la base, mientras que los cambios con det(C ) = 1 corresponden a inversiones o a permutaciones con paridad negativa. En la pr´actica los cambios de base ortogonales se emplean con much´ısima frecuencia, pero no son los u ´ nicos posibles. Por ejemplo, el cambio de la base can´onica de 3 , i, j , k , a la base dada por 2i, 2 j , 2k (que sigue siendo una base ortogonal pero no ortonormal ), no es un cambio de base ortogonal. En este curso veremos diversos cambios de base concretos tanto ortogonales como no ortogonales.
±
−
{
1.4.5.
}
{
}
Resumen
En este apartado hemos visto las leyes de transformaci´on de los 3 tipos de tensores m´as habituales: tensores de orden 0 (escalares), tensores de orden 1 (vectores) y tensores de orden 2 (aplicaciones lineales y tensor m´etrico); y los 2 tipos de comportamiento posibles bajo cambios de base: covariante y contravariante. Los resultados obtenidos son v´ alidos para un espacio vectorial de dimensi´on finita arbitraria n, dotado de una m´etrica de Riemann no necesariamente Eucl´ıdea. La siguiente
21
1.5. PROBLEMAS
Tensores de orden orden
tipo
ley de transformaci´ on
0
escalares
invariantes
vector contravariante
x˜i = D ji x j
vector covariante
x ˜i = C ji x j
aplicaciones lineales
˜i = D i C l Ak A j k j l
tensor m´etrico
g˜ij = C ik C jl gkl
tensor m´ etrico dual
g˜ij = D ki D jl g kl
1
2
Cuadro 1.1: Comportamiento de tensores de orden
D
≤ 2
1
≡ C − ).
≤ 2 bajo cambios de base (˜e
i
= C ij ej ,
tabla (C. 1.1) resume los tipos de tensores que hemos visto hasta ahora y su comportamiento bajo cambios de base: En los cap´ıtulos siguientes generalizaremos estos conceptos al caso general, de tensores de orden r + s (r-covariante s-contravariante), posteriormente describiremos campos tensoriales y operaciones de c´alculo (derivaci´on e integraci´on) con campos tensoriales de orden arbitrario. Por tanto es fundamental comprender bien todos los conceptos introducidos en este cap´ıtulo.
1.5.
Problemas
1. Demostrar que para cualquier pareja de vectores x, y
existe un ´unico z
∈
∈
tal que
x = y + z
2. Dado un vector cualquiera x
∈
, demostrar la relaci´ on 0x = 0
3. Dado un vector cualquiera x
∈
, demostrar la relaci´ on ( 1) x = ( x)
−
−
4. Demostrar que la envolvente lineal de cualquier conjunto de vectores e1 , . . . , e p p n, siendo n la dimensi´on de ) es un espacio vectorial.
{
≤
}∈
(con
5. Demostrar que si e1 y e2 son linealmente independientes, entonces la intersecci´o n de las envolventes lineales de estos vectores se reduce a 0. 6. Dado un vector cualquiera x y una base e1 , . . . , en de , demostrar que la descomposici´ on de x como combinaci´on lineal de la base (Ec. (1.15)) es ´unica.
∈
{
}
7. Dados los subespacios vectoriales independientes 1 y de un vector x 1 2 como x = x 1 + x2 , donde x1
∈ ⊕
2,
∈
demostrar que la descomposici´on ´ nica. 1 y x2 2 , es u
∈
CAP ´ ITULO 1. ESPACIOS VECTORIALES
22
8. Dados los subespacios vectoriales independientes que la dimensi´on del espacio suma directa 1
⊕
1 y 2
2 con
dimensiones n 1 y n 2 , demostrar es n 1 + n2 .
9. Demostrar que Eq. (1.35) implica que
∀x1, x2, x3 ∈
,
(x1 + x2 , x3 ) = (x1 , x3 ) + ( x2 , x3 )
10. Dado el espacio vectorial definido sobre el cuerpo de los n´ umeros complejos que x el producto escalar x x es real (para cualquier producto escalar).
∀ ∈
, demostrar
·
11. Demostrar que si en un espacio vectorial dotado de producto escalar tenemos que x y = 0 y = 0 , entonces x = 0 .
·
∀ ̸
12. Demostrar que dos vectores no nulos que sean ortogonales son, necesariamente, linealmente independientes. 13. Demostrar que dos vectores no nulos que sean linealmente independientes pueden no ser ortogonales. 14. Demostrar que el m´etodo de ortonormalizaci´ on de Gram-Schmidt genera una base ortonormal. 15. Demostrar que la base dual siempre existe y es ´unica. 16. Demostrar que la base dual del dual de una base cualquiera est´ a dado por la base de partida. 17. Demostrar las ecuaciones Ecs. (1.64, 1.65 y 1.67) que relacionan la base dual con la base de partida. 18. Demostrar que la inversa del tensor m´etrico est´a dada por Ec. (1.66). 19. Demostrar que la base dual se transforma con la matriz inversa del cambio de base (Ec. (1.81)). 20. Deducir la ley de transformaci´ on que cumplen las componentes de un vector bajo el cambio de base C : x ˜i = D ji x j , xi = C ji x ˜ j donde D
≡ C −1.
21. Deducir la ley de transformaci´ on que cumplen las componentes de un vector respecto a la base dual bajo el cambio de base C , dada por Ec. (1.85). 22. Deducir la relaci´ on entre las componentes co- y contra-variantes de un vector, dada por Ec. (1.86). 23. Demostrar la relaci´ on Ec. (1.87). 24. Demostrar la relaci´ on Ec. (1.89). 25. Demostrar las relaciones Ec. (1.92) y Ec. (1.93). 26. Demostrar que el producto escalar de 2 vectores define un escalar (es decir, un objeto invariante bajo cambios de base).
1.6. BIBLIOGRAF ´ IA
23
27. Demostrar que la traza de cualquier aplicaci´ on lineal es un escalar. 28. Demostrar que la matriz correspondiente a una transformaci´ on unitaria, respecto de una base T 1 − ortonormal, cumple U = U . 29. Demostrar que la matriz correspondiente a una transformaci´ on ortogonal, respecto de una 1 T − base ortonormal, cumple U = U . 30. Dado el cambio de base no ortogonal (pero extremadamente sencillo) que pasa de la base i, j , k de 3 (con m´etrica Eucl´ıdea) a 2i, 2 j , 2k , calcule la matriz del cambio de base y su inversa, calcule c´omo cambia la base dual y c´omo cambian las componentes de un vector contravariante y uno covariante.
{
}
{
}
31. Repita el ejercicio anterior considerando un tensor m´etrico arbitrario. Calcule tambi´ en c´ omo cambian las componentes del tensor m´etrico y del tensor m´etrico dual.
1.6.
Bibliograf´ıa
Para los apuntes de este cap´ıtulo se ha consultado el texto de Burgos [3], junto con [8] y los textos cl´asicos de Synge y Schild [13], Lichnerowicz [10] y Bowen y Wang [2]. Cualquiera de ellos es muy recomendable para profundizar en este tema. Especialmente el libro de Lichnerowicz [10] (lamentablemente descatalogado) y el de Burgos [3].
24
CAP ´ ITULO 1. ESPACIOS VECTORIALES
Cap´ıtulo 2
Tensores En el apartado anterior hemos visto los tres tipos b´ asicos de tensores: escalares, vectores y aplicaciones lineales, y sus correspondientes reglas de transformaci´on bajo cambios de base. En este apartado estudiaremos el concepto de tensor general de rango arbitrario y veremos algunos ejemplos concretos de tensores empleados en f´ısica. Por u ´ ltimo veremos una introducci´on al ´algebra tensorial, incluyendo productos tensoriales y productos de contracci´on, algunos criterios pr´acticos de tensorialidad y ciertos tipos especiales de tensores.
2.1.
Concepto de tensor
El estudio de los tensores aparece de manera natural al aplicar cambios de base en espacios vectoriales. De todos los objetos matem´aticos que pueden definirse sobre un espacio vectorial se denominan tensores a aquellos que son invariantes bajo cambios de base. Normalmente describimos los objetos tensoriales mediante sus coordenadas (o componentes) respecto de una determinada base, e imponiendo la condici´on de invariancia del tensor frente a cambios de base deducimos la ley de transformaci´ on que cumplen las componentes del tensor cuando se realiza un cambio de base en el espacio. Esta es la regla que hemos aplicado en el cap´ıtulo anterior para deducir las leyes de transformaci´on de las componentes de tensores de orden bajo, y su generalizaci´on a tensores de orden arbitrario es inmediata. Dado que la elecci´on de una base en particular es totalmente arbitraria, desde el punto de vista tensorial s´olo est´an bien definidos aquellos objetos que son invariantes bajo cambios de base. No obstante, en el cap´ıtulo pr´ oximo generalizaremos ligeramente este concepto al estudiar las densidades tensoriales . Los tensores son, por tanto, objetos geom´etricos definidos en un espacio vectorial, de tal forma que su definici´on y propiedades no dependen de la base empleada, aunque s´ı los valores de sus componentes, que pueden interpretarse como el “aspecto” del tensor desde el sistema de referencia definido por la base que estemos empleando. Aclaraci´ on
Cuando uno habla de vectores es frecuente denominar “vector” tanto al propio vector (p. ej. 3 ) como al conjunto de coordenadas que lo describen respecto a una v = v 1 i + v 2 j + v 3 k base concreta (p. ej. v 1 , v 2 , v 3 ). Por tanto, es normal referirse a v 1 , v 2 , v 3 como un “vector contravariante” o simplemente un “vector”. La diferencia entre el (verdadero) vector v y el conjunto de componentes que lo describe respecto de una base dada es que v es invariante bajo cambios de
{∈ }
{
25
}
CAP ´ ITULO 2. TENSORES
26
base (el vector sigue siendo el mismo, independientemente de la base del espacio que decidamos emplear para describirlo), mientras que sus componentes dependen de la base empleada, y cambian bajo un cambio de base seg´un las leyes que hemos visto en el cap´ıtulo anterior. Aunque posiblemente este abuso del lenguaje incurra en cierta incorrecci´on, se admite ya que simplifica enormemente la comunicaci´ on. Con tensores de rango general sucede exactamente lo mismo: en el lenguaje coloquial se denomina con frecuencia tensor tanto al verdadero objeto tensorial (objeto geom´etrico invariante bajo cambios de base), como al conjunto de coordenadas que lo describen en una base concreta, que se transforma bajo cambios de base de acuerdo a la correspondiente ley de transformaci´on tensorial. Normalmente por el contexto quedar´ a claro si nos estamos refiriendo al verdadero tensor o al correspondiente conjunto de coordenadas que lo describen respecto a una determinada base.
2.1.1.
Tensores en f´ısica
Los tensores se emplean en f´ısica te´orica con much´ısima frecuencia, especialmente en relatividad, electromagnetismo y en general en cualquier teor´ıa de campos, pero tambi´ en se emplean mucho en diversas ´areas de la f´ısica de inter´es en ingenier´ıa, como mec´anica de medios continuos (resistencia de materiales, elasticidad) y mec´ anica de fluidos. El motivo es muy sencillo. Las magnitudes que se emplean en f´ısica describen propiedades reales (objetivas) del mundo f´ısico, como por ejemplo la masa de un objeto, su posici´on, su velocidad, las fuerzas a que est´a sometido, etc. Para describir muchas de estas propiedades es necesario emplear alg´un sistema de referencia, cuya elecci´o n es totalmente arbitraria. Sea cual sea el sistema de referencia que decidamos emplear, las propiedades f´ısicas que pretendemos describir son las mismas, no dependen del sistema de referencia escogido. Supongamos por ejemplo una situaci´on en la que muchos observadores est´an estudiando el mismo sistema f´ısico, empleando para ello varios sistemas de referencia distintos. Aunque cada uno de ellos emplee un sistema de referencia diferente, todos ellos est´an describiendo la misma realidad f´ısica, de modo que todas estas descripciones deben ser coherentes entre s´ı. Adem´as debe ser posible traducir los resultados de un observador de forma que los otros puedan verificarlos, lo cual implica que existen reglas objetivas bien definidas que permiten transformar las observaciones realizadas desde un sistema de referencia a otros sistemas. El c´alculo tensorial es un m´etodo sistem´atico para traba jar con objetos geom´etricos de manera independiente al sistema de referencia que se est´e empleando, de tal forma que si una relaci´on tensorial es correcta en un determinado sistema de coordenadas, entonces tambi´ en lo es en cualquiera otro. Esto hace que los tensores sean ob jetos matem´aticos adecuados para la descripci´ on de propiedades y leyes f´ısicas. De hecho, las magnitudes f´ısicas se caracterizan por tener comportamiento tensorial bien definido, y las leyes f´ısicas pueden expresarse como ecuaciones tensoriales. Muchas magnitudes f´ısicas son tensores como los que veremos en este cap´ıtulo; otras, denominadas densidades tensoriales (a veces pseudotensores o tensores relativos ), son objetos geom´etricos que cumplen leyes de transformaci´on iguales a las tensoriales, pero con un factor de escala adicional (dado por una determinada potencia del determinante de la matriz de cambio de base), tal y como tendremos ocasi´ on de ver en el cap´ıtulo siguiente. Previamente ya hemos mencionado varios ejemplos de propiedades f´ısicas escalares y vectoriales, a continuaci´ on veremos algunos ejemplos de magnitudes f´ısicas de rango tensorial superior.
27
2.1. CONCEPTO DE TENSOR
2.1.2.
Rango tensorial
Los tensores generalizan los conceptos y leyes de transformaci´on familiares de escalares, vectores y aplicaciones lineales a objetos de orden superior, para cuya descripci´on es necesario emplear un n´ umero mayor de ´ındices. Seg´un hemos visto, las aplicaciones lineales y el tensor m´etrico son tensores de orden 2, ya que para su descripci´on completa es necesario especificar un n´umero de componentes que depende de 2 ´ındices; los vectores son tensores de orden 1, ya que para su descripci´on completa basta con una familia de componentes que depende s´olo de un ´ındice; y los escalares son tensores de orden 0 ya que sus componentes quedan descritas por un ´unico n´ umero (0 ´ındices). En general, dado un tensor se denomina rango tensorial u orden del tensor a la dimensi´on del conjunto de coordenadas que es necesario especificar para la descripci´on completa del tensor respecto a una base cualquiera del espacio vectorial. Es decir, el n´umero de ´ındices que necesitamos para describir todas las componentes del tensor. Si la dimensi´on del espacio vectorial en consideraci´o n es n, entonces el n´umero de grados de libertad de un tensor de rango tensorial t (el n´umero de componentes) es nt . De todas formas, en muchos casos sucede que los tensores tienen cierta simetr´ıa , de modo que no todas las nt componentes son independientes. Por ejemplo, el tensor m´etrico tiene n2 componentes, pero como es sim´etrico (gij = g ji ), s´olo hay n + n(n 1)/2 independientes (que corresponden, p. ej., a la diagonal principal y la parte triangular superior de gij ). Otro caso muy habitual es el de un tensor antisim´etrico ω ij = ω ji , en ese caso sabemos que las n componentes de la diagonal son necesariamente nulas (ωii = 0, sin suma en i), y de las restantes s´olo hay n(n 1)/2 independientes.
−
−
2.1.3.
−
Ley de transformaci´ on de tensores generales
En el apartado anterior hemos visto que, bajo un cambio de base, las componentes de vectores y aplicaciones lineales se transforman o bien con la matriz del cambio de base (comportamiento covariante) o bien con su inversa (comportamiento contravariante). Generalizando este concepto a tensores de orden arbitrario, se denomina tensor de orden r-covariante s-contravariante a un objeto ...is tensorial (T ) de orden r + s, con nr+s componentes T ji11 j i22 ... jr , tales que bajo el cambio de base C (con inversa D C −1 ) se transforman seg´ un la ley
≡
˜ i1 i2 ... is = C p1 C p2 . . . C p r Di1 D i2 . . . D is T q1 q2 ...qs T q1 q2 qs p1 p2 ... pr j1 j2 ...jr j1 j2 jr
r veces
(2.1)
s veces
donde, an´alogamente a como hemos hecho en el cap´ıtulo anterior, empleamos super-´ındices para los ´ındices contravariantes y sub´ındices para los ´ındices covariantes, y donde se aplica el convenio de suma de Einstein para todos los ´ındices repetidos. En f´ısica es frecuente tomar la anterior ley de transformaci´on como definici´on de tensor de orden r-covariante s-contravariante. Esta definici´on tiene la ventaja de ser la generalizaci´on directa de las correspondientes leyes de transformaci´on que hemos visto en el apartado anterior para tensores de orden 1 y 2, pero tiene el inconveniente de resultar poco intuitiva. En este cap´ıtulo intentaremos aclarar el significado de la anterior ley de transformaci´on de tensores generales. Desde un punto de vista m´as formal, los tensores se pueden definir como elementos de un espacio vectorial denominado espacio producto tensorial , tal y como veremos m´as abajo, lo cual tiene la ventaja de que en ese contexto la ley de transformaci´on anterior resulta totalmente natural, e incluso intuitiva. Tambi´ en es habitual definir formalmente los tensores como aplicaciones multilineales definidas entre ciertos espacios producto tensorial, tal y como veremos tambi´en en este cap´ıtulo.
CAP ´ ITULO 2. TENSORES
28
Antes de pasar a estas definiciones m´as formales vamos a justificar el empleo de objetos tensoriales de orden superior con algunos ejemplos de inter´es en f´ısica.
2.2.
Magnitudes f´ısicas de rango tensorial superior
El uso de escalares y vectores en f´ısica resulta totalmente natural pero ¿c´omo aparecen los tensores de orden superior? Con mucha frecuencia los tensores de orden superior aparecen como aplicaciones lineales entre tensores de orden m´as bajo. Por ejemplo, la relaci´on entre el momento de las fuerzas aplicadas y la aceleraci´on angular en un s´olido r´ıgido (o entre el momento angular y la velocidad angular) est´a dada por una aplicaci´ on lineal, siendo la matriz de inercia la constante de proporcionalidad. En el caso de una esfera con densidad uniforme todas las direcciones son equivalentes, de modo que la resistencia al giro, es decir, la inercia que hay que vencer al aplicar un torque, es la misma sea cual sea la direcci´ on del eje de giro (suponiendo que el eje de giro pasa por el centro de la esfera), y como consecuencia en ese caso la matriz de inercia es proporcional a la matriz identidad. A diferencia de la esfera con densidad uniforme, si consideramos un objeto con una distribuci´on anis´otropa de masa la inercia depender´a de la orientaci´on del eje de giro, y como consecuencia el momento angular no tendr´ a la misma direcci´on que la velocidad angular. En ese caso, para describir la inercia del objeto es necesario emplear una matriz, que ya no ser´a proporcional a la identidad. Rango tensorial y direccionalidad
El ejemplo anterior muestra que la aparici´o n de tensores de orden superior responde a un comportamiento anis´ otropo, es decir, a que estamos describiendo propiedades f´ısicas que dependen de la direcci´on considerada. De manera algo informal podr´ıamos decir que el rango tensorial indica el n´ umero de direcciones que entran en juego en la magnitud que estamos estudiando: una magnitud escalar carece de direccionalidad, en el caso de una magnitud vectorial el vector define una direcci´on y en el caso de un tensor de orden 2 entran en juego 2 direcciones. Por ejemplo, en la relaci´on L = I ω las dos direcciones que entran en juego son las definidas por el momento angular L y la velocidad angular ω , y la matriz de inercia I nos proporciona la relaci´on que existe entre estas 2 direcciones. 2.2.1.
Tensores de polarizabilidad y de conductividad el´ ectrica
El comportamiento de los medios materiales bajo la aplicaci´on de un campo el´ectrico permite introducir de manera bastante intuitiva el concepto y utilidad de tensores de orden 2 en f´ısica. Consideremos el caso de la relaci´on entre el vector polarizaci´on por unidad de volumen (P ) y el vector campo el´ectrico (E ) en un medio material diel´ectrico. Como es bien sabido, al aplicar un campo el´ ectrico en un medio material las cargas positivas tienden a desplazarse seg´un el campo, mientras que las cargas negativas tienden a desplazarse en sentido contrario. Estos desplazamientos de carga inducen una cierta polarizaci´ on por unidad de volumen en el material, que normalmente puede describirse como una funci´on lineal del campo el´ectrico aplicado. ⋆ ¿Por qu´e existe una relaci´on lineal entre P y E ? La polarizaci´ on por unidad de volumen es consecuencia de la aplicaci´on del campo externo E , de modo que P debe ser una funci´on creciente de E (P = P (E )). Si el medio en consideraci´on carece de polarizaci´on espont´ anea en ausencia de campo el´ ectrico externo, es decir, si no es ferroel´ectrico,
2.2. MAGNITUDES F ´ ISICAS DE RANGO TENSORIAL SUPERIOR
29
entonces la polarizaci´on correspondiente a campo externo nulo es nula. Teniendo esto en cuenta, aproximando P = P (E ) por su desarrollo en serie de Taylor en torno a E = 0 , a orden m´as bajo encontramos la mencionada relaci´on lineal P = α E , defini´ endose la constante de proporcionalidad α como la polarizabilidad del medio. En el caso de un medio is´ otropo la respuesta del medio es la misma independientemente de la direcci´on del campo aplicado. En ese caso P tiene la misma direcci´on que E , y la polarizabilidad es sencillamente un escalar (o si se prefiere un escalar multiplicado por la matriz identidad). Esto es lo que sucede en el caso de los gases y los l´ıquidos sencillos, en esos casos las mol´eculas que forman el medio est´an orientadas de todas las formas posibles con igual probabilidad, de tal forma que, al promediar, a nivel macrosc´opico no existe ninguna direcci´on especial en el medio. La situaci´on es diferente en el caso de un medio cristalino. Es evidente que en un cristal no todas las direcciones son equivalentes: en una red c´ubica es distinto aplicar un campo en la direcci´on de la diagonal principal a hacerlo seg´ un la direcci´on perpendicular a dos caras opuestas. En otro caso podr´ıamos tener como celda fundamental no cubos, sino parelelep´ıpedos con aristas de distintos tama˜ nos seg´ un las 3 direcciones del espacio; en cualquiera de estos casos la respuesta del medio ser´a distinta dependiendo de la orientaci´on del campo aplicado, ya que en ciertas direcciones las cargas pueden moverse m´a s f´acilmente que en otras. En un medio desordenado, como un gas o un l´ıquido, las orientaciones particulares de las mol´eculas a nivel microsc´opico no se traducen en una direcci´on privilegiada a nivel macrosc´opico, ya que al promediar en todas las orientaciones posibles estos efectos se cancelan. Esto no sucede en un medio cristalino, ya que en estos la celda fundamental que define la red se repite siempre con la misma orientaci´on. Como consecuencia, en un medio cristalino la anisotrop´ıa introducida por la celda fundamental a nivel microsc´ opico se traduce en un comportamiento anis´ otropo a nivel macrosc´ opico. En ese caso la polarizabilidad ya no es la misma en todas las direcciones, pero la relaci´on lineal entre P y E sigue siendo v´alida (siempre y cuando E no sea demasiado elevado), de modo que estos dos vectores ya no ser´an sencillamente proporcionales, sino que estar´an relacionados por una aplicaci´ on lineal P = αE . En ese caso la polarizabilidad pasa a ser una aplicaci´o n lineal y es muy f´a cil ver que si P y E son vectores 1-contravariantes, entonces α necesariamente es un tensor 1-covariante 1-contravariante. Otro ejemplo similar es el de la conductividad el´ectrica. Cuando se aplica un campo el´ectrico en un medio conductor aparece una cierta densidad de corriente el´ectrica j , que es proporcional a endose la constante de proporcionalidad E (al menos para campos no demasiado intensos), defini´ como la conductividad el´ectrica del medio. Si la movilidad de las cargas libres no es la misma en todas las direcciones, entonces j y E dejan de ser proporcionales, pero siguen estando relacionados linealmente. En ese caso la conductividad pasa a estar descrita por una aplicaci´on lineal, es decir, un tensor 1-covariante 1-contravariante. En los dos ejemplos precedentes podr´ıa parecer que la validez de la aproximaci´ on lineal es muy limitada, sin embargo en la pr´actica se observa que esta aproximaci´on se cumple con mucha frecuencia incluso para campos aplicados muy intensos. En principio la aproximaci´on lineal deber´ıa ser v´alida s´olo en el l´ımite de campos externos muy d´ebiles, pero d´ebiles comparados con qu´e escala . La aproximaci´ on lineal es v´alida siempre que el campo aplicado sea peque˜no en comparaci´ on con la escala de intensidad de campo el´ectrico t´ıpica en el material a nivel microsc´ opico, la cual es muchos ´ordenes de magnitud mayor que la escala t´ıpica de intensidad de campo el´ectrico del mundo macrosc´ opico. El motivo de esta diferencia de escala es muy simple. Por un lado a nivel microsc´opico las distancias t´ıpicas son muchos ´ordenes de magnitud menores que a nivel macrosc´opico, por otro a nivel macrosc´opico todas las cargas suelen estar apantalladas, lo cual no siempre sucede a nivel microsc´opico. Esta diferencia de escala entre la intensidad t´ıpica de los campos a nivel micro- y
CAP ´ ITULO 2. TENSORES
30
macrosc´ opico explica la validez de la aproximaci´on lineal, incluso cuando aplicamos campos que desde el punto de vista macrosc´opico nos parecen muy intensos, pero que no lo son tanto si los comparamos con las escalas t´ıpicas del mundo microsc´opico. En f´ısica es muy frecuente encontrar magnitudes relacionadas entre s´ı por aplicaciones lineales. Esto sucede en multitud de leyes fundamentales, como la que relaciona el momento de las fuerzas aplicadas sobre un s´olido y su aceleraci´on angular; y tambi´ en en leyes menos fundamentales, deducidas como una primera aproximaci´on de un comportamiento m´as complejo. En este u ´ ltimo caso, si la propiedad A aparece como consecuencia de aplicar la magnitud B , A ser´a una funci´on creciente de B . Si el valor de A para B = 0 es nulo, entonces por medio de un desarrollo en serie de Taylor encontramos una relaci´on lineal entre estas magnitudes, que ser´a v´ alida siempre y cuando B no sea demasiado elevado. Si la estructura microsc´opica del medio es anis´otropa, es decir, si la respuesta del medio es diferente dependiendo de la direcci´on considerada, entonces la relaci´on lineal entre A y B no se reduce a una mera relaci´on de proporcionalidad, sino que tendremos una relaci´on del tipo A = T B , donde T es un tensor con el rango tensorial adecuado, determinado por los rangos tensoriales de A y B . Desde el punto de vista f´ısico las leyes f´ısicas lineales implican la validez del conocido principio de superposici´ on . Desde el punto de vista matem´atico siempre que dos magnitudes f´ısicas est´en relacionadas por una aplicaci´on lineal, y queramos aplicar cambios de base, tendremos que emplear tensores.
·
2.2.2.
Tensor de esfuerzos o de tensiones
El estado de tensiones existente en el interior de un material est´a dado por un tensor de orden 2, denominado tensor de tensiones o tensor de esfuerzos . Estas tensiones a las que nos referimos son las fuerzas aplicadas por unidad de superficie entre elementos contiguos del material, ejercidas a trav´es de la superficie que separa los elementos considerados. Los ejemplos m´as visuales son las fuerzas el´asticas que aparecen en un material el´astico al deformarlo, las fuerzas de presi´on existentes en un fluido, o las fuerzas de rozamiento interno (fuerzas viscosas) que aparecen en los fluidos en movimiento. Desde el punto hist´orico el estudio de las tensiones internas existentes en cualquier medio material es lo que motiv´o la aparici´ on de los tensores, por este motivo estudiaremos este ejemplo con cierta profundidad. Consideremos dos elementos diferenciales de volumen contiguos, situados en un punto dado en el interior de cualquier medio material y separados por un determinado elemento diferencial de superficie. Como consecuencia de las interacciones existentes entre las mol´eculas que forman el material, cada uno de estos 2 elementos diferenciales de volumen ejerce una fuerza por unidad de superficie sobre el otro, a trav´ es de la superficie que los separa. Esta fuerza por unidad de superficie se denomina tensi´ on , y depende del punto considerado y de la orientaci´on de la superficie que separa los elementos considerados. Si llamamos s a la fuerza por unidad de superficie ejercida tenemos entonces s = s (r, n)
(2.2)
donde r es el punto considerado y n la normal a la superficie considerada en el punto r. En principio podr´ıa parecer que para caracterizar totalmente el estado de tensiones en el interior de un material tenemos que conocer la funci´on vectorial s, como funci´on de los vectores de posici´on on de la superficie considerada n, es decir, una funci´on vectorial de 3 componentes r y de orientaci´ definida como funci´on de 9 variables. En realidad la situaci´on es mucho m´as sencilla, como veremos a continuaci´ on.
2.2. MAGNITUDES F ´ ISICAS DE RANGO TENSORIAL SUPERIOR
31
Convenio
En lo sucesivo supondremos que s (r, n) representa la fuerza por unidad de superficie ejercida por el medio situado en el lado de la superficie hacia donde apunta la normal n sobre el medio situado al otro lado de la superficie.
n
Figura 2.1: El producto τ n es la fuerza por unidad de superficie ejercida por el medio
·
situado en el lado hacia donde apunta la normal sobre el medio situado al otro lado.
Como consecuencia la fuerza de superficie total aplicada sobre un volumen cualquiera V c est´a dada por la integral de superficie F =
∫
s(r, n) dS
(2.3)
∂V c
siendo ∂ V c la superficie que limita a V c y n la normal a ∂ V c orientada hacia el exterior. Las fuerzas por unidad de superficie pueden ser tangentes a la superficie considerada, en cuyo caso se denominan tensiones cortantes o de cizalla ; o normales a la superficie considerada. De estas u ´ ltimas, seg´ un el convenio adoptado m´as arriba, una fuerza con signo positivo corresponde a una tensi´ on y una negativa a una compresi´ on . Por el principio de acci´ on y reacci´ on la fuerza por unidad de superficie ejercida por el medio situado en el lado de la superficie desde donde apunta n, sobre el medio situado al otro lado de la superficie, est´a dada por s (Fig. 2.1). Esto implica que s es una funci´on impar de n
−
s(r,
−n) = −s(r, n)
(2.4)
Consideremos el elemento infinitesimal de volumen dado por el tetraedro representado en la figura F. 2.2. Las normales orientadas hacia el exterior a las superficies perpendiculares a los ejes x, y y z est´an dadas por los vectores unitarios i, j y k respectivamente, y llamaremos n a la normal (orientada hacia el exterior) a la superficie AB C . Recordando que la fuerza por unidad de superficie es una funci´on impar de la normal, la fuerza resultante aplicada sobre este elemento de volumen (dV ) situado en r es
− − −
f (r) dV + s(r , n) dσ
− s(r, i) dσx − s(r, j ) dσy − s(r, k) dσz
(2.5)
CAP ´ ITULO 2. TENSORES
32
z C
dσy
dσx B
y
dσz A
x Figura 2.2: Elemento infinitesimal de medio material con forma de tetraedro.
donde hemos denominado dσ al ´area de la superficie ABC , dσx al ´area de la superficie perpendicular al eje x, y similarmente para las superficies perpendiculares a los ejes y y z, y donde f es la resultante de las fuerzas aplicadas por unidad de volumen sobre este elemento (por ejemplo su peso por unidad de volumen). Dividiendo por dV y tomando el l´ımite dV 0 el t´ermino debido a las fuerzas por unidad de volumen tiende al valor de la aceleraci´on del elemento considerado (multiplicado por la masa por unidad de volumen, es decir, por la densidad). Sin embargo, los t´erminos debidos a las tensiones divididos por dV divergen, ya que el elemento de volumen es proporcional al cubo de la dimensi´on lineal del tetraedro, mientras que los elementos de superficie son proporcionales al cuadrado de la dimensi´ on lineal del tetraedro. La ´unica posibilidad de resolver esta paradoja de manera compatible con el principio de conservaci´on del momento lineal (segunda ley de Newton), es que la resultante de todas las fuerzas de superficie aplicadas sobre el elemento diferencial considerado sea nula en el l´ımite dV 0, es decir, cuando todas las contribuciones se evaluan en el mismo punto. Por tanto, en el l´ımite dV 0 la tensi´on ejercida en un punto cualquiera ( r), a trav´es de una superficie cualquiera (con normal n), est´a dada por
→
→
→
s(r , n)dσ = s (r, i)dσx + s(r, j )dσy + s(r, k)dσz
(2.6)
Por otra parte es muy f´acil ver que los elementos de superficie dσi est´an relacionados con dσ por medio de dσx = n 1 dσ, dσy = n 2 dσ, dσz = n 3 dσ (2.7) siendo n i las componentes covariantes de n. Por tanto llegamos finalmente a s(r, n) = s (r , i)n1 + s(r, j )n2 + s(r , k)n3
(2.8)
que expresa la tensi´on ejercida en el punto r a trav´es de la superficie con normal n como combinaci´ on lineal de las tensiones ejercidas en r a trav´ es de las tres superficies perpendiculares a los ejes.
2.2. MAGNITUDES F ´ ISICAS DE RANGO TENSORIAL SUPERIOR
33
La anterior expresi´on se puede expresar de una manera m´as compacta por medio del tensor de tensiones (o tensor de esfuerzos ) τ definido por
τ (r) = (s(r, i)
s(r, j )
s(r, k)) =
sx (
r, i)
sx (
r, j )
sx (
r , k)
sy (r, i) sy (r, j ) sy (r, k) sz (r, i) sz (r, j ) sz (r , k)
(2.9)
Definido de esta manera, la componente τ ij del tensor de tensiones representa la componente seg´ un el eje i de la tensi´on ejercida sobre el medio, en el punto r , a trav´es del elemento de superficie perpendicular a la direcci´on j . Con esto la tensi´on ejercida a trav´ es de la superficie perpendicular a n (figura 2.1) queda como (2.10) s(r , n) = τ (r) n En componentes cartesianas la anterior expresi´on queda como si = τ ij n j
(2.11)
donde se ha omitido la dependencia en r y se ha empleado el convenio de suma de Einstein. Esto nos define el tensor de tensiones como un tensor 2-contravariante, ya que (como veremos m´as adelante) las fuerzas se describen de manera natural por medio de sus componentes contravariantes y la normal a una superficie como un vector covariante. El tensor de tensiones es un objeto con rango tensorial 2, y como puede verse las dos direcciones que entran en juego en este caso son las de la normal a la superficie considerada y la definida por la fuerza por unidad de superficie que se ejerce a trav´es de dicha superficie. El tensor de tensiones caracteriza totalmente el estado de tensiones internas en el interior de un material, ya que, por medio de Ec. (2.11), permite calcular la tensi´on ejercida en cualquier punto del material a trav´es de una superficie cualquiera. Por otra parte, imponiendo que el momento neto aplicado sobre el tetraedro infinitesimal (Fig. 2.2) debe ser nulo en el l´ımite dV 0, es muy ij ji f´acil comprobar que el tensor de tensiones es necesariamente sim´ etrico τ = τ . De modo que para caracterizar totalmente el estado de tensiones en el interior de un material basta conocer 6 funciones (τ 11 , τ 22 , τ 33 , τ 12 , τ 13 , τ 23 ) que dependen exclusivamente del vector de posici´on r .
→
Medios el´ asticos y fluidos Newtonianos
En un medio el´astico las tensiones son proporcionales a las deformaciones, que est´an a su vez descritas por un tensor de orden 2, de tal forma que en ese caso la constante de proporcionalidad es nada menos que un tensor de orden 4, denominado tensor de elasticidad . El motivo por el que es necesario un tensor de orden 2 para describir el estado de deformaciones existente en un material es el siguiente. Al deformar un material, cada elemento diferencial de volumen se desplaza desde su posici´on en el material no deformado a su posici´on en el material deformado, lo cual nos define un vector desplazamiento u que depende del punto. Es evidente que un desplazamiento u constante en todo el material corresponde a que el material se desplaza como un todo, sin deformarse. Las deformaciones aparecen cuando puntos del material inicialmente pr´oximos se desplazan de forma distinta, por tanto para describir las deformaciones necesitamos analizar las derivadas del vector desplazamiento respecto de cada una de las direcciones del espacio, es decir ∂u i /∂x j , lo que nos produce un tensor de segundo orden. Como consecuencia la constante de proporcionalidad entre tensiones y deformaciones es un tensor de orden 4, con 34 = 81 componentes. Esto parece indicar que para describir las propiedades
CAP ´ ITULO 2. TENSORES
34
el´asticas de cualquier medio tendr´ıamos que suministrar nada menos que 81 constantes el´asticas. En realidad, como consecuencia de la simetr´ıa del tensor de elasticidad, el n´umero de constantes diferentes es mucho menor (en la mayor´ıa de los casos s´olo 2). Para empezar, tal y como hemos mencionado m´ as arriba puede demostrarse f´acilmente que el tensor de tensiones es necesariamente ij sim´etrico τ = τ ji (de lo contrario no puede cumplirse la conservaci´on del momento angular). Por otra parte el tensor de deformaciones est´a dado s´olo por la componente sim´etrica de ∂ui /∂x j , es de1 j i cir, por e ij etrica ( 12 ∂u i /∂x j ∂u j /∂x i ) 2 ∂u i /∂x + ∂u j /∂x , ya que la componente antisim´ describe rotaciones tipo s´ olido r´ıgido, que no introducen deformaciones. Como consecuencia de esta simetr´ıa, de las 81 componentes el´asticas del tensor de elasticidad s´olo puede haber 36 distintas. Por otra parte, en la mayor´ıa de los casos los medios el´asticos considerados tienen cierta simetr´ıa, es decir, son invariantes (y todas sus propiedades f´ısicas tambi´ en) bajo ciertas operaciones, como por ejemplo rotaciones o reflexiones. Esta simetr´ıa impone ligaduras entre los posibles valores de las 36 constantes el´asticas anteriores, haciendo que disminuya el n´umero de constantes independientes. En u ´ ltima instancia, en un medio el´astico is´otropo la respuesta el´ astica del medio es la misma independientemente de la direcci´on considerada, y como consecuencia las propiedades el´asticas son invariantes bajo cualquier rotaci´on. En ese caso de las 36 constantes el´asticas anteriores, en realidad s´olo hay 2 distintas, que se suelen tomar como el m´ odulo de Young y el Coeficiente de Poisson . En el caso de un fluido la situaci´on es similar, pero en ese caso las tensiones viscosas no son proporcionales a la deformaci´o n, sino a la velocidad de deformaci´ on , es decir, a la deformaci´on introducida por unidad de tiempo como consecuencia del movimiento del fluido. Esta velocidad 1 j i de deformaci´on est´a dada por el tensor eij 2 ∂u i /∂x + ∂u j /∂x , donde ahora el vector u representa el desplazamiento por unidad de tiempo de cada punto del fluido, es decir, el campo de velocidades del fluido. Los fluidos en los que se cumple la aproximaci´on lineal entre tensiones viscosas y velocidad de deformaci´on se denominan Newtonianos . Igual que hay s´olidos no el´asticos, tambi´en hay fluidos no Newtonianos, en ellos la aproximaci´on lineal entre tensiones y deformaciones no es v´alida. An´ alogamente a como suced´ıa en los medios el´asticos, en los fluidos Newtonianos el coeficiente de proporcionalidad entre el tensor de tensiones y el de velocidad de deformaci´on es un tensor de orden 4, en el que por la simetr´ıa del tensor de tensiones y del de velocidad de deformaci´on (ambos sim´etricos) s´ olo puede haber 36 componentes distintas. La inmensa mayor´ıa de los fluidos son is´otropos, de modo que en esos casos de las 36 componentes anteriores s´olo hay 2 independientes, que se definen en t´erminos de la viscosidad de cizalla y la viscosidad de volumen .
≡
(
(
≡
2.2.3.
(
−
Derivaci´ on de campos tensoriales
Un campo tensorial es un objeto con comportamiento tensorial bien definido, pero cuyo valor depende del punto en que nos encontremos en el espacio. Los familiares campos escalares (como un campo de temperaturas) o vectoriales (como un campo de velocidades o el vector campo el´ ectrico) son ejemplos de campos tensoriales de orden 0 y 1 respectivamente. El estado de tensiones ejercidas en el interior de un material nos proporciona un ejemplo de campo tensorial de orden 2. En espacios Eucl´ıdeos, cuando se usan coordenadas cartesianas, la derivaci´on parcial respecto de las coordenadas espaciales es una operaci´on que aumenta en 1 el rango tensorial del objeto resultante cada vez que se aplica. Por ejemplo, ya hemos mencionado que un campo de temperaturas T = T (x,y,z) es una magnitud escalar. Sin embargo su gradiente ∇T , con componentes cartesianas ∂T/∂xi es un vector 1-covariante, y su derivada segunda (con componentes cartesianas ∂ 2 T /(∂x i ∂x j )) es un tensor 2-covariante. En general al derivar respecto de las coordenadas cartesianas contravariantes x i aumentamos en 1 el rango tensorial covariante del objeto. En el apartado anterior hemos llegado a considerar tensores de orden 4, en cualquier caso en que entren en juego
´ DE TENSOR 2.3. DEFINICI ON
35
las derivadas direccionales de estos tensores estaremos manejando tensores de orden superior. En el caso de espacios no Eucl´ıdeos, o de espacios Eucl´ıdeos descritos en t´erminos de coordenadas curvil´ıneas, la operaci´on de derivaci´on direccional con comportamiento tensorial bien definido es la derivada covariante , que es la generalizaci´on de la derivada parcial al caso en que los vectores de la base no son constantes, sino que var´ıan de un punto a otro. Entender bien el significado y propiedades de la derivada covariante es, posiblemente, el objetivo m´as importante de este curso. El motivo es el siguiente, ya hemos mencionado que las leyes f´ısicas pueden expresarse de manera independiente al sistema de referencia empleado como ecuaciones tensoriales; en la mayor´ıa de los casos las leyes f´ısicas expresan principios de conservaci´ on que cumplen unas magnitudes (masa, energ´ıa, momento, . . . ) descriptibles como campos tensoriales; estos principios de conservaci´ on se expresan como ecuaciones en las que entran las derivadas direccionales de estos campos, es decir, como ecuaciones diferenciales en derivadas parciales. Pues bien, en la expresi´on tensorial de estas leyes la derivada direccional que entra en juego es la derivada covariante . Antes de estudiar la definici´on y propiedades de la derivada covariante es conveniente estudiar a fondo algunas propiedades generales de tensores de rango arbitrario. De todas formas, esperamos que esta secci´on haya servido para estimular cierta intuici´on f´ısica sobre el concepto de tensores y su uso en f´ısica, incluyendo algunos tensores de rango elevado.
2.3.
Definici´ on de tensor
Una vez hemos visto la idea intuitiva de tensor y algunos ejemplos de tensores empleados en f´ısica, vamos a ver a continuaci´on la definici´on formal de tensor. 2.3.1.
Espacio producto tensorial
Dados los espacios vectoriales 1 y 2 sobre el cuerpo , con dimensiones n 1 y n 2 respectivamente, se define el espacio producto tensorial 1 2 como el espacio vectorial de n1 n2 dimensiones cuyos elementos est´an dados por x y para cualquier par de vectores x 1 e y 2. El elemento x y de 1 2 se denomina producto tensorial de los vectores x e y . En el caso particular en que 1 = 2 , el producto x y se denomina tambi´en producto di´ adico, y en ese caso la diada x y se denota a veces sencillamente por xy. El producto tensorial de dos espacios puede entenderse como la tabla de productos cartesianos ordenados de todos los elementos x 1 por los y 2 , dotada de las siguientes propiedades:
⊗
⊗
⊗
⊗
∈
· ∈
⊗
⊗
∈
∈
propiedad distributiva respecto a la suma de vectores en ambos argumentos 1,
∀x ∈
∀ y1, y2 ∈
∀x1, x2 ∈
1,
∀y ∈
2,
x
⊗ (y1 + y2) = x ⊗ y1 + x ⊗ y2
2,
(x1 + x2 )
⊗ y = x1 ⊗ y + x2 ⊗ y
(2.12)
(2.13)
propiedad asociativa respecto al producto por escalares
∀x ∈
1,
∀y ∈
2,
∀λ ∈
,
λ (x
⊗ y) = (λx) ⊗ y = x ⊗ (λy)
(2.14)
n2 1 Base del espacio producto tensorial : si ei ni=1 es una base de 1 y e j j=1 es una base de e j con i = 1, . . . , n1 , y j = 1, . . . , n2 es una base de 1 2 , entonces eij = ei 2 . La base construida de esta manera se denomina base producto tensorial de las bases de partida.
{ } { ⊗ }
{ }
{ }
⊗
CAP ´ ITULO 2. TENSORES
36
Como consecuencia de estas propiedades, dados los vectores x = x i ei producto tensorial x y puede ponerse en componentes como
⊗
∈
1
e y = y j e j
2,
∈
el
⊗ y = xiy j eij (2.15) Una vez formado el espacio producto tensorial 1 ⊗ 2 , podemos construir el espacio producto x
tensorial de este por un tercer espacio
3,
de tal forma que se verifica la
propiedad asociativa del producto tensorial, para cualesquiera espacios vectoriales se cumple ( 2 1 2 3 = ( 1 2) 3 = 1 3)
⊗ ⊗
⊗
⊗
⊗
⊗
1,
2,
3
(2.16)
Por medio de la propiedad anterior podemos construir de manera recursiva el espacio producto tensorial de cualquier conjunto de espacios vectoriales 1 2 p , o de un mismo espacio vectorial por s´ı mismo un n´ umero arbitrario ( p) de veces. Con frecuencia esto se denomina potencia tensorial p de y se denota por ⊗ p . Por completitud, en el caso p = 0 se define el espacio ⊗0 como el cuerpo de escalares ( ) sobre el que est´ a definido el espacio vectorial . En nuestro caso normalmente tendremos ⊗0 = . Una vez construido el espacio producto tensorial 1 2 p , se definen como tensores construidos sobre los espacios base 1 , 2 , . . . , p a todos los elementos de 1 2 p.
⊗ ⊗···⊗
⊗ ⊗···⊗
2.3.2.
⊗ ⊗···⊗
Tensores afines
Dado el espacio vectorial , consideramos el espacio dado por el producto tensorial de s copias de y r copias del espacio dual ⋆ . Si la dimensi´o n de es n, entonces la dimensi´on de este r+s espacio es n . Se denominan tensores afines ligados al espacio a todos los elementos del espacio producto tensorial de con s´ı mismo y su dual un n´umero arbitrario de veces. La mayor´ıa de los tensores empleados en f´ısica son tensores afines, de hecho este tipo de tensores son los m´as empleados en la pr´actica, de tal forma que con much´ısima frecuencia se les denomina sencillamente tensores. En este curso siempre que hablemos de tensores nos estamos refiriendo a tensores afines, de acuerdo a la definici´on anterior. n Dadas las bases ei ni=1 de y ei i=1 del espacio dual ⋆ , los elementos T del espacio producto tensorial ⋆ ⊗r ⋆ ⋆ ⊗s = ⋆ ... ... (2.17)
{ }
⊗
{} ⊗ ⊗ ⊗ ⊗ ⊗ r veces
s veces
pueden ponerse en componentes como ... is T = T ji11 j i22 ... jr e i1
⊗ ei ⊗ . . . ⊗ ei ⊗ e j ⊗ e j ⊗ . . . ⊗ e j 2
1
2
(2.18)
r
s
Si realizamos un cambio de base en , dado por la matriz de cambio de base C , esto induce el correspondiente cambio de base en el espacio dual ⋆ y como consecuencia tambi´ en en el espacio r ⊗ ⋆ s ⊗ producto tensorial . Como resultado del comportamiento covariante de la base de y contravariante de la correspondiente base dual, es muy sencillo comprobar que el conjunto de ... is componentes T ji11 j i22 ...j se transforma de acuerdo a la regla de transformaci´on tensorial r-covariante r s-contravariante definida en Ec. (2.1). Para ello basta con sustituir cada uno de los vectores de las n n ˜i ni=1 y e ˜ i i=1) bases viejas ( ei ni=1 y ei i=1 ) en t´erminos de los vectores de las bases nuevas ( e y aplicar la propiedad asociativa del producto tensorial frente al producto por escalares. ⊗s la ley de transformaVemos por tanto que en el contexto del espacio vectorial ⋆ ⊗r ci´on bajo cambios de base dada por Ec. (2.1) es totalmente natural, y puede entenderse como la
⊗
{ }
{}
{ }
⊗
{}
´ DE TENSOR 2.3. DEFINICI ON
37
generalizaci´ on al espacio producto tensorial de las conocidas leyes de transformaci´on de las componentes de un vector de bajo cambios de base. Esta ley de transformaci´ on garantiza que el objeto ⋆ ⊗r s definido en Ec. (2.18) es invariante bajo cambios de base. ⊗ T
∈
⊗
2.3.3.
´ Algebra tensorial
Dada la estructura de espacio vectorial que hemos asignado al espacio producto tensorial por medio de las propiedades distributiva respecto a la suma de vectores (Ec. (2.12)) y asociativa respecto al producto por escalares (Ec. (2.14)), sobre los tensores generales tenemos definidas las operaciones de suma de tensores y producto por escalares. Suma de tensores : Dados 2 tensores del mismo tipo, es decir, pertenecientes al mismo espacio producto tensorial , se define la suma de tensores como el tensor que resulta de sumar estos componente a componente (obviamente estamos dando por hecho que estas componentes est´an referidas a la misma base).
• El tensor que se obtiene al sumar dos tensores dados pertenece al mismo espacio que los anteriores y es u ´ nico
∀A, B ∈
,
∃!C = A + B ∈
is i1 i2 ... is i1 i2 ...is C ji11 j i22 ... ...jr = A j1 j2 ... jr + B j1 j2 ...jr
,
(2.19)
• Dos tensores de distinto tipo, es decir, que no pertenezcan al mismo espacio producto tensorial, no se pueden sumar.
• Dado que la suma de tensores se realiza componente a componente, esta operaci´on cumple las propiedades habituales de la adici´on (conmutativa, asociativa, elemento neutro, elemento opuesto).
Producto por escalares : Dado un tensor T perteneciente a un determinado espacio producto tensorial , se define el producto del tensor T por el escalar λ como el resultado de multiplicar cada una de las componentes del tensor por el escalar.
• El tensor que se obtiene al multiplicar un tensor dado por un escalar pertenece al mismo espacio que el tensor de partida y es ´unico
∀T ∈ 2.3.4.
,
∃!T ′ = λT ∈
,
i i ...i
...is T ′ j11 j22 ... jsr = λT ji11 j i22 ... jr
(2.20)
Producto tensorial
La operaci´ on producto tensorial de dos vectores definida previamente, se generaliza de manera autom´atica al caso de 2 tensores de rango arbitrario A y B , pertenecientes a dos espacios producto tensorial arbitrarios 1 y 2 . El resultado de este producto es ´unico y pertence al espacio producto tensorial 1 2: !C = A B (2.21) A 1, B 2, 1 2
⊗
∀ ∈
∀ ∈
∃
⊗ ∈
⊗
Dados los desarrollos en componentes de A y B is A = A ji11 ... ... jr e i1
⊗ . . . ⊗ ei ⊗ e j ⊗ . . . ⊗ e j
k ... k
r
(2.22)
⊗ . . . ⊗ ek ⊗ eℓ ⊗ . . . ⊗ eℓ
(2.23)
1
s
B = B ℓ11 ... ℓpq ek1
1
q
p
CAP ´ ITULO 2. TENSORES
38 la base producto tensorial de las bases de
1
y
a 2 est´
dada por
⊗ . . . ⊗ ei ⊗ e j ⊗ . . . ⊗ e j ⊗ ek ⊗ . . . ⊗ ek ⊗ eℓ ⊗ . . . ⊗ eℓ
ei1
1
1
r
1
s
p
q
(2.24)
y las componentes del tensor C referidas a esta base est´an dadas por i ...i k ... k
k ...k
q 1 is C j11 ... jsr ℓ11 ...ℓpq = A ji11 ... ... jr B ℓ1 ... ℓp
(2.25)
Como puede verse, si A es un tensor r-covariante s-contravariante y B es un tensor p-covariante q -contravariante, el objeto definido por el producto tensorial A B es un tensor de rango r + pcovariante s + q -contravariante. En ocasiones el producto tensorial se denomina producto exterior .
⊗
2.4.
Aplicaciones multilineales
Las operaciones definidas hasta ahora permiten sumar tensores del mismo tipo, multiplicarlos por escalares y construir tensores de rango superior por medio del producto tensorial. Si visualizamos los tensores por medio de “matrices multidimensionales”, las operaciones anteriores nos permiten construir combinaciones lineales de estas matrices y tambi´en matrices de mayor dimensionalidad por medio del producto tensorial. La propiedad que hace tan ´utiles las matrices ordinarias es que representan aplicaciones lineales, de tal forma que el producto matricial de una matriz por un vector A x = y (2.26)
·
nos permite calcular la acci´on de dicha aplicaci´on lineal sobre el vector (A(x) = y ). An´alogamente, el producto matricial de dos matrices C = B A nos genera una matriz que representa la aplicaci´on lineal resultante de la composici´on de las aplicaciones lineales dadas por las matrices de partida
·
C x = y ,
y = B(A(x))
·
(2.27)
La gran utilidad de los tensores es que permiten generalizar el producto matricial a objetos multidimensionales, de rangos co- y contra-variantes arbitrarios, de tal forma que podemos emplearlos como aplicaciones multilineales definidas entre espacios pro ducto tensorial. El t´ermino multilineal se refiere a que los tensores definen aplicaciones lineales respecto de cada uno de sus ´ındices. Para emplear los tensores como aplicaciones multilineales es preciso definir primero la conocida operaci´on de contracci´ on de ´ındices . 2.4.1.
Contracci´ on de ´ındices
La operaci´ on de contracci´on de ´ındices que definimos a continuaci´ on puede considerarse como una generalizaci´ on de la traza de un operador lineal. En el cap´ıtulo anterior hemos definido la traza de un operador lineal A, con matriz A ji , como el escalar dado por tr(A) = Aii . La operaci´on que hemos realizado para calcular tr(A) es la contracci´ on del ´ındice contravariante de A ji con su ´ındice covariante; esta contracci´on est´a dada por la suma de Aii para todos los valores posibles de i, de acuerdo con el convenio de suma de Einstein. ... is En general, dado el tensor r-covariante s-contravariante con componentes T ji11 j i22 ... jr , la contracci´on del super´ındice i s con el sub´ındice j r , dada por n
∑
α=1
i i ... i
T j11 j22 ...jsr
1 α 1 α
−
−
i i ... i
= T j11 j22 ... jsr
1 1
−
−
(2.28)
39
2.4. APLICACIONES MULTILINEALES
genera un tensor de orden r 1-covariante s 1-contravariante, con las componentes que acabamos ... is de indicar. Similarmente a como hemos hecho para contraer los dos ´ultimos ´ındices de T ji11 j i22 ...j , r podr´ıamos haber tomado cualquier otro par de ´ındices co- y contra-variantes, calcul´ andose la correspondiente contracci´ on de manera an´aloga:
−
−
⋆ se igualan los valores de los ´ındices escogidos a un ´ındice mudo ( α en Ec. (2.28)) y se suma para todos los valores posibles del ´ındice mudo. Al contraer un ´ındice covariante con uno contravariante sus comportamientos co- y contra-variantes se cancelan, resultando en un objeto tensorial cuyos ´ordenes co- y contra-variantes se han reducido en una unidad. Podemos contraer cualquier pareja de ´ındices, la u ´ nica condici´on es que siempre se contrae un ´ındice co-variante con otro contra-variante. La contracci´ on de dos ´ındices del mismo tipo no i est´a definida (p. ej. tr(A) = A i , pero g ii no tiene ning´ un sentido, por el contrario, g ii si est´a definido y es muy sencillo de calcular). De manera un poco m´as formal, dado un espacio vectorial y su dual ⋆ , existe una aplicaci´ on ⋆ lineal definida sobre ⋆ con imagen en el cuerpo , tal que a cada elemento x⋆ y le hace corresponder la acci´on de la aplicaci´on x⋆ sobre el vector y, dada por x⋆ (y ) = x y (siendo x el vector asociado a la aplicaci´on x⋆ por medio del teorema de Riesz-Fr´echet). De esta forma, si tenemos la aplicaci´ on lineal A = A ji e j on del super´ındice i con el ei , la contracci´ j i j i i sub´ındice j corresponde a A j e (ei ) = A j δ i = A i (por definici´on de base dual). En el caso de un tensor de orden superior, la contracci´on de dos ´ındices cualesquiera (α y β ) se calcula de manera an´aloga, sustituyendo eβ eα por eβ (eα ) = δ αβ . Esta forma de definir la contracci´on de ´ındices pone de manifiesto de manera m´ as evidente que s´olo se pueden contraer ´ındices covariantes con ´ındices contravariantes (y viceversa) y que el objeto resultante tiene el comportamiento tensorial que hemos mencionado.
⊗
⊗ ∈ ⊗ · ∈
⊗
⊗
2.4.2.
Producto de contracci´ on
Una vez definida la contracci´on de ´ındices, definimos el producto de contracci´ on de los tensores k1 ... kq y B ℓ1 ...ℓp respecto de sus ´ındices j r y k q como el resultado de contraer dichos ´ındices en el tensor producto tensorial de los dos tensores dados, es decir is A ji11 ... ...jr
i ... i k1 ...kq 1 1 ℓ1 ... ℓp
C j11 ... jsr
−
−
s = A ji11 ...i ...jr
k ... k
1 α
−
Bℓ11 ... ℓpq
1 α
−
(2.29)
donde, por supuesto, hay suma respecto al ´ındice mudo α. Dado que el producto tensorial tiene comportamiento tensorial bien definido, y la contracci´on de ´ındices tambi´en, el producto de contracci´on genera un objeto con comportamiento tensorial bien definido, con rango tensorial (r + p 1)-covariante (s + q 1)-contravariante en el caso anterior. En este caso hemos realizado el producto de contracci´on de A por B respecto del ´ultimo ´ındice covariante de A y el ´ultimo ´ındice contravariante de B . An´alogamente, podr´ıamos haber calculado el producto de contracci´on respecto de cualquier otra pareja de ´ındices, con la u ´ nica restricci´on de tener un ´ındice de cada tipo. Cuando se manejan tensores se emplea constantemente el producto de contracci´on. En este curso lo hemos estado haciendo incluso desde el primer cap´ıtulo, p. ej. con expresiones del tipo x y = g ij xi y j , con las que hemos trabajado desde mucho antes de antes de definir el producto tensorial y la contracci´on de ´ındices. Otro ejemplo son todas las leyes de transformaci´on de las componentes de cualquier tensor ante un cambio de base, que tambi´ en est´an
−
·
−
CAP ´ ITULO 2. TENSORES
40
dadas por los correspondientes productos de contracci´on del tensor con la matriz del cambio y su inversa. El producto de contracci´on generaliza a tensores de orden arbitrario el producto de matrices. De hecho, el producto matricial C ji = A ik B jk est´a dado por la contracci´ on de A iα B jβ respecto de los ´ındices α y β . El producto escalar (x y = g ij xi y j = x i yi = x i yi ) tambi´en est´a dado por un producto de contracci´on. Una vez m´as, es importante darse cuenta de que s´olo se pueden contraer ´ındices correspondientes a comportamientos tensoriales opuestos (uno covariante con uno contravariante). ⋆ ⊗r ⊗s, con componentes Por medio de esta operaci´on podemos considerar el tensor T ...is ⊗r T ji11 j i22 ... on multilineal definida sobre el espacio producto tensorial ⋆ ⊗s jr , como una aplicaci´ con imagen en el cuerpo de escalares (en nuestro caso ), de tal forma que para cada elemento j1 j2 ... jr s ⊗ ⋆ r ⊗ (con componentes Ai1 i2 ...is ) la aplicaci´on T le hace corresponder un escalar, A de dado por el correspondiente producto de contracci´on
·
∈
⊗
⊗
⊗
j j ...j
...is r 1 2 T A = T ji11 j i22 ... jr A i1 i2 ... is
·
∈
(2.30)
donde hay suma respecto de todos los ´ındices. Como puede verse, la aplicaci´on definida por este producto de contracci´on es lineal respecto de cada uno de los ´ındices, es decir, es multilineal. En algunos casos el elemento A sobre el que aplicamos el tensor T estar´a dado por el producto tensorial de r vectores de y s vectores del dual ⋆ , de tal forma que la aplicaci´ on T definida sobre v1 v r v ⋆1 v ⋆s es lineal respecto de cada una de sus variables, todo esto hace que los tensores puedan definirse como aplicaciones multilineales . An´alogamente a como suced´ıa con el producto matricial, el producto de contracci´ on de dos tensores representa la composici´on de las aplicaciones lineales definidas por cada uno de ellos.
⊗···⊗ ⊗ ⊗···⊗
2.5.
Criterios de tensorialidad
Dado un objeto presuntamente tensorial, es conveniente disponer de una serie de reglas pr´acticas que nos permitan determinar de una manera r´apida si el objeto en cuesti´o n es o no un tensor. Las operaciones que hemos estudiado hasta ahora nos permiten identificar un comportamiento tensorial en muchos casos. A continuaci´on incluimos un resumen con los criterios de tensorialidad m´as importantes. Invariancia : Un objeto del tipo ...is T = T ji11 j i22 ... jr e i1
⊗ ei ⊗ . . . ⊗ ei ⊗ e j ⊗ e j ⊗ . . . ⊗ e j 2
1
2
(2.31)
r
s
es un tensor r-covariante s-contravariante si y s´olo si es invariante bajo cambios de base. ...is Ley de transformaci´ on tensorial : El conjunto de coordenadas T ji11 j i22 ... jr , ligado a una base determinada, corresponde a un tensor r-covariante s-contravariante si y s´olo si bajo el cambio de base C (con inversa D C −1 ) se transforma de acuerdo a
≡
˜ i1 i2 ... is = C p1 C p2 . . . C p r Di1 D i2 . . . D is T q1 q2 ...qs T q1 q2 qs p1 p2 ... pr j1 j2 ...jr j1 j2 jr
r veces
(2.32)
s veces
Suma y producto por escalares : Dados dos tensores del mismo tipo ( T 1 y T 2 ), cualquier combinaci´ on lineal de ellos (λT 1 + µT 2 , con λ y µ escalares) genera un tensor del mismo tipo que los de partida.
41
2.5. CRITERIOS DE TENSORIALIDAD
Producto tensorial : Dados dos tensores de orden r1 -covariante s1 -contravariante y r2 -covariante s2 -contravariante, su producto tensorial es un tensor de orden r1 + r 2 -covariante s1 + s 2 contravariante. Producto de contracci´ on : Dados dos tensores de orden r1 -covariante s1 -contravariante y r2 covariante s 2 -contravariante, su producto de contracci´on respecto de cualquier pareja de ´ındices (siempre uno de cada tipo) es un tensor de orden r1 + r 2 1-covariante s1 + s 2 1contravariante.
−
−
Permutaci´ on de ´ındices : Dado un tensor, el objeto que resulta de permutar dos ´ındices del mismo tipo es un tensor del mismo tipo que el tensor de partida. Por ejemplo, dado el tensor 2covariante Aij , el ob jeto con componentes A ji tambi´en es un tensor 2-covariante. Sin embargo, en general el ob jeto que resulta de permutar dos ´ındices de distinto tipo no ser´a un tensor. Criterio del cociente : Dada una relaci´on del tipo A = C B
·
(2.33)
donde representa un producto de contracci´o n de C con B respecto de alguna pareja (o algunas parejas) de ´ındices, si A y B son dos tensores entonces el objeto C es necesariamente un tensor, cuyo orden co- y contra-variante est´a determinado por los de A y B y por el n´umero de ´ındices de B que se hayan contraido.
·
Por ejemplo, en la relaci´on entre polarizaci´ on y campo el´ectrico P = α E el hecho de que P y on lineal entre deformaci´on E son vectores garantiza que α es un tensor; an´alogamente, la relaci´ y tensi´on en un material el´astico nos garantiza que la constante de proporcionalidad es un tensor, dado que las tensiones y las deformaciones son tensores. El nombre “criterio del cociente” se debe a que el tensor C parece estar definido por la relaci´on anterior como el “cociente” de los tensores A y B, sin embargo no existe una operaci´on “divisi´ on de tensores”. A estas alturas deber´ıa haber quedado clara la gran utilidad de la notaci´ on que hemos empleado desde el principio para escribir componentes covariantes y contravariantes de tensores, no solamente porque indica de manera inmediata el tipo de comportamiento bajo cambios de base, sino porque permite identificar r´apidamente expresiones tensoriales correctas e incorrectas. Por ejemplo, en la expresi´on R = g ij Rij = g ij g ℓmRiℓjm ✓ vemos autom´aticamente que R representa un escalar (suponiendo que R iℓjm y g ij son tensores), ya que en ella todos los ´ındices est´an contraidos correctamente (uno covariante con uno contravariante). Por otra parte, la expresi´ on α M βα = M βγ γ
×
no define un tensor de ning´un tipo, ya que representa la contracci´on respecto de dos ´ındices del mismo tipo. La notaci´ on que estamos empleando tambi´en facilita enormemente escribir la ley de transformaci´on tensorial que cumplen las componente de un tensor de cualquier tipo. Por ejemplo, supongamos que queremos escribir la ley de transformaci´on de las componentes del tensor de curvatura de Riei bajo el cambio de base C i , para ello podemos aplicar la siguiente regla nemot´ mann R jkℓ ecnica: j
CAP ´ ITULO 2. TENSORES
42
1. En t´erminos de la nueva base los valores de las componentes de este tensor habr´an cambiado, pero el tensor sigue siendo del mismo tipo. Denotamos las componentes en la nueva base por ˜i R jkℓ
2. Dado que se trata de un objeto 1-contravariante 3-covariante, la ley de transformaci´ o n de i R jkℓ incluye a la matriz del cambio 3 veces y a su inversa 1 vez. La ley de transformaci´on que estamos buscando tiene entonce el siguiente aspecto ˜ i :::: D · C · C · C · R · R jkℓ
· · · · ···
3. Cada una de las matrices C y D da lugar al correspondiente ´ındice co- y contra-variante de ˜ i , por tanto escribimos R jkℓ ˜ i :::: D i C · C · C · R· R · j k ℓ ··· jkℓ 4. Finalmente, para obtener una expresi´ on tensorial v´alida todos los ´ındices de R···· en el lado · derecho deben estar contraidos correctamente. L´ogicamente, el ´ındice contravariante de R··· debe estar contraido con el sub´ındice de la matriz inversa D, mientras que cada uno de los ´ındices covariantes deben estar contraidos con los correspondientes super´ındices de cada una de las matrices del cambio C . Esto nos lleva a ˜ i = D i C α C β C γ Ra R jkℓ
a
j
k
ℓ
αβγ
que es la ley de transformaci´on buscada. Esta regla nemot´ecnica permite escribir r´ apidamente cualquier ley de transformaci´on tensorial, sin necesidad de memorizar la expresi´on general Ec. (2.32).
2.6.
Tipos de tensores
Por u ´ltimo vamos a cerrar este cap´ıtulo con una breve clasificaci´on de tensores y algunas definiciones. Los tensores suelen clasificarse de acuerdo al tipo de componentes que los describen o a las reglas de simetr´ıa que cumplen estas componentes. Como veremos en los cap´ıtulos siguientes, es muy relevante saber con qu´ e tipo de tensor estamos trabajando. En lo referente a la simetr´ıa esto es especialmente importante por dos motivos: por un lado la simetr´ıa de las componentes de un tensor responde a la simetr´ıa de la magnitud f´ısica que describe; por otro lado conocer las relaciones de simetr´ıa que cumplen las componentes de un tensor nos permitir´a realizar determinadas manipulaciones algebraicas de manera muy r´apida. Tensores asociados
La contracci´ on con el tensor m´etrico gij (o con su inverso g ij ) produce la bajada (o subida si contraemos con el inverso) del ´ındice que hemos contra´ıdo, tal y como ya vimos en el primer cap´ıtulo. Los tensores relacionados entre s´ı por esta operaci´on se denominan tensores asociados . En el primer cap´ıtulo ya vimos un ejemplo de tensores asociados dado por las componentes co- y contra-variantes de un vector (vi = g ij v j , v i = g ij v j ). Esto se generaliza directamente a tensores de cualquier orden, por ejemplo, la versi´on puramente covariante del tensor de curvatura de Riemann k . est´a dada por R ijαβ = g ik R jαβ La operaci´ on de subida y bajada de ´ındices es reversible, ya que al ser gij y g ij inversos uno del otro, si volvemos a contraer con g ij (en caso de haber contra´ıdo antes con gij , y viceversa) recuperamos las componentes de partida.
43
2.6. TIPOS DE TENSORES
Tipo de componentes
En referencia al tipo de componentes los tensores pueden clasificarse en: Tensores contravariantes de rango q (o q -contravariantes): objetos tensoriales con q componentes contravariantes (y ninguna covariante). Tensores covariantes de rango q (o q -covariantes): objetos tensoriales con q componentes covariantes (y ninguna contravariante). Tensores mixtos : objetos tensoriales con componentes de ambos tipos. Simetr´ ıa
Dependiendo de la simetr´ıa de las componentes tenemos Tensores sim´etricos : un tensor es sim´etrico respecto a dos ´ındices del mismo tipo si sus componentes no cambian al permutar estos ´ındices. Por ejemplo, un tensor 2-covariante A ij es sim´etrico si ij Aij = A ji . An´alogamente, el tensor m´etrico dual g ij es sim´etrico dado que ij g ij = g ji .
∀
∀
Tensores antisim´etricos : un tensor es antisim´ etrico respecto a dos ´ındices del mismo tipo si sus componentes cambian con un factor 1 al permutar estos ´ındices.
−
Por ejemplo, el tensor ω ij es antisim´etrico respecto de sus ´ındices i y j si ij ωij =
∀
−ω ji .
Un tensor que s´olo tenga componentes de un tipo (o bien covariantes o bien contravariantes) se dice completamente sim´etrico (respectivamente completamente antisim´etrico) si sus componentes son sim´ etricas (respectivamente antisim´ etricas) respecto a la permutaci´o n de cualquier par de ´ındices. Es muy f´acil demostrar que las propiedades de simetr´ıa o antisimetr´ıa anteriores son independientes de la base que estemos empleando, es decir, son propiedades inherentes al tensor en consideraci´on. Tambi´en es interesante ver que un tensor arbitrario de segundo orden, con componentes s´olo de un tipo (p. ej. T ij ), se puede descomponer como suma de un tensor sim´etrico y uno antisim´etrico por medio de 1 1 T ij = (T ij + T ji ) + (T ij T ji ) (2.34) 2 2 esta descomposici´on tan sencilla tiene aplicaciones muy importantes en f´ısica. Es evidente que dado un tensor de orden superior, podemos hacer una descomposici´on similar para cualquier pareja de ´ındices del mismo tipo. Las operaciones de permutaci´on de ´ındices s´olo est´an bien definidas desde el punto de vista tensorial (es decir, s´olo son independientes de la base) cuando se intercambian ´ındices del mismo tipo. En particular, la matriz A ji correspondiente a una aplicaci´on lineal puede ser sim´etrica respecto de una determinada base (A ji = A ji ) y no serlo respecto a otra base distinta. Tambi´en es f´acil demostrar que el resultado de contraer 2 ´ındices sim´etricos con 2 ´ındices antisim´ etricos es necesariamente nulo (es decir, si Aij = A ji y ωij = ω ji , entonces Aij ωij = 0). Como consecuencia, en la contracci´on de un tensor 2-contravariante cualquiera T ij con un tensor 2-covariante antisim´etrico, s´olo contribuye la parte antisim´etrica de T ij , dada por 21 (T ij T ji ).
−
−
−
CAP ´ ITULO 2. TENSORES
44 Definiciones adicionales
Aparte de los tipos de tensores definidos hasta ahora, en la pr´actica es muy usual emplear la siguiente terminolog´ıa: Tensores Cartesianos : Si nos restringimos a espacios Eucl´ıdeos y al uso de bases ortonormales (en particular las coordenadas Cartesianas habituales), encontramos que el tensor m´etrico es la identidad (gij = g ij = δ ji ) y por tanto las componentes co- y contra-variantes de cualquier tensor coinciden, de tal forma que no es necesario establecer ninguna distinci´on entre ellas. Los tensores definidos en este contexto se denominan tensores cartesianos, a este tipo pertenecen los tensores empleados normalmente en ingenier´ıa (elasticidad, mec´anica de fluidos). Dado que en estos tensores no hace falta distinguir entre componentes co- y contra-variantes, es habitual denotar todas sus componentes por medio de sub-´ındices indistintamente. Tensores is´ otropos : Dentro de los tensores Cartesianos, se denominan tensores is´otropos a aquellos cuyas componentes no var´ıan al rotar los ejes, es decir, al realizar un cambio de base ortogonal con det C = 1. El n´ umero de tensores is´otropos que existe depende del rango tensorial que consideremos, de acuerdo a la siguiente tabla:
• Todos los tensores de rango 0 son is´otropos. • No existen tensores is´otropos de orden 1; • La delta de Kronecker (δ ij , δ ji , δ ij ) es el ´unico tensor is´otropo de orden 2. De estos 3
objetos se puede ver que la versi´on 1-covariante 1-contravariante es is´otropa no solo ante cambos de base ortogonales en espacios Eucl´ıdeos, sino ante cualquier cambio de base independientemente de la m´etrica.
• El s´ımbolo alternante de Levi-Civita es el ´unico “tensor” is´otropo de orden 3 (dejamos este objeto para el cap´ıtulo siguiente, dado que en realidad es un pseudotensor).
• Los u´ nicos tensores is´otropos de orden 4 son los siguientes δ ij δ kℓ
δ ik δ jℓ
δ iℓ δ jk
• El n´umero de tensores is´otropos con rango tensorial q (aq ) va aumentando de acuerdo a la siguiente regla de recurencia
aq =
q 1 (2aq−1 + 3aq−2 ) q + 1
−
con a 0 = 1 y a 1 = 0. Los tensores is´ o tropos de orden 4 se emplean para definir el tensor de elasticidad del que habl´ abamos al comienzo del cap´ıtulo. En el caso de un medio is´otropo el tensor de elasticidad debe ser invariante bajo rotaciones. El tensor is´otropo de orden 4 m´ as general que se puede formar es cijkℓ = λδ ij δ kℓ + µδ ik δ jℓ + νδ iℓ δ jk Como los tensores de tensiones y deformaciones son sim´ etricos, de la relaci´on de proporcionalidad entre tensi´on y deformaci´on (τ ij = cijkℓ ekℓ , escribimos todo con sub´ındices dado que estamos manejando tensores Cartesianos) deducimos las relaciones cijkℓ = cijℓk y cijkℓ = c jikℓ , de donde deducimos la condici´on µ = ν . Por tanto, el tensor de elasticidad de un medio is´otropo depende
45
2.7. PROBLEMAS
de s´olo 2 par´ametros. En t´erminos del m´odulo de Young E y el cociente de poisson σ, el tensor de elasticidad puede escribirse como
�
E σ 1 cijkℓ = δ ij δ kℓ + (δ ik δ jℓ + δ iℓ δ jk ) 1 + σ 1 2σ 2
−
�
Aparte de los anteriores tensores is´otropos es interesante darse cuenta de que el tensor nulo de rango tensorial arbitrario tambi´en es is´ otropo. Consideremos el tensor nulo de rango (r)-covariante (s)-contravariante, por definici´ on todas sus componentes respecto de la base can´onica son nulas; pero como las leyes de transformaci´on de las componentes de tensores son lineales, si todas las componentes de un tensor son nulas respecto de una base, entonces tambi´ en ser´an nulas respecto de cualquier otra base. Esto tiene la siguiente consecuencia importante en f´ısica: para cualquier ecuaci´on que est´ e escrita en forma tensorial correctamente, si esta ecuaci´on se cumple en una base dada, entonces tambi´en se cumplir´a en cualquier otra base. Por tanto los tensores proporcionan el marco adecuado para escribir ecuaciones f´ısicas que sean v´alidas independientemente del sistema de referencia empleado.
2.7.
Problemas
1. Calcular el valor del escalar g ii en un espacio vectorial con dimensi´on n y m´etrica dada por el tensor g ij . 2. Demostrar que si entre 2 vectores 1-contravariantes ( x y y ) existe una relaci´on lineal del tipo y = A x, entonces A es un objeto 1-covariante 1-contravariante. 3. Demostrar que en el caso de 2 vectores 1-covariantes (x y y ), dada la relaci´ on y = Ax tambi´en implica que A es un objeto 1-covariante 1-contravariante. 4. Demostrar que la contracci´ on de ´ındices (uno de cada tipo) es una operaci´on con comportamiento tensorial bien definido. 5. Demostrar que dado un tensor arbitrario, el objeto que resulta de la contracci´ on de dos ´ındices del mismo tipo, en general, no es un tensor. k es un tensor 1-contravariante 3-covariante, entonces R k 6. Demostrar que si R jαβ ijαβ = g ik R jαβ es un tensor 4-covariante.
7. Demostrar que el producto de contracci´ on tiene comportamiento tensorial bien definido. 8. Demostrar que si las componentes de un tensor 2-covariante respecto de una determinada base son sim´etricas, entonces tambi´ en lo son respecto de cualquier otra base. 9. Demostrar que si las componentes de un tensor 2-contravariante respecto de una determinada base son sim´etricas, entonces tambi´ en lo son respecto de cualquier otra base. 10. Demostrar que si las componentes de un tensor 2-covariante respecto de una determinada base son antisim´ etricas, entonces tambi´ en lo son respecto de cualquier otra base. 11. Demostrar que si las componentes de un tensor 2-contravariante respecto de una determinada base son antisim´ etricas, entonces tambi´ en lo son respecto de cualquier otra base.
CAP ´ ITULO 2. TENSORES
46
12. Demostrar que el resultado de contraer 2 ´ındices sim´etricos con 2 ´ındices antisim´ etricos es necesariamente nulo. 13. Dados los tensores 2-contravariante T ij y 2-covariante A ij , demostrar que si A ij = A ji entonces 1 ij T ij Aij = T + T ji Aij 2
( (
14. En el caso anterior, demostrar que si A ij es antisim´etrico entonces T ij Aij =
1 ij T 2
− T ji
Aij
15. El tensor 2-covariante T ij define una aplicaci´on de en ⋆ , tal que para un vector v le ⋆ j hace corresponder un vector w , dado en componentes por T ij v = w i . Sabiendo que el 1 ij − tensor inverso (T ) se define como la aplicaci´ on inversa a la anterior, calcule las compontes 1 ij − del tensor inverso (T ) .
∈
∈
16. Demostrar que las versiones co- y contra-variantes de la delta de Kronecker (δ ij y δ ij ) se comportan como tensores is´otropos s´ olo bajo cambios de base ortogonales. 17. Demostrar que las componentes de δ ji son invariantes bajo cualquier cambio de base.
2.8.
Bibliograf´ıa
Para profundizar sobre la aparici´ on de tensores de orden superior en f´ısica se recomienda el libro de Feynman [14, 15] (volumen 2 temas 31, 38, 39 y 42), la introducci´on que hemos presentado aqu´ı se basa en cierta medida en la de Feynman. Para las aplicaciones del c´alculo tensorial en mec´ anica de fluidos se recomienda el libro de Aris [17]. Adem´as de los anteriores, para escribir este cap´ıtulo se han consultado principalmente los textos de Synge y Schild [13], Lichnerowicz [10] y Bowen y Wang [2].
Cap´ıtulo 3
Densidades tensoriales Existen magnitudes perfectamente bien definidas desde el punto de vista matem´atico que, sin embargo, no cumplen la ley general de transformaci´on on bajo cambios de base Ec. (2.1). Un ejemplo muy sencillo es el producto vectorial de dos vectores en 3 (estudiado en este cap´ cap´ıtulo), cuyas componentes se transforman de acuerdo a la ley tensorial de objetos 1-covariantes, pero multiplicada por el signo (+1 o 1) del determinante de la matriz del cambio de base. Los (pseudo-) tensores que siguen este tipo de comportamiento se denominan tensores denominan tensores axiales , y en ocasiones se denomina tensores polares a polares a los verdaderos tensores, para distinguirlos de los axiales. El rotacional de un campo vectorial en 3 es otro ejemplo importante de vector axial. Otro tipo de comportamiento ligeramente distinto del comportamiento tensorial que hemos visto hasta ahora es el que presenta, presenta, p. ej., el determinan determinante te del tensor m´ etrico etrico (det ( gij )), que a partir de ahora denotaremos sencillamente por g det(g det(gij ). De la ley de transformaci´on o n de las componentes del tensor m´etrico etrico bajo el cambio de base ba se C C
−
≡
g˜ij = C iα C jβ g αβ
(3.1)
y de las propiedades de los determinantes deducimos inmediatamente det(˜ gij ) = C 2 det(g det(gαβ ) ,
| |
es decir
g˜ = C 2 g
| |
(3.2)
donde C denota el determinante de la matriz del cambio C . C . Esto indica que g no es exactamente un escalar, ni tampoco un tensor de ning´un un tipo al menos seg´un un las leyes de transformaci´on on que hemos visto hasta ahora, a menos que C = 1, es decir, si el cambio de base es ortogonal, en cuyo caso g caso g se comporta como un escalar. Otro ejemplo de este tipo de comportamiento es el que muestra la densidad de cualquier medio material, descrita por la funci´on ρ on ρ = = ρ ρ((x,y,z). x,y,z). En principio princi pio podr po dr´´ıa parecer parece r que q ue la densidad densida d deber´ d eber´ıa ıa ser un escalar, sin embargo esto no es cierto, al menos en el sentido estricto del t´ermino. ermino. Supongamos Supo ngamos un observador que mide la densidad de un medio ρ = ρ = dm/dV dm/dV de acuerdo a un determinado determinado sistema sistema 1 2 3 1 2 3 ′ ′ ′ de coordenadas x coordenadas x , x , x , y otro respecto a otro x , x , x ; las medidas de estos observadores no coincidir´an an si los “tama˜nos” nos” de los correspondientes elementos diferenciales de volumen dV y dV ′ no son iguales, por tanto ρ no es invariante bajo cualquier cambio de coordenadas, es decir, no es un escalar. En lo que necesariamente deber´an an coincidir ambos observadores es en la cantidad de masa contenida en cualquier volumen finito, dada por
| |
| | ±
m =
∫∫∫
1
2
3
ρ(x , x , x ) dV =
V
∫∫∫ V
′
47
ρ˜(x′1 , x′2 , x′3 ) dV ′
CAP ´ ITULO 3. 3. DENSIDADES DENSIDADES TENSORIA TENSORIALES LES
48
Sustituyendo en esta relaci´on on la regla para cambios de coordenadas bajo integrales m´ultiples, ultiples, encontramos que la ley de transformaci´on on de la densidad bajo un cambio de coordenadas es
� � ��
ρ˜(x′1 , x′2 , x′3 ) = abs det
� �
∂x i ∂x ′ j j
ρ(x1 , x2 , x3 )
i
∂x donde det ∂x es el determinante jacobiano del cambio de coordenadas. El valor absoluto del j determinante jacobiano representa precisamente la variaci´on on de tama˜ no del elemento diferencial de no ∂x i dV volumen volumen al pasar de un sistema de coordenadas al otro (abs det ∂x j = dV ). Ante una transformaci´on on ortogonal no hay cambio en el elemento de volumen y en ese caso la densidad se transforma como un escalar, pero ante un cambio de coordenadas no ortogonal la densidad no se comporta exactamente como un escalar, como lo hace la masa total, sino que se multiplica por el valor absoluto del determinante de la matriz del cambio. Las magnitudes que cumplen esta ley de transformaci´on se denominan denominan densidades densidades escalares . A todo esto, en el ejemplo anterior hemos mencionado que bajo un cambio de coordenadas la matriz del cambio de base est´a dada por la matriz Jacobiana de la transformaci´on on de coordenadas; en el cap´ıtulo ıtu lo pr´oximo oximo veremos con todo detalle el origen y significado de esta afirmaci´on, on, cuando estudiemos el tema de los campos tensoriales. El ejemplo anterior no es en absoluto excepcional, en f´ f´ısica hay multitud de magnitudes que se definen como la integral de la correspondiente densidad en un dominio determinado. En todos esos casos encontrar´ encontrar´ıamos un comportamiento similar bajo transformaciones de coordenadas, de modo que parece conveniente generalizar la anterior ley de transformaci´on on de magnitudes tensoriales tensoriales (Ec. (2.1)) para incluir tambi´ t ambi´ en en estos tipos tip os de comportamiento. De acuerdo a los ejemplos anteriores, en general hay dos factores extra que debemos incluir para generalizar la ley de transformaci´on on Ec. (2.1). En primer lugar hemos visto que en algunos casos aparece un factor extra dado por det C elevado elevado a una cierta potencia w potencia w;; en segundo lugar, en algunas ocasiones aparece un factor extra dado por el signo de det C . Los objetos cuyas componentes se transforman bajo un cambio de base seg´un un una ley tensorial multiplicada por el determinante de la matriz del cambio elevado a una potencia w se denominan pseudotensores denominan pseudotensores o o densidades tensoriales de peso w , de modo que los verdaderos tensores corresponden a densidades tensoriales de peso 0. En algunos textos se denomina tensores absolutos a absolutos a los tensores y tensores relativos de relativos de peso w a los pseudotensores pseudotensores de peso w. Claramente los pseudotensores se transforman bajo rotaciones de los ejes (cambios de base con C = 1) como verdaderos tensores, de modo que si nos restringimos a este este tipo de cam cambios bios de coordena coordenadas das no observ observare aremos mos difere diferenci ncias as entre entre tensor tensores es absolut absolutos os y relativos. Por otra parte, los objetos cuyas componentes se transforman siguiendo una ley tensorial multiplicada por el signo del determinante del cambio de base se denominan pseudo-tensores axiales (con frecuencia sencillamente tensores axiales), mientras que los verdaderos tensores se denominan tensores polares. ′
� � ′
′
| |
3.1. 3.1.
Ley Ley de tran transfo sform rmac aci´ i´ on de densidades tensoriales generales on
Con el objeto de incluir tambi´ en en comportamientos comporta mientos bajo cambios de base como los que acabamos de mencionar, generalizamos la anterior ley de transformaci´on on bajo cambios de base (Ec. (2.1)) por medio de la siguiente definici´on: on: ⋆ Se denomina denomina densidad densidad tensorial tensorial (ta ( tamb mbi´ i´en en tensor relativo relativo o pseudo-tensor ) r-cov r-covariante ariante scontravariante de peso w y paridad ε (ε = 1) a cualquier objeto descrito respecto a una
±
´ DE DENSIDADES TENSORIALES GENERALES 3.1. LEY DE TRANSF TRANSFORM ORMAC ACI I ON
49
... ... is base del espacio producto tensorial por medio de las componentes T ji11 j i22 ...j , tales que bajo el r 1 − cambio de base C base C (con (con inversa D inversa D = C = C ) se transforman seg´ un un la ley pr w p1 p2 ... is i1 i2 is q1 q2 ... ... qs ˜ i1 i2 ... T ... pr j1 j2 ...jr = ε C C j1 C j2 . . . C j r Dq1 D q2 . . . Dqs T p1 p2 ...
| |
r veces
(3.3)
s veces
donde la paridad ε puede tomar los valores 1 o sign C , siendo C el determinante de la matriz del cambio de base.
| |
| |
⋆ Dependiendo del valor del coeficiente ε, ε , se denominan tensores denominan tensores polares a a aquellos para los que ε = 1 independientemente del cambio realizado, y tensores axiales a a aquellos para los que ε es igual al signo del determinante de C , C , que denotaremos a partir de ahora por s s
≡ sign |C | = abs|C ||C |
(3.4)
Claramente los tensores absolutos son tensores polares (ε ( ε = 1) de peso w = 0. Por otra parte, es f´acil acil ver que de acuerdo a esta definici´on on g es un (pseudo-) tensor axial de peso 1 y rango tensorial nulo, es decir, una densidad escalar. Para hacerse una idea intuitiva del significado de los par´ametros ametros de paridad y peso, de manera algo imprecisa podemos decir que dado un pseudo-tensor con peso w = 0, realmente es la integral de este objeto en un cierto dominio lo que define un tensor absoluto, de tal forma que el peso de la densidad tensorial est´a relacionado con la dimensionalidad del dominio donde debe integrarse esta para obtener un tensor absoluto. En cuanto a la paridad, el valor ε = 1 o s depende de si las componentes componentes del objeto que estamos describiendo describiendo se multiplic multiplican an por 1, o no, bajo un cambio con determinante negativo, es decir, al cambiar la orientaci´on on de la base. Los comportamientos de tipo pseudo-tensorial como los que acabamos de definir son muy frecuentes en la pr´actica. actica. De hecho, de todas las magnitudes f´ısicas con comportamiento tensorial t ensorial bien definido aproximadamente la mitad son pseudotensores. Normalmente las denominaciones formales de este tipo de objetos (pseudo-tensores, densidades tensoriales, etc.) se emplean cuando se quiere recalcar las diferencias de comportamiento entre tensores absolutos y relativos o entre tensores polares y axiales, pero en el lenguaje coloquial es bastante frecuente omitir este nivel de detalle para simplificar simplificar la nomenclatura, nomenclatura, de modo que suele denominarse denominarse sencillamen sencillamente te como tensor a cualquier cualquier objeto cuyas componentes se transforman de acuerdo a la regla Ec. (3.3), quedando claro por el contexto si nos referimos a un tensor axial, a una densidad tensorial, o a un tensor absoluto. Por ejemplo, en la pr´actica actica es muy frecuente referirse a la funci´on on densidad como un escalar en lugar de una densidad escalar. En el estudio de campos electromagn´eticos eticos es frecuente fr ecuente referirse al camp o el´ectrico ectric o como el vector E y y al campo magn´etico etico como el vector B , omitiendo que en realidad E es un vector polar y B un vector axial. Cuando se estudia c´alculo alculo tensorial y geometr´ geometr´ıa diferencial es muy importante impor tante comprender los distintos tipos de comportamiento que pueden presentar estos objetos. No obstante, en la pr´actica los cambios de base m´as as frecuentes corresponden a simples rotaciones, con C = +1, en cuyo caso todos estos comportamientos colapsan con el de los tensores absolutos (de hecho, en la pr´actica es raro emplear cambios con sign C = 1).
√
̸̸
−
| |
| | −
3.1.1. 3.1.1.
Produc Producto to de densi densidad dades es tensor tensorial iales es
Dadas dos densidades tensoriales A y B (rA-covariante sA-contravariante y rB -covariante sB contravariante respectivamente), con paridades ε paridades ε A y ε B y pesos w pesos w A y w B , el comportamiento bajo
CAP ´ ITULO 3. DENSIDADES TENSORIALES
50
cambios de base de su producto tensorial est´a dado por i1 i2 ... is ˜ i1 i 2 ...isB pr is A˜ j1 j2 ... jrA B = ε A εB C wA +wB C j p11 C j p22 . . . C j r A Dqi11 D qi22 . . . DqsAA j1 j2 ...jr A
B
| |
A
sA veces
rA veces
pr
is
q1 q2 ...qs
q1 q2 ... qs
C j p11 C j p22 . . . C j r B Dqi11 Dqi22 . . . DqsBB A p1 p2 ... prAA B p1 p2 ... prBB B
(3.5)
sB veces
rB veces
La paridad del producto tensorial es, por tanto, el producto de las paridades, mientras que el peso es la suma de los pesos. Tambi´en vemos que esta regla de composici´on no cambia si realizamos la contracci´ on de cualquier par de ´ındices en el producto tensorial de A por B. Como consecuencia, el producto tensorial y/o de contracci´ on de dos tensores de pesos opuestos genera un tensor absoluto, el producto (tensorial y/o de contracci´on) de dos tensores de paridad opuesta genera un tensor axial, mientras que el producto de dos tensores con la misma paridad genera un tensor polar, independientemente de la paridad de los tensores de partida, tal y como resumimos en la tabla 3.1. Por otra parte el producto vectorial de dos vectores (que estudiaremos a continuci´on en este tema) Tensor B
Tensor A
axial
polar
axial
polar
axial
polar
axial
polar
Cuadro 3.1: Paridad del tensor dado por el producto (tensorial o de contracci´on respecto de
cualquier par de ´ındices) de dos tensores A y B.
no cumple esta regla.
3.2.
Espacios orientables
La paridad de un tensor (ε = 1, o s) est´a relacionada con el comportamiento de las componentes del tensor bajo cambios en la orientaci´on de la base del espacio vectorial al que pertenece. En la mayor´ıa de los casos los espacios vectoriales con los que trabajamos son orientables . Esto est´a relacionado con la topolog´ıa del espacio y significa que en general no es posible transformar cualquier objeto definido en este espacio en su imagen especular mediante rotaciones y traslaciones exclusivamente. Por ejemplo, 3 es un espacio orientable dado que no es posible hacer coincidir la mano derecha con la izquierda por medio de traslaciones y rotaciones, sino que es necesario introducir al menos una reflexi´on. En el an´alisis de curvas cerradas planas la orientabilidad de 2 nos permite distinguir los dos sentidos de giro posibles. Por otra parte, en el an´alisis de superficies en 3 dimensiones la orientabilidad de 3 nos permite distinguir las dos formas posibles de definir la normal a cualquier superficie (“hacia fuera” o “hacia dentro” si la superficie es cerrada), y en general nos permite distinguir un objeto de su imagen especular, en el caso en que esta no pueda superponerse con aquel. Los objetos que cumplen esta propiedad se llaman quirales , un cubo no es quiral porque puede superponerse con su imagen especular, pero la mano derecha y la izquierda s´ı son quirales. La existencia de objetos quirales tiene consecuencias muy importantes en el
51
3.2. ESPACIOS ORIENTABLES
Figura 3.1: Banda de Moebius.
mundo f´ısico. Por ejemplo, en bioqu´ımica es frecuente que las mol´eculas quirales (denominadas enanti´ omeros) presenten comportamientos biol´ ogicos totalmente distintos. El ejemplo cl´ asico de espacio no orientable es la banda de Moebius, dada por la superficie que se obtiene al pegar los extremos opuestos de una banda despu´es de girar uno de los extremos 180 grados respecto al eje longitudinal de la banda (Fig. 3.1). Si consideramos el vector normal a una banda de Moebius en un punto cualquiera, vemos que al desplazar este vector a lo largo de la superficie recorriendo el bucle una vez encontramos el vector de partida multiplicado por 1 (encontramos este resultado al recorrer el bucle un n´umero impar de veces, y recuperamos el vector de partida al recorrer el bucle un n´umero par de veces). Esto implica que la banda de Moebius tiene una u ´ nica cara (y un ´unico borde), y por tanto no es orientable. En un espacio con estructura similar a la banda de Moebius cualquier objeto es indistinguible de su imagen especular, ya que basta con hacer que dicho objeto recorra un cierto ciclo para hacerlo coincidir con su imagen especular. Esto no es posible en espacios orientables.
−
3.2.1.
Bases ordenadas y orientaci´ on
Hasta ahora nos hemos referido en muchas ocasiones a una base cualquiera ( ei ni=1 ) de un espacio vectorial, sin prestar mayor atenci´on al orden con el que numeramos los vectores de la base. En un espacio vectorial orientable el orden de los vectores de la base es importante, ya que define la orientaci´ on de la base. Dadas dos bases ordenadas de un determinado espacio vectorial orientable, se dice que estas bases tienen la misma orientaci´ on si la matriz que pasa de una base a la otra tiene determinante positivo, y se dice que tienen orientaci´on contraria si el determinante de la matriz del cambio de base es negativo. En el cap´ıtulo primero hemos visto que las rotaciones son transformaciones con determinante +1; el valor absoluto 1 indica que las rotaciones no introducen cambios en el elemento de volumen y el signo + que no introducen cambios en la orientaci´on del espacio. En general cuando una matriz de cambio de base tiene determinante negativo significa que
{ }
CAP ´ ITULO 3. DENSIDADES TENSORIALES
52
en el cambio hay una inversi´ on de los ejes, o (equivalentemente) una permutaci´on impar de los vectores de la base (seguida posiblemente de una o varias rotaciones). De las propiedades de los determinantes se deduce que la relaci´on definida por la orientaci´ on es una relaci´o n de equivalencia , de modo que las bases de un espacio vectorial orientable est´an clasificadas en dos clases de equivalencia, correspondientes a las dos orientaciones posibles. Se define como orientaci´ on positiva la de la base can´onica y su clase de equivalencia, y como orientaci´ on negativa la de todas las bases relacionadas con la base can´onica por medio de una matriz de cambio con determinante negativo. Es interesante observar que la orientaci´on de una base es una propiedad que no puede definirse de manera geom´etrica sin hacer referencia a la orientaci´ on contraria. Es el contraste entre ambas orientaciones posibles lo que define esta propiedad. Tambi´en es interesante observar que todas las bases con orientaci´on positiva est´an conectadas mediante transformaciones invertibles que se pueden construir como composici´on de transformaciones infinitesimales a partir de la identidad, mientras que las transformaciones que cambian la orientaci´on de la base no pueden construirse como superposici´on de transformaciones infinitesimales invertibles a partir de la identidad. El motivo es que construir una matriz de cambio de base por medio de la superposici´on de transformaciones infinitesimales a partir de la identidad implica que C var´ıa de manera continua desde la identidad a medida que aplicamos estas transformaciones infinitesimales. Por tanto, si partimos de la identidad (C = , C = +1) y queremos llegar a una transformaci´on con C < 0, necesariamente en el camino hemos debido pasar en alg´ un punto por una matriz C con C = 0 (ya que el determinante var´ıa de manera continua con C ), pero esa transformaci´on no es admisible como cambio de base ya que no es invertible. Esto hace que desde el punto de vista topol´ogico las aplicaciones lineales invertibles (es decir, con determinante no nulo) dan lugar a un espacio que tiene dos partes (correspondientes a los dos signos posibles del determinante) que no pueden conectarse por medio de aplicaciones continuas, es decir, dos partes no conexas. De estas dos partes, la parte con determinante positivo es la “componente conexa con la identidad” de este grupo de transformaciones, mientras que la parte con determinante negativo es la “componente no conexa con la identidad”.
| |
3.2.2.
| |
| |
S´ımbolo alternante de Levi-Civita
En espacios tridimensionales, el s´ımbolo alternante de Levi-Civita ϵ ijk se define como el objeto dado en cualquier base por
ϵijk =
−
+1 si ij k es una permutaci´on par de 123 1 si ij k es una permutaci´on impar de 123 0 si hay alg´ un ´ındice repetido
(3.6)
Para deducir c´o mo se transforma este objeto bajo el cambio de base dado por la matriz C recordamos que, por definici´on, el determinante de C est´a dado por
|C | = C 1i C j2 C 3k ϵijk
(3.7)
Como las componentes de ϵ ijk son las mismas independientemente de la base encontramos ϵ˜ pqr = C −1 C pi C jq C rk ϵijk
| |
(3.8)
Por tanto el s´ımbolo ϵijk ser´ıa un tensor 3-covariante de no ser por el factor C −1 , de modo que ϵijk es un pseudotensor 3-covariante de peso 1. Por otra parte, ϵijk s´ı se transforma como un
−
| |
53
3.2. ESPACIOS ORIENTABLES
tensor 3-covariante bajo transformaciones ortogonales (C −1 = C T ) propias ( C = 1), es decir, bajo rotaciones de los ejes. An´ alogamente se define la versi´on 3-contravariante del s´ımbolo alternante de Levi-Civita como el objeto definido en cualquier base por
| |
ϵijk =
−
+1 si ij k es una permutaci´on par de 123 1 si ij k es una permutaci´on impar de 123 0 si hay alg´ un ´ındice repetido
(3.9)
Tal y como puede comprobarse f´acilmente ϵ ijk es un pseudotensor 3-contravariante de peso +1. Por otra parte, por su propia definici´on est´a claro que los s´ımbolos alternantes de Levi-Civita ϵ ijk y ϵijk son antisim´ etricos bajo permutaciones de cualquier par de ´ındices, y adem´as son is´otropos bajo cualquier cambio de base. El s´ımbolo alternante de Levi-Civita puede generalizarse al caso de n dimensiones por medio de la siguiente definici´on:
ϵi1 ...in = ϵ
i1 ...in
=
−
+1 si i 1 . . . in es una permutaci´on par de 1 . . . n 1 si i 1 . . . in es una permutaci´on impar de 1 . . . n 0 si hay alg´ un ´ındice repetido
(3.10)
Esta definici´on se aplica independientemente de la base que estemos empleando, de modo que ϵ i1 ...in y ϵ i1 ...in son antisim´etricos ba jo permutaci´ on de cualquier par de ´ındices e is´otropos. Por otra parte, por las propiedades de los determinantes tenemos que ϵ i1 ...in es una densidad tensorial n-covariante de peso 1, mientras que ϵ i1 ...in es una densidad tensorial n-contravariante de peso +1.
−
Tensor alternante de Levi-Civita
Al comienzo de este tema hemos visto que el determinante del tensor m´etrico ( g) es un pseudotensor de peso 2 y rango nulo. Suponiendo que g > 0, esto implica que g es un pseudotensor axial de peso 1, de tal forma que si formamos el producto gϵ ijk los comportamientos pseudotensoriales de peso opuesto se cancelan, resultando un tensor axial. Definimos entonces el objeto ε ijk
√
√
εijk
≡ √ gϵijk
(3.11)
como el tensor alternante de Levi-Civita . Claramente ε ijk es un tensor axial 3-covariante ε˜ pqr = s C pi C jq C rk εijk
(3.12)
An´ alogamente, por medio de la contracci´on con el tensor m´etrico dual de los 3 ´ındices de εijk encontramos la versi´on 3-contravariante de este objeto, dada por ε
ijk
ip jq kr
= g g g ε pqr
ϵijk = g
√
(3.13)
que se comporta bajo cambios de base como un tensor axial 3-contravariante. Estas definiciones pueden generalizarse al caso de n dimensiones de manera an´aloga. De todas formas nos centramos en el caso de 3 dimensiones por su especial relevancia, en particular para la definici´on tensorial del conocido producto vectorial de dos vectores, tal y como veremos a continuaci´ on.
CAP ´ ITULO 3. DENSIDADES TENSORIALES
54
3.3.
Producto vectorial en espacios tridimensionales
Los espacios tridimensionales son excepcionales, en el sentido en que son el ´unico caso en que el producto di´adico antisim´ etrico de dos vectores cualesquiera (dado por xy yx ) tiene el mismo n´ umero de componentes no nulas que los vectores habituales del espacio. A partir de las 3 componentes no nulas de xy yx puede definirse un vector axial del espacio dual ( ωi ), denominado producto vectorial de x por y ( ω = x y), tal que para cualquier vector z se tiene que ω z = ω i z i es el volumen del paralelep´ıpedo formado por los vectores x, y y z. Esto implica que el vector ω est´a orientado seg´ un la direcci´on normal al plano definido por los vectores x e y y que su norma es igual al ´area del paralelogramo definido por x e y. En general el producto di´adico antisim´ etrico de dos vectores, y por tanto tambi´ en el producto vectorial, est´a relacionado con el c´alculo de vol´ umenes y con la aplicaci´on de rotaciones infinitesimales. En el caso particular de espacios tridimensionales es mucho m´as habitual trabajar con el producto vectorial que con el producto di´adico antisim´etrico. En f´ısica se describen por medio de productos vectoriales muchas magnitudes relacionadas con rotaciones, como por ejemplo el momento de una fuerza, la velocidad angular, o el rotacional de un campo vectorial. Tal y como veremos a continuaci´ on, el producto vectorial de dos vectores se comporta como un verdadero vector s´olo bajo cambios de base con determinante positivo, pero es invariante bajo inversiones de los ejes, lo que lo convierte en un vector axial.
−
−
3.3.1.
×
·
Definici´ on de producto vectorial
Dados dos vectores x e y pertenecientes a un espacio vectorial con dimensi´on 3, el producto vectorial de x por y (denotado por x y ) se define como:
×
el vector perpendicular al plano formado por x e y, con m´odulo dado por la superficie del paralelogramo definido por los vectores x e y, y con sentido tal que la terna ordenada x, y , x
{
× y} tiene orientaci´on positiva.
Claramente, en dimensi´on 1 y 2 la anterior definici´on no es aplicable, mientras que en dimensi´on 4 (o mayor) el subespacio perpendicular al plano formado por x e y tiene dimensi´on 2 (o mayor) y por tanto esta definici´on no determina un vector, de modo que el producto vectorial es una operaci´on exclusiva de espacios vectoriales de 3 dimensiones. El producto exterior de p-formas proporciona la generalizaci´ on al caso n-dimensional, pero de momento consideraremos s´olo el producto vectorial habitual. Seg´ un la definici´on anterior la norma del producto vectorial est´a dada por
∥x × y∥ = ∥x∥∥y∥ sin xy
(3.14)
siendo xy el ´angulo formado por x e y. Por otra parte, la condici´ on que determina el sentido de x y implica la propiedad anticonmutativa del producto vectorial x y = y x, que a su vez 3 . Esta condici´ implica x x = 0 , x on tambi´ en implica que el producto vectorial permance invariante bajo una inversi´on de los ejes, es decir, bajo el cambio de base definido por la matriz con componentes C ji = δ ji , lo que convierte al producto vectorial en un vector axial.
×
×
∀ ∈ −
×
− ×
55
3.3. PRODUCTO VECTORIAL EN ESPACIOS TRIDIMENSIONALES
Propiedades del producto vectorial
El producto vectorial cumple las siguientes propiedades propiedad distributiva respecto a la suma de vectores en ambos argumentos x
× (y1 + y2) = x × y1 + x × y2
(x1 + x2 )
× y = x1 × y + x2 × y
(3.15)
(3.16)
propiedad asociativa respecto al producto por escalares
∀λ ∈
,
λ (x
× y) = (λx) × y = x × (λy)
(3.17)
propiedad anticonmutativa x
× y = −y × x
(3.18)
identidad de Jacobi : El producto vectorial no es asociativo, pero cumple la identidad de Jacobi
× (y × z) + y × (z × x) + z × (x × y) = 0 (3.19) Obs´ervese que si x, y y z son vectores polares, entonces x × (y × z ) tambi´en es un vector x
polar, ya que es el producto vectorial de un vector polar por un vector axial. El producto vectorial de dos vectores cambia el car´acter axial/polar de manera contraria a como lo hace el producto tensorial. Es decir, el producto vectorial de dos vectores polares (o de dos vectores axiales) genera un vector axial, mientras que el producto vectorial de dos vectores de paridades opuestas genera un vector polar.
De las propiedades anteriores se deduce que el producto vectorial tambi´en cumple las siguientes propiedades interesantes (3.20) a (b c) = b (c a) = c (a b)
· × · × · × a × (b × c) = b (a · c) − c (a · b) (a × b) × c = b (a · c) − a (b · c)
(3.21) (3.22)
(a
× b) · (c × d) = (a · c) (b · d) − (a · d) (b · c) (a × b) × (c × d) = c (a · (b × d)) − d (a · (b × c)) = b (a · (c × d)) − a (b · (c × d))
(3.23) (3.24)
Definici´ on tensorial de producto vectorial
Dado que el producto vectorial es lineal, para calcular el producto vectorial de 2 vectores cualesquiera basta con conocer la tabla de productos vectoriales de los vectores de la base. En el caso habitual de 3 con m´etrica Eucl´ıdea y coordenadas cartesianas, aplicando directamente la definici´on de producto vectorial encontramos las conocidas relaciones i
× j = k ,
k
× i = j ,
j
× k = i
(3.25)
En ese caso, esta informaci´on junto con la propiedad anticonmutativa es suficiente para calcular el producto vectorial de cualquier par de vectores. Pero
CAP ´ ITULO 3. DENSIDADES TENSORIALES
56
⋆ ¿c´ omo podemos calcular el producto vectorial en coordenadas arbitrarias y con m´ etrica no necesariamente Eucl´ıdea? En algunos textos se cita sin mayor justificaci´o n la f´ormula que permite calcular productos vectoriales en coordenadas arbitrarias (Ec. (3.27), equivalentemente Ec. (3.28)), sin embargo resulta instructivo deducir esta f´ormula a partir de la definici´on, tal y como se muestra a continuaci´on. Como ya hemos dicho m´as arriba, dado que este producto es lineal basta conocer la tabla de productos vectoriales de los vectores de la base, independientemente de la m´ etrica y de la base que estemos empleando. Consideremos entonces el producto vectorial de los vectores ei por e j , pertenecientes a una base arbitraria e1 , e2 , e3 . Suponiendo que i = j (en caso contrario el producto es nulo), aplicando la definici´ on vemos que el producto e i e j ser´a proporcional a e k , con k = i y k = j, de esta forma garantizamos las relaciones de ortogonalidad ( ei e j ) ei = (ei e j ) on debe cumplir ei e j . Suponiendo que ij k forman una permutaci´on con e j = 0, que por definici´ paridad positiva de 123, podemos escribir ei e j = ω ek , donde ω es un n´umero positivo. Para calcular ω imponemos ωek = ei e j sin α, siendo α el ´angulo formado por ei y e j . Elevando esta relaci´on al cuadrado y aplicando cos2 α + sin2 α = 1 encontramos
{
̸
̸
}
×
∥ ∥ ∥ ∥∥ ∥
×
̸
× ·
× ·
×
g g ω = g ii g ij /g kk ji jj 2
donde hemos aplicado las definiciones de tensor m´etrico y tensor m´etrico inverso. Pero el elemento g kk de la inversa del tensor m´etrico est´a dado precisamente por el menor que resulta de suprimir la fila y la columna con ´ındice k en dicha matriz, dividido por el determinante ( g) g
kk
g g = g ii g ij /g ji jj
√
ya que estamos suponiendo que ijk son una permutaci´on par de 123. Entonces ei e j = gek para cualquier combinaci´on de ´ındices ijk dada por una permutaci´on par de 123. Como el producto vectorial es antisim´etrico esta relaci´on puede escribirse como ei
× e j = √ gϵijk ek = εijk ek
×
(3.26)
que es v´alida para cualquier valor de i, j y k. A partir de esta relaci´on el producto vectorial de 2 vectores cualesquiera x e y puede calcularse por medio de x
× y = (x j e j ) × (yk ek ) = εijk x j yk ei
(3.27)
independientemente de la base y m´etrica consideradas. A la vista de este resultado es evidente que las coordenadas del producto vectorial de dos vectores definen un vector axial 1-covariante, ya que est´an dadas por la contracci´on del tensor axial 3-covariante ε ijk con el tensor absoluto 2-contravariante x j yk x
3.3.2.
× y = ωiei,
ωi = ε ijk x j yk
(3.28)
C´ alculo de vol´ umenes
Como consecuencia directa de la definici´on del producto vectorial, est´a claro que (x y ) z es igual al volumen del paralelep´ıpedo definido por estos 3 vectores en 3 . Por tanto, como aplicaci´ on
× ·
57
3.3. PRODUCTO VECTORIAL EN ESPACIOS TRIDIMENSIONALES
directa de Ec. (3.27) vemos que el volumen del paralelep´ıpedo definido por los vectores x, y y z puede escribirse como V = (x
× y) · z = √ gϵijk zix j yk =
independientemente del sistema de coordenadas empleado.
√
x1 x2 x3 g y 1 y2 y3 z1 z2 z3
(3.29)
Vector normal a una superficie
En particular, si t1 y t2 representan dos vectores ortonormales tangentes a una superficie definida en 3 , su producto vectorial n = t 1 t2 es un vector unitario normal a dicha superficie. Claramente, las dos orientaciones posibles del vector normal a una superficie dada corresponden a definir esta como n = t 1 t2 o como n = t 2 t1 .
×
×
3.3.3.
×
Rotaciones infinitesimales
Como es bien sabido, el producto vectorial est´a relacionado con rotaciones infinitesimales en 3 dimensiones. En general cualquier rotaci´on en un espacio n-dimensional est´a dada por un elemento del grupo especial ortogonal SO(n), definido como la componente con determinante +1 del grupo de aplicaciones ortogonales en n dimensiones O(n) (es decir, la componente conexa con la identidad de O(n)). Consideremos una rotaci´o n de ´angulo infinitesimal dα en 3 dimensiones, claramente esta aplicaci´on estar´ a dada por una cierta matriz ortogonal R(dα). Dado que rotamos un ´angulo infinitesimal, el resultado de aplicar esta rotaci´on sobre cualquier vector x ser´a igual al vector de partida mas una peque˜ na variaci´ on R(dα)x = x + dx
(3.30)
por tanto la aplicaci´ on R(dα) es igual a la identidad mas una peque˜na perturbaci´ on proporcional al ´angulo dα, que definimos como Adα R(dα) =
+ Adα
Por definici´on esta aplicaci´on es ortogonal, de modo que ( + Adα)−1 = cuencia, despreciando t´erminos del orden de (dα)2 encontramos
(3.31) + AT dα. Como conse-
A + AT = 0
(3.32)
(por simplicidad en este apartado consideramos s´olo espacios con m´etrica Eucl´ıdea) de modo que A es una aplicaci´on antisim´etrica. En un espacio tridimensional A s´ olo tendr´ a 3 componentes no nulas. Si suponemos que la rotaci´on R(dα) corresponde a una rotaci´o n de ´angulo dα = ωdt, donde t representa el tiempo y ω la velocidad angular, y definimos las 3 componentes no nulas de A como dα A = dt
�
� −
0 ω3 ω2 ω3 0 ω1 ω2 ω1 0
−
−
(3.33)
vemos que la velocidad con la que var´ıa x est´a dada por dx = (Adα) x = (ω
× x) dt,
es decir
≡ ddtx = ω × x
v
(3.34)
donde el vector axial ω, dado por las componentes ω 1 , ω 2 , ω 3 , est´a orientado seg´ un el eje de giro y su norma es igual a la velocidad angular ω = dα/dt.
CAP ´ ITULO 3. DENSIDADES TENSORIALES
58
3.4.
Introducci´ on al producto exterior de p-formas
A continuaci´ on presentamos algunos comentarios referentes al importante tema del c´ alculo exterior en variedades diferenciables. Este apartado queda fuera del principal hilo de discusi´on, y puede omitirse sin p´erdida de continuidad en la exposici´on. El producto vectorial s´olo est´a definido para el caso de espacios tridimensionales, pero ⋆ ¿existe alg´ un producto que generalice esta operaci´on al caso de n dimensiones? La respuesta es afirmativa, pero para definir esta generalizaci´on, dada por el producto exterior de p-formas, debemos considerar objetos distintos de los familiares vectores. La expresi´on del producto vectorial Ec. (3.27) contiene la contracci´on del tensor x j yk con el tensor antisim´etrico en todos sus ´ındices εijk . Si descomponemos el tensor x j y k en sus partes sim´etrica y antisim´etrica
�
� �
1 j k 1 j k x y = x y + xk y j + x y 2 2 j k
k j
−x y
�
(3.35)
es evidente que s´olo la parte antisim´etrica produce una contribuci´on no nula en Ec. (3.27), de forma que las componentes ω i del producto vectorial pueden escribirse como ωi =
1 gϵ ijk ω jk 2
√
(3.36)
donde hemos definido el tensor absoluto 2-contravariante totalmente antisim´etrico ω jk como ω jk
≡ x j yk − xk y j
(3.37)
Como consecuencia vemos que, esencialmente, el producto vectorial de dos vectores x e y est´a relacionado con el producto tensorial antisimetrizado de dichos vectores, dado por x y y x, con componentes x j y k xk y j . Este producto se denomina producto exterior , y se suele denotar por el s´ımbolo (en la literatura en ingl´es suele denominarse exterior product o wedge product ). En espacios n-dimensionales los tensores totalmente antisim´etricos (es decir, antisim´etricos en todos sus ´ındices, como ω jk ), junto con la operaci´on de producto exterior (dado por el producto tensorial antisimetrizado en todos los ´ındices) definen un ´algebra, llamada ´ algebra exterior o ´ algebra de Grassmann . Las relaciones de simetr´ıa que cumplen los tensores totalmente antisim´etricos hacen que un tensor antisim´etrico de rango p, que en principio tiene n p componentes respecto de la base ei1 eip , pueda describirse por medio de un n´umero reducido de componentes respecto de la base ei1 eip , donde los ´ındices i1 . . . i p cumplen la relaci´on i1 < i2 < . . . < in−1 < i p . Esto se debe a que (debido a la anti-simetr´ıa del tensor) todas las componentes no incluidas en este conjunto o bien son nulas, o bien pueden escribirse en funci´on dicho conjunto. Las componentes de los tensores antisim´ etricos respecto de la base ei1 eip (con i 1 < .. . < i p ) forman el conjunto de componentes m´ınimo necesario para manejar este tipo de objetos, y se denominan componentes estrictas . Por ejemplo, en 3 dimensiones las componentes estrictas de w jk son ω 12 ω 13 y ω 23 , ya que todas las restantes son, o bien nulas, o bien iguales a estas multiplicadas por 1. Las densidades tensoriales de rango p totalmente antisim´etricas descritas por medio de sus componentes estrictas, cumplen todas las propiedades necesarias para formar un espacio vectorial. Los elementos de este espacio vectorial se denominan p-formas. El n´ umero de componentes estrictas que tiene un tensor totalmente antisim´etrico de rango p en un espacio de n dimensiones est´a dado por el n´ umero de
∧
⊗ − ⊗
−
∧
⊗···⊗ ∧ · · · ∧
∧···∧
−
59
3.5. PROBLEMAS
formas en que podemos escoger p objetos sin repetici´on, de un conjunto de n objetos, es decir, por el coeficiente binomial n n! = p p!(n p)!
��
−
por tanto las p-formas definidas sobre un espacio n-dimensional pertenecen a un espacio vectorial de pn dimensiones (obs´ervese que no puede haber tensores antisim´etricos no nulos de rango mayor que n). En vista de la simetr´ıa de los coeficientes binomiales
(
�� � � n p
=
n
n
− p
el espacio de p-formas es isomorfo al de (n p)-formas. El isomorfismo “ ” que relaciona ambos espacios (y que cumple que A x = ( A)x) se conoce como operaci´on de Hodge, de manera que dos formas relacionadas por esta operaci´ on son Hodge-duales. En espacios tridimensionales la relaci´on Ec. (3.36) entre la 1-forma ω i y la 2-forma ω jk es un ejemplo de este tipo de dualidad, de manera que el producto vectorial de dos vectores x e y es el Hodge-dual de su producto exterior, y viceversa
∗
x
−
× y = ∗ (x ∧ y) ,
∗
x
∗
∧ y = ∗ (x × y)
(3.38)
La gran diferencia es que el producto vectorial s´olo est´ a definido para el caso de espacios de 3 dimensiones, mientras que el producto exterior es aplicable en cualquier dimensionalidad. El producto exterior de 2 vectores generaliza al caso n-dimensional el producto vectorial y, an´alogamente a como sucede con el producto vectorial, est´a relacionado con el c´alculo de vol´ umenes y con rotaciones infinitesimales. En un espacio de n dimensiones el producto exterior de 2 vectores tiene una dimensionalidad igual a n2 = n(n2−1) , que coincide con la dimensionalidad n del espacio s´olo para el caso n = 3, que resulta por tanto excepcional. En espacios de dimensionalidad distinta a 3 no puede definirse el producto vectorial, ya que en esos casos la dimensionalidad de x y no se corresponde con la de un vector. De acuerdo a la dimensionalidad de x y tenemos que (ver tabla 3.2) en 1 dimensi´ on no puede haber rotaciones, mientras que en 2 dimensiones basta con un escalar para describir cualquier rotaci´on (dado por el ´angulo que rotamos) y en 3 dimensiones es necesario emplear un vector, cuyas componentes describen la orientaci´on del eje de rotaci´o n y el ´angulo que rotamos. Finalmente, el n´umero de grados de libertad de las rotaciones en espacios de dimensionalidad n > 3 aumenta de manera cuadr´atica con n. De la misma forma que ( x y ) z nos da el volumen del paralelep´ıpedo definido por estos 3 vectores en 3 , el producto exterior tambi´en est´a relacionado con el c´alculo de vol´ umenes en variedades diferenciables de dimensi´on arbitraria. El estudio de aplicaciones relacionadas con rotaciones infinitesinales o con integraci´on en variedades diferenciables de dimensi´on arbitraria suele hacerse en el contexto de ´algebras de Grassmann, por medio del c´alculo exterior. El c´alculo exterior resulta m´as potente que el c´alculo tensorial para todo lo relacionado con manipulaci´on de tensores antisim´etricos, ya que aprovecha al m´aximo las relaciones de (anti-) simetr´ıa caracter´ısticas de estos objetos. Por supuesto que para poder hacer un uso ventajoso del c´alculo exterior es necesario estar familiarizado previamente con el c´alculo tensorial.
(
∧
∧
× ·
3.5.
Problemas
1. Calcule la matriz del cambio de base correspondiente a intercambiar dos vectores cualesquiera de la base can´onica en n dimensiones ¿qu´e determinante tiene esta matriz de cambio de base?
CAP ´ ITULO 3. DENSIDADES TENSORIALES
60 n
( n 2
1
2
3
4
5
...
0
1
3 6
10
...
Cuadro 3.2: Dimensionalidad del producto exterior de dos vectores en funci´on de la dimen-
sionalidad (n) del espacio vectorial al que pertenecen.
2. Repita el ejercicio anterior para el caso de una permutaci´ on con paridad positiva de los vectores de la base. 3. Repita el ejercicio anterior para el caso de una permutaci´ on con paridad negativa.
√ g es un pseudo-tensor axial de peso 1. √ 5. Demostrar que 1/ g es un pseudo-tensor axial de peso −1. 4. Demostrar que
6. Demostrar que ϵ ijk es un pseudotensor 3-contravariante de peso 1.
√ gϵijk es un tensor axial 3-covariante. √ 8. Demostrar que ε ijk = g ip g jq g kr ε pqr est´a dado por ϵ ijk / g. √ 9. Demostrar que ε ijk = ϵ ijk / g es un tensor axial 3-contravariante. 7. Demostrar que ε ijk =
10. Demostrar que el producto vectorial de un vector axial por un vector polar produce un vector polar. 11. Verifique que se cumplen todas las propiedades generales del producto vectorial (Ec. (3.15)– Ec. (3.24)) usando un sistema de coordenadas arbitrarias.
3.6.
Bibliograf´ıa
Este cap´ıtulo se basa principalmente en el texto de Bowen y Wang [2], junto con los de Lichnerowicz [10] y Bishop y Goldberg [1]. Para mayor profundidad sobre p-formas y c´alculo exterior se recomienda el texto de Frankel [7].
Cap´ıtulo 4
Campos tensoriales El c´alculo tensorial es relevante en f´ısica por sus aplicaciones en teor´ıas de campos , es decir, teor´ıas donde las variables f´ısicas pueden representarse por medio de funciones del espacio y el tiempo. Este tipo de descripci´on de la realidad apareci´o con la teor´ıa de la gravitaci´ on de Newton (1643–1727) y se extendi´ o considerablemente a lo largo del s:xix con el electromagnetismo de Maxwell (1831–1879) y las ecuaciones de Navier-Stokes para la mec´anica de fluidos (Euler (1707– 1783), Lagrange (1736–1813), Navier (1785–1836), Stokes (1819–1903), etc.). Desde inicios del s:xx este tipo de descripci´on del mundo f´ısico tambi´ en se ha aplicado en relatividad (Einstein (1879– 1955)) y en mec´anica cu´antica (Schr¨ odinger (1887–1961), Heisenberg (1901–1976), etc.). Generalmente los campos tensoriales se definen sobre conjuntos de puntos que no cumplen todas las propiedades necesarias como para formar un espacio vectorial, pero que localmente s´ı tienen una estructura similar a un espacio vectorial. Este tipo de conjuntos se denominan variedades (manifolds en la literatura en ingl´es). Normalmente trabajaremos con variedades diferenciables , es decir, variedades lo suficientemente regulares como para que en ellas sea posible definir operaciones de c´alculo, como derivadas e integrales. Cuando se habla de un campo tensorial definido sobre una variedad diferenciable, , se da por hecho que cada punto r es el origen de un espacio vectorial denominado espacio tangente , definido como la envolvente lineal de las tangentes en r a todas las curvas contenidas en que pasen por r . El espacio tangente a en r es, por tanto, el espacio definido por todas las direcciones posibles que podemos tomar para pasar por dicho punto sin salirnos de la variedad. El conjunto de los espacios tangentes definidos sobre todos los puntos de la variedad forma el fibrado tangente . Cada espacio tangente tiene su correspondiente espacio dual, denominado espacio co-tangente, y la colecci´on de espacios cotangentes que obtenemos al recorrer toda la variedad forma el fibrado cotangente . El producto tensorial de s copias de cada espacio tangente por r copias de su dual genera una familia de espacios producto tensorial definidos sobre la variedad de partida como funci´on del punto. A este espacio producto tensorial es al que pertenecen los tensores r-covariantes s-contravariantes definidos sobre la variedad como campos tensoriales.
∈
En este cap´ıtulo comenzaremos con una breve introducci´on a las variedades diferenciables y los espacios tangente y cotangente. Veremos las parametrizaciones que se emplean para describir las variedades y las bases a que estas dan lugar en los fibrados tangente y cotangente. Finalmente extenderemos los conceptos definidos en los cap´ıtulos precedentes al caso de campos tensoriales en variedades diferenciables. 61
CAP ´ ITULO 4. CAMPOS TENSORIALES
62
4.1.
Variedades diferenciables
Con mucha frecuencia los espacios sobre los que se definen los campos tensoriales de inter´ es en f´ısica no cumplen todas las propiedades necesarias para ser espacios vectoriales, sino que son espacios con una estructura m´as general, conocidos como variedades diferenciables . ⋆ ¿Qu´e es una variedad diferenciable? Una variedad n-dimensional es cualquier colecci´on de puntos localmente similar a un espacio vectorial de n dimensiones. En esta definici´on “localmente” significa en un cierto entorno alrededor de cualquier punto de la variedad y “similar” quiere decir topol´ ogicamente equivalente . Para entender esta definici´on es necesario entender qu´e significa ser “topol´ogicamente equivalente”. Dos conjuntos de puntos son topol´ogicamente equivalentes cuando se puede definir entre ellos una funci´on continua con inversa continua que transforme un conjunto en el otro. Por ejemplo, una esfera es topol´ogicamente equivalente a un cubo porque podemos deformar una esfera para hacerla coincidir con un cubo (y viceversa) de manera continua (ver, p. ej., Fig. 4.1). Por el contrario, una esfera no es equivalente a un toro, ya que para convertir la esfera en un toro es necesario introducir un corte en la esfera, lo cual no cumple la condici´on de continuidad. Un toro, por su parte, es topol´ ogicamente equivalente a una rosquilla (con un ´unico agujero), o a cualquier objeto con una sola asa, como por ejemplo una taza.
on continua de una esfera en un cubo. Figura 4.1: Deformaci´
Dos conjuntos son topol´ogicamente equivalentes cuando podemos convertir uno en otro y viceversa de manera continua, es decir, mediante deformaciones pero sin introducir “cortes” ni “pegar” regiones que no estuviesen inicialmente en contacto, ya que esto ´ultimo implica introducir un corte en la funci´on inversa. La condici´on de continuidad impone que dos puntos pr´oximos en el conjunto de partida (es decir, que pertenezcan a un cierto entorno en el conjunto de partida), est´ en tambi´ en pr´ oximos en el conjunto de llegada, lo cual no se cumple si la funci´on de transformaci´ o n (o su inversa) introduce cortes. La condici´on de continuidad tambi´en presupone que los dos conjuntos de puntos considerados son espacios topol´ ogicos , es decir, espacios en los que se pueden definir nociones como proximidad y continuidad. Las transformaciones continuas con inversa continua entre espacios topol´ ogicos se denominan homeomorfismos . Una variedad n-dimensional puede definirse, por tanto, como un espacio topol´ogico que admite un sistema de coordenadas n-dimensional en un cierto entorno abierto de cada punto. Desde el punto de vista topol´ogico una variedad n-dimensional es localmente id´entica al correspondiente espacio vectorial de n dimensiones ( n en la mayor´ıa de los casos). Es decir, cada entorno de la variedad puede deformarse de manera continua hasta hacerlo coincidir con el correspondiente
63
4.1. VARIEDADES DIFERENCIABLES
Figura 4.2: Ejemplos de variedades monodimensionales contenidas en el plano.
entorno del espacio vectorial y viceversa. La gran diferencia es que, en general, esta correspondencia (homeomorfismo) entre la variedad y el espacio vectorial s´olo puede definirse localmente, pero no globalmente, de forma que globalmente considerada la variedad puede no ser topol´ ogicamente equivalente a ning´ un espacio vectorial. Otra diferencia importante es la m´etrica: en general la distancia entre dos puntos de la variedad medida a lo largo de la variedad ser´a diferente de la distancia entre estos dos puntos medida a lo largo del espacio vectorial al que esta variedad es localmente equivalente, ya que en general los homeomorfismos introducen deformaciones que no conservan las distancias. En particular esto suceder´ a siempre que consideremos variedades dotadas de cierta curvatura localmente homeomorfas al espacio Eucl´ıdeo n , que es plano. Esto es lo que sucede p. ej. en los mapas terrestres. Al hacer corresponder una superficie esf´erica con una regi´on del plano, el mapa no solo introduce un factor de escala, sino tambi´en una distorsi´on en las distancias, y por tanto tambi´ en en las ´areas. Muchos mapas terrestres se basan en la proyecci´on Mercator, que introduce una distorsi´on creciente a medida que nos alejamos del ecuador, que finalmente se traduce en que las regiones pr´oximas a los polos tengan sobre el mapa un tama˜ no aparente muy superior al real. Dependiendo de la funci´on de proyecci´on empleada las regiones distorsionadas ser´an distintas y tambi´en el tipo de distorsi´on introducida, pero sea cual sea el tipo de proyecci´on, siempre que representemos una superficie con curvatura en un mapa plano habr´a regiones distorsionadas. 4.1.1.
Curvas y superficies
Las variedades n-dimensionales aparecen de manera natural al generalizar a n dimensiones los conceptos de curva y superficie (variedad uni- y bi-dimensional respectivamente). Una curva contenida en cualquier espacio proporciona el ejemplo no trivial m´as sencillo de variedad. Por ejemplo la recta real, o la gr´afica de cualquier funci´on y = y(x) son variedades unidimensionales. Con frecuencia el conjunto de puntos ( x, y) que cumple una ecuaci´on tipo f (x, y) = 0 para una cierta funci´ on de dos variables f forma una variedad unidimensional (Fig. 4.2). Esto incluye tanto los casos en que podemos despejar una variable en funci´on de la otra de manera expl´ıcita y univaluada (p. ej. ax + by + c = 0 implica que y = (ax + c) /b) como aquellos casos en los que esto no es posible, bien porque la forma funcional de f no lo permite o bien porque al despejar una variable en funci´on de la otra obtenemos una funci´ on multivaluada . Por ejemplo, la soluci´on 2 2 2 de x + y R = 0 es una circunferencia de radio R centrada en el origen, pero si despejamos y 1/2 en funci´on de x encontramos la funci´on bi-valuada y = R2 x2 . Muchas variedades unidi-
−
−
±
(−
CAP ´ ITULO 4. CAMPOS TENSORIALES
64
mensionales se definen como las curvas de nivel de funciones de dos variables f (x, y), dadas por los puntos del plano que cumplen f (x, y) = k, lo cual puede visualizarse como la intersecci´on entre la superficie z = f (x, y) y el plano z = k. Aunque cualquier variedad unidimensional contenida en el plano puede definirse como el con junto de puntos que cumple una relaci´on tipo f (x, y) = 0, el rec´ıproco no es cierto. Dependiendo de la funci´on f considerada hay casos en los que la ecuaci´on anterior no define una variedad unidimensional, p. ej., dada la funci´on “plana” f (x, y) = a (que a cualquier punto (x, y) le hace corresponder el n´ umero constante a, siendo a un n´ umero real arbitrario), el conjunto de puntos que cumple f (x, y) = 0 es el conjunto vac´ıo para cualquier valor de a, excepto para a = 0 en cuyo caso obtenemos todo el plano. En los ejemplos anteriores nos hemos centrado en curvas planas, pero tambi´ en existen curvas que no est´an contenidas en un plano, sino que recorren espacios de dimensionalidad superior. Por ejemplo, las ecuaciones param´etricas x = R cos θ,
y = R sin θ,
definen una espiral infinita de radio R contenida en
z = θ,
θ
∈
3.
⋆ En general una variedad unidimensional es cualquier conjunto de puntos tal que que en un entorno de cada punto pueda parametrizarse por medio de un ´unico par´ ametro. Las superficies proporcionan el siguiente ejemplo interesante de variedad. De manera an´aloga al caso unidimensional, la gr´a fica de una funci´on de 2 variables, z = f (x, y), es una variedad bidimensional. Con mucha frecuencia las superficies de nivel de las funciones de 3 variables, dadas por la soluci´on de f (x,y,z) = k, o el conjunto de puntos de 3 definido por una relaci´on del tipo f (x,y,z) = 0, forman variedades bidimensionales (v´ease Fig. 4.3). Por ejemplo, dada la funci´ on 2 2 2 f (x,y,z) = x + y + z , las superficies de nivel de esta funci´on son superficies esf´ ericas de radio 1/2 k centradas en el origen. Este ejemplo tambi´ en es interesante para observar que, en general, una superficie cualquiera considerada globalmente no ser´a topol´ogicamente equivalente a 2 , pero localmente s´ı, ya que si nos fijamos en un entorno suficientemente peque˜no alrededor de cualquier punto de la superficie tenemos un conjunto de puntos bastante similar (es decir, topol´ogicamente equivalente) al correspondiente entorno en 2 . En los ejemplos anteriores hemos mencionado variedades bidimensionales contenidas en un espacio tridimensional, pero an´alogamente a como suced´ıa con las curvas, una variedad bidimensional no tiene porqu´e estar contenida en 3 , sino que puede ocupar un espacio de dimensionalidad superior. ⋆ Una variedad bidimensional se define como cualquier conjunto de puntos que pueda parametrizarse (al menos localmente) por medio de dos par´ametros. Con mucha frecuencia el conjunto de puntos que forma una variedad se define como el conjunto de puntos de un cierto espacio de variables que cumple una determinada condici´on, dada por una ecuaci´ on o sistema de ecuaciones. Por ejemplo, la s-esfera de radio unidad es la hipersuperficie s-dimensional dada por el conjunto de puntos de s+1 que cumple
( x1
2
+
··· +
( xs+1
2
= 1.
El concepto de variedad es muy general: una variedad no tiene por qu´ e ser necesariamente conexa, tampoco tiene por qu´e ser cerrada o finita. Por ejemplo, el conjunto de puntos de 2 que cumple la ecuaci´on xy = 1 es una hip´ erbola, con dos ramas no conexas cada una de ellas con extensi´ on infinita; el conjunto de puntos de 2 que cumple la ecuaci´on y x2 (y + 1) = 0 est´a formado por dos curvas, la par´ abola y = x 2 y la recta y = 1.
−
( − ·
65
4.1. VARIEDADES DIFERENCIABLES
Figura 4.3: Ejemplos de variedades bidimensionales contenidas en
3
. En la imagen central se ha representado tambi´en el plano z = 1 y en la u ´ ltima el plano z = 0.
4.1.2.
Geometr´ıa intr´ınseca y extr´ınseca
En el estudio de variedades diferenciables existen dos puntos de vista opuestos: o bien podemos considerar la variedad de manera abstracta, sin hacer referencia a ning´un espacio de dimensionalidad superior donde pueda estar contenida, o bien podemos considerar que la variedad es un subconjunto de un cierto espacio ambiente que la contiene. Las propiedades que pueden estudiarse sin hacer referencia a ning´un espacio ambiente dependen exclusivamente de la variedad y se denominan propiedades intr´ınsecas y su estudio geometr´ıa intr´ınseca de la variedad. Por el contrario, las propiedades para cuyo estudio es necesario considerar a la variedad como parte de un espacio ambiente se denominan propiedades extr´ınsecas , ya que no s´olo dependen de la variedad sino tambi´ en del espacio ambiente. Desde el punto de vista matem´atico la geometr´ıa intr´ınseca es especialmente relevante. En general la dimensionalidad de una variedad es una propiedad intr´ınseca; en el caso de una curva su longitud es una propiedad intr´ınseca, pero no lo son su curvatura o torsi´ on; en cuanto a las variedades bidimensionales, en la segunda parte del curso veremos que la primera forma fundamental (que determina medidas de longitudes, ´angulos y ´areas sobre una superficie) es una propiedad intr´ınseca, as´ı como la curvatura de Gauss (que determina localmente la forma de una superficie). El punto de vista intr´ınseco es el que se adopta en relatividad general para estudiar la geometr´ıa del espaciotiempo (su curvatura etc.), sin hacer referencia a un hipot´etico espacio de dimensionalidad superior que lo contenga, lo cual resultar´ıa muy artificial. De todas formas tambi´ en existen multitud de problemas en f´ısica en los que es relevante el punto de vista extr´ınseco, que resulta m´as sencillo e intuitivo. De hecho, en el desarrollo de la geometr´ıa diferencial el punto de vista extr´ınseco fue el primero que se consider´o. Desde el punto de vista extr´ınseco una variedad diferenciable n-dimensional puede definirse como el conjunto de puntos de un cierto espacio vectorial de n + r dimensiones (p. ej. n+r ) que
CAP ´ ITULO 4. CAMPOS TENSORIALES
66 cumple un cierto sistema de r ecuaciones impl´ıcitas
(( (
f 1 x1 , x2 , . . . , xn+r = 0 f 2 x1 , x2 , . . . , xn+r = 0 ...
...
...
f r x1 , x2 , . . . , xn+r = 0
(4.1)
donde las r funciones f i anteriores son independientes entre s´ı y cumplen ciertas propiedades adicionales. Por ejemplo, dos condiciones f (x,y,z) = 0 y g (x,y,z) = 0 en 3 determinan una curva, dada por la intersecci´on de las superficies definidas por cada una de estas condiciones. Es evidente que el conjunto de puntos definido por un sistema como el anterior (Eq. (4.1)) no siempre define una variedad. Por ejemplo, el conjunto de puntos de 2 que cumplen la condici´on xy = 0 est´a dado por los ejes x e y, este conjunto no es una variedad 1-dimensional, ya que cualquier entorno abierto que contenga el origen no es topol´ogicamente equivalente a un entorno de la recta o a ning´ un espacio vectorial. ⋆ ¿Qu´e condiciones debe cumplir el sistema Ec. (4.1) para definir una variedad?
{
}
Supongamos que el punto x0 = x10 , x20 , . . . , xn+r cumple el sistema Ec. (4.1) y que las r 0 funciones f i son (1) continuas y (2) diferenciables en un entorno de x0 . Entonces, seg´ u n el teorema de la funci´on impl´ıcita el sistema Ec. (4.1) define una variedad n-dimensional, al menos en un cierto entorno de x0 , si y s´olo si (3) el rango de la matriz jacobiana del sistema (J )
J =
∂f 1 ∂x 1
...
∂f 1 ∂x n
∂f 1 ∂x n+1
...
∂f 1 ∂x n+r
...
...
. ..
...
...
...
∂f r ∂x 1
...
∂f r ∂x n
∂f r ∂x n+1
...
∂f r ∂x n+r
(4.2)
en el punto x0 es r. Si se cumple esta condici´on el teorema de la funci´on impl´ıcita garantiza que, al menos en un cierto entorno de x0 , podemos despejar r variables en funci´on de las restantes n
(( (
xn+1 = x n+1 x1 , . . . , xn xn+2 = x n+2 x1 , . . . , xn ...
...
...
...
xn+r = x n+r x1 , . . . , xn
(4.3)
donde hemos tomado las r variables que podemos despejar como las r u ´ ltimas. De esta forma en un entorno de x0 los puntos de n+r que cumplen el sistema Ec. (4.1) pueden parametrizarse en t´erminos de las coordenadas x1 , . . . , xn , y por tanto en dicho entorno constituyen una variedad n-dimensional. Si estas 3 condiciones se cumplen en un cierto entorno de todos los puntos x0 que verifican el sistema Ec. (4.1), entonces esta colecci´on de condiciones define una variedad diferenciable ndimensional contenida en n+r . De hecho, aproximando en Ec. (4.1) cada f i por su desarrollo en serie de Taylor hasta orden 1 en torno a x0 , es muy sencillo demostrar que la condici´on necesaria para poder despejar
{
}
67
4.1. VARIEDADES DIFERENCIABLES
{
}
{
}
xn+1 , . . . , xn+r como funci´on de las restantes x1 , . . . , xn en un entorno del punto x0 es precisamente que la matriz
∂f 1 ∂x n+1
...
∂f 1 ∂x n+r
...
...
...
∂f r ∂x n+1
...
∂f r ∂x n+r
(4.4)
sea invertible. El mismo razonamiento que acabamos de emplear puede repetirse suponiendo que el espacio en el que est´a definido el sistema Ec. (4.1) no es un espacio vectorial, sino una variedad n + rdimensional parametrizada (localmente) por unas coordenadas x i . En ese caso, cuando se cumplen las condiciones (1), (2) y (3) el sistema Ec. (4.1) define una sub-variedad . Codimensi´ on e hipersuperficies
Dada una variedad n-dimensional contenida en un espacio vectorial N -dimensional, se define la co-dimensi´ on de la variedad como la diferencia N n. En el caso de una variedad definida por un sistema de ecuaciones como el anterior (Eq. (4.1)) la co-dimensi´on est´a dada por el n´ umero de restricciones que define la variedad dentro del espacio ambiente. De manera an´ aloga al caso de una superficie contenida en 3 , que es una variedad de codimensi´ on 1, se denomina hipersuperficie a cualquier variedad n-dimensional contenida en un espacio de n + 1 dimensiones, es decir, cualquier variedad de codimensi´ on 1, y se denomina hiperplano a cualquier hipersuperficie con curvatura nula.
−
4.1.3.
Ejemplos de variedades en f´ısica
En f´ısica constantemente manejamos ecuaciones que dan lugar a variedades definidas en el espacio de variables del sistema. En algunos casos estas variedades pueden tener una estructura sencilla, en otros puede ser muy complicada y en cualquier caso ser´an dif´ıciles de visualizar si la dimensionalidad es alta. Todas las ramas de la f´ısica proporcionan ejemplos interesantes de variedades. Por ejemplo, en mec´anica de fluidos tenemos las l´ıneas de corriente de un campo de velocidades v = vx , vy , vz , dadas por la soluci´on de
{
}
dx dy dz = = vx vy vz Cada l´ınea de corriente es una variedad uni-dimensional contenida en 3 ; en electromagnetismo tenemos las superficies equipotenciales de un campo el´ectrico (dadas por V (x,y,z) = k), que definen una familia de variedades bi-dimensionales. A nada que pensemos en ello est´a claro que surgen multitud de ejemplos. Veamos algunos ejemplos de variedades en mec´anica cl´asica y termodin´ amica. Mec´ anica cl´ asica
Para visualizar de manera global el comportamiento de sistemas mec´anicos suele emplearse el plano de fases , definido como el conjunto de todas las trayectorias posibles en el espacio de posiciones r y momentos lineales p = m dr /dt del sistema. En el caso de sistemas conservativos las trayectorias en el plano de fases est´an dadas por los puntos (r, p) que cumplen la ecuaci´on de conservaci´on de la energ´ıa K + U = E (siendo K = p2 /(2m) la energ´ıa cin´etica, U = U (r) la
CAP ´ ITULO 4. CAMPOS TENSORIALES
68
energ´ıa potencial y E la energ´ıa total del sistema), es decir, las curvas de nivel de la funci´on energ´ıa total . Haciendo que var´ıen las condiciones iniciales ( r (0) y p(0)) podemos ir calculando todas las trayectorias posibles, y su representaci´on en el plano de fases proporciona mucha informaci´on sobre los posibles comportamientos del sistema. Un ejemplo interesante y muy sencillo es el oscilador arm´onico unidimensional. En ese caso el potencial es V (x) = kx2 /2 y la ecuaci´on de conservaci´on de la energ´ıa ( p2 /(2m) + V (x) = E ) da lugar a la familia de elipses con semiejes x max y p max x2 p2 + =1 x2max p2max
√
en el plano de fases, donde la elongaci´o n m´axima es xmax = 2E/k y el momento m´aximo es pmax = 2mE . Conceptualmente el mapa de fases es muy ´util, pero la visualizaci´on de las trayectorias puede ser complicada en algunos casos, ya que la dimensionalidad de la variedad K + U = E depende del sistema considerado, pudiendo llegar a ser muy elevada. Para el movimiento unidimensional de una part´ıcula puntual el plano de fases es bi-dimensional y la condici´on de conservaci´o n de la energ´ıa define una variedad uni-dimensional; para una part´ıcula puntual en 2 (respectivamente 3) dimensiones el “plano” de fases tiene 4 (respectivamente 6) dimensiones y la variedad K + U = E es una hipersuperficie de 3 (respectivamente 5) dimensiones. En general, si tenemos n grados de libertad en lo que respecta a la posici´on, la dimensionalidad del plano de fases ser´a 2n y la condici´on de conservaci´on de la energ´ıa define una variedad (2n 1)-dimensional (o de co-dimensi´on 1), en algunos casos esta dimensionalidad puede ser alta. Por ejemplo, un s´olido r´ıgido en 3 dimensiones tiene 6 grados de libertad en lo que respecta a su posici´on (3 coordenadas para la posici´ on del centro de masas y otras 3 para la orientaci´on del cuerpo en el espacio); otros ejemplos con dimensionalidad elevada son un s´olido articulado con muchos grados de libertad, o, por supuesto, un sistema de muchas part´ıculas puntuales. Otro caso interesante y f´ a cil de visualizar es el p´endulo simple bajo la acci´on de la gravedad (figura ˙ la energ´ıa 4.4). El momento lineal en este caso es mLθ y potencial (mgh) queda como mgL (1 cos θ), de modo θ L que la trayectoria en el plano de fases correspondiente a una energ´ıa total E est´a dada por la curva
√
−
−
− cos θ + p2 = 1 1 − cos θmax p2max 1
donde el momento m´ aximo pmax vuelve a estar dado por 2mE y 1 cos θmax es igual a 2E/E s , sienh do E s = 2mgL la energ´ıa m´ınima necesaria para que mg el p´ endulo llegue a dar una vuelta completa. Para energ´ıas por debajo de E s las curvas que obtenemos en el plano de fases son cerradas, lo que significa que el p´endulo oscila siendo θmax el ´angulo m´ aximo alcanzaFigura 4.4: El p´endulo simple. do. Por el contrario, para E > E s estas curvas ya no son cerradas, el p´endulo no oscila sino que da vueltas completas, de forma que no existe ´angulo m´ aximo. En el l´ımite E/E s 1 las oscilaciones tienen amplitud muy peque˜na, y la anterior variedad se aproxima a la familia de elipses
√
−
≪
θ2 2 θmax
+
p2 p2max
=1
69
4.1. VARIEDADES DIFERENCIABLES
endulo simple. La trayectoria marcada en rojo (E = E s ) Figura 4.5: Plano de fases de un p´ es la separatriz entre las trayectorias cerradas ( E < E s ) y las abiertas (E > E s ).
(tal y como puede comprobarse por medio del desarrollo en serie de Taylor de cos θ) que corresponde a un oscilador arm´onico de constante recuperadora k = mg/L. En la figura 4.5 se ha representado el plano de fases de un p´endulo simple, mostrando el tipo de comportamiento que observaremos en funci´on del par´ametro adimensional E /E s . Aparte de la dimensionalidad, otra dificultad que existe en mec´anica cl´asica para visualizar las hipersuperficies de nivel E (r, p) = E en el plano de fases es la propia estructura de estas variedades. En particular, si la dimensionalidad del plano de fases es superior a 2 existe la posibilidad de encontrar comportamiento ca´ otico (teorema de Poincar´e-Bendixson), en cuyo caso la estructura de las hipersuperficies correspondientes a un determinado nivel de energ´ıa ser´a extraordinariamente complicada. Como ya hemos mencionado antes una condici´on como K + U = E no siempre generar´a una variedad diferenciable, sino que en algunos casos puede dar lugar a estructuras m´as complicadas, no equivalentes a ning´un espacio vectorial ni siquiera localmente. En el caso de un sistema con din´amica ca´ otica las hipersuperficies K + U = E se retuercen sobre s´ı mismas de manera extraordinariamente complicada, generando estructuras que llenan densamente el espacio de fases, con una topolog´ıa diferente a la de un espacio vectorial, incluso localmente. En algunos casos estas estructuras son auto-similares bajo cambios de escala, lo que las convierte en estructuras fractales. Termodin´ amica
Las variables de presi´on p, temperatura absoluta T y densidad ρ de una sustancia pura en equilibrio termodin´amico est´an relacionadas entre s´ı por una ecuaci´ on de estado del tipo f ( p, T, ρ) = 0, donde la forma de la funci´on f depende de la naturaleza del sistema considerado. Por ejemplo, para un gas ideal con masa molar m tenemos f ( p, T, ρ) = pm ρ T . La condici´on de equilibrio termodin´amico da lugar por tanto a una superficie en el espacio de variables ( p, T, ρ). Por ejemplo, la ecuaci´on de estado de van der Waals para una sustancia pura es
− R
p 8T /T c = pc 3v/v c 1
− − 3
�� vc v
2
CAP ´ ITULO ITULO 4. CAMPOS CAMPOS TENSOR TENSORIALE IALES S
70
ro jas corresponden al fluido Figura 4.6: Isotermas de un fluido de van der Waals. Las l´ıneas rojas supercr´ supercr´ıtico, las azules a la fase l´ıquida y las verdes a la fase gas.
donde v donde v es es el volumen vol umen molar y el sub´ sub´ındice c se c se refiere al pu al punt nto o cr´ıtico ıt ico de de la l a tra t rans nsic ici´ i´on on l´ıqui ıq uido do-vap -vapor or.. La figura 4.6 muestra la superficie a que da lugar esta ecuaci´on de estado. Como puede apreciarse, para v/v c suficientemente elevado recuperamos el comportamiento de un gas ideal, mientras que para temperaturas subcr´ subcr´ıticas existe un corte correspondiente al cambio de fase l´ıquido-vapor. ıquido-vapor. Si en lugar de una sustancia pura tenemos tenemos una mezcla mezcla bi-componen bi-componente te la ecuaci´ ecuaci´on on de estado depender´a tambi´ en en de una variable adicional, que describa la composici´on on de la mezcla. En ese caso los estados de equilibrio forman una variedad tri-dimensional en el espacio de presi´on, on, temperatura, densidad y composici´on. on. Si consideramos mezclas de m´as as de dos sustancias, cada sustancia adicional incrementa en una unidad el n´umero umero de variables termodin´amicas amicas del sistema, de forma que para una mezcla multi-componente el conjunto de puntos correspondientes a estados de equilibrio forma una variedad de dimensionalidad elevada, cuya forma puede ser muy complicada. Aparte de la variedad correspondiente a estados de equilibrio, en termodin´amica se manejan constantem constantemente ente variedades variedades definidas definidas por multitud multitud de restriccione restriccioness aplicadas aplicadas sobre las variables ariables termodin´amicas. amicas. Los casos de transformacio transformaciones nes isobaras isobaras (presi´on on constante) constante),, isocoras isocoras (volumen constante) e isotermas e isotermas (temperatura (temperatura constante) son especialmente frecuentes. Es interesante observar que fue precisamente Josiah Willard Gibbs, una de las principales figuras en la historia de la termodin´amica amica y la mec´anica anica estad´ıstica, ıstica , quien desarroll´ desarr oll´o gran parte del c´alculo alculo vectorial moderno al formular el aparato matem´atico atico necesario en termodin´amica. amica. Relatividad
La teor´ teor´ıa de la relatividad relatividad emplea emplea tambi´ tambi´ en en el concepto concepto de variedad variedad diferenciabl diferenciable, e, siendo siendo el espacio-tiempo que habitamos una de las variedades de mayor inter´es es en f´ısica te´orica. orica. Las obser-
71
4.1. VARIEDADES ARIEDADES DIFERENCIABLES DIFERENCIABLES
vaciones de que disponemos en la actualidad parecen indicar que el espacio-tiempo es una variedad diferenciable pseudo-Riemanniana de 4 dimensiones. El anterior prefijo “pseudo-” refleja que seg´ un un la teor´ teor´ıa de la relatividad relatividad la m´ etrica etrica del espacio-tie espacio-tiempo mpo no cumple cumple todas las propiedades propiedades que normalmente se exigen a una funci´on on distancia. La gran diferencia est´a en que la m´etrica etrica del espacio-tiempo relativista no es definida positiva, sino que existen ciertos vectores (llamados de g´enero en ero luz lu z ) que a pesar de no ser nulos nulos tienen “norma” nula; por otra parte existen existen tambi´ en en vectores llamados de g´enero ene ro tiem ti empo po con con “norma” negativa y vectores llamados de g´enero en ero espaci es pacio o con norma positiva, de tal forma que la distancia espacio-temporal entre dos sucesos separados por un vector de g´enero enero (respectivamente) (resp ectivamente) tiempo, tiempo, luz o espacio es espacio es (respectivamente) negativa, nula o positiva positiva (todo esto empleando la convenci´ convenci´ on tipo on tipo espacio, espacio, con signatura signat ura m´etrica etrica +++, los signos se invierten si empleamos la convenci´on tipo on tipo tiempo). tiempo). Como consecuencia consecuencia la geometr geometr´ıa del espacio-tie espacio-tiempo mpo relativista relativista es distinta distinta de la habitual habitual geon metr´ me tr´ıa de , incluso en el caso del espacio-tiempo “plano” de la relatividad especial (el espacio de Minkowski). En ´ultima ultima instancia esto hace que en el l´ımite no relativista relativista (a velocidades velocidades bajas ba jas comparadas con la de la luz y lejos de singularidades espacio-temporales, como agujeros negros) la coordenada temporal aparezca como una variable cualitativamente distinta de las espaciales, que por su parte forman un espacio vectorial que en la pr´actica es indistinguible del espacio Eucl´ Eucl´ıdeo de 3 dimensiones.
−
4.1.4. 4.1.4.
Diferenc Diferenciabi iabilida lidad d y parametr parametrizac izaciones iones
Hasta ahora hemos hablado de variedades sin prestar demasiada atenci´on o n a la condici´on o n de diferenciabilidad. Desde el punto de vista de las aplicaciones en f´ısica estamos interesados principalmente en variedades sobre las que es posible definir operaciones como derivadas e integrales, de manera an´aloga aloga a como se definen definen estas operaciones en el familiar familiar espacio espacio Eucl´ Eucl´ıdeo n . Estas operaciones operaciones son necesarias necesarias para calcular calcular multitud multitud de magnitudes magnitudes habituales habituales en f´ısica, ısica, como por ejemplo velocidades y gradientes (definidos en funci´on on de derivadas direccionales), o longitudes y areas ´areas (definidas en t´erminos erminos de integrales). Las variedades en las que es posible definir este tipo de operaciones operaciones se denominan denominan variedades variedades diferenciables . Para definir operaciones como derivaci´ on on e integraci´on on en variedades diferenciables es necesario definir antes un sistema de coordenadas generalizadas generalizadas que parametrice la variedad (al menos localmente), y que nos permita describir desplazamientos a lo largo de la variedad. Por ejemplo, en n podemos calcular derivadas direccionales en t´ erminos erminos de derivadas respecto de las coordenadas espaciales que describen la posici´on on de cada punto del espacio. En un espacio vectorial cualquier punto del espacio queda descrito por sus coordenadas respecto de una base cualquiera, en el caso de una variedad diferenciable este concepto no es aplicable. ⋆ ¿C´omo omo asignamos coordenadas a los puntos de una variedad diferenciable? En un entorno alrededor de cada punto de una variedad n-dimensional sabemos que esta es similar (topol´ ogicamente equivalente) al correspondiente entorno de un espacio vectorial de n diogicamente mensiones (en la mayor´ mayor´ıa de los casos n ). Por tanto, en un entorno de cualquier punto podemos definir una colecci´on on de n funciones reales continuas con inversa continua (homeomorfismos) tales que a cada punto de dicho entorno le hagan corresponder un punto del espacio vectorial n, cuyas coordenadas en n (o cualquier funci´on on continua y diferenciable con inversa continua y diferenciable de las mismas) pueden emplearse como coordenadas del punto de la variedad. En una variedad diferenciable n-dimensional esta colecci´on o n de n homeomorfismos define por tanto unas coordenadas coordenadas generalizadas generalizadas que parametrizan parametrizan una determinada determinada regi´ on on finita de la varie-
CAP ´ ITULO ITULO 4. CAMPOS CAMPOS TENSOR TENSORIALE IALES S
72
y x
on de una variedad diferenciable. on Figura 4.7: Parametrizaci´
dad. Un conjunto de funciones como el mencionado se denomina mapa , por p or analog´ a nalog´ıa ıa con co n los lo s mapas map as geogr´ aficos, que hacen corresponder cada punto de una zona de la superficie terrestre con un punto aficos, de una representa representaci´ ci´ on bidimensional plana. En general para describir una variedad no bastar´a con on un unico u ´ nico mapa, v´alido alido a lo largo de toda la variedad, sino que ser´a necesario emplear una colecci´on on de cierto n´umero umero de mapas, cada uno de ellos v´alido alido s´olo olo en una determinada regi´on, on, de tal forma que el conjunto completo de todos estos mapas llegue a cubrir la totalidad de la variedad. Dicho conjunto completo de mapas se denomina l´ogicamente atlas ogicamente atlas . La condici´ condici´ on que distingue a una variedad diferenciable es que todos los mapas que relacionan on cada regi´ on de la variedad con la correspondiente regi´on on on de n deben ser diferenciables (adem´ diferenciables (adem´as as de continuos con inversa continua). De esta forma, al mover un punto a lo largo de la variedad de manera continua y diferenciable, sus coordenadas en el mapa que representa esta variedad en n var´ ar´ıan de forma continu continuaa y diferenciabl diferenciable, e, lo cual nos permite calcular derivadas derivadas e integrales integrales a lo largo de la variedad en t´erminos erminos de derivadas e integrales respecto de las coordenadas generalizadas que estemos empleando. Los mapas empleados para definir las coordenadas generalizadas en una variedad diferenciable son por p or tanto tanto homeomorfismos homeomorfismos diferenciabl diferenciables, es, este tipo de funciones funciones se denominan denominan difeomorfismos difeomorfismos . Para garantizar que sobre la variedad podemos realizar derivadas espaciales de orden arbitrariamente alto, los difeomorfismos que mapean la variedad en n deben tener infinitas derivadas continuas, es decir, deben ser funciones de clase ∞ . En este curso denominaremos funciones suaves a a las funciones de clase ∞ . Por otra parte, si sobre una determinada regi´on on en una variedad diferenciable es posible definir dos parametrizaciones diferentes, la condici´on de diferenciabilidad impone que estas deben deb en ser compatibles entre s´ s´ı, es decir, debe existir una funci´on on invertible de clase ∞ que transforme un mapa en el otro, al menos en la regi´on donde ambos son simult´aneamente aneamente v´ alidos, alidos, dicha funci´on on se denomina cambio denomina cambio de coordenadas . Esto ultimo u ´ ltimo es especialmente importante en aquellos casos en los que resulta imposible describir la variedad completa por medio de una sola parametrizaci´on. on. En esos casos ser´a necesario emplear distintas parametrizaciones v´alidas alidas en distintas regiones de la variedad, y la condici´on on de diferenciabilidad de la variedad impone que dichos mapas deben ser compatibles en la intersecci´on entre los dominios de definici´on on correspondientes.
C
C
C
⋆ Las condiciones anteriores pueden resumirse de la siguiente forma. Dada la variedad diferenciable n ciable n-dimensional -dimensional , localmen localmente te homeomor homeomorfa fa a n :
• Coordenadas generalizadas :
73
4.1. VARIEDADES DIFERENCIABLES
La variedad est´a parametrizada por un atlas , dado por un cierto n´umero de homeomorfismos definidos sobre determinadas regiones Ω i de la variedad en n f i : Ωi
→
n
(4.5)
de forma que cada uno de estos mapas f i define un sistema de coordenadas generalizadas v´ alido en una cierta regi´on Ωi
⊂
}nk=1 ∀v ∈ Ωi
f i (v ) = xk (v )
{
(4.6)
donde la superposici´on de los dominios de definici´on de todos estos mapas recubre la variedad en su conjunto = Ωi . (4.7)
⊕ i
• Condici´ on de diferenciabilidad de las coordenadas generalizadas :
•
Si la variedad es diferenciable todos estos mapas deben ser homeomorfismos diferenciables, es decir, difeomorfismos . En general en este curso supondremos que las funciones que definen las coordenadas generalizadas sobre una variedad diferenciable son funciones invertibles de clase ∞ . Condici´ on de compatibilidad entre coordenadas generalizadas : Dados los mapas f y g v´ alidos en las regiones Ωf y Ωg , que definen respectivamente las coordenadas generalizadas
C
{xk (v)}nk=1 = f (v) y {yk(v)}nk=1 = g(v), (4.8) si la intersecci´on Ω f ∩ Ωg no es nula entonces la condici´on de diferenciabilidad impone que existen dos funciones invertibles de clase C ∞ (φ y φ −1 ) que transforman las coordenadas generalizadas {yk (v )}nk=1 en las {xk (v )}nk=1 y viceversa {xk (v)}nk=1 = φ ({yk (v)}nk=1) , {yk (v)}nk=1 = φ−1 ({xk(v)}nk=1) . (4.9) Es muy f´acil ver que φ y su inversa est´an dadas respectivamente por
(( ◦ ◦
φ = f g −1 , φ−1 = g f −1 ,
��
��
}nk=1) = f g−1 ({yk (v)}nk=1) φ−1 ({xk (v )}nk=1) = g f −1 ({xk (v )}nk=1 ) φ ( yk (v )
{
.
(4.10)
(4.11)
Las variedades diferenciables son los dominios m´as generales sobre los que es posible definir operaciones de c´alculo. Cuando se cumplen todas las condiciones anteriores podemos emplear las coordenadas generalizadas para calcular derivadas o integrales sobre la variedad por medio de las correspondientes derivadas o integrales respecto de las coordenadas generalizadas. Al hacer esto debemos tener en cuenta que si la variedad considerada tiene cierta curvatura, su m´ etrica n no coincidir´a con la del espacio Eucl´ıdeo . Esto tiene importantes consecuencias a la hora de medir distancias, ´angulos o ´areas sobre una variedad y tambi´ en a la hora de calcular derivadas direccionales. En general el c´alculo de derivadas direccionales a lo largo de variedades diferenciables n-dimensionales y el an´alisis de su m´etrica (incluyendo medidas de curvaturas, distancias, ´angulos, ´areas, vol´ umenes, etc.) son los ob jetos de estudio de la geometr´ıa diferencial. En el pr´oximo cap´ıtulo veremos c´omo se calculan derivadas direccionales en variedades diferenciables y en la segunda parte del curso veremos c´omo se calculan curvaturas, distancias, ´angulos y ´areas en el caso de variedades de una y dos dimensiones, es decir, curvas y superficies.
CAP ´ ITULO 4. CAMPOS TENSORIALES
74
g y2
φ
y1 x2 x1
f Figura 4.8: Compatibilidad entre coordenadas generalizadas de una variedad diferenciable.
Variedades Riemannianas
El concepto de variedad generaliza el concepto de espacio vectorial a conjuntos de puntos con estructuras m´as complicadas. Con mucha frecuencia consideraremos variedades diferenciables localmente homeomorfas al espacio n con m´etrica no Eucl´ıdea en el plano tangente. En general se define una variedad Riemanniana como cualquier variedad diferenciable n dimensional con m´etrica de Riemann en el espacio tangente, de tal forma que la m´etrica est´a descrita por un tensor m´etrico gij que var´ıa de forma continua y diferenciable a lo largo de la variedad. 4.1.5.
Ejemplos de variedades y parametrizaciones
El espacio
n
Es evidente que el propio espacio vectorial n constituye una variedad diferenciable n-dimensional. Como parametrizaci´ on trivial de esta variedad podemos considerar las propias coordenadas cartei sianas x , y como coordenadas generalizadas cualquier funci´on (invertible y ∞ ) de las anteriores. Veamos algunos ejemplos:
C
En dos dimensiones por ejemplo podemos definir las coordenadas polares ( r, θ) dadas por x = r cos θ; y = r sin θ;
√
x2 + y 2 , r [0, ]; y θ = arctan , θ [0, 2π] x r =
∈ ∞ ∈
(4.12)
En tres dimensiones son muy habituales las coordenadas cil´ındricas (ρ,θ,z) x = ρ cos θ; y = ρ sin θ;
√
x2 + y 2 , ρ [0, ]; y θ = arctan , θ [0, 2π] x
ρ =
∈ ∞ ∈
(4.13)
y las coordenadas esf´ericas (r,θ,ϕ) x = r sin θ cos ϕ; y = r sin θ sin ϕ; z = r cos θ;
√
x2 + y 2 + z 2 , r [0, z θ = arc cos , θ [0, π] r y ϕ = arctan , ϕ [0, 2π] x r =
∈ ∞];
∈ ∈
(4.14)
75
4.1. VARIEDADES DIFERENCIABLES
Parametrizaci´ on de curvas
En general una curva en n puede definirse mediante las n ecuaciones param´etricas que definen las coordenadas de un punto sobre la curva en funci´on de un par´ametro λ, x1 = x 1 (λ) x2 = x 2 (λ) ... ... ... xn = x n (λ)
(4.15)
de tal forma que cuando λ recorre un cierto intervalo de la recta real (p. ej. λ [0, 1]) el punto x(λ) recorre la curva completa, desde el punto inicial ( x(λ = 0)) hasta el final (x(λ = 1)). De esta manera el par´ ametro λ es la coordenada generalizada que define la posici´on de cualquier punto sobre la curva. En algunos casos se pueden tomar par´ametros que tengan un significado geom´etrico evidente. Por ejemplo, las relaciones
∈
x = cos θ,
y = sin θ,
θ
∈ [0, 2π]
(4.16)
definen una circunferencia de radio unidad en la que la coordenada generalizada θ es el ´angulo formado por el punto considerado con el eje x. Otro ejemplo, la relaci´on y = y(x) define la curva dada por la gr´afica de la funci´on y(x) en t´erminos del par´ametro x, lo que equivale a las ecuaciones param´etricas x = λ, y = y(λ). Otro ejemplo muy importante es el par´ ametro longitud de arco, definido como la longitud recorrida a lo largo de la curva a partir de un cierto punto que tomamos como origen. Como veremos en geometr´ıa diferencial, en el estudio de curvas el par´ametro longitud de arco es el que genera la descripci´on m´as sencilla posible de la curva. Parametrizaci´ on de superficies
Las superficies se caracterizan por tener 2 grados de libertad, lo que implica que para recorrer una superficie debemos emplear 2 coordenadas generalizadas. Las ecuaciones param´etricas de una superficie contenida en n tendr´ an por tanto la forma general siguiente x1 = x 1 (λ, µ) x2 = x 2 (λ, µ) ... ... ... xn = x n (λ, µ)
(4.17)
de manera que cuando los par´ametros λ y µ recorren sus correspondientes dominios de definici´on el punto x(λ, µ) recorre la superficie. Los par´ametros λ y µ definen de esta forma unas coordenadas generalizadas que nos permiten describir la superficie. Por ejemplo, la definici´on de las coordenadas esf´ericas en 3 con r = const. proporciona una parametrizaci´ on de la superficie esf´erica de radio r centrada en el origen en t´erminos de las coordenadas generalizadas θ y ϕ (aunque este mapa no es v´alido cerca de los “polos” θ = 0 y θ = π). Otro ejemplo, en la gr´afica de una funci´on de dos variables z = f (x, y) las propias variables x e y proporcionan las coordenadas generalizadas necesarias para la parametrizaci´ on de la superficie.
CAP ´ ITULO 4. CAMPOS TENSORIALES
76
La parametrizaci´on global de la superficie por medio de un u ´ nico mapa no ser´a posible en aquellos casos en los que tengamos una superficie definida de manera impl´ıcita por una condici´on del tipo f (x,y,z) = 0 en la que resulte imposible despejar ninguna de las variables en funci´on de las restantes de manera suave y univaluada. En esos casos no ser´a posible parametrizar la superficie con un ´u nico mapa, tal y como se ha asumido en Eq. (4.17) sino que ser´a necesario emplear varios mapas para describir distintas regiones de la superficie. Esto es lo que sucede por ejemplo si queremos describir una superficie esf´ erica (con r = 1, centrada en el origen) empleando las coordenadas x e y como coordenadas generalizadas, en ese caso es necesario emplear al menos 2 mapas: z = + x2 + y 2 1 para la mitad superior y z = x2 + y 2 1 para la mitad inferior.
√
4.2.
−
√
−
−
Fibrados tangente y cotangente
El espacio tangente a una variedad diferenciable n-dimensional en el punto r se define como la envolvente lineal de las tangentes en r a todas las curvas contenidas en la variedad que pasen por dicho punto. Por supuesto, estamos dando por hecho que las curvas a las que nos referimos son continuas y diferenciables. El ejemplo m´as visual en f´ısica consiste en identificar la curva param´etrica r(λ) con la trayectoria de un punto y el par´ametro λ con el tiempo; en ese caso la derivada de ametro λ es el vector velocidad, de modo que el espacio tangente es el definido r respecto del par´ por los vectores velocidad de todas las trayectorias, continuas, diferenciables y contenidas en la variedad, que pasen por el punto en consideraci´on. Intuitivamente el espacio tangente a una variedad en un punto representa todas las direcciones posibles que podemos tomar en para pasar por dicho punto sin salirnos de la variedad. Por ejemplo, si la variedad de partida es la superficie de una esfera, el espacio tangente en un punto es el plano tangente a la esfera en dicho punto; si la variedad de partida es una superficie en 3 , el espacio tangente en cualquier punto es el plano tangente a la superficie en dicho punto. Esto implica que la dimensionalidad del espacio tangente coincide con la de la variedad considerada. Una vez definido el espacio tangente en un punto, se define el fibrado tangente como el conjunto de todos los espacios tangentes que se obtiene al recorrer la variedad completa ( r ). Por otra parte, el dual al espacio tangente en cada punto se define como el espacio co-tangente en dicho punto, y el conjunto de todos los espacios cotangentes definidos sobre toda la variedad se define como el fibrado cotangente . El producto tensorial de s copias de cada espacio tangente por r copias de su dual genera un espacio producto tensorial definido como funci´on del punto en . A este espacio pertenecen los tensores (o, en general, las densidades tensoriales) definidas como funci´on del punto sobre la variedad. Todos los conceptos definidos en los cap´ıtulos precedentes sobre comportamiento tensorial son aplicables, sin ninguna modificaci´on, al caso de tensores definidos como funci´on del punto sobre una variedad diferenciable. La u ´ nica diferencia es que ahora, en lugar de un ´unico espacio vectorial, tenemos una colecci´on de espacios vectoriales definidos como funci´on del punto sobre la variedad diferenciable.
∈
∀ ∈
4.2.1.
Espacio tangente a un espacio vectorial
Para familiarizarnos m´ as con el concepto de espacio tangente veamos primero el caso en que la variedad diferenciable considerada es, ella misma, un espacio vectorial. Dado un espacio vectorial de n dimensiones y la base ei ni=1 , cualquier punto del espacio queda descrito por sus coordenadas xi respecto de dicha base. Una curva param´etrica contenida en est´a dada por la colecci´on de n funciones x i (λ) (continuas y diferenciables), con λ definido en un cierto intervalo (p. ej. λ [0, 1]).
{ }
∈
77
4.2. FIBRADOS TANGENTE Y COTANGENTE
v(t)
z
r (t)
y x
ıcula m´ovil en Figura 4.9: Part´
3
.
El vector dado por la diferencia entre los valores de x sobre esta curva correspondientes a dos valores de λ infinitamente pr´oximos v dλ = x (λ + dλ)
− x(λ)
(4.18)
es un vector que pertenece a un espacio vectorial id´entico a , ya que es combinaci´on lineal de vectores de . Dicho vector diferencia, situado con origen en el punto x(λ), es tangente a la curva considerada y por tanto pertenece al espacio tangente a en el punto x(λ). Por otra parte, est´a claro que considerando distintas curvas x(λ) podemos generar cualquier vector de como vector velocidad. Como consecuencia: ⋆ El espacio tangente a un espacio vectorial en el punto r dicho espacio pero con origen en el punto r .
∈
est´a dado por una copia de
Con esto recuperamos la imagen intuitiva habitual, seg´u n la cual para pasar de un espacio vectorial al espacio tangente en un determinado punto basta con desplazar el origen del espacio a dicho punto. El espacio dual al espacio tangente en un punto se define como espacio co-tangente en ese punto. Por tanto el espacio co-tangente a un espacio vectorial en un punto determinado es un espacio id´ entico al dual del espacio vectorial de partida, pero con origen en el punto considerado. Una vez definidos los espacios tangente y cotangente como funci´on del punto, el conjunto de estos espacios que obtenemos al recorrer el espacio de partida completo define (respectivamente) los fibrados tangente y el cotangente. El fibrado tangente de un espacio vectorial es algo muy familiar, ya que es lo que se ha estado manejando t´acitamente al estudiar, p. ej., trayectorias de part´ıculas puntuales en 3 , donde el vector velocidad es un vector perteneciente al fibrado tangente a 3 en el punto en donde se encuentre la part´ıcula (Fig. 4.9). 4.2.2.
Espacio tangente de una variedad diferenciable
El espacio tangente a un espacio vectorial es un espacio vectorial, seg´un acabamos de ver. Veamos que el espacio tangente tambi´ en es un espacio vectorial si el espacio de partida es solamente una variedad diferenciable: Consideramos una curva param´etrica r(λ) definida sobre la variedad . El vector velocidad de esta curva es v = dr (λ)/dλ, que es tangente a la curva. Supongamos que en un entorno del
CAP ´ ITULO 4. CAMPOS TENSORIALES
78
punto de inter´ es hemos definido un sistema de coordenadas generalizadas xi , por medio de un difeomorfismo (U ) entre la variedad y un espacio vectorial de n dimensiones. En este sistema de coordenadas r = U (x), donde x est´a dado por las coordenadas cartesianas xi . La curva param´etrica r (λ) est´a dada por la imagen resultado de aplicar U sobre la correspondiente curva param´etrica x(λ) (4.19) r(λ) = U (x(λ))
⊂
∈
⊂
El vector tangente v puede calcularse, entonces, por medio de la regla de la cadena ∂U (x) dxi v (λ) = ∂x i dλ
(4.20)
Considerar diferentes curvas r(λ) implica, claramente, considerar diferentes valores para dxi /dλ, pero la expresi´on gen´erica anterior es v´ alida para cualquier curva, es decir, el vector tangente v a cualquier curva contenida en se puede expresar como combinaci´ on lineal de la base ∂ U (x)/∂x i . Como consecuencia, dada la parametrizaci´ on U (v´alida al menos en un entorno del punto considerado), el espacio tangente a en r est´a dado por la envolvente lineal de la base ti =
∂U (x) , ∂x i
i = 1, . . . , n
(4.21)
Como puede verse, esta base est´a dada por los vectores tangentes a las l´ıneas coordenadas U (xi ), dadas por la intersecci´on de las hipersuperficies definidas por U (x j ) = const. j = i. Es muy sencillo verificar que esta base define, efectivamente, un espacio vectorial. Para ello basta comprobar que cualquier combinaci´on lineal de la base pertenece tambi´ en al espacio tangente, es decir, que existe una curva (continua, diferenciable y contenida en ) cuyo vector velocidad coincide con dicha combinaci´on lineal. Por otra parte tambi´ en existe el elemento nulo, el elemento opuesto, y, en resumen, se puede comprobar f´acilmente que se verifican todas las propiedades mencionadas en el primer cap´ıtulo.
∀̸
Cambios de coordenadas
Aunque es trivial verificar que la envolvente lineal de la base Ec. (4.21) cumple todas las propiedades necesarias para ser un espacio vectorial, todav´ıa no es del todo evidente que un objeto definido como v = v i ti sea, realmente, un vector. Esto no es del todo evidente ya que los ti se han definido a partir de una parametrizaci´ on concreta U que es totalmente arbitraria. Para convencernos de que v i ti es, efectivamente, un vector, debemos verificar que este objeto es invariante sea cual sea el sistema de coordenadas generalizadas empleado para describir la variedad. Consideremos entonces una parametrizaci´on arbitraria V , tal que a cada r le asigna las i n coordenadas generalizadas y (es decir, r = U (x) = V (y )). De manera an´aloga a como hemos definido la base Ec. (4.21), los vectores tangentes a las l´ıneas coordenadas de este nuevo sistema definen la base “nueva” ˜ti = ∂V (y ) , i = 1, . . . , n (4.22) ∂y i
∈
Por definici´on, este cambio de coordenadas es invertible, es decir, existen n funciones suaves que relacionan las coordenadas “nuevas” con las “viejas” y viceversa xi = x i (y1 , . . . , yn ),
y i = y i (x1 , . . . , xn ),
i = 1, . . . , n
al menos en la intersecci´on de los dominios de definici´on de ambos mapas.
(4.23)
79
4.2. FIBRADOS TANGENTE Y COTANGENTE
Teniendo esto en cuenta y aplicando la regla de la cadena encontramos j ˜ti = ∂V (y ) ∂x = C j t j , i ∂x j ∂y i
i = 1, . . . , n
(4.24)
donde hemos definido la matriz C del cambio de base como la matriz jacobiana del cambio de coordenadas, evaluada en el punto considerado ∂x i i C j = j , ∂y
C =
∂x 1 ∂y 1
...
∂x 1 ∂y n
...
...
...
∂x n ∂y 1
...
∂x n ∂y n
(4.25)
Vemos por tanto que los vectores base Ec. (4.21), dados por las tangentes a las l´ıneas coordenadas, se comportan como objetos 1-covariante bajo el cambio de base inducido en el espacio tangente como consecuencia de realizar un cambio de coordenadas en la variedad. Para terminar de convencernos de que los elementos del espacio tangente son realmente vectores, debemos comprobar que, dada la curva param´etrica arbitraria r(λ) , la “velocidad” de esta curva es realmente un vector, es decir, un objeto independiente de las coordenadas generalizadas empleadas para describir la variedad. Veamos que efectivamente es as´ı. En la parametrizaci´on U el vector velocidad de esta curva ( v ) es
⊂
dr(λ) dxi = v = ti = v i ti dλ dλ
(4.26)
y por tanto tiene componentes v i = dx i /dλ. En la parametrizaci´ on V el vector velocidad es v =
dr(λ) dy i ˜ = ti = v˜i˜ti dλ dλ
(4.27)
Identificando ambos resultados vemos que las coordenadas de v respecto de la base “vieja” (v i ) y respecto de la base “nueva” (˜v i ) est´an relacionados por v˜i = D ji v j
(4.28)
donde la matriz D es la matriz jacobiana de la transformaci´on inversa
D ji =
∂y i ∂x j
D = C −1 =
,
∂y 1 ∂x 1
...
∂y 1 ∂x n
...
...
...
∂y n ∂x 1
...
∂y n ∂x n
(4.29)
Este mismo resultado (Ec. (4.28)) puede obtenerse directamente aplicando la regla de la cadena dy i ∂y i ∂x j v˜ = = j = D ji v j dλ ∂x dλ i
(4.30)
Por tanto vemos que las componentes dxi /dλ de la velocidad de cualquier curva param´etrica se comportan bajo un cambio de coordenadas como un objeto 1-contravariante, tal y como corresponde a las componentes de un vector. Con esto queda comprobado que el espacio tangente a una variedad diferenciable tiene estructura de espacio vectorial. Como corolario tambi´ en resulta evidente que la dimensionalidad del espacio tangente coincide con el n´umero de coordenadas generalizadas necesarias para describir la variedad, es decir, con la dimensionalidad de la variedad.
CAP ´ ITULO 4. CAMPOS TENSORIALES
80 M´ etrica del espacio tangente
Dados dos vectores del espacio tangente u = u i ti y v = v i ti , su producto escalar est´a dado por u v = g ij ui v j
(4.31)
·
donde el tensor m´etrico g ij se define como la tabla de productos escalares de los vectores de la base gij = t i t j ,
·
i, j = 1, . . . , n
(4.32)
El tensor m´etrico nos permite medir distancias a lo largo de la variedad. Por ejemplo, dada la curva param´etrica r(λ) la “longitud” al cuadrado (dr)2 recorrida en el intervalo de “tiempo” dλ es (dr )2 = g ij v i v j (dλ)2 .
(4.33)
A partir de las leyes de transformaci´on de los vectores ti es inmediato verificar que las componentes del tensor m´etrico se transforman bajo un cambio de base como un objeto 2-covariante g˜ij = C pi C jq g pq
(4.34)
En este curso s´olo consideraremos variedades diferenciables con m´ etrica Riemanniana en el fibrado tangente (con mucha frecuencia Eucl´ıdea, como caso particular de Riemanniana), por tanto suponemos que gij es sim´etrico e invertible y que var´ıa de forma suave a lo largo del fibrado tangente. Una vez definida la m´etrica del espacio tangente quedan definidas las correspondientes relaciones entre el espacio tangente y su dual, en particular la base del fibrado co-tangente est´a dada por los vectores i = 1, . . . , n (4.35) ti = g ij t j , donde las componentes 2-contravariantes g ij forman el tensor m´etrico inverso. Esto permite aplicar en los fibrados tangente y cotangente las relaciones estudiadas en los cap´ıtulos precedentes sobre tensores y densidades tensoriales de cualquier rango tensorial. En particular quedan extendidas a los fibrados tangente y contangente las operaciones de “subida y bajada de ´ındices”, mediante el correspondiente producto de contracci´ on con el tensor m´etrico o su dual. Base natural y componentes hol´ onomas
Dada una variedad diferenciable n-dimensional , parametrizada en un entorno determinado n por medio de un difeomorfismo cualquiera U en t´erminos de las co ordenadas generalizadas xi i=1 , el conjunto de vectores tangentes a las l´ıneas coordenadas
{}
ti =
∂ r , ∂x i
i = 1, . . . , n
(4.36)
se define como la base natural del fibrado tangente a . Para cualquier vector v del espacio tangente, las componentes de v respecto de la base natural correspondiente a cualquier sistema de coordenadas generalizadas se denominan componentes hol´ onomas . La base dual a la base Ec. (4.36), dada por ti = g ij t j , es la base natural del fibrado cotangente, y en general, se denominan componentes hol´onomas a las componentes de cualquier tensor af´ın relativas a la base definida como cualquier potencia tensorial de la base natural y su dual.
4.3. EL ESPACIO VECTORIAL
N EN COORDENADAS CURVIL´ INEAS
{}
n
81
Como las coordenadas generalizadas xi i=1 var´ıan de forma suave (es decir, ∞ ) a medida que recorremos la variedad, tambi´en lo hacen sus vectores tangentes, de modo que la base natural var´ıa de forma suave a medida que recorremos el fibrado tangente. Desde el punto de vista tensorial la base natural tiene muchas ventajas, paro hay ocasiones en que es preferible emplear otras bases distintas, como veremos m´as adelante. Por el contrario, se denominan componentes no hol´ onomas a las componentes de los vectores del espacio tangente respecto de cualquier base distinta de la base natural. Esta definici´on se hace extensiva a las componentes de cualquier campo tensorial definido sobre la variedad relativas a cualquier base distinta de la correspondiente potencia tensorial de la base natural y su dual. Un ejemplo de componentes no hol´onomas de gran inter´ es en f´ısica son las llamadas componentes f´ısicas , dadas por las componentes respecto a la base natural normalizada , tal y como veremos posteriormente.
4.3.
n
El espacio vectorial
C
en coordenadas curvil´ıneas
Como aplicaci´on directa de los resultados anteriores vamos a estudiar el espacio vectorial n en un sistema arbitrario de coordenadas. Finalmente aplicaremos estos resultados al caso habitual del espacio 3 Eucl´ıdeo en coordenadas cartesianas, cil´ındricas y esf´ericas. Consideremos el espacio vectorial n con m´etrica de Riemann dada por Gij = ei e j , siendo ei los vectores de la base cartesiana (o can´onica). El espacio tangente a esta variedad en un punto arbitrario es una copia del espacio de partida (con la misma m´etrica) con centro en dicho punto. Sea x un punto perteneciente a n , descrito por sus componentes x i = x1 , . . . , xn respecto de la base cartesiana habitual. En general, un sistema de coordenadas curvil´ıneas (y j = y 1 , . . . , yn ) es una colecci´on de n funciones suaves
·
{
( ( ( (
y1 = y 1 x1 , . . . , xn ...
...
...
yn = y n x1 , . . . , xn invertibles
x1 = x 1 y1 , . . . , yn ...
...
...
xn = x n y1 , . . . , yn
} {
}
(4.37)
(4.38)
de tal manera que la posici´on de cualquier punto del espacio vectorial queda un´ıvocamente definida tanto por xi como por y i . La condici´on que garantiza que podamos invertir el cambio de coordenadas es que el jacobiano de la transformaci´on
∂x i i J j = j , ∂y
J =
∂x 1 ∂y 1
...
∂x 1 ∂y n
...
...
...
∂x n ∂y 1
...
∂x n ∂y n
(4.39)
sea invertible, lo cual queda garantizado si el determinante de J es distinto de cero en todo el dominio de definici´on de las coordenadas generalizadas y i .
CAP ´ ITULO 4. CAMPOS TENSORIALES
82
Normalmente las coordenadas y i ser´an funciones complicadas (no lineales) de las xi y el jacobiano no ser´a constante, sino que ser´a una funci´on del punto. Por tanto el cambio de coordenadas definido por Ec. (4.37) y Ec. (4.38) es una operaci´o n m´as complicada que un simple cambio de base en el espacio. En particular, las coordenadas generalizadas y i ni siquiera tendr´ an (en general) i las mismas dimensiones que las x . Por ejemplo, al pasar a coordenadas cil´ındricas o esf´ericas en 3 la coordenada radial tiene las mismas dimensiones que las coordenadas cartesianas de partida, pero las coordenadas angulares no, ya que son adimensionales. M´as adelante volveremos sobre esta cuesti´ on, que motiva la definici´on de las componentes f´ısicas. 4.3.1.
Base natural y m´ etrica del espacio tangente
La base cartesiana habitual es la base natural de las coordenadas cartesianas ei =
∂ x ∂x i
(4.40)
La base natural del sistema de coordenadas generalizadas y i est´a dada por ti =
∂ x = J ji e j i ∂y
(4.41)
donde la matriz jacobiana est´ a dada por Ec. (4.39), tal y como puede comprobarse aplicando la regla de la cadena para calcular ∂ x/∂y i en t´erminos de ∂ x/∂x j . El tensor m´etrico en t´erminos de la base nueva est´a dado por gij = t i t j = J pi J jq G pq
·
(4.42)
Para verificar que gij define una m´etrica de Riemann es necesario comprobar que es sim´ etrico, invertible, y que var´ıa de forma suave a medida que recorremos el fibrado tangente. Lo cual es inmediato suponiendo que Gij cumple to das las propiedades necesarias para definir una m´etrica Riemanniana y que J es invertible y suave. Caso de
n
Eucl´ıdeo
En el caso m´as habitual la m´etrica de n ser´ a Eucl´ıdea Gij = δ ij (al menos en alguna base). En ese caso el tensor m´ etrico del espacio tangente en la base natural definida por el sistema de j coordenadas y es n
gij =
∑
J ik J jk
(4.43)
k=1
que matricialmente puede ponerse como [g] = [J ]T [J ]. Incluso si el espacio de partida es Eucl´ıdeo vemos que, dependiendo del sistema de coordenadas empleado, el tensor m´ etrico del espacio tangente en t´ erminos de la base natural puede no ser la identidad. En general, en un espacio Eucl´ıdeo el tensor m´etrico s´olo es la identidad si empleamos una base ortonormal, pero no lo ser´a en caso contrario. Esto no significa que el espacio deje de ser Eucl´ıdeo, una m´etrica es no Eucl´ıdea solamente en el caso en que no exista ninguna base tal que en ella el tensor m´etrico sea la identidad. En el caso de n Eucl´ıdeo el espacio tangente es, obviamente, Eucl´ıdeo.
4.3. EL ESPACIO VECTORIAL
N EN COORDENADAS CURVIL´ INEAS
83
Coordenadas ortogonales
En general se denominan sistemas de coordenadas ortogonales a aquellos en que las l´ıneas coordenadas son mutuamente perpendiculares, de forma que el tensor m´etrico en el espacio tangente es diagonal: 0 si i = j gij = t i t j = (4.44) h2i si i = j
�
·
̸
donde los factores de escala h i est´an dados por la norma de los correspondientes vectores tangentes a las l´ıneas coordenadas (4.45) hi = (ti ti )1/2 = ti
·
∥ ∥
que en general no ser´an unitarios (hi = 1). En el caso de un espacio Eucl´ıdeo descrito en t´erminos de un sistema de coordenadas ortogonales los factores de escala est´an dados por
̸
∑� � n
2
(hi ) =
k=1
∂x k ∂y i
2
(4.46)
En general el uso de coordenadas curvil´ıneas ortogonales simplifica enormemente las expresiones. Por ejemplo, el tensor m´ etrico inverso en coordenadas ortogonales est´ a sencillamente dado por ij 2 ij − g = (hi ) δ (sin suma en i). 4.3.2.
Componentes f´ısicas
Un m´ovil en el espacio n , descrito por las coordenadas cartesianas habituales xi , est´a dado por la curva param´etrica con componentes xi (t). El vector velocidad de esta part´ıcula puntual es un vector del espacio tangente dado por v =
dxi ei dt
(4.47)
⋆ ¿C´ual es la expresi´on del vector velocidad en coordenadas generalizadas? Seg´ un hemos visto previamente, en t´ erminos de la base natural correspondiente a las coordei nadas y , este vector se expresa sencillamente como dy i v = ti dt
(4.48)
Desde el punto de vista tensorial el vector Ec. (4.48) est´a perfectamente bien definido, pero desde el punto de vista f´ısico puede ser poco conveniente. Supongamos que las coordenadas xi tienen dimensiones de longitud, de tal forma que las componentes de v en la base cartesiana tienen dimensiones de longitud/tiempo. Parece razonable pensar que las componentes de un vector velocidad siempre deben tener dimensiones de velocidad, sin embargo, esto no tiene porqu´e cumplirse con las componentes dy i /dt. De hecho es inmediato comprobar que dy i /dt s´olo tendr´a dimensiones de velocidad si la correspondiente coordenada generalizada y i tiene dimensiones de longitud, lo cual no tiene por qu´ e cumplirse, y de hecho no se cumple en numerosos sistemas de coordenadas empleados habitualmente (como las variables angulares de las coordenadas cil´ındricas y esf´ericas). El problema est´a en la definici´on de la base natural. En principio en f´ısica parece preferible que los vectores de la base sean adimensionales , de forma que las dimensiones del tensor en consideraci´ on recaigan sobre sus componentes, tal y como sucede cuando se emplea la base cartesiana.
CAP ´ ITULO 4. CAMPOS TENSORIALES
84
Sin embargo, la base natural de un sistema de coordenadas generalizadas no es adimensional, sino que el vector ti = ∂ r/∂y i tiene dimensiones de [ r ]/[yi ], y por tanto s´olo ser´a adimensional si la coordenada generalizada y i tiene las mismas dimensiones que r. Este problema suele resolverse empleando la base natural normalizada correspondiente a las coordenadas y i , definida por
ˆti =
∂ r ∂y i ∂ r ∂y i
=
1 ti , hi
i = 1, . . . , n
(4.49)
(sin suma en i). Por construcci´on est´a claro que cada uno de estos vectores es unitario, y por tanto tambi´ en adimensional. Las componentes de vectores y tensores respecto de esta base se denominan componentes f´ısicas , y se caracterizan por tener las mismas dimensiones que el objeto tensorial que representan. Las leyes de transformaci´ on de tensores en componentes f´ısicas son algo m´as complicadas que en componentes hol´onomas, ya que incluyen contracciones con el tensor m´etrico y con su inversa. Por este motivo es usual usar las coordenadas respecto de la base natural para todo lo que son transformaciones de coordenadas y emplear las componentes f´ısicas, calculadas en funci´on de las anteriores, s´olo cuando ya no se van a realizar m´as cambios de coordenadas. Las componentes f´ısicas son las que se usan en la pr´actica en todos los casos en que la m´etrica en el espacio tangente sea Eucl´ıdea. En particular, si la m´etrica es Eucl´ıdea y se emplean coordenadas ortogonales, la base natural normalizada tiene la gran ventaja de ser una base ortonormal (cosa que en general no sucede con la base natural), lo cual simplifica enormemente todas las expresiones. Esto hace que las componentes f´ısicas sean las empleadas en las aplicaciones del c´alculo tensorial en ingenier´ıa. De hecho, las componentes f´ısicas son las que se emplean cuando se suministran expresiones para el c´alculo de divergencias, gradientes, etc. en sistemas de coordenadas curvil´ıneas ortogonales, como cil´ındricas o esf´ericas. Vector velocidad en componentes f´ ısicas
A partir de Ec. (4.49) es muy sencillo comprobar que la relaci´on entre la base cartesiana de partida (vectores ei , coordenadas xi ) y la base formada por los vectores tangentes unitarios (que en lo sucesivo denotaremos por ˆti ) est´a dada por i ˆt j = 1 ∂x ei , h j ∂y j ∂y i ˆ e j = h i j ti , ∂x
sin suma en j con suma en i
(4.50)
Como puede verse la matriz del cambio de base en este caso est´a dada por [J ][h−1 ], donde [J ] es la matriz jacobiana y [h−1 ] es una matriz diagonal cuyos elementos son los los inversos de los factores de escala. Consecuentemente las componentes f´ısicas de un vector del espacio tangente est´an dadas por u = u i ei = u i h j
∂y j ˆ ˆ j ˆt j ; t j = u ∂x i
u ˆ j = h j
∂y j i u, ∂x i
tal y como corresponde a un comportamiento 1-contravariante.
sin suma en j
(4.51)
4.3. EL ESPACIO VECTORIAL
N EN COORDENADAS CURVIL´ INEAS
85
i La base dual a ˆti ni=1 est´a dada por los vectores ˆt comprobarse f´ acilmente que esta base est´a dada por
{ }ni=1 que cumplen (ˆti, ˆt j ) = δ ji . Puede
{ }
i
ˆti = h i ∂y e j , sin suma en i (4.52) ∂x j Consecuentemente las componentes f´ısicas de un vector del espacio cotangente est´an dadas por 1 ∂x i ˆ j 1 ∂x i j ˆ ˆ j t ; u ˆ j = ui , u = u i e = u i t =u h j ∂y j h j ∂y j tal y como corresponde a una una ley tensorial 1-covariante. i
sin suma en j
(4.53)
Producto escalar y tensor m´ etrico en componentes f´ısicas
Dados dos vectores u y v del espacio tangente, su producto escalar estar´a dado por ˆi vˆ j u v = G ij ui v j = gˆij u
(4.54)
·
donde el tensor m´etrico en componentes f´ısicas est´a dado por la ley 2-covariante 1 ∂x k 1 ∂x l ˆ ˆ gˆij = ti t j = Gkl , hi ∂y i h j ∂y j
·
sin suma en ij
(4.55)
An´ alogamente, el producto escalar en t´erminos de las coordenadas covariantes est´a dado por ˆi vˆ j u v = G ij ui v j = gˆij u
·
(4.56)
donde gˆij est´ a dado por la ley de transformaci´on 2-contravariante ∂y i ∂y j i j gˆij = ˆt ˆt = h i k h j l Gkl , sin suma en ij (4.57) ∂x ∂x y por supuesto se verifica que ˆg ik gˆkj = δ ji . Tambi´ en se puede comprobar que el tensor m´etrico relaciona las componentes co- y contra-variantes en esta nueva base
·
u ˆi = gˆij u ˆ j ,
u ˆi = gˆij uˆ j
(4.58)
ˆti = gˆij ˆt j
(4.59)
y los vectores de la base con los de su dual ˆti = gˆij ˆt j , Componentes f´ ısicas en espacios Eucl´ ıdeos
Las componentes f´ısicas se emplean, como regla general, siempre que estemos trabajando en espacios Eucl´ıdeos. El motivo es que si el espacio vectorial de partida es Eucl´ıdeo (Gij = δ ij , Gij = δ ij ) y empleamos un sistema de coordenadas ortogonales , entonces el tensor m´etrico en la base de los vectores tangentes unitarios vuelve a ser, l´ogicamente, la identidad (ˆgij = δ ij , ˆg ij = δ ij ) lo que simplifica enormemente el c´alculo. Para comprobarlo basta recordar la definici´ on de los factores de escala h i (Ec. (4.45)). Como consecuencia las componentes f´ısicas co- y contra-variantes respecto de un sistema de coordenadas ortogonales en un espacio Eucl´ıdeo coinciden, y por este motivo es muy frecuente no hacer distici´on alguna entre unas y otras. Esto es lo que sucede generalmente cuando se suministran tablas con expresiones para los operadores diferenciales habituales (gradiente, divergencia, rotacional, . . . ) en coordenadas cil´ındricas o esf´ericas (o en cualquier otro sistema de coordenadas curvil´ıneas ortogonales). Siempre que se suministran estas expresiones sin hacer referencia al car´acter co- o contra-variante de las componentes empleadas se sobre-entiende que estamos manejando componentes f´ısicas en un espacio Eucl´ıdeo.
CAP ´ ITULO 4. CAMPOS TENSORIALES
86 4.3.3.
3
El espacio Eucl´ıdeo
en coordenadas cil´ındricas
En el resumen de resultados generales presentado en esta secci´ on y en la siguiente emplearemos ˜ la notaci´ on ( ) para todas las magnitudes referidas a la base natural y (ˆ) para la base natural normalizada.
z uz uθ
r
ur r
y θ
x Figura 4.10: Coordenadas cil´ındricas.
Las coordenadas cil´ındricas est´an definidas por el cambio de variable y1 y2 y3
= = =
r
=
θ =
√ x
2
+ y 2
x1
=
x
= r cos θ
y x
x2
=
y
= r sen θ
x3
=
z
arctan
z
Matriz jacobiana J i j
cos(θ) = sin(θ) 0
− (r sin(θ)) r cos(θ) 0
0 1 0
Vectores tangentes
cos(θ) , ˜ = sin(θ) 0 t1
(r sin(θ)) − ˜ = r cos(θ) , 0 t2
0 , ˜ = 0 1 t3
cos(θ) = sin(θ) , 0
˜t1
− � =
˜t2
sin(θ) r
cos(θ) r
0
� ,
˜t3
0 = 0 1
Vectores tangentes unitarios
cos(θ) , ˆ = sin(θ) 0 t1
sin(θ) − ˆ = cos(θ) , 0 t2
0 , ˆ = 01 t3
ˆt1
cos(θ) = sin(θ) , 0
ˆt2
sin(θ) − = cos(θ) , 0
Tensor m´ etrico g˜ij
1 = 0 0
0 r2 0
0 , 1 0
g˜ij
1 = 0 0
0 r
2
−
0
0 1 0
ˆt3
0 = 0 1
N EN COORDENADAS CURVIL´ INEAS
4.3. EL ESPACIO VECTORIAL
z
θ
r r
ur uφ uθ
y x
φ
Figura 4.11: Coordenadas esf´ericas.
4.3.4.
3
El espacio Eucl´ıdeo
en coordenadas esf´ ericas
Las coordenadas esf´ericas est´an definidas por el cambio de variable y1 y2 y3
=
r
=
=
θ =
=
φ =
√ x
2
+ y 2 + z 2
arctan arctan
√ x +y 2
2
z y x
x1
=
x
= r sen θ cos φ
x2
=
y
= r sen θ sen φ
x3
=
z
= r cos θ
Matriz jacobiana J i
j
Vectores tangentes
cos(φ) sin(θ) = sin(φ) sin(θ) cos(θ)
r cos(φ) cos(θ) r cos(θ) sin(φ)
− (r sin(θ))
− (r sin(φ) sin(θ)) r cos(φ) sin(θ) 0
cos(φ) sin(θ) r cos(φ) cos(θ) (r sin(φ) sin(θ)) − ˜ = sin(φ) sin(θ) , ˜ = r cos(θ) sin(φ) , ˜ = r cos(φ) sin(θ) cos(θ) − (r sin(θ)) 0 − � � cos(φ) sin(θ) , ˜ = ˜ = sin(φ) sin(θ) , ˜ = cos(θ) −� � t1
t2
t3
cos(φ) cos(θ)
csc(θ) sin(φ)
r
1
2
t
r
cos(θ) sin(φ)
t
r
t
3
cos(φ) csc(θ) r
sin(θ)
0
r
Vectores tangentes unitarios
cos(φ) sin(θ) cos(φ) cos(θ) sin(φ) − ˆ = sin(φ) sin(θ) , ˆ = cos(θ) sin(φ) , ˆ = cos(φ) cos(θ) − sin(θ) 0 cos(φ) sin(θ) cos(φ) cos(θ) sin(φ) − ˆ = sin(φ) sin(θ) , ˆ = cos(θ) sin(φ) , ˆ = cos(φ) cos(θ) − sin(θ) 0 1 0 0 1 0 0 , g˜ = g˜ = 0 r 0 0 r 0 0 0 r sin(θ) 0 0 t1
t2
1
2
t
Tensor m´etrico
t3
3
t
ij
t
ij
2
2
2
2
−
csc(θ)2 r2
87
CAP ´ ITULO 4. CAMPOS TENSORIALES
88
4.4.
Problemas
1. Dado el sistema Ec. (4.1), demostrar que la condici´ on necesaria para poder despejar las n+1 n+r coordenadas x ,...,x como funci´on de las restantes x1 , . . . , xn en un entorno del punto x0 es que la matriz Ec. (4.4) sea invertible en un entorno de dicho punto.
{
}
{
}
2. Demostrar que un vector v cualquiera, con origen en un punto r , pertenece al espacio tangente a la variedad en el punto r si y solo si v es el vector “velocidad” de alguna curva γ (s) contenida en que pase por r.
∈
3. Demostrar que el tensor m´etrico gij definido por Ec. (4.42) define una m´etrica de Riemann en el fibrado tangente al espacio vectorial n con m´etrica de Riemann dada por G ij . 4. Demostrar que la m´etrica g ij definida por Ec. (4.42) es esencialmente id´entica a G ij . 5. Dado el vector v = v i ti del espacio tangente a n , calcular las componentes co-variantes de este vector suponiendo que la base natural ti corresponde a un sistema de coordenadas curvil´ıneas ortogonales. 6. Calcular las componentes del tensor 2-covariante asociado al tensor 2-contravariante T ij respecto de la base natural correspondiente a un sistema de coordenadas ortogonales. 7. Verificar las relaciones Ec. (4.51) y Ec. (4.53) relativas a componentes f´ısicas de vectores. 8. Verificar las relaciones Ec. (4.55 y Ec. (4.57) relativas a las componentes f´ısicas del tensor m´etrico. 9. Verificar que el tensor m´etrico de un espacio Eucl´ıdeo en componentes f´ısicas es la identidad. 10. Verificar las relaciones referentes al espacio Eucl´ıdeo mencionadas al final del cap´ıtulo.
4.5.
3
en coordenadas cil´ındricas y esf´ericas
Bibliograf´ıa
Para escribir este cap´ıtulo se ha consultado [1], [2], [5], [7] y [11].
Cap´ıtulo 5
Derivaci´ on de campos tensoriales En este cap´ıtulo veremos los conceptos de transporte paralelo y derivada covariante. Esto nos permitir´a generalizar las operaciones basadas en derivaci´on direccional habituales en c´alculo al caso de campos tensoriales definidos sobre variedades diferenciables.
5.1.
Transporte paralelo
Una vez hemos definido los campos tensoriales sobre variedades diferenciables aparece la cuesti´on de su an´alisis. En particular nos encontramos con la siguiente cuesti´on: dado un campo vectorial definido sobre una variedad ⋆ ¿podemos comparar el valor del campo en un punto A con el valor en otro punto B ? La relevancia de esta cuesti´on es obvia. Por ejemplo, el campo al que nos referimos podr´ıa representar un campo de fuerzas, o de velocidades, de modo que nos preguntamos si la fuerza a la que est´an sometidos dos puntos distintos sobre la variedad es la misma, o si las velocidades a las que se desplazan dos part´ıculas puntuales sobre una variedad son iguales o no, y en caso de no serlo nos preguntamos en cu´anto difieren, es decir, cu´al es el vector diferencia. Tambi´ en es evidente que esta misma cuesti´on que estamos analizando para el caso de un campo vectorial se da de manera an´aloga para un campo tensorial de cualquier rango. A primera vista la pregunta anterior puede parecer trivial, pero no lo es. La dificultad est´a en que el valor del campo en el punto A es un vector del espacio tangente a la variedad en el punto A, mientras que el correspondiente valor en el punto B pertenece al espacio tangente en B, es decir, los dos vectores que queremos comparar pertenecen a espacios vectoriales distintos: ⋆ ¿podemos comparar dos vectores que no pertenecen al mismo espacio vectorial? Est´ a claro que la pregunta de si dos vectores son o no iguales s´olo est´a bien planteada cuando ambos vectores pertenecen al mismo espacio vectorial, con lo que podr´ıa parecer que la pregunta que hac´ıamos m´as arriba no tiene respuesta. Sin embargo, si la variedad en consideraci´on es el espacio Eucl´ıdeo n descrito en t´erminos de la base cartesiana la operaci´on de comparar un v(A) con un v(B) es trivial: basta con trasladar el vector v(A) sin modificarlo desde A hasta B, hecho esto podemos compararlos (en particular calcular su diferencia) sin ninguna dificultad. ⋆ ¿Podemos generalizar esta operaci´on al caso de una variedad diferenciable cualquiera? 89
´ DE CAMPOS TENSORIALES CAP ´ ITULO 5. DERIVACI ON
90
La respuesta a esta pregunta est´a condicionada por la presencia de curvatura en la variedad. Para entender esta cuesti´on es necesario estudiar con algo m´as de profundidad lo que se est´a haciendo cuando “trasladamos” el origen de un vector a lo largo de una variedad. Los espacios tangentes a una variedad en dos puntos distintos son espacios vectoriales distintos, pero est´an conectados por el hecho de ser ambos tangentes a la misma variedad diferenciable. Dada una variedad diferenciable y un sistema de coordenadas generalizadas (yi ), el espacio tangente en un punto r puede definirse como la envolvente lineal de los vectores tangentes a las l´ıneas coordenadas en ese punto (es decir, la envolvente lineal de la base natural en ese punto). Si ahora consideramos un desplazamiento infinitesimal en torno a r tenemos que la base natural ti habr´ a variado de forma infinitesimal para convertirse en ti + d ti , si el desplazamiento es infinitesimal esta variaci´on puede describirse en t´erminos de la base natural en r por medio de ∂ ti dti = j dy j = ∂y
� � tk ,
∂ ti ∂y j
tk dy j
(5.1)
donde las derivadas se eval´uan en el punto r de partida. Como consecuencia de esto los espacios tangentes en r y r + dr no son independientes, sino que est´an conectados por ser ambos tangentes a la misma variedad diferenciable. Esta conexi´on es lo que permite trasladar vectores a lo largo del fibrado tangente. En el caso de n Eucl´ıdeo en t´erminos de la base cartesiana la operaci´on de trasladar vectores es trivial debido a que el tensor m´etrico y la base del espacio tangente son constantes a lo largo de toda la variedad, de modo que para trasladar vectores sin modificarlos basta con desplazar su origen sin modificar los valores de sus componentes. La operaci´ on de desplazar un vector (o un campo tensorial de cualquier orden) a lo largo de una variedad, de manera paralela a s´ı mismo y a la variedad, se denomina transporte paralelo. Esta operaci´on implica que el vector que trasladamos se desplaza a lo largo de la variedad seg´un una determinada curva param´etrica: de manera paralela a la variedad, es decir, sin salirse del fibrado tangente, de manera paralela a s´ı mismo y sin modificar su norma. El transporte paralelo se generaliza al caso de campos tensoriales de cualquier orden. La idea en todos los casos es la misma, se trata de desplazar un tensor desde el punto A al punto B de forma paralela a la variedad, sin modificarlo (m´as bien modific´ andolo lo menos posible ), a lo largo de una curva determinada que una dichos puntos. Antes de entrar en los detalles t´ ecnicos sobre c´ omo se hace , est´a claro que esto estar´a condicionado por el rango tensorial de la magnitud que queremos transportar, por las propiedades de la variedad diferenciable sobre la que vamos a hacer el transporte (en particular por su curvatura), por el sistema de coordenadas empleado (ya que este determina la base natural del fibrado tangente) y por la curva param´etrica a lo largo de la que realizamos el transporte. En este sentido hay dos casos en los que el transporte paralelo es trivial, el transporte paralelo de escalares y el de tensores de cualquier orden en n Eucl´ıdeo en t´erminos de la base cartesiana: Es evidente que el transporte paralelo de escalares es trivial. Dado un campo escalar f definido sobre una variedad diferenciable, los valores de este campo en dos puntos (f (A) y f (B)) pueden compararse directamente, es decir, el transporte paralelo de la magnitud del campo en A (f (A)) a cualquier otro punto de la variedad est´a dado por f (A).
5.1. TRANSPORTE PARALELO
91
En el caso de n Eucl´ıdeo en t´erminos de la base cartesiana el transporte paralelo de tensores de cualquier orden es trivial, dado que en este caso la base del espacio tangente no var´ıa al desplazarnos a lo largo de la variedad, de forma que para transportar de manera paralela cualquier tensor basta con desplazar su origen sin modificar los valores de las componentes (Fig. 5.1 izda.). En cualquier otro caso el transporte paralelo es una operaci´on no trivial en la que entra en juego el rango tensorial de la magnitud transportada y la curvatura de la variedad. La presencia de curvatura en una variedad tiene consecuencias importantes en el transporte paralelo, ya que al realizarse este de manera paralela a la variedad, si la variedad tiene curvatura se introduce inevitablemente una cierta rotaci´on en el tensor, dependiente del camino considerado, a medida que se realiza el transporte. Por tanto la presencia de curvatura hace que el transporte paralelo dependa del camino. Esto se pone de manifiesto de manera expl´ıcita si consideramos la variedad desde el punto de vista extr´ınseco, como se muestra p. ej. en la figura 5.1 (dcha.) para el transporte de un vector sobre una superficie esf´erica (al final de este apartado volveremos sobre esta cuesti´on).
Figura 5.1: Transporte paralelo de un vector a lo largo de una curva cerrada en un plano y
en una esfera.
5.1.1.
S´ımbolos de Christoffel
Si nos desplazamos de manera continua y diferenciable a lo largo de una variedad diferencible observamos que la base natural va variando tambi´ en de manera continua y diferenciable, lo cual define una conexi´on entre los espacios tangentes a la variedad en distintos puntos, es decir, en todo el fibrado tangente. Esta conexi´on en el fibrado tangente induce la correspondiente conexi´o n en el fibrado co-tangente y por tanto tambi´ en en el espacio producto tensorial de cualquier potencia tensorial del primero por cualquier potencia tensorial del segundo. Esta conexi´on se denomina conexi´ on de Levi-Civita y est´a definida localmente por las derivadas de los vectores de la base natural respecto de cada una de las l´ıneas coordenadas.
´ DE CAMPOS TENSORIALES CAP ´ ITULO 5. DERIVACI ON
92 Conexi´ on de Levi-Civita
Si describimos la variedad por medio de un determinado sistema de coordenadas (definido al menos localmente en un cierto entorno), la conexi´on de Levi-Civita queda descrita en dicho sistema de coordenadas por medio de un conjunto de coeficientes, llamado coeficientes de la conexi´on, dados por las derivadas direccionales de los vectores de la base natural del espacio tangente en t´ erminos de esa misma base, es decir, por las componentes que aparec´ıan en la ec. (5.1). Estos coeficientes se denominan s´ımbolos de Christoffel de segunda especie , con frecuencia simplemente s´ımbolos de Christoffel , y se denotan habitualmente por Γkij Γkij = t k (a veces se emplea la notaci´ on
∂ ti ∂ ti kℓ · ∂y = g · t ℓ j ∂y j
(5.2)
� � k i j
). Normalmente las componentes que aparecen contra´ıdas con
g kℓ al final de la expresi´on anterior se definen como s´ımbolos de Christoffel de primera especie , y se denotan como Γijℓ (a veces se emplea la notaci´on [ij,ℓ]) Γijℓ = [ij,ℓ] = t ℓ
∂ ti · ∂y j
(5.3)
de modo que los s´ımbolos de Christoffel de segunda especie est´an dados por Γkij
� �
=
� � k
i j
= g kℓ Γijℓ
(5.4)
Las notaciones i k j y [ij,ℓ] se emplean a veces para recalcar que estos coeficientes no se transforman ba jo cambios de base como las componentes de un tensor, tal y como veremos m´as adelante. Los s´ımbolos de Christoffel est´an totalmente determinados por las derivadas parciales del tensor m´etrico respecto de las coordenadas generalizadas empleadas. Para convencernos de esto observamos en primer lugar que como consecuencia de la propia definici´on de la base natural (ec. (4.36)) se cumple ∂ ti ∂ t j ∂ 2 r = i = i j (5.5) ∂y j ∂y ∂y ∂y y por tanto los s´ımbolos de Christoffel de primera y segunda especie cumplen las reglas de simetr´ıa k Γkij = Γ ji ,
Γijk = Γ jik
(5.6)
por este motivo se dice que la conexi´on de Levi-Civita es sim´etrica. Para calcular los s´ımbolos de Christoffel en t´erminos de las derivadas del tensor m´etrico observamos que ∂g ij ∂ ti ∂ t j gij,ℓ = + (5.7) t ti j ∂y ℓ ∂y ℓ ∂y ℓ
≡
·
·
donde hemos introducido la notaci´on “ ,i ” para denotar la derivada parcial respecto de la coordenada generalizada y i . En lo sucesivo emplearemos esta notaci´on constantemente. Permutando de manera c´ıclica los ´ındices ij ℓ en la anterior expresi´on es inmediato comprobar que 1 Γijℓ = (gℓi,j + gℓj,i 2
− gij,ℓ)
(5.8)
93
5.1. TRANSPORTE PARALELO
Como consecuencia los s´ımbolos de Christoffel de segunda especie pueden calcularse por medio de 1 Γkij = g kℓ (gℓi,j + gℓj,i 2
− gij,ℓ)
(5.9)
en t´erminos (exclusivamente) del tensor m´etrico y sus primeras derivadas respecto de cada coordenada. Por tanto los s´ımbolos de Christoffel son una propiedad intr´ınseca de la variedad, ya que pueden calcularse sin hacer referencia a nada externo a la propia variedad en consideraci´on. Esto hace que el transporte paralelo y la derivada covariante, ambos definidos a partir de la conexi´on de Levi-Civita, sean tambi´en propiedades intr´ınsecas de la variedad. La propiedad m´as importante que define los s´ımbolos de Christoffel de segunda especie es que expresan c´omo var´ıan los vectores de la base, en t´erminos de esa misma base, al desplazarnos por la variedad. Re-escribiendo la ec. (5.2) esto queda como ∂ ti = Γkij tk j ∂y
(5.10)
que expresa la conexi´on del fibrado tangente. Estos mismos coeficientes determinan tambi´ en la conexi´on del fibrado co-tangente. Para verlo j basta con derivar respecto de la coordenada y la expresi´ on tk ti = δ ik
·
(5.11)
que es constante a lo largo del fibrado tangente, de donde se deduce inmediatamente ∂ tk = ∂y j
−Γkij ti
(5.12)
que expresa c´omo var´ıa la base dual, en t´erminos de la propia base dual, al desplazarnos por la variedad. Los s´ımbolos de Christoffel describen por tanto la conexi´on en los fibrados tangente y co-tangente de manera local, es decir, en un cierto entorno alrededor de cada punto de la variedad. Ley de transformaci´ on de los s´ ımbolos de Christoffel
� �
Tal y como ya hemos mencionado la notaci´on [ij,k] y i k j se usa a veces para resaltar el car´acter no tensorial de los s´ımbolos de Christoffel. De hecho, si pasamos a un nuevo sistema de coordenadas curvil´ıneas y¯ j se puede ver que los s´ımbolos de Christoffel en las nuevas coordenadas est´an dados por la ley de transformaci´on p q yn ∂ 2 y p ∂ ¯ yn r ¯ n = ∂y ∂y ∂ ¯ Γ Γ + lm ∂ ¯ y l ∂ ¯ ym ∂y r pq ∂ ¯ yl ∂ ¯ y m ∂y p
(5.13)
Esta ley ser´ıa una ley de transformaci´on tensorial 2-covariante 1-contravariante de no ser por el t´ermino af´ın que aparece en el segundo sumando de ec. (5.11). Como puede verse este t´ermino aparecer´a siempre que la transformaci´on de coordenadas y i = y i (¯ y j ) sea no lineal, siendo nulo s´olo en el caso de una transformaci´on de coordenadas lineal. Por tanto los s´ımbolos de Christoffel no son las componentes de un tensor. El car´ acter no tensorial de los s´ımbolos de Christoffel est´a relacionado con el car´acter no tensorial de la derivaci´on parcial respecto de la coordenadas generalizadas, tal y como veremos al final de este cap´ıtulo.
´ DE CAMPOS TENSORIALES CAP ´ ITULO ITULO 5. DERIV DERIVAC ACI I ON
94
S´ımbolos de Christoffel Christoffe l en coordenadas coord enadas curvil´ curvil´ıneas ortogonales ortogonal es
Si empleamos un sistema de coordenadas co ordenadas curvil´ıneas ıneas ortogonales ortog onales los unicos u ´ nicos elementos no nulos 2 del tensor m´etrico etrico son los de la diagonal, dia gonal, dados dado s por p or g g ii = h = h i , en ese caso los s´ımbolos de Christoffel est´an an dados dad os por po r
− −
1 ∂h i2 , 2 ∂y j 1 ∂h j2 + , 2 ∂y i 1 ∂h i2 δ ij ij , 2 ∂y k +
Γijk =
1 ∂h i , hi ∂y j 1 ∂h j + , h j ∂y i +
k Γij =
hi ∂h i δ ij ij , hk2 ∂y k
si
= i k = i
si
k = j = j
si
k = i y k = j
si
k = i = i
si
k = j = j
si
k = i y k = j
(5.14)
̸
̸
(5.15)
̸
̸
donde, l´ogicamente, ogicamente, no hay suma ni en i en i ni en j en j . 5.1.2.
S´ımbolos de d e Christoffel Christo ffel en componentes co mponentes f´ısicas
Siempre Siempre que se trabaja en espacios espacios Eucl´ Eucl´ıdeos lo m´as as habitua habituall es emplea emplearr las com compone ponent ntes es f´ısicas de vectores y tensores, dadas por po r las componentes respecto de la base natural normalizada. La conexi´on on de Levi-Civita descrita en t´erminos erminos de la base natural normalizada est´a dada por los s´ımbolos de Christoffel en componentes f´ısicas, o simplemente s´ s´ımbolos ımbol os de Christ Chr istoffe offell f´ısicos ısi cos . A partir de la definici´on on de la base natural normalizada es f´acil acil deducir las relaciones 1 ∂ ˆti ˆ k ˆ = Γij tk h j ∂y j i 1 ∂ ˆt = h j ∂y j
(5.16)
−Γˆ kji ˆtk
(5.17)
donde los s´ımbolos ımbolo s de Christoffel Christo ffel f´ısicos est´an an dados por ˆk Γ ij
h = k hi h j
�
k Γij
−
∂ ln ln hi δ ik j ∂y
�
(5.18)
donde no hay suma en ning´ un un ´ındice. ındice . La expresi´ expr esi´on on anterior puede calcularse en t´erminos erminos del tensor m´etri et rico co como co mo gkk giℓ k k ℓ ˆk = Γ Γ δ Γij (5.19) ij ij i gii g jj gii g jj
√ √ √
−
√
donde s´olo olo se aplica el convenio de suma de Einstein al ´ındice ℓ ındice ℓ,, no hay suma respecto de los dem´as ´ındi ın dice ces. s.
95
5.1. TRANSPOR TRANSPORTE TE PARALELO PARALELO
etricos etricos bajo baj o Observaci´ on: on: Es importante darse cuenta de que los Christoffel f´ısicos no son sim´ intercambio intercambi o de sub-´ sub-´ındices i
↔ j, j , es decir
k k Γij = Γ ji ,
ˆ k = ˆΓk Γ ij ji
pero en general general
̸̸
(5.20)
Por otra parte, derivando respecto de la coordenada generalizada y j en ˆti ˆti = 1 (sin suma en i), i ), que se cumple por definici´on on de base natural normalizada, encontramos que los Christoffel f´ısicos cumplen la propiedad gik ˆ k Γ = 0, sin suma en i en i (5.21) hk ij donde s´olo olo se aplica a plica el convenio de suma de Einstein al ´ındice k .
·
S´ ımbolos ımbo los de Christo Chr istoffel ffel f´ ısicos ısic os en coorden coo rdenadas adas curvil curv il´ ´ ıneas ınea s ortogon ort ogonales ales
En el caso particular particular de un sistema sistema de coordenadas coordenadas curvil´ curvil´ıneas ortogonales los s´ımbol ım bolos os de Christ Chr istoffe offell f´ısicos ısi cos est´ est´an an dados por
ˆk Γ ij
=
0,
si
k = i (5.22)
hk k Γ , hi h j ij
si
k = i
̸̸
que por medio de (5.15) se puede poner como ˆk Γ ij 5.1.3. 5.1.3.
1 = h j
�
δ jk ∂h k hi ∂y i
−
δ ij ij ∂h j hk ∂y k
�
(5.23)
Transpor ransporte te paralel paralelo o de vecto vectores res y tensores tensores
La conexi´on on de Levi-Civita que acabamos de definir nos permite realizar el transporte paralelo de vectores y tensores a lo largo del fibrado tangente. Supongamos el vector v perteneciente al espacio tangente en el punto A y la curva param´etrica etrica γ (λ) que une dos puntos A y B de la variedad (supondremos que γ que γ (0) (0) = A = A y γ (1) γ (1) = B = B ). Para realizar el transporte paralelo de v desde A hasta B a lo largo de la curva γ (λ) tenemos que calcular la funci´on on v(λ), tal que a cada valor de λ de λ le asigna el vector (del fibrado tangente) resultado del transporte paralelo de v desde A desde A hasta el correspondien correspondiente te punto punto γ (λ). La condici´on on que define el transporte paralelo seg´un un la curva γ (λ) es que la magnitud transportada se desplaza seg´un un dicha curva sin modificarse , es decir, para el transporte paralelo del vector v esto se traduce en la condici´on on dv (λ) =0 dλ Por medio de la regla de la cadena esta condici´on on puede ponerse como ∂ v j V = 0 ∂y j
(5.24)
(5.25)
donde hemos definido V j como la componente j del vector velocidad de la curva γ respecto γ respecto de la i base natural correspondiente al sistema de coordenadas generalizadas y . Expresando el vector en componentes respecto de dicha base ( v = v = v i ti ) la anterior condici´on on queda como
�
�
∂v i i + v k Γkj ti V j = 0 j ∂y
(5.26)
´ DE CAMPOS TENSORIALES CAP ´ ITULO ITULO 5. DERIV DERIVAC ACI I ON
96
que expresa la condici´on on de no variaci´on on del vector v a lo largo de la curva γ . Esta condici´on o n se cumple de manera independiente de la curva considerada, al menos localmente, siempre que se cumpla i v,ji + v + v k Γkj =0 (5.27) por tanto esta condici´on on define, al menos localmente, c´omo omo var´ var´ıan las componentes del vector i = v ti al transportarlo de manera paralela en un entorno del punto A. A . v = v Si en lugar del desarrollo en t´erminos erminos de la base del espacio tangente expresamos v por medio de las componentes co-variantes v = v = v i ti el resultado equivalente a la anterior ec. (5.27) es
− vk Γijk = 0
(5.28)
vi,j
Las condiciones anteriores permiten realizar el transporte paralelo en un entorno infinitesimal alrededor del punto A. Integrando Integrando la relaci´ relaci´on on ec. (5.27) a lo largo de una curva curva γ (λ) que una los puntos A puntos A y B podemos (al menos en principio) calcular el transporte paralelo de cualquier vector v desde A hasta B . En este sentido es importante observar que al integrar ec. (5.27) a lo largo de una curva con longitud finita, el resultado del transporte paralelo s´olo ser´ a independiente del camino empleado si la variedad considerada es plana, pero para variedades dotadas de curvatura el resultado depender´a, a, en general, de la curva γ (λ) considerada (ver m´as as abajo). n El transporte paralelo paralelo en el espacio espacio Eucl´ Eucl´ıdeo , descrito descrito en t´ erminos erminos de la base can´ onica, onica, proporciona un ejemplo interesante especialmente sencillo. En ese caso la base del espacio tangente es constante, todos los Christoffel son nulos, y la condici´on que define el transporte paralelo se reduce a v,ji = 0, es decir, se traslada el origen del vector v sin modificar los valores de sus componentes, tal y como mencion´abamos abamos al inicio del cap´ cap´ıtulo. En este caso particular vemos tambi´en en que el transporte paralelo entre dos puntos no depende del camino, lo cual es consecuencia de que el espacio espa cio Eucl Euc l´ıdeo ıde o n es plano. En el caso general la base del espacio tangente no es constante a lo largo de la variedad, sino que var´ ar´ıa de manera suave, suave, estando estando esta variaci´ on on descrita descrita por los s´ımbolos de Christoffel. Christoffel. En ese caso la regla para realizar el transporte paralelo de un vector ya no puede ser “constancia de las componentes”, ya que al variar la base de un punto a otro, los valores de las componentes del vector deben variar de manera que se compense la variaci´on de la base, de tal forma que el resultado resultado neto del transporte paralelo sea transportar el vector sin modificarlo a lo largo del camino γ (λ) considerado. La condici´on on que define el transporte paralelo de un tensor de rango arbitrario se define de manera an´ aloga a como hemos hecho para el caso, m´as aloga as intuitivo, de un vector. En el caso de un tensor r tensor r-covariante -covariante s s-contravariante -contravariante ... ... is T = T ji11 j i22 ... ... jr t i1
⊗ ti ⊗ . . . ⊗ ti ⊗ t j ⊗ t j ⊗ . . . ⊗ t j 1
2
2
r
s
(5.29)
imponiendo la condici´on on dT (λ) =0 dλ
(5.30)
para cualquier curva γ (λ) que una los puntos A y B , al menos localmente, deducimos que la condici´on on que define el transporte paralelo de este tensor es s
...is T ji11 ji22...j + r ,k
∑
m=1
r
...pm ...is im T ji11 ji22...j Γ pm k r
∑ −
n=1
...is T ji11 ji22...q Γqn = 0 n ...jr jn k
(5.31)
5.1. TRANSPORTE PARALELO
97
tal y como puede deducirse f´acilmente siguiendo los mismos pasos que nos han llevado a las relaciones ec. (5.27) y ec. (5.28). Como puede verse, cada componente contravariante introduce un t´ermino adicional dado por la derivada de cada ti y cada componente covariante introduce a su vez un t´ermino adicional dado por la derivada de cada ti . Por otra parte, por medio de ec. (5.16) y ec. (5.17) podemos obtener las relaciones, totalmente equivalentes a las anteriores, que definen el transporte paralelo en t´erminos de las componentes f´ısicas. Como caso particular, si el tensor T es un escalar (0 componentes covariantes y 0 componentes contravariantes) la relaci´ on anterior se reduce de manera trivial a T ,k = 0, independientemente de la variedad y del sistema de coordenadas empleado, tal y como mencion´abamos al inicio del cap´ıtulo para el transporte paralelo de escalares. Esto significa que el transporte paralelo del producto escalar u v es igual al producto escalar de estos dos vectores en el punto de partida.
·
5.1.4.
Curvatura
Estrictamente hablando las anteriores relaciones (ec. (5.27), ec. (5.28), o en general ec. (5.30)) permiten realizar el transporte paralelo de un tensor cualquiera solamente de manera local , es decir, desde un punto A hasta un punto infinitamente pr´oximo A+dA. Para realizar el transporte paralelo desde A hasta un punto B, que diste de A una cierta distancia finita, ser´a necesario integrar la ecuaci´on diferencial ordinaria ec. (5.30) a lo largo de alguna curva γ (λ) que una los dos puntos de inter´es. En este caso nos preguntamos si el resultado del transporte paralelo depende o no de la curva γ (λ) empleada para calcularlo, en particular si realizamos el transporte paralelo en un circuito cerrado: ⋆ ¿recuperamos el tensor de partida? En general el transporte paralelo s´olo es independiente del camino en variedades diferenciables planas , y en ese caso est´a claro que el transporte paralelo de un tensor en cualquier circuito cerrado es igual al tensor de partida. En el caso de variedades dotadas de curvatura el transporte paralelo de A a B depende del camino empleado para unir A con B (ver fig. 5.1), y en ese caso se dice que la conexi´on del espacio tangente no es integrable. El motivo es que el transporte paralelo se realiza de manera paralela a la variedad, por tanto, si la variedad est´a curvada al transportar un tensor se introduce inevitablemente cierta rotaci´on en el tensor. Dado que la rotaci´on introducida por el transporte paralelo depende del camino γ (λ) considerado, el resultado del transporte en un circuito cerrado puede no reproducir el tensor de partida, sino el tensor de partida rotado un cierto ´angulo, dependiente del circuito cerrado recorrido (ver p. ej. fig. 5.1 dcha. para el caso de un vector transportado de manera paralela en una esfera). Por tanto, en general el transporte paralelo depende del camino. De todas formas, el transporte paralelo a lo largo de una curva dada siempre est´a bien definido, y la posibilidad de que el resultado no dependa de la curva considerada, sino s´olo de los extremos, depende de la presencia de curvatura en la variedad. Volviendo a la cuesti´on con la que abr´ıamos este cap´ıtulo, sobre la posibilidad de comparar vectores del fibrado tangente con origen en puntos distintos de una variedad, vemos que, en general, la noci´o n de paralelismo de vectores depende del camino escogido para unir los dos puntos en consideraci´on. S´olamente en el caso de una variedad plana podemos determinar si dos vectores del fibrado tangente son o no parelelos independientemente del camino que tomemos para unir sus or´ıgenes. Por otra parte, las normas de estos vectores (o en general cualquier escalar) s´ı pueden compararse de manera independiente del camino, sea cual sea la variedad.
´ DE CAMPOS TENSORIALES CAP ´ ITULO 5. DERIVACI ON
98
Tensor de curvatura de Riemann
Veamos con algo m´as de detalle cu´al es la variaci´on que experimenta un vector contravariante v i al transportarlo de manera paralela en un circuito cerrado infinitesimal. Para ello transportamos en primer lugar el vector v i desde el punto r hasta el punto r ′ , resultado de incrementar la coordenada y p en una cantidad infinitesimal dy p . El vector resultado de este desplazamiento infinitesimal tiene componentes i v i + v,p dy p = v i v k Γikp dy p (5.32)
−
donde los coeficientes de la conexi´on Γikp est´an evaluados en el punto r , y donde no hay suma en el ´ındice p. A continuaci´on trasladamos este vector de forma paralela seg´ un la coordenada y q , obteniendo como resultado el vector vi
− vkΓikp dy p +
�− vi
v k Γikp dy p
�
,q
dy q = v i
− vk Γikp dy p −
�− vℓ
v k Γℓkp dy p
�( ��
′
(5.33)
′
el coeficiente
Γiℓq dy q
donde no hay suma ni en p ni en q . En la anterior expresi´on hemos denotado por Γiℓq
de la conexi´on Γiℓq evaluado en el punto r′ , por medio de un desarrollo en serie este coeficiente est´a dado por ′ Γiℓq = Γiℓq + Γ iℓq,pdy p (5.34)
(
donde no hay suma en p. Por tanto, despreciando t´erminos de orden superior a 2 en dy j , el vector resultado de los desplazamientos sucesivos seg´un dy p seguido de dy q est´ a dado por v
i
−
v k Γikp dy p
−
v k Γikq dyq
−v
k
�
Γikq,p
�
Γikp,q
−
Γiℓq Γℓkp
�
dy p dyq
�
dy p dyq
(5.35)
donde no hay suma ni en p ni en q . Intercambiando p con q en la expresi´on anterior encontramos el resultado correspondiente a realizar estos desplazamientos en orden inverso vi
− vk Γikp dy p − vk Γikq dyq − vk
− ΓiℓpΓℓkq
(5.36)
La diferencia entre estos 2 resultados es igual a la variaci´on que experimenta el vector v i al transportarse de manera paralela a lo largo del circuito cerrado definido por los desplazamientos sucesivos seg´ un dy q , dy p , dy q , dy p . El resultado puede escribirse como
−
−
v i (dyq , dy p )
i − vi(dy p, dyq ) = Rkpq v k dy p dyq
(5.37)
i como donde se define el tensor de curvatura de Riemann R kpq i = ∂ p Γikq Rkpq
− ∂ q Γikp + ΓiℓpΓℓkq − Γiℓq Γℓkp
(5.38)
de forma que el transporte paralelo de un vector en un circuito cerrado infinitesimal deja invariante al vector s´olo si el tensor de curvatura de Riemann es nulo. De manera an´aloga a como hemos hecho para el caso de un vector, se puede calcular c´omo var´ıa un tensor de rango arbitrario al recorrer un circuito cerrado infinitesimal, y puede verse f´acilmente que el resultado an´alogo a la ec. (5.38) para el caso de un tensor de rango arbitrario tambi´ en puede escribirse en t´erminos del tensor de curvatura de Riemann. i describe de manera local la curvatura de una variedad de Riemann con conexi´ El tensor R kpq on k dada por Γij y es uno de los ob jetos centrales de estudio en geometr´ıa diferencial. Este objeto tambi´ en se aplica a variedades pseudo-Riemannianas, siendo uno de los ingredientes b´asicos de la teor´ıa general de la relatividad de Einstein.
99
5.2. DERIVADA COVARIANTE
5.2.
Derivada covariante
La derivada covariante es la generalizaci´on de la derivada parcial habitual al caso de campos tensoriales definidos sobre variedades diferenciables, descritas en t´ erminos de un sistema de coordenadas generalizadas. Si aplicamos la definici´on de derivada df f (x + h) = l´ım dx h→0 h
− f (x)
a una magnitud tensorial definida sobre una variedad diferenciable, vemos que esto implica comparar magnitudes pertenecientes a los espacios tangentes en dos puntos distintos: x + h y x. Por tanto para calcular una derivada direccional sobre una variedad necesitamos transportar de manera paralela la magnitud f (x) al punto x + h, para lo cual debemos tener en cuenta c´omo var´ıa la base del espacio tangente, tal y como hemos hecho en el apartado anterior. ⋆ En este curso emplearemos la siguiente notaci´ on: ∂f • f ,i ≡ ∂ if ≡ ∂y derivada parcial de f respecto de la coordenada generalizada y i . i • f ;i ≡ ∂ ;if ≡ derivada covariante de f respecto de la coordenada generalizada y i. Conviene tener presente que en muchos textos se emplea la notaci´on f ,i directamente para la derivada covariante (en ese caso no se define ninguna notaci´on especial para la derivada parcial). Otra notaci´ on habitual en la literatura para la derivada covariante es f |i , o f /i , sobre todo en textos antiguos. Para las derivadas de orden superior emplearemos la notaci´on siguiente: 2
• f ,ij = ∂y∂ i∂yf j • f ;ij = (f ;i); j • f ;i i ...i = . . . (f ;i );i 1 2
n
�
1
2
...
�
;in
La derivada covariante se define como la operaci´on de derivada direccional que tiene en cuenta las variaciones de la base del espacio tangente. Por ejemplo, tomando la derivada respecto de la coordenada curvil´ınea y j del vector a = a i ti encontramos ∂ a ∂a i ∂ ti a; j = j = j ti + ai j = ∂y ∂y ∂y
�
�
∂a i + Γikj ak ti j ∂y
(5.39)
Por tanto, la derivada covariante del vector de componentes contravariantes a i se define como ai; j = a i,j + Γ ikj ak
(5.40)
y tal y como comprobaremos m´as adelante a i; j es un tensor 1-covariante 1-contravariante. An´ alogamente, la derivada covariante del vector de componentes covariantes a i se define como ∂ a ∂a i i ∂ ti = = + a = a; j t i ∂y j ∂y j ∂y j
�
∂a i ∂y j
−
Γkij ak
�
ti
(5.41)
´ DE CAMPOS TENSORIALES CAP ´ ITULO 5. DERIVACI ON
100 por tanto definimos
ai; j = a i,j
− Γkij ak
(5.42)
y puede comprobarse que a i,j es un tensor 2-covariante. Aplicando esta operaci´on en el caso general de un tensor r-covariante s-contravariante ... is T = T ji11 j i22 ... jr t i1
⊗ ti ⊗ . . . ⊗ ti ⊗ t j ⊗ t j ⊗ . . . ⊗ t j 1
2
2
(5.43)
r
s
su derivada covariante respecto de la coordenada y k est´a dada ...is T ;k = T ji11 ji22...j ti r ;k 1
⊗ ti ⊗ . . . ⊗ ti ⊗ t j ⊗ t j ⊗ . . . ⊗ t j 1
2
2
(5.44)
r
s
cuyas componentes est´an dadas por s
...is T ji11 ji22...j r ;k
...is = T ji11 ji22...j + r ,k
∑
r
...pm ...is im T ji11 ji22...j Γ pm k r
m=1
∑ −
...is T ji11 ji22...q Γ qn n ...jr jn k
(5.45)
n=1
De esta forma la condici´on de constancia del tensor T a lo largo de una curva param´etrica γ (λ) con velocidad V j t j , dada por ec. (5.30), se reduce a ...is dT ji11 ji22...j r
...is = T ji11 ji22...j V k = 0 r ;k
(5.46) dλ Por tanto dada una curva param´etrica, el producto de contracci´ on de la derivada covariante con el vector velocidad de la curva proporciona la derivada del tensor a lo largo de la curva, denominada con frecuencia derivada absoluta a lo largo de la curva. Propiedades de la derivada covariante
La derivada covariante es la generalizaci´on al caso de coordenadas curvil´ıneas de la derivada parcial en coordenadas cartesianas, tiene el mismo significado y las mismas propiedades, entre ellas resumimos las siguientes: La derivada covariante conserva el car´acter tensorial aumentando en 1 el orden covariante del tensor. La derivada covariante de un tensor constante es nula. La derivada covariante en el espacio Eucl´ıdeo derivada parcial habitual.
n
en coordenadas cartesianas se reduce a la
La derivada covariante cumple las propiedades algebraicas habituales de una operaci´o n de derivaci´on, en particular es una operaci´on lineal (A + B );i = A;i + B ;i
(5.47)
y cumple la regla de Leibnitz para la derivaci´on de productos (A
⊗ B);i = A;i ⊗ B + A ⊗ B;i
(5.48)
La variaci´on de T a lo largo de un desplazamiento infinitesimal dy i est´ a dada por dT = T ;i dy i . La derivada covariante del tensor m´etrico es nula gij;k = 0,
ij g;k =0
(5.49)
Como consecuencia de esto la operaci´on de derivada covariante conmuta con las operaciones de subida y bajada de ´ındices.
101
5.2. DERIVADA COVARIANTE
Aplicaci´ on al caso de escalares, vectores y tensores de orden 2
Los casos de mayor inter´es en f´ısica corresponden a los tensores de orden bajo habituales. Como puede verse, la derivada covariante de una funci´on escalar coincide con la derivada parcial habitual f ;i = f ,i
(5.50)
En el caso de un vector contravariante v i , su derivada covariante est´a dada por v;i j = v ,ji + Γikj v k
(5.51)
y para un vector covariante v i encontramos vi; j = v i,j
− Γkij vk
(5.52)
Para la derivada covariante de un operador lineal (tensor 1-covariante 1-contravariante) encontramos A ji;k = A ji,k + Γ j pk A pi Γqik A jq (5.53)
−
El resultado para tensores 2-contravariante o 2-covariante est´ a dado por ij j i pj ip Aij ;k = A ,k + Γ pk A + Γ pk A
Aij;k = A ij,k
(5.54)
− Γ pik A pj − Γ p jk Aip
(5.55)
respectivamente. Como puede verse, cada ´ındice covariante o contravariante de un tensor introduce un t´ermino af´ın en la derivada covariante, dado por la contracci´ on de ese ´ındice con el s´ımbolo de Christoffel correspondiente, +Γ para los ´ındices contravariantes y Γ para los ´ındices covariantes. La ecuaci´on general (5.45) puede parecer complicada, sin embargo para deducirla basta tener en cuenta las ecuaciones (5.51) y (5.52) para el caso de tensores de orden 1. Para calcular la derivada covariante respecto de y j de un tensor de rango arbitrario lo u ´ nico que hay que hacer es calcular la derivada parcial correspondiente y a˜ nadir un t´ermino an´a logo a Γikj v k por cada ´ındice i contravariante y un t´ ermino an´ alogo a Γkij vk por cada ´ındice i covariante. Las relaciones anteriores para el caso de tensores de orden 2 (ecs. (5.53-5.55)) proporcionan un ejemplo.
−
•
5.2.1.
−
•
Comportamiento tensorial de la derivada covariante
La derivada covariante es una operaci´on bien definida desde el punto de vista tensorial. Esto significa que, dado un tensor de rango arbitrario T , el objeto dado por T ;k tk (con suma en k) es un tensor, es decir, un objeto geom´etrico independiente del sistema de referencia empleado para calcularlo. Concretamente, el tensor T ;k tk est´a dado por ...is T ;k tk = T ji11 ji22...j ti r ;k 1
⊗ ti ⊗ . . . ⊗ ti ⊗ t j ⊗ t j ⊗ . . . ⊗ t j ⊗ tk 2
1
s
2
r
(5.56)
y se define como el gradiente del tensor T (a veces se dice gradiente covariante ), de esta manera generalizamos el concepto de gradiente, familiar para el caso de escalares, al caso de tensores de rango arbitrario. En los primeros cap´ıtulos de este curso hemos estudiado el significado del concepto de tensor, y hemos visto que la invariancia de un tensor bajo cambios de base implica que sus componentes se transforman de una determinada forma al realizar un cambio de base en el espacio. En el caso de la derivada covariante esto implica que si T es un tensor de orden r-covariante ...is s-contravariante, las componentes de su derivada covariante (T ji11 ji22...j ) se transforman seg´ un una r ;k
102
´ DE CAMPOS TENSORIALES CAP ´ ITULO 5. DERIVACI ON
ley tensorial tipo r + 1-covariante s-contravariante bajo reparametrizaciones de la variedad. Por tanto, la derivada covariante incrementa en una unidad el orden covariante del objeto sobre el que se aplica. En particular, las componentes de la derivada covariante de una funci´on escalar forman un vector, las componentes de la derivada covariante de orden 2 de un escalar definen un tensor de orden 2, de igual manera que la derivada covariante de un vector tambi´ en define un tensor de orden 2. Es evidente que una ley f´ısica, para ser v´alida, debe ser independiente del sistema de coordenadas empleado para formularla. Por tanto, el car´ acter invariante de la derivada covariante bajo cambios de coordenadas hace que esta sea la operaci´on de derivaci´on direccional adecuada para formular leyes f´ısicas que involucren variaciones espaciales de campos tensoriales. Derivada covariante de escalares
En el caso de un escalar (f ) la derivada covariante coincide con la derivada parcial habitual. Como consecuencia de esto el objeto dado por f ,i ti
(5.57)
es invariante bajo cambios de coordenadas, lo que implica que f ,i son las componentes de un vector covariante, que se define como el vector gradiente del escalar f . Dado que la demostraci´on de estas cuestiones no es demasiado complicada, la dejamos para los ejercicios. Sin embargo las segundas derivadas parciales de f no definen un tensor, es decir, el objeto definido por f ,ij ti t j no est´a bien definido desde el punto de vista tensorial ya que depende del sistema de coordenadas empleado. Esto se debe a que para calcular las segundas derivadas del escalar f , es decir, las derivadas de orden 1 del vector gradiente, debemos tener en cuenta tambi´ en c´omo var´ıa la base natural del espacio co-tangente. Si tenemos esto en cuenta es f´acil verificar que el objeto dado por las segundas derivadas covariantes del escalar f f ;ij ti t j
(5.58)
s´ı es invariante bajo reparametrizaciones de la variedad, por tanto las componentes f ;ij corresponden a un tensor 2-covariante. Derivada covariante de vectores
En este apartado verificaremos paso a paso la ley de transformaci´on de la derivada covariante de vectores. Para ello recordamos en primer lugar la ley de transformaci´on (no tensorial) de los coeficientes de la conexi´on de Levi-Civita bajo la reparametrizaci´on y i y¯i , dada por
→
∂y p ∂y q ∂ ¯ yn r ∂ 2 y p ∂ ¯ yn n ¯ Γℓm = Γ + ℓ m p ∂ ¯ y ℓ ∂ ¯ ym ∂y r pq ∂ ¯ y ∂ ¯ y ∂y
Multiplicando por la matriz inversa de ∂ ¯ y n /∂y p (es decir, teniendo en cuenta que δ ps ) y despejando deducimos s ∂ 2 ys n ∂y ¯ = Γℓm n ∂ ¯ y ℓ ∂ ¯ ym ∂ ¯ y
relaci´on que emplearemos m´as abajo.
−
∂ y p ∂y q s Γ ∂ ¯ y ℓ ∂ ¯ y m pq
(5.59) ∂y s ∂ ¯ yn ∂ ¯ y n ∂y p
=
∂y s ∂y p
=
(5.60)
103
5.2. DERIVADA COVARIANTE
Veamos primero el caso de un vector covariante T i . Por definici´on las componentes de este vector se transforman seg´ un k ¯i = ∂y T k T (5.61) ∂ ¯ yi Derivando esta relaci´on respecto de la coordenada y¯ j (nos referimos a la derivada parcial ordinaria) y aplicando la regla de la cadena encontramos ∂ ¯ T i ∂ 2 yk ∂ y k ∂T k = i j T k + ∂ ¯ y j ∂ ¯ y ∂ ¯ y ∂ ¯ y i ∂ ¯ y j
(5.62)
La derivada parcial de la componente “antigua” T k respecto de las coordenadas “nuevas” y¯ j puede calcularse por medio de la regla de la cadena como ∂T k ∂T k ∂y q = ∂ ¯ y j ∂y q ∂ ¯ y j
(5.63)
Teniedo esto en cuenta y sustituyendo la derivada segunda de y k por medio de ec. (5.60) llegamos a k p q ∂ ¯ T i ∂ y k ∂y q ∂T k k ∂y ∂y ¯ n ∂y = Γ Γ + (5.64) T k ij pq ∂ ¯ y j ∂ ¯ yn ∂ ¯ y i ∂ ¯ y j ∂ ¯ y i ∂ ¯ y j ∂y q
�
de donde despejamos
∂ ¯ T i ∂ ¯ y j
�
−
−
¯ n ¯ Γ ij T n =
es decir
�
∂T p ∂y q
−
n Γ pq T n
�
∂y p ∂y q ∂ ¯ y i ∂ ¯ y j
∂y p ∂y q ¯ T i; j = T p;q i j ∂ ¯ y ∂ ¯ y
(5.65)
(5.66)
Por tanto las componentes T i; j se transforman bajo un cambio de sistema de coordenadas como un objeto tensorial 2-covariante, es decir, la derivada covariante de un vector covariante es un tensor 2-covariante. Veamos ahora el caso de un vector contravariante, para ello partimos de la ley de transformaci´on ∂ ¯ yi k i ¯ T = k T , ∂y
∂y i ¯k T = k T ∂ ¯ y i
(5.67)
Derivando respecto de la coordenada y¯ j y operando como hemos hecho en el caso anterior llegamos a i p q i ¯ k ∂T i ∂y k i ∂y ∂y ¯ n ∂y ¯ k + ∂y ∂ T = Γ Γ T (5.68) pq jk ∂y k ∂ ¯ y j ∂ ¯ yn ∂ ¯ y j ∂ ¯ yk ∂ ¯ y k ∂ ¯ y j
�
� �
−
i
ℓ
∂y y Multiplicando por la matriz inversa de ∂ ¯ (dada por ∂ ¯ ), reordenando y renombrando los ´ındices ∂y i yk encontramos ∂ ¯ T i ¯ i ¯ k ∂T p yi ∂y q p k ∂ ¯ + Γ T = + Γ T (5.69) kj kq ∂ ¯ y j ∂y q ∂y p ∂ ¯ y j
�
es decir
i
q
y ∂y ¯i = T p ∂ ¯ T ; j ;q ∂y p ∂ ¯ y j
(5.70)
tal y como corresponde a un objeto 1-covariante 1-contravariante. Para tensores de rango tensorial superior se pueden deducir relaciones an´alogas.
104 5.2.2.
´ DE CAMPOS TENSORIALES CAP ´ ITULO 5. DERIVACI ON
Derivada covariante en componentes f´ısicas
En aplicaciones de c´alculo tensorial en espacios Eucl´ıdeos es frecuente trabajar con tensores empleando las componentes f´ısicas, por los motivos expuestos en el cap´ıtulo precedente. La derivada covariante del tensor de rango arbitrario T est´a dada por el tensor T ;k tk (con suma en k), expresando este objeto por medio de sus coordenadas respecto de la base natural normalizada vemos que las componentes f´ısicas de la derivada covariante est´an dadas por ˆ i1 i2 ...is = 1 T ˆ i1 i2 ...is + T j1 j2 ...jr ;k hk j1 j2 ...jr ,k
s
∑
r
ˆi1 i2 ...pm ...is Γ ˆ im T j1 j2 ...jr pm k
m=1
∑ −
ˆ i1 i2 ...is ˆ qn T j1 j2 ...qn ...jr Γ jn k
(5.71)
n=1
(sin suma en k) donde las componentes f´ısicas de la conexi´on se han estudiado antes en este cap´ıtulo.
5.3.
Vector aceleraci´ on
Como aplicaci´ on directa de la derivada absoluta a lo largo de una curva veamos la expresi´ on del vector aceleraci´ on de una part´ıcula puntual en coordenadas generalizadas. Supongamos un m´ovil cuya posici´on est´a contenida en una cierta variedad diferenciable n-dimensional descrita por las coordenadas generalizadas y i . La posici´on de este m´ovil est´a descrita por la curva param´etrica r(λ), dada en coordenadas por las funciones y 1 (λ), y 2 (λ), . . . , yn (λ) , donde el par´ametro λ juega el papel de “tiempo”. En el cap´ıtulo precedente vimos que el vector velocidad de este m´ovil est´a dado por v = y˙ i ti , donde y˙ i representa la derivada respecto del par´ametro λ y los ti forman la base natural correspondiente a este sistema de coordenadas. El vector aceleraci´ on est´ a dado por la derivada respecto al tiempo del vector velocidad, estando esta derivada evaluada a lo largo de la trayectoria del m´ovil. Denotando como a el vector aceleraci´on tenemos que
{
a =
}
dv = v ; j v j dλ
(5.72)
para calcular esta expresi´on aplicamos la regla de la cadena dv dti ∂ ti = y¨i ti + y˙ i = y¨i ti + j y˙ i y˙ j dλ dλ ∂y
(5.73)
Expresando la variaci´ on de los vectores de la base por medio de los s´ımbolos de Christoffel este resultado puede escribirse como (5.74) a = y¨k + Γ kij ˙y i y˙ j tk
�
�
donde y¨i denota la segunda derivada respecto de λ. En consecuencia vemos que las componentes del vector aceleraci´on a = a k tk est´an dadas por ak = y¨k + Γkij ˙yi y˙ j = v˙ k + Γkij v i v j
(5.75)
y la expresi´on en coordenadas generalizadas de la conocida ley de Newton F = m a es
�
f k = m y¨k + Γkij ˙y i y˙ j
�
(5.76)
Esta forma de expresar la ley de Newton es m´as complicada que la habitual en coordenadas cartesianas, pero tiene la gran ventaja de ser v´alida independientemente del sistema de coordenadas empleado, lo que hace posible la comparaci´on de resultados entre observadores que empleen sistemas de coordenadas distintos.
105
5.4. PROBLEMAS
5.4.
Problemas
1. Verificar la relaci´ on ec. (5.10). 2. Verificar la relaci´ on ec. (5.11). 3. Verificar la relaci´ on ec. (5.14). 4. Verificar la relaci´ on ec. (5.15). 5. Verificar la relaci´ on ec. (5.17). 6. Verificar la relaci´ on ec. (5.18). 7. Verificar la relaci´ on ec. (5.19). 8. Verificar la relaci´ on ec. (5.21). 9. Verificar la relaci´ on ec. (5.22). 10. Calcular los s´ımbolos de Christoffel de primera y segunda especie y f´ısicos correspondientes al espacio 3 Eucl´ıdeo en coordenadas cartesianas. 11. Calcular los s´ımbolos de Christoffel de primera y segunda especie y f´ısicos correspondientes al espacio 3 Eucl´ıdeo en coordenadas cil´ındricas. 12. Calcular los s´ımbolos de Christoffel de primera y segunda especie y f´ısicos correspondientes al espacio 3 Eucl´ıdeo en coordenadas esf´ericas. 13. Deducir la ley de transformaci´on del tensor de curvatura de Riemann bajo un cambio de coordenadas. 14. Dado el escalar f , demostrar que f ;i ti define un objeto invariante bajo cambios de coordenadas, es decir, un tensor. 15. Verificar la ley tensorial correspondiente para los casos de un vector covariante y uno contravariante. 16. Las derivadas parciales tradicionales de una funci´ on escalar conmutan f ,ij = f ,ji . ¿Qu´e puede decirse en este sentido sobre las derivadas covariantes cruzadas? ¿Se cumple la relaci´on f ;ij = f ; ji ? Razone la respuesta. 17. Calcule la expresi´ on del vector aceleraci´on en cas y esf´ericas.
3
Eucl´ıdeo en coordenadas cartesianas, cil´ındri-
18. Exprese los resultados del ejercicio anterior en componentes f´ısicas.
5.5.
Bibliograf´ıa
Para este cap´ıtulo se ha consultado principalmente [1], [2], [7] , [8] y [13].
106
´ DE CAMPOS TENSORIALES CAP ´ ITULO 5. DERIVACI ON
Cap´ıtulo 6
Operadores diferenciales habituales En este cap´ıtulo presentamos las versiones con comportamiento tensorial bien definido de los operadores diferenciales habituales en f´ısica, basadas en la derivada covariante definida en el cap´ıtulo precedente. Los resultados se presentan de forma general para un caso arbitrario. En el caso de un espacio Eucl´ıdeo se presentan tambi´en las expresiones correspondientes a un sistema de coordenadas ortogonales. Al final del cap´ıtulo aplicamos estos resultados para generar las expresiones de los operadores diferenciales habituales en el caso del espacio Eucl´ıdeo 3 en coordenadas cartesianas, cil´ındricas y esf´ ericas. Aunque estos sistemas de coordenadas son, con diferencia, los que m´as se usan, el material presentado en este cap´ıtulo permite deducir la expresi´on de los operadores diferenciales habituales en cualquier sistema de coordenadas, no necesariamente ortogonales. De esta forma, el material que presentamos aqu´ı completa el objetivo de esta primera parte del curso.
6.1.
Operadores diferenciales
La generalizaci´on a coordenadas curvil´ıneas de los operadores diferenciales habituales se obtiene a partir de su expresi´on en coordenadas cartesianas sustituyendo las derivadas parciales ∂A/∂xi por las correspondientes derivadas covariantes A ;i . 6.1.1.
Gradiente covariante
El gradiente de un escalar f es el vector definido, en funci´on de sus componentes covariantes, como ∂f i 1 ∂f ˆi ∇f = (6.1) t = t i ∂y hi ∂y i En t´erminos de sus componentes contravariantes este vector queda como ij ∂ f ∇f = g t j ∂y i
gˆij ∂f ˆ = t j hi ∂y i
(6.2)
En el caso particular de un sistema de coordenadas curvil´ıneas ortogonales (suponiendo que el espacio es eucl´ıdeo) esto queda como ∇f =
1 ∂f 1 ∂f ˆ = t ti i hi ∂y i h2i ∂y i 107
(6.3)
CAP ´ ITULO 6. OPERADORES DIFERENCIALES HABITUALES
108
En todas las expresiones anteriores se sobre-entiende que la base t i es la base natural del sistema de coordenadas generalizadas empleado, mientras que la base ˆti es la base natural normalizada, siendo los h i los factores de escala correspondientes. Como puede verse las componentes covariantes y contravariantes del vector gradiente son, en general, distintas, incluso si el espacio es eucl´ıdeo y la base es ortogonal. Las componentes co- y contra-variantes s´ olo coinciden si el espacio es eucl´ıdeo y si la base es ortonormal, tal y como sucede con las componentes f´ısicas cuando se usa un sistema de coordenadas curvil´ıneas ortogonales. El gradiente de un vector v es un tensor de orden 2. A partir de las componentes contravariantes de v este tensor est´a definido por k j ∇v = v ; j tk t
=
�
�
∂v k + Γkij v i tk t j ∂y j
(6.4)
En funci´on de sus componentes f´ısicas este tensor queda como j vˆ;k j ˆtkˆt
∇v =
6.1.2.
=
�
�
1 ∂ vˆk ˆ k i ˆ ˆ j + Γij vˆ tk t h j ∂y j
(6.5)
Divergencia covariante
La divergencia covariante de un vector v se define como el escalar resultante de la contracci´on del tensor gradiente de v 1 ∂ i ∇ v = v ;i = gv i (6.6) i g ∂y
·
(√
√
donde para deducir la ´ultima expresi´on se ha tenido en cuenta la relaci´on Γ jij
√
1 ∂g 1 ∂ g = = 2g ∂y i g ∂y i
√
(6.7)
A partir de las componentes f´ısicas de v esto queda como ∇
·
1 ∂ v = g ∂y i
√
�� � g i vˆ gii
(6.8)
En el caso particular de un sistema de coordenadas curvil´ıneas ortogonales tenemos que
√ g = h1h2h3 y por tanto en ese caso ∇
6.1.3.
·
1 ∂ v = h1 h2 h3 ∂y i
�
h1 h2 h3 i vˆ hi
�
(6.9)
(6.10)
Rotacional covariante
A partir de la definici´on de producto vectorial en coordenadas curvil´ıneas, el rotacional covariante de un vector A se define como el vector dado por ∇
× A = εijk Ak; j ti = √ 1g ϵijk Ak; j ti
(6.11)
6.2. COORDENADAS CURVIL´ INEAS ORTOGONALES HABITUALES
109
En componentes f´ısicas esto est´a dado por ∇
h j hk ijk ˆ ˆ × A = hi√ ϵ Ak; j ti g
(6.12)
En coordenadas curvil´ıneas ortogonales esto se simplifica finalmente a
∇
ˆ
× A = h1hh2i h3 ϵijk ∂h∂yk A j k ˆti = h1h12h3
h1ˆt1
h2ˆt2
h3ˆt3
∂ ∂y 1
∂ ∂y 2
∂ ∂y 3
ˆ 2 h3 A ˆ 3 h1 ˆ A1 h2 A
(6.13)
donde la u ´ ltima expresi´on debe entenderse como una regla nemot´ecnica, no como una definici´on. 6.1.4.
Laplaciano covariante
El laplaciano covariante de un escalar f es el escalar definido como la divergencia del gradiente ∇
2
� � √ √ � �
( (
1 ∂ f = f ;i = g f ; j ;i = g ∂y i ;i
ij
gg ij
∂f ∂y j
(6.14)
En coordenadas curvil´ıneas ortogonales esto queda como 1 ∂ h1 h2 h3 ∂y i
2 ∇ f =
6.2.
h1 h2 h3 ∂f h2i ∂y i
(6.15)
Coordenadas curvil´ıneas ortogonales habituales
Tomando como punto de partida los resultados precedentes, deducir la expresi´on (en componentes f´ısicas por ejemplo) de cualquier operaci´on tensorial en cualquier sistema de coordenadas es una tarea puramente mec´anica, que puede programarse f´acilmente en cualquier entorno de c´alculo simb´olico, como p. ej. Mathematica. A continuaci´on se presenta un resumen de f´ormulas aplicable para las coordenadas curvil´ıneas ortogonales m´ as habituales en el espacio 3 Eucl´ıdeo. Todos los vectores y tensores que aparecen a continuaci´ on est´an definidos por sus correspondientes componentes f´ısicas . 6.2.1.
Coordenadas cartesianas
Los resultados de este apartado son triviales, pero se presentan tambi´ en por completitud. Matriz jacobiana J i j
1 = 0 0
0 1 0
0 1 0
Vectores tangentes
t1
1 = 0 , 0
t2
0 = 1 , 0
t3
0 = 0 , 1
1
t
1 = 0 , 0
2
t
0 = 1 , 0
3
t
0 = 0 1
CAP ´ ITULO 6. OPERADORES DIFERENCIALES HABITUALES
110
z k j
i r
y x Figura 6.1: Coordenadas cartesianas.
Vectores tangentes unitarios
1 , ˆ = 00
0 , ˆ = 10
t1
0 , ˆ = 01
t2
ˆt1
t3
1 = 0 , 0
0 = 1 , 0
ˆt2
ˆt3
0 = 0 1
Tensor m´ etrico
1 = 0 0
gij
0 1 0
0 , 1 0
g ij
1 = 0 0
0 1
0
0
1 0
S´ımbolos de Christoffel de primera especie
Γi1k
0 = 0 0
0 , 0
0
0
0 0
Γi2k
0 = 0 0
0 , 0
0
0
0 0
Γi3k
0 = 0 0
0 0
0
0
0 0
S´ımbolos de Christoffel de segunda especie
Γi k 1
0 = 0 0
0 0 0
0 , 0 0
Γi k 2
0 = 0 0
0 0 0
0 , 0 0
Γi k 3
0 = 0 0
0 0
0
0
0 0
S´ımbolos de Christoffel f´ısicos
ˆ ki1 Γ
0 = 0 0
0 , 0
0
0
0 0
ˆ ki2 Γ
0 = 0 0
0 0 0
0 , 0 0
ˆ ki3 Γ
0 = 0 0
0 0 0
0 0 0
Gradiente ∇f =
�
∂f ∂x
∂f ∂y
∂f ∂z
�,
∇v
=
∂v 1 ∂x ∂v 2 ∂x ∂v 3 ∂x
∂v 1 ∂y ∂v 2 ∂y ∂v 3 ∂y
∂v 1 ∂z ∂v 2 ∂z ∂v 3 ∂z
6.2. COORDENADAS CURVIL´ INEAS ORTOGONALES HABITUALES
111
Divergencia ∇
∂ ∂ ∂ (v1 ) + (v2 ) + (v3 ) , · v = ∂x ∂y ∂z
Rotacional ∇
�
× v = − ∂v∂z
2
+
∇
∂v 3 ∂y
=
· T
∂v 1 ∂z
∂ (T 11 ) + ∂x ∂ (T 21 ) + ∂x ∂ (T 31 ) + ∂x
− ∂v∂x − ∂v∂y 3
1
∂ (T 12 ) + ∂y ∂ (T 22 ) + ∂y ∂ (T 32 ) + ∂y
+
∂v 2 ∂x
∂ (T 13 ) ∂z ∂ (T 23 ) ∂z ∂ (T 33 ) ∂z
�
Laplaciano ∇
6.2.2.
2
∂ f = ∂x
� ∂f � ∂x
∂ + ∂y
� ∂f � ∂y
∂ + ∂z
� ∂f � ∂z
Coordenadas cil´ındricas
z uz uθ
r
ur r
y θ
x Figura 6.2: Coordenadas cil´ındricas.
Las coordenadas cil´ındricas est´an definidas por el cambio de variable
y1 = r =
√
x1 = x = r cos θ
x2 + y 2
y2 = θ = arctan xy
x2 = y = r sen θ
y3 = z
x3 = z
Matriz jacobiana J i j
cos(θ) = sin(θ) 0
− (r sin(θ)) r cos(θ) 0
0 1 0
Vectores tangentes
t1
cos(θ) = sin(θ) , 0
t2
(r sin(θ)) − = r cos(θ) , 0
t3
0 = 0 , 1
t
1
cos(θ) = sin(θ) , 0
2
t
− � =
sin(θ) r
cos(θ) r
0
� ,
3
t
0 = 0 1
Vectores tangentes unitarios
cos(θ) , ˆ = sin(θ) 0 t1
sin(θ) − ˆ = cos(θ) , 0 t2
0 , ˆ = 0 1 t3
ˆt1
cos(θ) = sin(θ) , 0
ˆt2
sin(θ) − = cos(θ) , 0
ˆt3
0 = 0 1
CAP ´ ITULO 6. OPERADORES DIFERENCIALES HABITUALES
112 Tensor m´ etrico
1 = 0 0
gij
0 , 1
0
1 = 0 0
0
r2 0
gij
0 1
0 r
0
2
−
0
S´ımbolos de Christoffel de primera especie
Γi1k
0 = 0 0
, 0 0
0
0
r 0
Γi2k
0 = −r 0
, 0 0
r
0 = 0 0
0
0 0
Γi3k
0 0
0
0
0 0
S´ımbolos de Christoffel de segunda especie
Γi k 1
0 = 0 0
, 0 0
0
0
1 r
0
Γi k 2
0 = −r 0
, 0 0
1
0
r
0 0
Γi k 3
0 = 0 0
0 0
0
0
0 0
S´ımbolos de Christoffel f´ısicos
ˆ ki1 Γ
0 = 0 0
0 , 0
0
0
0 0
ˆ ki2 Γ
0 � � = − 0
0
r
∇
∂f ∂θ
∂f ∂r
∂f ∂z
r
�,
0
r
1
0
Gradiente
� f =
0 , 0
1
∇v
=
ˆ ki3 Γ
0 = 0 0
∂v1 ∂θ
∂v 1 ∂r
r
∂v2 ∂θ
∂v 2 ∂r
r
∂v 3 ∂r
0 0
0
0
0 0
−
v2 r
∂v 1 ∂z
+
v1 r
∂v 2 ∂z
∂v3 ∂θ
∂v 3 ∂z
r
Divergencia ∂ (T ) 12 ∂θ
∇
· v =
∂ (v2 ) ∂θ
r
+
∂ (r v1 ) ∂r
r
∂ (r v3 ) ∂z
+
r
,
∇
· T
+ � � = + ∂ ∂θ
r T 22 r
∇
�
× v = −
∂v 2 ∂z
∂v3 ∂θ
+
∂v 1 ∂z
r
−
∂v 3 ∂r
+
∂ (r T ) 13 ∂z
− T r
r r ∂ ∂ (T 21 ) + ∂z (T 23 ) + T r12 ∂r ∂ (T ) ∂ (r T ) ∂ (r T ) 32 31 33 ∂θ ∂r ∂z r
Rotacional
∂ (r T ) 11 ∂r
∂v 2 ∂r
+
∂v1 ∂θ
−
r
+
r
+
v2 r
22
+
r
�
Laplaciano ∇
6.2.3.
2
f =
∂ ∂θ
� � 1 ∂f r ∂θ
r
+
∂ ∂r
�r � ∂f ∂r
r
+
∂ ∂z
�r � ∂f ∂z
r
Coordenadas esf´ ericas
Las coordenadas esf´ ericas est´an definidas por el cambio de variable
y1 = r = y2
√
x1 = x = r sen θ cos φ
x2 + y 2 + z 2
= θ = arctan
√ x +y 2
2
x2 = y = r sen θ sen φ
z
y 3 = φ = arctan xy
x3 = z = r cos θ
Matriz jacobiana J i j
cos(φ) sin(θ) = sin(φ) sin(θ) cos(θ)
r cos(φ) cos(θ) r cos(θ) sin(φ)
− (r sin(θ))
− (r sin(φ) sin(θ)) r cos(φ) sin(θ) 0
T 21 r
6.2. COORDENADAS CURVIL´ INEAS ORTOGONALES HABITUALES
113
z ur uφ
r r
θ
uθ
y x
φ
Figura 6.3: Coordenadas esf´ericas.
Vectores tangentes
t1
cos(φ) sin(θ) r cos(φ) cos(θ) = = sin(φ) sin(θ) , r cos(θ) sin(φ) , cos(θ) − (r sin(θ)) cos(φ) sin(θ) = , = sin(φ) sin(θ) , cos(θ) −� � t2
t3
cos(φ) cos(θ)
csc(θ) sin(φ)
r
1
cos(θ) sin(φ)
2
t
t
r
(r sin(φ) sin(θ)) − = r cos(φ) sin(θ) 0 − � � = r
t
sin(θ) r
3
cos(φ) csc(θ) r
0
Vectores tangentes unitarios
cos(φ) sin(θ) ˆ = sin(φ) sin(θ) , cos(θ) cos(φ) sin(θ) , ˆ = sin(θ) sin(φ) cos(θ)
cos(φ) cos(θ) ˆ = cos(θ) sin(φ) , − sin(θ) cos(φ) cos(θ) , ˆ = sin(φ) cos(θ) − sin(θ)
t1
t2
1
1 = 0 0
gij
0
r2
g ij
2
2
0
3
t
, 0 r sin(θ)
0
t3
2
t
Tensor m´etrico
sin(φ) − ˆ = cos(φ) 0 sin(φ) − ˆ = cos(φ) 0 t
1 = 0 0
0 r
0 2
−
0
0
csc(θ)2 r2
S´ımbolos de Christoffel de primera especie
Γi1k
0 = 0 0
0 r 0
, 0 r sin(θ) 0
2
Γi2k
0 = −r 0
r 0 0
, 0 cos(θ) sin(θ) 0
r2
Γi3k
0 0 = − �r sin(θ) � − �r 2
r2
0 2
� cos(θ) sin(θ)
S´ımbolos de Christoffel de segunda especie
Γi k 1
0 = 0 0
0 1 r
0
0 , 0 1
r
Γi k 2
0 = −r 0
1 r
0 0
0 , cot(θ) 0
Γi k 3
0 0 = − �r sin(θ) � 2
0 0
− (cos(θ) sin(θ))
cos(θ) sin(θ) 0 r sin(θ)2
0
cot(θ) 0 1
r
CAP ´ ITULO 6. OPERADORES DIFERENCIALES HABITUALES
114 S´ımbolos de Christoffel f´ısicos
ˆ ki1 Γ
0 = 0 0
0 , 0
0
0
0 0
ˆ ki2 Γ
0 � � = − 0
0 , 0
1
0
r
1
0
r
0
ˆ ki3 Γ
Gradiente
∇f =
�
∂f ∂r
∂f ∂θ
∂f csc(θ) ∂φ
r
r
�
,
∇v
=
0 0 = 0 − � � − � 0 � 1
cot(θ )
r
r
− vr
r
+
r
3
� −
v1 r
∂v3 ∂θ
∂v 3 ∂r
v1 r
r
r
0
csc(θ) r
∂v2 ∂φ
�+
v3 cot(θ) r
+
cot(θ )
∂v1 ∂φ
− � vr � +
2
∂v2 ∂θ
∂v 2 ∂r
r
∂v1 ∂θ
∂v 1 ∂r
1
v2 cot(θ) r
csc(θ) r
+
∂v3 ∂φ
csc(θ) r
Divergencia ∇
· v =
∂ ∂r
· T
� � − − = + −
∇
× v =
T 33 r
+
∂ ∂r
+
∂ (r ∂ θ
v2 sin(θ)) csc(θ) r2
(r2 T 11 sin(θ)) csc(θ ) r2
+
∂ (r ∂φ
+
∂ (r T sin(θ )) 12 ∂θ
v3 ) csc(θ) r2
csc(θ )
r2
+
∂ (r T ) 13 ∂φ
csc(θ)
r2
∂
∂ (T sin(θ )) csc(θ ) ∂ (r T sin(θ )) csc(θ ) (T 23 ) csc(θ) T 33 cot(θ ) 22 21 T 21 ∂φ ∂θ ∂r + + + r r r r r ∂ (T csc(θ )) ∂ (T ) ∂ (r T ) 33 T 23 cot(θ ) T 32 cot(θ ) 32 31 T 13 T 31 ∂φ ∂θ ∂r + + + r + r + + r r r r r
T 12 r
Rotacional
1
r2
T 22 r
∇
2
�r v sin(θ)� csc(θ)
�
∂v3 ∂θ
r
+
v3 cot(θ) r
−
∂v2 ∂φ
csc(θ)
−
r
∂v 3 ∂r
−
v3 r
+
∂v1 ∂φ
csc(θ ) r
∂v 2 ∂r
−
∂v1 ∂θ
r
+
v2 r
�
Laplaciano ∇
6.3.
2
f =
∂ ∂φ
�csc(θ) � csc(θ) ∂f ∂φ
r2
+
∂ ∂r
�r
2
sin(θ) ∂f ∂r r2
� csc(θ)
+
∂ ∂θ
�sin(θ) � csc(θ) ∂f ∂θ
r2
Bibliograf´ıa
Para este cap´ıtulo se han consultado los textos generales de c´ alculo tensorial, geometr´ıa diferencial y ´algebra [3, 5, 4, 8, 12, 13], as´ı como [17].
Ap´ endice A
F´ ormulas de an´ alisis vectorial En este apartado presentamos una colecci´on de f´ormulas de uso muy habitual, v´alidas para el caso habitual de 3 con m´etrica Eucl´ıdea.
A.1.
Notaci´ on
La notaci´ on empleada en estos apuntes es la habitual en textos similares: Las cantidades en negrita representan vectores o, en general, magnitudes tensoriales no escalares (es decir, de rango tensorial superior a cero). Si en alg´ un momento es necesario distinguir entre las componentes covariantes y contravariantes de un tensor (por ejemplo A), las componentes covariantes se denotar´an por sub´ındices (Ai ) y las contravariantes por super´ındices (Ai ). A menos que se diga lo contrario supondremos que se est´an empleando coordenadas cartesianas, de tal forma que A i denota la i ´esima componente cartesiana del vector A : A i = e i A. Dado que la base dual a la base cartesiana i, j , k coincide con ella misma, las componentes covariantes y contravariantes respecto de esta base coinciden.
−
{
·
}
Convenio de suma de Einstein: A menos que se diga lo contrario se sobreentiende que si
en una expresi´on aparece un ´ındice repetido la expresi´on representa la suma respecto de ese ´ındice, que por tanto es un ´ındice mudo. Delta de Kronecker:
δ ij = δ ij = δ ji = S´ımbolo alternante de Levi-Civita:
−
1 si i = j
(A.1)
0 si i = j
̸
+1 si ijk es una permutaci´on par de 123
ϵijk =
1 si ijk es una permutaci´on impar de 123 0 si hay alg´ un ´ındice repetido 115
(A.2)
´ ´ ´ AP ENDICE A. F ORMULAS DE AN ALISIS VECTORIAL
116
A.2.
Productos escalares y vectoriales
= A i Bi
· A×B A B
= ϵijk Ai B j ek
(A.3)
(A.4)
F´ ormulas u ´ tiles A (B
· × C ) = B · (C × A) = C · (A × B) A × (B × C ) = B (A · C ) − C (A · B ) (A × B ) × C = B (A · C ) − A (B · C )
(A
× B) · (C × D) (A × B ) × (C × D) A.3.
(A.5) (A.6) (A.7)
= (A C ) (B D) (A D) (B C ) = C (A (B D)) D (A (B C ))
(A.8)
=
(A.9)
·
· − · · · × − · × B (A · (C × D)) − A (B · (C × D))
Gradiente, divergencia, rotacional y laplaciano ∇
= ∂ i ei =
grad U = div A = rot A =
lap A = ∆A =
�
∂ ∂ ∂ , , ∂x ∂y ∂z
�
∂U ei ∂x i ∂A i A = ∂x i ∂A j A = ϵijk ek ∂x i
∇U
=
2 ∇ A = ∇
· (∇A) =
�
∂ 2 ∂ 2 ∂ 2 + + ∂x 2 ∂y 2 ∂z 2
(A.11) (A.12)
· ∇× ∇
(A.10)
�
(A.13)
A
(A.14)
F´ ormulas u ´ tiles
× (∇U ) = 0 ∇ · (∇ × A) = 0 ∇ · (∇φ × ∇ϕ) = 0
(A.15)
∇
(A
(
1 2 + (∇ ∇ A 2 2 ∇ A = ∇ (∇ A) ∇
· ∇) A
=
× A) × A · − × (∇ × A)
(A.16) (A.17)
(A.18) (A.19)
117
A.4. TEOREMAS INTEGRALES
· (U A) ∇ × (U A) ∇ · (A × B )
= (∇U ) A + U ( ∇ A)
(A.20)
=
· · (∇U ) × A + U ( ∇ × A) B · (∇ × A) − A · (∇ × B )
(A.21)
= (B
(A.23)
=
· ∇) A − B (∇ · A) − (A · ∇) B + A (∇ · B) (B · ∇) A + (A · ∇) B + B × (∇ × A) + A × (∇ × B )
(A.24)
∇
∇
A.4.
× (A × B) ∇ (A · B )
=
(A.22)
Teoremas integrales
Los teoremas integrales habituales (del gradiente, de la divergencia, del rotacional) son casos particulares del conocido Teorema de Stokes para formas diferenciales sobre variedades
∫ ∫ dω =
M
ω
(A.25)
∂M
donde M es una variedad diferenciable n-dimensional con frontera ∂ M , ω es una forma diferencial y d denota la derivada exterior. A.4.1.
Teorema del gradiente
Tambi´en conocido como Teorema Fundamental del C´ alculo. La integral del gradiente de una funci´on escalar f a lo largo de una curva γ , con extremos γ 1 y γ 2 est´a dada por
∫
∇f
· dl =
γ
A.4.2.
∫
df = f (γ 2 )
γ
− f (γ 1),
(A.26)
Teorema de la divergencia
Tambi´en conocido como Teorema de Gauss-Ostrogradsky o sencillamente Teorema de Gauss . La integral de la divergencia de un vector f en el volumen Ω est´a dada por
∫
∇
Ω
· f dV =
∫ ·
f n dΣ
(A.27)
∂ Ω
donde ∂ Ω es la superficie que limita a Ω y n la normal a ∂ Ω orientada hacia el exterior. A.4.3.
Teorema del rotacional
Tambi´en conocido como Teorema de Stokes . La integral del rotacional de un vector f en la superficie S est´a dada por
∫
(∇
S
donde ∂ S es la l´ınea que limita a S .
× f ) · n dΣ =
∫ ·
f dl
∂S
(A.28)
´ ´ ´ AP ENDICE A. F ORMULAS DE AN ALISIS VECTORIAL
118 Expresi´ on alternativa
Dado que no es tan est´andar como los teoremas integrales anteriores, en este apartado se incluye la deducci´on de la expresi´on alternativa del teorema del rotacional empleada para calcular la fuerza de tensi´on superficial ejercida sobre un elemento de superficie. En primer lugar, dado el campo vectorial f definimos f = F b, donde b es un vector arbitrario constante. Con esto el Teorema de Stokes queda como
×
∫
(∇
S
∫
× (F × b)) · n dΣ =
(F
× b) · dl
∂S
(A.29)
Sustituyendo en la identidad vectorial (Ec. A.23) encontramos ∇
× (F × b) = (b · ∇) F − b (∇ · F )
(A.30)
ya que b es un vector constante. Aplicando la identidad vectorial (Ec. A.5) y sustituyendo (Ec. A.30) en (Ec. A.29) encontramos b
∫ ·
× dl =
F
∂S
∫
[b (∇ F )
· − (b · ∇) F ] · n dΣ
S
(A.31)
Recordando que el vector b es arbitrario, la expresi´on alternativa del teorema del rotacional queda finalmente como
∫
∂S
A.4.4.
× dl =
F
∫
[(∇ F ) n
S
·
(A.32)
Otros teoremas integrales
∫ × ∫ ∇
A dV =
Ω
∫
n dΣ
∂ Ω
n dΣ
S
A.4.5.
− (∇F ) · n] dΣ
× ∇ϕ =
∫
×A
ϕ dl
(A.33) (A.34)
∂S
Identidades de Green
Dadas dos funciones escalares ϕ y ψ se cumple: Primera identidad de Green
∫ (
ϕ∇2 ψ + ( ∇ϕ)
Ω
∫
· (∇ψ) dV =
(ϕ∇ψ) n dΣ
∂ Ω
·
(A.35)
donde ∂ Ω es la superficie que limita a Ω y n la normal a ∂ Ω orientada hacia el exterior. Segunda identidad de Green
∫ ( Ω
ϕ∇2 ψ
2
∫
− ψ∇ ϕ dV =
∂ Ω
(ϕ∇ψ
− ψ∇ϕ) · n dΣ
donde ∂ Ω es la superficie que limita a Ω y n la normal a ∂ Ω orientada hacia el exterior.
(A.36)
A.4. TEOREMAS INTEGRALES
119
Bibliograf´ ıa Para elaborar este ap´endice se ha consultado [18] y [23] junto con las enciclopedias en internet [25] y [28].
120
´ ´ ´ AP ENDICE A. F ORMULAS DE AN ALISIS VECTORIAL
Bibliograf´ıa En este apartado se incluye la lista de referencias consultadas para elaborar estos apuntes. Algunas de estas referencias se mencionan en el texto y pueden consultarse como bibliograf´ıa complementaria avanzada de los temas en que se mencionan, las restantes se citan para dar el debido cr´edito a todas las fuentes consultadas.
C´ alculo tensorial y geometr´ıa diferencial [1] Bishop, R. L. and S. I. Goldberg: Tensor Analysis on Manifolds . Dover, 1980. [2] Bowen, R. M. and C. C. Wang: Introduction to Vectors and Tensors . Dover, 1976. ´ [3] Burgos, J.: Curso de Algebra y Geometr´ıa . Alhambra, 1980. [4] Danielson, D. A.: Vectors and Tensors in Engineering and Physics . Perseus, 2003. [5] do Carmo, M. P.: Geometr´ıa Diferencial de Curvas y Superficies . Alianza Universidad Textos, 1995. [6] Flanders, H.: Differential Forms with Applications to the Physical Sciences . Dover, 1990. [7] Frankel, T.: The Geometry of Physics: An Introduction . Cambridge University Press, 1997. [8] Kay, D. C.: C´ alculo Tensorial . McGraw-Hill, 1989. [9] Lang, S.: Differential and Riemannian Manifolds . Springer-Verlag, 1995. [10] Lichnerowicz, A.: Elementos de C´ alculo Tensorial . Aguilar, 1972. [11] Lipschutz, M. M.: Differential Geometry . McGraw-Hill, 1969. [12] Lovelock, D. and H. Rund: Tensors, Differential Forms, and Variational Principles . Dover, 1989. [13] Synge, J. L. and A. Schild: Tensor Calculus . Dover, 1978.
121
122
BIBLIOGRAF ´ IA
Aplicaciones de tensores en f´ısica F´ısica General
[14] Feynman, R. P., R. B. Leighton, and M. L. Sands: The Feynman Lectures on Physics (3 vols.) . Addison-Wesley, 1989. [15] Feynman, R. P., R. B. Leighton y M. L. Sands: F´ısica (3 vols.). Addison-Wesley, 1999.
Mec´ anica Cl´ asica
[16] Arnold, V. I.: Mathematical Methods of Classical Mechanics . 1990.
Springer-Verlag, second ed.,
Mec´ anica de Fluidos
[17] Aris, R.: Vectors, Tensors and the Basic Equations of Fluid Mechanics . Dover, 1990. [18] Emanuel, G.: Analytical Fluid Dynamics . Lewis Publishers, second ed., 2000.
Relatividad
[19] Misner, C. W., K. S. Thorne, and J. A. Wheeler: Gravitation . W. H. Freeman and Company, 1973. [20] Wald, R. M.: General Relativity . The University of Chicago Press, 1984. [21] Weinberg, S.: Gravitation and Cosmology: Principles and Applications of the General Theory of Relativity . Wiley, 1972.
Libros de tablas y enciclopedias en Internet [22] Abramowitz, M. and I. A. Stegun: Handbook of Mathematical Functions with Formulas, Graphs, and Mathematical Tables . Dover, New York, tenth ed., 1974. [23] Spiegel, M. R. y L. Abellanas: F´ ormulas y Tablas de Matem´ atica Aplicada . McGraw-Hill, 1997. [24] Wales, J. y cols. (eds.): Wikipedia, la enciclopedia libre . The Wikimedia Foundation, Inc., since 2001. http://es.wikipedia.org/ . [25] Wales, J. et al. (eds.): Wikipedia, the free encyclopedia . since 2001. http://www.wikipedia.org/ .
The Wikimedia Foundation, Inc.,
[26] Weisstein, E. (ed.): Eric Weisstein’s World of Physics . Wolfram Research Inc., since 1999. http://scienceworld.wolfram.com/physics/ .
123 [27] Weisstein, E. (ed.): Eric Weisstein’s World of Science . Wolfram Research Inc., since 1999. http://scienceworld.wolfram.com/ . [28] Weisstein, E. (ed.): Mathworld: the web’s most extensive mathematics resource . Research Inc., since 1999. http://mathworld.wolfram.com/ .
Wolfram
Otras referencias LATEX [29] http://wikipedia.org/wiki/LaTeX . [30] Cascales Salinas, B. y cols.: LAT E X una imprenta en sus manos . Aula Documental de Investigaci´ on, 2000. [31] Kopka, H. and P. W. Daly: A Guide to LAT E X: Document Preparation for Beginners and Advanced Users . Addison-Wesley, third ed., 1999. [32] Oetiker, T. et al.: The Not So Short Introduction To LAT E X 2 ε . Or LAT E X 2 ε in 157 minutes . Free Software Foundation., 5.01 ed., 2011. http://www.ctan.org/tex-archive/info/ lshort/english/lshort.pdf .
Linux [33] http://www.linux.org . [34] http://www.gnu.org . [35] http://wikipedia.org/wiki/Linux . [36] Siever, E. et al.: Linux in a Nutshell . O’Reilly, sixth ed., 2009.
124
BIBLIOGRAF ´ IA
´ Indice alfab´ etico aplicaci´on lineal, 15, 18, 30 multilineal, 38
dual, 12 Eucl´ıdeo, 11 m´etrico, 7 no Eucl´ıdeo, 11 normado, 7 orientable, 50 pre-Hilbert, 9 producto tensorial, 35 tangente, 61 topol´ ogico, 62 vectorial, 1
base, 3 cambio de, 15 dual, 12, 16 ortonormal, 11 producto tensorial, 35 componentes contravariantes, 17, 27, 48 covariantes, 17, 27, 48 convenio de suma de Einstein, 10 coordenadas, 4 delta de Kronecker, 11 dependencia lineal, 3 derivada covariante, 34 parcial, 34 desigualdad triangular, 6, 7 diada, 35 dimensi´ on, 3 del conjunto de coordenadas, 27 finita, 4 infinita, 4 distancia, 6 elemento neutro, 3 nulo, 3 opuesto, 3 envolvente lineal, 4 espacio completo, 9 cotangente, 61 de Banach, 9 de Hilbert, 9 de Riemann, 11
fibrado cotangente, 61 tangente, 61 grados de libertad, 27 Gram-Schmidt, 12 homeomorfismo, 62 independencia lineal, 3 ´ındices contracci´ on de, 38 contravariantes, 27 covariantes, 27 libres, 10 mudos, 10 permutaci´ on de, 43 subida y bajada de, 18, 42 inversiones, 20 Levi-Civita, 52, 53 ley de transformaci´on tensorial, 27, 48 m´etrica Riemanniana, 11 matriz adjunta, 20 ortogonal, 20 125