Estos valores recién calculados de caídas de tensión pueden ubicarse sobre el circuito original con el fin de calcular la tensión deseada.
Fig.5 Circuito resuelto Observando las cuatro flechas de las tensiones de fuente y de las caídas de tensión se puede verificar el cumplimiento de la segunda ley de Kirchoff, ya que comenzando desde la masa de referencia y girando en el sentido de las agujas del reloj podemos decir que 10V – 8,17V – 1V – 0,817 = 0 V
o realizando una transposición de términos y dejando las fuentes a la derecha y las caídas de tensión a la izquierda podemos decir que la suma de las tensiones de fuente 10V – 1V = 8,17V + 0,817 = 8,987 = 9V
Y además podemos calcular fácilmente que la tensión sobre la salida del circuito es de 0,817V + 1V = 1,817V
con la polaridad indicada en el circuito es decir positiva.
Trabajo práctico en el laboratorio virtual
Nuestro trabajo práctico consiste en dibujar el circuito en el LW. Activarlo con F9 y recorrerlo con el cursor anotando las caídas de tensión y la corriente en cada punto del mismo. Se podrá verificar el cumplimiento estricto de los valores calculados. Posteriormente lo invitamos a resolver otro circuito que es el indicado a continuación para el cual le damos una ayuda.
Fig.6 Circuito para resolver por el alumno La ayuda que le vamos a dar es la siguiente: 1. Considere al circuito completo como construido con dos mayas. La maya I y la maya II. Resuelva la corriente en la malla I solamente, suponiendo que la II esta abierta. 2. Luego haga lo propio con la malla II; cada malla va a generar una corriente por R3. 3. Súmelas considerando sus sentidos de circulación y obtendrá la corriente real que la recorre cuando las dos mallas están conectadas y de allí podrá calcular la caída de tensión sobre R3. 4. Luego debe obtener las otras caídas de tensión y establecer la segunda ley de Kirchoff. 5. Por último calculará la tensión de salida V1. 6. Luego dibuje el circuito en el LW y verifique que el resultado hallado corresponda con el circuito virtual y por supuesto con la realidad. Conclusiones
De este modo ya estamos en poder de valiosas herramientas de trabajo que se utilizan todos los días en la resolución de circuitos electrónicos simples, que ayudan al reparador a determinar los valores de tensión y corriente, existentes en los circuitos. En la próxima lección, vamos a trabajar con fuentes de tensión alterna aplicadas a circuitos con resistores. Posteriormente, vamos a presentarle los dos componentes pasivos que acompañan al resistor en los circuitos mas comunes: el capacitor y el inductor y en poder de todo este conocimiento, le vamos a explicar como armar y probar su primer dispositivo útil; una radio elemental que nos permitirá conocer conceptos muy importantes de la electrónica.
Potencia eléctrica James Watt James Watt (Greenock, 19 de enero de 1736 - Handsworth, 25 de agosto de 1819) fue un matemático e ingeniero escocés. Las mejoras que realizó en la Máquina de Newcomen dieron lugar a la conocida como Máquina de vapor, que resultaría fundamental en el desarrollo de la Revolución industrial, tanto en el Reino Unido como en el resto del mundo. Nacido en Greenock, vivió y trabajó en Birmingham, Inglaterra. Fue un miembro clave de la Sociedad Lunar. Muchos de sus escritos se conservan en la biblioteca "Birmingham". Watt inventó la primera máquina de vapor. Falleció el 25 de agosto de 1819 en Heathfield , su casa, en Handsworth, Inglaterra, a la edad de 83 años.
Sus logros como ingeniero Watt inventó el movimiento paralelo para convertir el movimiento circular a un movimiento casi rectilíneo, del cual estaba muy orgulloso, y el medidor de presión para medir la presión del vapor en e l cilindro a lo largo de todo el ciclo de trabajo de la máquina, mostrando así su eficiencia y ayudándolo a perfeccionarla. Watt ayudó de sobremanera al desarrollo de la máquina de vapor, convirtiéndola, de un proyecto tecnológico, a una forma viable y económica de producir energía. Watt descubrió que la máquina de Newcomen estaba gastando casi tres cuartos de la energía del vapor en calentar el pistón y el cilindro. Watt desarrolló una cámara de condensación separada que incrementó significativamente la eficiencia. Hasta el momento eso fue uno de los mejores desarrollos de la historia. Watt se opuso al uso de vapor a alta presión, y hay quien le acusa de haber ralentizado el desarrollo de la máquina de vapor por otros ingenieros, hasta que sus patentes expiraron en el año 1800. Junto a su socio Matthew Boulton luchó contra ingenieros rivales como Jonathan Hornblower quien intentó desarrollar máquinas que no cayeran dentro del ámbito, extremadamente generalistas, de las patentes de Watt. Él creó la unidad llamada caballo de potencia para comparar la salida de las diferentes máquinas de vapor. Todavía se utiliza, sobre todo en los vehículos. La potencia eléctrica se transmite por líneas sobre torres, como éstas en Brisbane, Australia. La potencia eléctrica es la cantidad de energía entregada o absorbida por un elemento en un tiempo determinado ( p = dW / dt ). La unidad en el Sistema Internacional de Unidades es el Vatio. Cuando una corriente eléctrica fluye en un circuito, puede transferir energía al hacer un trabajo mecánico o termodinámico. Los dispositivos convierten la energía eléctrica de muchas maneras útiles, como calor, luz (lámpara incandescente), movimiento (motor eléctrico), sonido (altavoz) o procesos químicos. La electricidad se puede producir mecánicamente o químicamente por la generación de energía eléctrica, o también por la transformación de la luz en las celulas fotoeléctricas. Por último, se puede almacenar químicamente en baterías.
Potencia en corriente continua Cuando se trata de corriente continua (CC) la potencia eléctrica desarrollada en un cierto instante por un dispositivo de dos terminales, es el producto de la diferencia de potencial entre dichos terminales y la intensidad de corriente que pasa a través del dispositivo. Por esta r azón la potencia es proporcional a la corriente y a la tensión. Esto es,
(1) Donde I es el valor instantáneo de la corriente y V es el valor instantáneo del voltaje. Si I se expresa en amperios y V en voltios, P estará expresada en watts (vatios). Igual definición se aplica cuando se consideran valores promedio para I, V y P. Cuando el dispositivo es una resistencia de valor R o se puede calcular la resistencia equivalente del dispositivo, la potencia también puede calcularse como
Potencia en corriente alterna Cuando se trata de corriente alterna (AC) sinusoidal, el promedio de potencia eléctrica desarrollada por un dispositivo de dos terminales es una función de los valores eficaces o valores cuadráticos medios, de la diferencia de potencial entre los terminales y de la intensidad de corriente que pasa a través del dispositivo. En el caso de un circuito de carácter inductivo (caso más común) al que se aplica una tensión sinusoidal con velocidad angular
Esto provocará una corriente
y valor de pico
resulta:
retrasada un ángulo
respecto de la tensión aplicada:
La potencia instantánea vendrá dada como el producto de las expresiones anteriores:
Mediante trigonometría, la anterior expresión puede transformarse en la siguiente:
Y sustituyendo los valores de pico por los eficaces:
Se obtiene así para la potencia un valor constante,
y otro variable con el tiempo,
. Al primer valor se le denomina potencia activa y al segundo potencia fluctuante.
Potencia fluctuante [editar] Al ser la potencia fluctuante de forma senoidal, su valor medio será cero. Para entender mejor qué es la potencia fluctuante, imaginemos un circuito que sólo tuviera una potencia de este tipo. Ello sólo es posible s i rad (cos(±90º)=0), quedando
caso que corresponde a un c ircuito inductivo puro o capacitivo puro. Por lo tanto la potencia fluc tuante es debida a un solenoide o a un condensador.Tales elementos no consumen energía sino que la almacenan en forma de campo magnético y campo eléctrico.
Componentes de la intensidad
Figura 1.- Componentes activa y reactiva de la intensidad; supuestos inductivo, izquierda y capacitivo, derecha. Consideremos un circuito de C. A. en el que la corriente y la tensión tienen un desfase φ. Se define componente activa de la intensidad, I a, a la componente de ésta que es tá en fase con la tensión, y componente reactiva, Ir , a la que está en cuadratura con ella (véase Figura 1). Sus valores s on:
El producto de la intensidad, I, y las de sus componentes activa, I a, y reactiva, I r , por la tensión, V, da como resultado las potencias aparente (S), activa (P) y reactiva (Q), respectivamente:
Potencia compleja
Figura 2.- Relación entre potencia activa, aparente y reactiva. La potencia compleja (cuya magnitud se conoce como potencia aparente) de un circuito eléctrico de corriente alterna, es la suma (vectorial) de la potencia que disipa dicho circuito y se transforma en calor o trabajo(conocida como potencia promedio, activa o real) y la potencia utilizada para la formación de los campos eléctrico y magnético de sus componentes que fluctuará entre estos c omponentes y la fuente de energía (conocida como potencia reactiva). Esta potencia no es la realmente "útil", salvo cuando el factor de potencia es la unidad (cos φ=1), y señala que la red de alimentación de un circuito no sólo ha de satisfacer la energía consumida por los elementos resistivos, sino que también ha de contarse con la que van a "almacenar" las bo binas y condensadores. Se la designa con la letra S y se mide en voltiamperios (VA) (la potencia activa se mide en vatios (W), y la reactiva se mide en voltiamperios reactivos (VAR) La fórmula de la potencia aparente es:
Potencia activa Es la potencia que representa la capacidad de un circuito para realizar un proceso d e transformación de la energía eléctrica en trabajo. Los diferentes dispositivos eléctricos existentes convierten la energía eléctrica en otras formas de energía tales como: mecánica, lumínica, térmica, química, etc. Esta potencia es, por lo tanto, la realmente consumida por los circuitos. Cuando se habla de demanda eléctrica, es esta potencia la que se utiliza para determinar dicha demanda. Se designa con la letra P y se mide en vatios (W). De acuerdo con su expresión, la ley de Ohm y el triángulo de impedancias:
Resultado que indica que la potencia activa es debida a los elementos resistivos.
Potencia reactiva Esta potencia no tiene tampoco el carácter realmente de ser consumida y sólo aparecerá cuando existan bobinas o condensadores en los circuitos. La potencia reactiva tiene un valor medio nulo, por lo que no produce trabajo necesario. Por ello que se dice que es una potencia desvatada (no produce vatios), se mide en voltiamperios reactivos (VAR) y se designa con la letra Q. A partir de su expresión,
Lo que reafirma en que esta potencia es debida únicamente a los elementos reactivos.
Potencia trifásica La representación matemática de la potencia activa en un sistema trifásico equilibrado está dada por la ecuación:
Potencia eléctrica
La potencia eléctrica se transmite por líneas sobre torres, como éstas en Brisbane, Australia. La potencia eléctrica es la cantidad de energía entregada o absorbida por un elemento en un tiempo determinado ( p = dW / dt ). La unidad en el Sistema Internacional de Unidades es el Vatio. Cuando una corriente eléctrica fluye en un circuito, puede transferir energía al hacer un trabajo mecánico o termodinámico. Los dispositivos convierten la energía eléctrica de muchas maneras útiles, como calor, luz (lámpara incandescente), movimiento (motor eléctrico), sonido (altavoz) o procesos químicos. La electricidad se puede producir mecánicamente o químicamente por la generación de energía eléctrica, o también por la transformación de la luz en las celulas fotoeléctricas. Por último, se puede almacenar químicamente en
baterías.
Potencia en corriente continua Cuando se trata de corriente continua (CC) la potencia eléctrica desarrollada en un cierto instante por un dispositivo de dos terminales, es el producto de la diferencia de potencial entre dichos terminales y la intensidad de corriente que pasa a través del dispositivo. Por esta razón la potencia es proporcional a la corriente y a la tensión. Esto es,
(1) Donde I es el valor instantáneo de la corriente y V es el valor instantáneo del voltaje. Si I se expresa en amperios y V en voltios, P estará expresada en watts (vatios). Igual definición se aplica cuando se consideran valores promedio para I, V y P. Cuando el dispositivo es una resistencia de valor R o se puede calcular la resistencia equivalente del dispositivo, la potencia también puede calcularse como
Potencia en corriente alterna Cuando se trata de corriente alterna (AC) sinusoidal, el promedio de potencia eléctrica desarrollada por un dispositivo de dos terminales es una función de los valores eficaces o valores cuadráticos medios, de la diferencia de potencial entre los terminales y de la intensidad de corriente que pasa a través del dispositivo. En el caso de un circuito de carácter inductivo (caso más común) al que se aplica una tensión sinusoidal con velocidad angular
Esto provocará una corriente
y valor de pico
resulta:
retrasada un ángulo
respecto de la tensión aplicada:
La potencia instantánea vendrá dada como el producto de las expresiones anteriores:
Mediante trigonometría, la anterior expresión puede transformarse en la siguiente:
Y sustituyendo los valores de pico por los eficaces:
Se obtiene así para la potencia un valor constante,
y otro variable con el tiempo,
. Al primer valor se le denomina potencia activa y al segundo potencia fluctuante.
Potencia fluctuante Al ser la potencia fluctuante de forma senoidal, su valor medio será cero. Para entender mejor qué es la potencia fluctuante, imaginemos un circuito que sólo tuviera una potencia de este tipo. Ello sólo es posible s i rad (cos(±90º)=0), quedando
caso que corresponde a un c ircuito inductivo puro o capacitivo puro. Por lo tanto la potencia fluctuante es debida a un solenoide o a un condensador.Tales elementos no consumen energía sino que la almacenan en forma de campo magnético y campo eléctrico.
Componentes de la intensidad
Figura 1.- Componentes activa y reactiva de la intensidad; supuestos inductivo, izquierda y capacitivo, derecha. Consideremos un circuito de C. A. en el que la corriente y la tensión tienen un desfase φ. Se define componente activa de la intensidad, I a, a la componente de ésta que es tá en fase con la tensión, y componente reactiva, Ir , a la que está en cuadratura con ella (véase Figura 1). Sus valores s on:
El producto de la intensidad, I, y las de sus componentes activa, I a, y reactiva, I r , por la tensión, V, da como resultado las potencias aparente (S), activa (P) y reactiva (Q), respectivamente:
Potencia compleja [editar]
Figura 2.- Relación entre potencia activa, aparente y reactiva. La potencia compleja (cuya magnitud se conoce como potencia aparente) de un circuito eléctrico de corriente alterna, es la suma (vectorial) de la potencia que disipa dicho circuito y se transforma en calor o trabajo(conocida como potencia promedio, activa o real) y la potencia utilizada para la formación de los campos eléctrico y magnético de sus componentes que fluctuará entre estos componentes y la fuente de energía (conocida como potencia reactiva). Esta potencia no es la realmente "útil", salvo cuando el factor de potencia es la unidad (cos φ=1), y señala que la red de alimentación de un circuito no sólo ha de satisfacer la energía consumida por los elementos resistivos, sino que también ha de contarse con la que van a "almacenar" las bobinas y condensadores. Se la designa con la letra S y se mide en voltiamperios (VA) (la potencia activa se mide en vatios (W), y la reactiva se mide en voltiamperios reactivos (VAR) La fórmula de la potencia aparente es:
Potencia activa [editar] Es la potencia que representa la capacidad de un circuito para realizar un proceso de transformación de la energía eléctrica en trabajo. Los diferentes dispositivos eléctricos existentes convierten la energía eléctrica en otras formas de energía tales como: mecánica, lumínica, térmica, química, etc. Esta potencia es, por lo tanto, la realmente consumida por los circuitos. Cuando se habla de demanda eléctrica, es esta potencia la que se utiliza para determinar dicha demanda. Se designa con la letra P y se mide en vatios (W). De acuerdo con su expresión, la ley de Ohm y el triángulo de impedancias:
Resultado que indica que la potencia activa es debida a los elementos resistivos.
Potencia reactiva [editar] Esta potencia no tiene tampoco el carácter realmente de ser consumida y s ólo aparecerá cuando existan bobinas o condensadores en los circuitos. La potencia reactiva tiene un valor medio nulo, por lo que no produce trabajo necesario. Por ello que se dice que es una potencia desvatada (no produce vatios), se mide en voltiamperios reactivos (VAR) y se designa con la letra Q. A partir de su expresión,
Lo que reafirma en que esta potencia es debida únicamente a los elementos reactivos.
Potencia trifásica [editar] La representación matemática de la potencia activa en un sistema trifásico equilibrado está dada por la ecuación:
CÁLCULO DE LA POTENCIA DE UNA CARGA ACTIVA (RESISTIVA) La forma más simple de calcular la potencia que consume una carga activa o resistiva conectada a un circuito eléctrico es multiplicando el valor de la tensión en volt (V) aplicada por el valor de la intensidad (I) de la corr iente que lo recorre, expresada en ampere. Para realizar ese cálculo matemático se utiliza la siguiente fórmula:
(Fórmula 1)
El resultado de esa operación matemática para un circuito eléctrico monofásico de corriente directa o de corriente alterna estará dado en watt (W). Por tanto, si sustituimos la “P” que identifica la potencia por su equivalente, es decir, la “W ” de watt, tenemos también que: P = W, por tanto,
Si ahora queremos hallar la intensidad de corriente ( I ) que fluye por un circuito conociendo la potencia en watt que posee el dispositivo que tiene conectado y la tensión o voltaje aplicada, podemos despejar la fórmula anterior de la siguiente forma y realizar la operación matemática correspondiente:
(Fórmula 2)
Si observamos la fórmula 1 expuesta al inicio, veremos que e l voltaje y la intensidad de la corr iente que fluye por un circuito eléctrico, son directamente proporcionales a la potencia, es decir, si uno de ellos aumenta o disminuye su valor, la potencia también aumenta o disminuye de forma proporcional. De ahí se deduce que, 1 watt (W) es igual a 1 ampere de corriente ( I ) que fluye por un circuito, multiplicado por 1 volt (V) de tensión o voltaje aplicado, tal como se representa a continuación. 1 watt = 1 volt · 1 ampere
Veamos, por ejemplo, cuál será la potencia o consumo en watt de una bombilla conectada a una red de energía eléctrica doméstica monofásica de 220 volt, si la corriente que circula por el circuito de la bombilla es de 0,45 ampere. Sustituyendo los valores en la fórmula 1 tenemos: P=V·I P = 220 · 0,45 P = 100 watt Es decir, la potencia de consumo de la bombilla será de 100 W . De igual forma, si queremos hallar la intensidad de la corriente que fluye por la bombilla c onociendo su potencia y la tensión o voltaje aplicada al circuito, podemos utilizar la fórmula 2, que vimos al principio. Si realizamos la operación utilizando los mismos datos del ejemplo anterior, tendremos:
De acuerdo con esta fórmula, mientras mayor sea la potencia de un dispositivo o equipo eléctrico conectado a un circuito consumiendo energía eléctrica, mayor será la intensidad de corriente que fluye por dic ho circuito, siempre y cuando el valor del voltaje o tensión se mantenga constante. La unidad de consumo de energía de u n dispositivo eléctrico se mide en watt-hora (vatio-hora), o en kilowatt-hora (kW-h) para medir miles de watt. Normalmente las empresas que suministran energía eléctrica a la industria y el hogar, en lugar de facturar el consumo en watt-hora, lo hacen en kilowatt-hora (kW -h). Si, por ejemplo, tenemos encendidas en nuestra casa dos lámparas de 500 watt durante una hora, el reloj registrador del consumo eléctrico registrará 1 kW -h consumido en
ese período de tiempo, que se sumará a la cifra del consumo anterior. Una bombilla de 40 W consume o gasta menos energía que otra de 100 W. Por eso, mientras más equipos conectemos a la red eléctrica, mayor será el consumo y más dinero habrá que abonar después a la empresa de servicios a la que contratamos la prestación del s uministro de energía eléctrica. Para hallar la potencia de consumo en watt de u n dispositivo, también se pueden utilizar, indistintamente, una de las dos fórmulas que aparecen a continuación:
En el primer caso, el valor de la potencia se obtiene elevando al cuadrado el valor de la intensidad de corriente en ampere (A) que fluye por el circuito, multiplicando a continuación ese resultado por el valor de la resistencia en ohm (
) que posee la carga o consumidor conectado al propio circuito.
En el segundo caso obtenemos el mismo resultado elevando al cuadrado el valor del voltaje de la red eléctrica y dividiéndolo a continuación por el valor en ohm (
) que posee la resistencia de la carga conectada.
Placa colocada al costado de un motor monofásico de corriente alterna, donde aparece, entre otros< datos, su potencia en kilowatt (kW), o en C.V. (H.P.). El consumo en watt (W) o kilowatt (kW) de cualquier carga, ya sea ésta una resistencia o un consumidor cualquiera de corriente conectado a un circuito eléctrico, como pudieran ser motores, calentadores, equipos de aire acondicionado, televisores u otro dispositivo similar, en la mayoría de los casos se puede conocer leyéndolo directamente en una placa metálica ubicada, generalmente, en la parte trasera de dichos equipos. En los motores esa placa se halla colocada en uno de sus costados y en el caso de las bombillas de alumbrado el dato viene impreso en el cristal o en s u base.
CÁLCULO DE LA POTENCIA DE CARGAS REACTIVAS (INDUCTIVAS) Para calcular la potencia de algunos tipos de equipos que trabajan con corriente alterna, es necesario tener en cuenta también el valor del factor de pote ncia o coseno de “phi” (Cos ) que poseen. En ese caso se encuentran los equipos que trabajan con carga reactiva o inductiva, es decir, consumidores de energía eléctrica que para funcionar utilizan una o más bobinas o enrollado de alambre de cobre, como ocurre, por ejemplo, con los motores. Las resistencias puras, como la de las bombillas de alumbrado incandescente y halógena, y los calentadores eléctricos que emplean resistencia de alambre nicromo (NiCr), tienen carga activa o resistiva y su factor de potencia es igual a “1”, que es el valor considerado ideal para un circuito eléctrico; por tanto ese valor no se toma en cuenta a la hora de calcular la potencia de consumo de esos dispositivos. Sin embargo, las cargas reactivas o inductivas, como la que pose en los motores eléctricos, tienen un factor de potencia menor que “1” (generalmente su valor varía entre 0,85 y 0,98), por lo cual la eficiencia de trabajo del equipo e n cuestión y de la red de suministro eléctrico varía cuando el factor se aleja mucho de la unidad, traduciéndose en un mayor gasto de energía y en un mayor desembolso económico. No obstante, tanto las industrias que tiene muchos motores eléctricos de corriente alterna trabajando, así como las centrales eléctricas, tratan siempre que el valor del factor de potencia, llamado también coseno de “fi” (Cos ), se acerque lo más posible a la unidad en los equipos que consumen carga eléctrica reactiva. Normalmente el valor correspondiente al factor de potencia viene señalado en una placa metálica junto con otras características del equipo. En los motores eléctricos esa placa se encuentra situada generalmente en uno de los costados, donde aparecen también otros datos de importancia, como el consumo eléctrico en watt ( W), voltaje de trabajo en volt (V), frecuencia de la c orriente en hertz (Hz), amperaje de trabajo en ampere ( A), si es monofásico o trifásico y las revoluciones por minuto ( rpm o min-1) que desarrolla. La fórmula para hallar la potencia de los equipos que trabajan con corriente alterna monofásica, teniendo en cuenta su factor de potencia o Cos es la siguiente:
De donde: P .- Potencia en watt (W) V .- Voltaje o tensión aplicado en volt (V) I .- Valor de la corriente en ampere (A) Cos .- Coseno de "fi" (phi) o factor de potencia (menor que "1") Si queremos conocer la potencia que desarrolla un motor eléctrico monofásico, cuyo consumo de corriente es de 10,4 ampere (A), posee un factor de potencia o Cos = 0,96 y está conectado a una red eléctrica de corriente alterna también monofásica, de 220 volt (V), sustituyendo estos valores en la fórmula anterior tendremos: P = 220 • 10,4 • 0,96 = 2196,48 watt
Como vemos, la potencia de ese motor eléctrico será de 2 196,48 watt. Si convertimos a continuación los watt obtenidos como resultado en kilowatt dividiendo esa cifra entre 1 000, tendremos: 2196,48 ÷ 1000 = 2,2 kW aproximadamente.
Múltiplos y submúltiplos de la potencia en watt Múltiplos kilowatt (kW) = 10 3 watt = 1 000 watt kilowatt-hora (kW-h) – Trabajo realizado por mil watt de potencia en una hora. Un kW-h es igual a 1 000 watt x 3 600 segundos, o sea, 3 600 000 joule (J). Submúltiplos miliwatt (mW) = 10 -3 watt = 0,001 watt microwatt ( W) = 10-6 watt = 0,000 001 watt Caballo de fuerza (HP) o caballo de Vapor (C.V.) Los países anglosajones utilizan como unidad de medida de la potencia el caballo de vapor (C.V.) o Horse Power (H.P.) (caballo de fuerza). 1 H.P. (o C.V.) = 736 watt = 0,736 kW 1 kW = 1 / 0,736 H.P. = 1,36 H.P.
Línea de transmisión Este artículo se refiere a la línea de transm isión de co mu nic acion es . Para información sobre líneas de transmisión utilizadas en las redes de transmisión y distribución eléctrica, véase Red de transporte de energía eléctrica. Una línea de transmisión es una estructura material utilizada para dirigir la transmisión de energía en forma de ondas electromagnéticas, comprendiendo el todo o una parte de la distancia entre dos lugares que se comunican. En adelante utilizaremos la denominación de líneas de transmisión exclusivamente para aquellos medios de transmisión con soporte físico, susceptibles de guiar ondas electromagnéticas en modo TEM (modo transversal electromagnético). Un modo TEM se caracteriza por el hecho de que tanto el campo eléctrico, como el campo magnetico que forman la onda son perpendiculares a la dirección en que se propaga la energía; sin existir, por tanto componente de los campos en la dirección axial (dirección en que se propaga la energía). Para que existan propagación energética en modo TEM, es necesario que existan al menos dos conductores eléctricos y un medio dieléctrico entre ambos (que puede incluso ser aire o vacío). Ejemplos de líneas de transmisión son la línea bifilar, el cable coaxial, y líneas planares tales como la stripline, la microstrip... Cuando el modo de propagación es TEM, se pueden definir, sin ambigüedad, tensiones y corrientes, y el análisis electromagnético de la estructura (estudio de campos) no se hace imprescindible, siendo posible una representación circuital con parámetros distribuidos, tal y como aquí se trata con posterioridad.
Así podemos decir que el modelo circuital equivalente de un tramo de línea de transmisión ideal de longitud infinitesimal dz está compuesto por una bobin a serie que representa la autoinducción L de la línea de transmisión por unidad de longitud (medida en H/m), y un condensador en paralelo para modelar la capacidad por unidad de longitud C de dimensiones F/m. Cuando la línea de transmisión introduce pérdidas, d eja de tener un carácter ideal y es necesario ampliar el equivalente circuital anterior añadiendo dos nuevos elementos: una resistencia serie R, que caracteriza las pérdidas óhmicas por unidad de longitud generadas por la conductividad finita de los conductores, y que se mide en Ω/m, y una conductancia en paralelo G, con dimensiones de S/m (o Ω-1m-1), para representar las pérdidas que se producen en el material dieléctrico por una conductividad equivalente no nula, lo que da lugar al circuito equivalente de la siguiente figura:
Las ecuaciones que rigen V(z) e I(z) con dependencia armónica con el tiempo en una línea de transmisión son las siguientes:
El análisis matemático del comportamiento de la transmisión de ondas electromagnéticas se realizó gracias a los trabajos de James Clerk Maxwell, Lord Kelvin y, principalmente, Oliver Heaviside. En 1855, Lord Kelvin formuló un modelo de difusión para la corriente en un cable submarino. Este modelo predijo correctamente el pobre desempeño que tendría el cable submarino transatlántico de 1858. En 1885, Heaviside publicó los primeros documentos sobre el estudio de la línea de transmisión, en los que describía su análisis de propagación en cables y la forma actual de las ecuaciones del telégrafo.1
Modelado en cuadripolo
[editar]
Para propósitos de análisis, una línea de transmisión puede modelarse en un cuadripolo (también llamada red bipuerto) como sigue:
En el caso más simple de estudio, asumiremos que la red es lineal (esto es, la respuesta a una combinación lineal de varias excitaciones, es una combinación lineal de las respuestas que tendría la red para cada una de las excitaciones por separado, o dicho de otra forma es aplicable el principio de superposición). Además la red es recíproca y simétrica (es decir, ambos puertos son intercambiables). Si la línea de transmisión es uniforme en toda su longitud y sin pérdidas (línea de transmisión no disipativa) entonces su comportamiento estará enteramente descrito por un único parámetro llamado impedancia característica, representada por Z 0. Ésta es la razón de la tensión compleja a la corriente compleja en cualquier punto de una línea de longitud infinita (o finita en longitud pero
terminada en la una impedancia de valor igual a la impedancia característica). Cuando la línea de transmisión es sin pérdidas, la impedancia característica de la línea es un valor real. Algunos valores típicos de Z 0 son 50 y 75 ohmios 75 ohmios para un cable un cable coaxial común, 100 ohmios 100 ohmios para un par un par trenzado y más o menos 300 ohmios 300 ohmios para un par un par de cobre usado en radiocomunicaciones. en radiocomunicaciones. Cuando se envía potencia a través de una línea de transmisión, lo más m ás deseable es que toda esa potencia enviada sea transmitida a la carga, sin que exista potencia reflejada hacia la fuente. Esta condición ideal se logra haciendo que las impedancias de fuente y carga sean cada una iguales a Z0, caso en el cual se dice que la línea de transmisión está adaptada. está adaptada. En las líneas reales parte de la potencia que se envía a través de la línea de transmisión se disipa (se pierde) debido al efecto resistivo. Esta pérdida se llama pérdida llama pérdida resistiva o resistiva o pérdida pérdida óhmica. óhmica. En altas frecuencias, se hace significativo otro tipo de pérdida, llamado pérdida llamado pérdida por dieléctrico, dieléctrico, que se agrega a la pérdida resistiva. La pérdida por dieléctrico es causada cuando el material dieléctrico que forma parte de la línea de transmisión absorbe energía del campo del campo eléctrico alterno y la convierte en calor. en calor. La pérdida total de potencia en una línea de transmisión se conoce como atenuación como atenuación y se especifica en unidades de decibel de decibel por metro metro o neperio por metro. La metro. La atenuación atenuación generalmente depende de la frecuencia la frecuencia de la señal. Los fabricantes de líneas de transmisión acostumbran adjuntar a sus productos la hoja de características que contiene las atenuaciones en dB/m para un rango determinado de frecuencias. Una atenuación de 3 dB corresponde, aproximadamente, a la pérdida de la mitad de cierta potencia. Se puede definir como línea de transmisión de alta frecuencia a aquellas que están específicamente diseñadas para transmitir ondas electromagnéticas cu yas longitudes yas longitudes de onda son pequeñas (alta frecuencia) y, por tanto, comparables a la extensión com pleta de la línea. Bajo estas condiciones, la longitud física de la línea puede ser pequeña, pero dado que el tamaño de la línea es comparable a la longitud de onda, las aproximaciones útiles para bajas frecuencias, que asumen propagación energética instantánea entre dos puntos separados de un mismo conductor, dejan de tener sentido y se ponen de manifiesto fenómenos de retardo en la propagación. Esto ocurre con las señales de radio, de microondas y ópticas, y ópticas, y y con las señales que se encuentran en los circuitos los circuitos digitales de alta velocidad.
Las ecuaciones del telégrafo Oliver Heaviside desarrolló un modelo matemático de línea de transmisión, conocido como ecuaciones del telégrafo, telégrafo, que describe la variación instantánea de la tensión y corriente eléctricas a lo largo de un conductor. La teoría fue desarrollada para las líneas de transmisión de comunicaciones, como los hilos telegráficos y los conductores de radiofrecuencia; sin embargo, también es aplicable en su totalidad al diseño de las líneas de transmisión de potencia. Las ecuaciones constan de dos ecuaciones diferenciales lineales en función de la distancia y el tiempo: una para V(x, t) y otra para I(x, t). El modelo demuestra que la energía eléctrica puede reflejarse en la línea, y que se podían formar patrones de onda conocidos.
Ecuaciones Las ecuaciones del telégrafo pueden entenderse como una simplificación de las ecuaciones de Maxwell. Para fines prácticos, se asume que el conductor está compuesto por una serie de redes bipuerto (cuadripolos) elementales, representando cada cual un segme nto infinitesimal de la línea de transmisión. Un segmento infinitesimal de línea de transmisión queda caracterizado, por cuatro
parámetros distribuidos, distribuidos , conocidos también habitualmente como parámetros primarios de la línea de transmisión. La inductancia distribuida (expresada distribuida (expresada en henrios por unidad de longitud) debido al campo magnético alrededor conductor, se representa como una sola bobina en serie L. El parámetro L modela el proceso de almacenamiento energético en forma de campo magnético que se produce en la línea. El comportamiento capacitivo distribuido (expresado distribuido (expresado en faradios por unidad d e longitud) debido al campo eléctrico existente en el dieléctrico entre los conductores de la línea, se representa por un solo condensador en paralelo C, colocado entre "el conductor de ida" y "el conductor de retorno". El parámetro C modela el proceso de almacenamiento energético en forma de campo eléctrico que se produce en la línea. La resistencia distribuida en distribuida en el conductor (expresada en ohmios por unidad de longitud) se representa por un solo resistor en serie R. Este parámetro modela la disipación de potencia debido a la no idealidad de los conductores (pérdidas óhmicas). distribuida (expresada en mhos por unidad de longitud o siemens por La conductancia distribuida (expresada unidad de longitud) se representa por una conductancia en paralelo G, colocada entre "el conductor de ida" y "el conductor de retorno". El parámetro G modela la disipación de potencia que se produce por la no idealidad del medio dieléctrico (pérdidas dieléctricas). Cuando los parámetros R y G son muy pequeños, sus efectos se pueden ignorar, de m anera que la línea de transmisión se puede considerar una estructura ideal y sin pérdidas. En este caso, el modelo depende sólo de los parámetros L y C, de los cuales obtenemos un par de ecuaciones diferenciales parciales, una de ellas para la tensión y otra para la corriente, a través de la línea, ambas en función de la posición o distancia x y del tiempo t.
Estas ecuaciones pueden combinarse para formar cualquiera de estas ecuaciones de onda exactas:
Si la línea posee una longitud infinita o está terminada en su impedancia características, estas ecuaciones nos indicarán además la presencia de una onda que viaja con velocidad (Nótese que esta velocidad de propagación sólo es aplicable a la onda y no tiene nada que ver con la velocidad de arrastre del electrón, caso a parte para el cual existen otras ecuaci ones y otra
.
teoría. Para una línea de transmisión lineal hom ogénea e isótropa, hecha de conductores perfectos y con vacío entre ellos, se puede demostrar que dicha velocidad es igual a la de la luz.)
Línea de transmisión disipativa Cuando las pérdidas por disipación en los elementos R y G no son despreciables, las ecuaciones diferenciales originales que describen el cuadripolo elemental pasan a tener la forma
Derivando la primera ecuación respecto de x y la segunda respecto de t, obtendremos, con ayuda de manipulación algebraica, un par de ecuaciones diferenciales parciales hiperbólicas de sólo una incógnita:
Nótese que las ecuaciones se parecen mucho a la ecuación de onda homogénea con términos adicionales en V e I y sus primeras derivadas. Estos términos adicionales en la ecuación son, físicamente, el efecto que causa el decaimiento (atenuación) y distorsión de la señal en la distancia y el tiempo.
Dirección de propagación de la señal Las ecuaciones de onda indicadas líneas arriba nos muestran dos soluciones posibles para la onda viajera: una onda incidente (o progresiva) y una onda reflejada (o regresiva).
donde
se llama número de onda y onda y posee unidades de radianes por metro, ω es la frecuencia angular o natural, en radianes por segundo,
f 1 y f 2 pueden ser cualesquiera funciones imaginables, y
representa la velocidad de propagación de la onda. f 1 representa una onda viajera según l a dirección positiva de x, mientras que f 2 representa una onda viajera según la dirección negativa de x. Se puede decir que la tensión instantánea en cualquier punto x de la línea, V(x), es la suma de las tensiones de ambas ondas.
Dado que la corriente I guarda relación con la tensión V en las ecuaciones del telégrafo, podemos escribir
donde
es la impedancia característica (en ohmios) de la línea de transmisión
1. Líneas de transmisión ideales. ENUNCIADOS 1.1-En una línea de transmisión terminada en una carga se introduce en t=10 ns un pulso rectangular de 20 ns de duración. Obtener el valor de la resistencia del generador y de la resistencia de carga. Datos: -Impedancia característica de la linea (Z 0=50 Ohm). -Al principio de la línea se mide la tensión mostrada en la siguiente figura.
1.2-Calcular la longitud de la línea del problema 1.1. r-eff =9). 1.3-En una línea de transmisión, se introduce un pulso en t=0 ns , en un punto de la línea se mide la tensión mostrada en siguiente figura. Obtener la distancia entre el punto de medida y el generador. r-eff =2.25).
1.4-Calcular la longitud total de la línea del problema 1.3. 1.5-En una línea de transmisión terminada en una carga se introduce e n t=0 ns un pulso rectangular de 30 ns de duración. Obtener el valor de la permitividad efectiva de la línea . Datos: -La longitud de la línea es de 1 metro. -Al principio de la línea se mide la tensión mostrada en la siguiente figura.
1.6-Cual es el valor de la carga que se encuentra al final de la línea del problema 1.5. -Impedancia característica de la linea (Z 0=75 Ohm).
2. Lineas de transmisión reales. ENUNCIADOS DE LINEAS MICROTIRA (MICROSTRIP) 2.1.1-Calcular la velocidad de propagación en una li
r-eff =2.25.
2.1.2-Calcular la velocidad de propagación en una linea microtira de las siguientes características: r1=2.25). -Anchura de la pista (w=5mm). -Altura del sustrato (h=1.6mm). 2.1.3-Calcular la anchura de una linea microtira de l as siguientes características: r1=9). -Altura del sustrato (h=0.5mm). -Impedancia característica de la linea (Z 0=75 Ohm). 2.1.4-En una linea microtira de las siguientes características: -Anchura de la pista (w=2mm). -Altura del sustrato (h=1.6mm). -Impedancia característica de la linea (Z 0=50 Ohm). r-eff ).
r)
2.1.5-Asumiendo bajas perdidas en una linea de transmisión microtira de las siguientes características: -Impedancia característica de la linea (Z 0=75 Ohm). -Anchura de la pista (w=2mm). -Altura del sustrato (h=1.6mm). r-eff =2.25). -Frecuencia de trabajo (f=1GHz). -El material conductor es cobre CU = 5.813*10 7 S/m. 2.1.6-
fase
-Frecuencia de trabajo (f=1GHz). -Anchura de la pista (w=2mm). -Altura del sustrato (h=1.6mm). -
L=0.002). r =10).
ENUNCIADOS DE LINEAS TRIPLACA (STRIPLINE) 2.2.1-
r-eff =2.25.
2.2.2-Calcular la permitividad relativa efectiva de una linea triplaca compuesta por dos substratos con r1 r2=4). Las dimensiones de la tira son: h=1mm y w=4mm. 2.2.3-Calcular la capacidad por unidad de longitud de la linea triplaca del problema 2.2.2. 2.2.4- Calcular L(H/m) y Z0
ENUNCIADOS DE LINEAS COAXILALES 2.5.1- Sea un cable coaxial con l as siguientes características: r =2.25) y tangente de pérdidas=0.0004). 7 AL =3.816*10 S/m).
-Impedancia del cable coaxial es 50 Ohm. Calcule: i- Relación a/b del cable. ii-Para un diámetro de conductor interno de 1 mm, calcular R s y R del cable para las frecuencias: f 1=300MHz, f 2=500MHz, f 3=700MHz. 2.5.2-Calcular la capacidad por unidad de longitud (C(F/m)) de un cable coaxial con: r =2.25). -
2.5.3r , de un cable coaxial de l as siguientes características: -Radio del conductor -Capacidad por unidad de longitud (C=53 pF/m).
2.5.4- De un cable coaxial de las siguientes características: 7 CU =5.813*10 S/m). -Radio del -Capacidad por unidad de longitud (C=100 pF/m). -Impedancia de 50 Ohm. Calcule los parámetros
2.5.5-Del cable coaxial del problema 2.5.4, calcular las constantes 1=200MHz y f 2=500MHz. r =2.25). -Tangente de pérdidas=0.0004. 2.5.6-En un cable coaxial de las siguietes características, calcular la re lación (a/b). -Permitividad r =4). -Capacidad por unidad de longitud (C=133.33 pF/m). 2.5.7-En un cable coaxial con: -Relación (a/b)=2.72. -Capacidad por unidad de longitud (C=80 pF/m). r =1.44). Calcular: L(H/m), Z 0 2.5.8-Del cable coaxial de -Frecuencia de trabajo 500MHz. -
S
CU =5.813*10
7
2
).
S/m).
3. Soluciones. 1.1
2.1.1 y 2.1.2
2.2.1 , 2.2.2 , 2.2.3 y 2.2.4
2.5.1
1.2
2.1.3
2.5.2 y 2.5.3
1.3 y 1.4
2.1.4
2.5.4
1.5 y 1.6
2.1.5
2.5.5
2.1.6
2.5.6 y 2.5.7 2.5.8
¿Qué son?
Un espejo plano es una superficie plana muy pulimentada que puede reflejar la luz que le llega con una capacidad reflectora de la intensidad de la luz incidente del 95% (o superior) . Los espejos planos se utilizan con mucha frecuencia. Son los que usamos cada mañana para mirarnos. En ellos vemos nuestro reflejo, una imagen que no está distorsionada.
¿Cómo se hacen?
Cuando los pueblos antiguos lograron dominar la metalurgia, hicieron espejos puliendo superficies metálicas (plata). Los espejos corrientes son placas de vidrio plateadas. Para construir un espejo se limpia muy bien un vidrio y sobre él se deposita plata metálica por reducción del ión plata contenido en una disolución amoniacal de nitrato de plata. Después se cubre esta capa de plata con una capa de pintura protectora. El espejo puede estar plateado por la cara anterior o por la posterior, aunque lo normal es que esté plateada la posterior y la anterior protegida por pintura. La parte superior es de vidrio, material muy inalterable frente a todo menos al impacto. ¿Qué imágenes dan?
Una imagen en un espejo se ve como si el objeto estuviera detrás y no frente a éste ni en la superficie. ( Ojo, es un error frecuente el pensar que la imagen la vemos en la superficie del espejo). El sistema óptico del ojo recoge los rayos que salen divergentes del objeto y los hace converger en la retina. El ojo identifica la posición que ocupa un objeto como el lugar donde convergen las prolongaciones del haz de rayos divergentes que le llegan. Esas prolongaciones no coinciden con la posición real del objeto. En ese punto se forma la imagen virtual del objeto. La imagen obtenida en un espejo plano no se puede proyectar sobre una pantalla, colocando una pantalla donde parece estar la imagen no recogería nada. Es, por lo tanto virtual, una copia del objeto "que parece estar" detrás del espejo. El espejo sí puede reflejar la luz de un objeto y recogerse esta sobre una pantalla, pero esto no es lo que queremos decir cuando afirmamos que la imagen virtual no se recoge sobre una pantalla. El sistema óptico del ojo es el que recoge los rayos divergentes del espejo y el cerebro interpreta como procedentes de detrás del espejo (justo donde se cortan sus prolongaciones) La imagen formada es: simétrica, porque aparentemente está a la misma distancia del espejo virtual, porque se ve como si estuviera dentro del espejo, no se puede formar sobre una pantalla pero puede ser vista cuando la enfocamos con los ojos. del mismo tamaño que el objeto.
derecha, porque conserva la misma orientación que el objeto. Cuando la luz llega a la superficie de un cuerpo, parte de la luz se refleja y parte entra en el cuerpo donde puede ser absorbida o transmitida, absorbiéndose siempre una parte de ella mientras lo atraviesa (ej. vidrio). La luz reflejada cumple las leyes de la reflexión. La cantidad de luz reflejada por un cuerpo depende de:
La naturaleza de la superficie (composición, estructura, densidad, color, entre otras) La textura de la superficie (plana, rugosa, regular, irregular, opaca, pulida , etc.) La longitud de onda de la luz, y de si está o no polarizada. El ángulo de incidencia de la luz sobre la superficie.
La reflexión de la luz se puede realizar de dos maneras: reflexión irregular o difusa y reflexión regular o especular. Reflexión regular o especular
Tiene lugar cuando los rayos de luz inciden sobre una superficie lisa. Algunos metales como la plata y el aluminio absorben poco la luz blanca y si construimos con ellos láminas metálicas muy pulimentadas podemos lograr que reflejen la luz de tal manera que los rayos reflejados se vean con una intensidad comparable a la de los rayos incidentes. A estas superficies les llamamos espejos y pueden ser planos o curvos. Hoy en día los espejos se construyen de vidrio, pero en la antigüedad los primeros espejos eran de metal. La física estudia las leyes de la formación de imágenes en los espejos planos. ¿Quieres conocerlas? Deslumbramiento
De los focos luminosos sale la luz en todas las direcciones. Sale radialmente, como si el foco de luz fuera el centro de una esfera y los rayos sus radios. Cada dirección de propagación se idealiza y se le asigna un único rayo. En la realidad, del foco sale un paquete de rayos paralelos que llamamos haz. Este haz es una onda electromagnética y dentro de ella lleva fotones que contienen energía.
Cuando los rayos del haz están lejos del foco se puede considerar que son paralelos entre sí y que, para pequeños recorridos, a esa gran distancia del foco, la separación entre el principio y el fin de ese trozo de rayo es "inapreciable".
Como los espejos planos reflejan mas del 95% de la intensidad de la luz incidente, un haz de luz procedente del Sol que se refleje en un espejo puede deslumbrarnos. En este gráfico un rayo que procede del Sol incide en un espejo y se refleja hacia el ojo del observador.
En el gráfico anterior hay un error. ¿Puedes descubrirlo?. ¿Como puedes lograr deslumbrar a una persona con un espejo? ¿Conoces algún caso histórico (¿?) en el que se usaron espejos en alguna guerra?. ¿Quién fue Arquímedes?. Una experiencia reciente demostró que para concentrar energía capaz de incendiar naves a distancia se necesitan espejos de un tamaño imposibles de construir con la tecnología de la época de Arquímedes. Reflexión difusa
Todos los cuerpos reflejan parte de la luz que incide sobre ellos pero la mayoría producen una reflexión difusa. La reflexión difusa se origina en los cuerpos que tienen superficies rugosas, no pulidas: esto es lo que nos permite ver los objetos que nos rodean sin deslumbrarnos aunque que estén iluminados por una luz intensa. El sistema óptico del ojo recoge los rayos difundidos y forma con ellos la imagen del objeto. Podemos ver todos los puntos de la superficie en la que se produce la reflexión difusa . ¡ Tu cara difunde la luz, pero no deslumbra a nadie ! :-)
Este es un enlace a un applet en el que puedes ver este fenómeno.
Campo visual de un espejo
Según la orientación que tenga el espejo respecto al ojo y según la superficie del espejo, se alcanza diferente campo visual: el ojo puede ver distintas zonas según donde esté respecto al espejo. Puedes "barrer" una zona situada detrás de ti con el campo visual de un espejo girándolo frente a tus ojos. Todos los rayos procedentes de la zona azul se reflejan en el espejo y pueden ser captados por el sistema óptico del ojo. No se pueden ver todos los objetos situados frente al espejo. ¿Aumenta el campo visual al acercar el espejo al ojo? ¿Y al alejarlo?. Pulsa aquí para utilizar una animación en la que puedes realizar una práctica virtual. Ahora realiza esta práctica real. Coloca un espejo delante de ti y gíralo para variar el campo visual.
Las leyes básicas de la óptica geométrica son: la ley de propagación, la ley de la reflexión y la ley de la refracción. La formación de las imágenes en los espejos planos es una consecuencia de la reflexión de los rayos luminosos. Una imagen en un espejo se ve como si el objeto estuviera detrás y no frente a éste. La óptica geométrica explica este familiar fenómeno suponiendo que los rayos luminosos cambian de dirección al llegar al espejo. Espejos planos: curiosidades La imagen formada en un espejo cambia el sentido del objeto de izquierda a derecha (imagen especular). 1.- Trata de leer este texto con ayuda de un espejo .
Sitúa el espejo de manera que esta zona de la pantalla quede en el campo visual del espejo y mira el texto reflejado en él. También puedes imprimir este texto y luego leerlo con ayuda de un espejo. Trata de escribir un texto para que pueda leerse usando un espejo. Utiliza uno para ver lo que escribes.
Leonardo da Vinci, que era zurdo, no solo utilizó su facilidad para escribir de derecha a i zquierda, sino que escribió crípticamente usando un espejo. Sus textos pueden descifrarse fácilmente con ayuda de un espejo. Firma de Leonardo
En esta página que enlazo puedes escribir tu nombre, pulsa en (try yourself) y una aplicación lo convertirá en su imagen especular. ¿Cómo están escritos los rótulos que van en la parte delantera de las ambulancias para que puedan ser vistos fácilmente por el espejo retrovisor del coche que va delante de la ambulancia?. Escribe el texto en un papel para ser leído de esta manera. Utiliza un espejo.
2.- Imagen dada por dos espejos que forman un ángulo de 90º
La parte derecha de la imagen corresponde a la parte izquierda del objeto y viceversa. Técnicamente esto se llama ver la imagen falseada. La oreja izquierda del sujeto (objeto) y la oreja derecha del sujeto (imagen) que vemos en el espejo. Si tienes una persona frente a ti, su brazo izquierdo está a tu derecha, pero si tienes su imagen delante de ti, su brazo izquierdo estará a la izquierda. Por lo tanto el espejo cambia el sentido izquierda-derecha: nos vemos delante de nosotros mismos como si se tratara de otra persona pero...su derecha está a nuestra derecha y no como cuando vemos las imágenes reales de nuestros semejantes.
Si queremos anular este efecto de los espejos podemos hacer lo siguiente:
Podemos colocar dos espejos con el frente plateado formando un ángulo de 90º. Debido a la doble reflexión la oreja izquierda del sujeto se verá como la oreja derecha del sujeto que se ve en la imagen. La cara de casi todas las personas son ligeramente asimétricas. Vistas con espejos que formen un ángulo de 90 º estas peculiaridades normalmente inadvertidas aparecen muy m arcadas. Realiza esta experiencia: une dos espejos de modo que entre ellos formen un ángulo ligeramente inferior a 90º. En la parte interior de los espejos verás dos caras. Abre los espejos poco a poco y, exactamente cuando el ángulo es de 90º, las dos narices se superponen. Guiña un ojo y quedarás desconcertado ya que en el espejo verás cerrarse el ojo que no esperabas que fuera a hacerlo. Además de esa imagen en la parte interior hay dos más, una a cada lado.
Cuando dos espejos forman un ángulo el número de imágenes que podemos ver en ellos depende del ángulo y se calcula así:
3.º.- ¿Cual debe ser el tamaño mínimo de un espejo plano vertical y cómo debe estar colocado para que nos veamos de pies a cabeza?
En esta figura puedes ver la colocación y el tamaño: justo a la altura del extremo de nuestra cabeza y debe tener la mitad de nuestro tamaño. Sabemos que AB = A'B (imagen en un espejo) AA' = 2AB Por el teorema de Tales las proporciones en los triángulos serán: BP = 2 MA'
Mueve el puntero del ratón para dibujar en la parte izquierda y verás como se ve en el espejo la imagen correspondiente a lo dibujado por ti. Esta es la página original italiana del enlace anterior: http://www.ba.infn.it/~zito/museo/frame71.html<>
Espejo
Vasija reflejada en un espejo.
Espejo egipcio. Louvre.
Reflexión de los rayos de luz en un espejo plano.
Esquema de inversión de la imagen.
Esquema de un reflector. Un espejo es una superficie pulida en la que al i ncidir la luz, se refleja siguiendo las leyes de la reflexión. El ejemplo más simple es el espejo plano o el espejo esferoidal. En él, un haz de rayos de luz paralelos puede cambiar de dirección completamente como conjunto y continuar siendo un haz de rayos paralelos, pudiendo producir así una imagen virtual de un objeto con el mismo tamaño y forma que el real. Sin embargo, la imagen resulta derecha, pero invertida en el eje vertical. Existen también espejos cóncavos y espejos convexos. Cuando un espejo es cóncavo y la curva es una parábola, si un rayo incide paralelo al eje del espejo, se refleja pasando por el foco (que es la mitad del centro óptico de la esfera a la que pertenece el espejo), y si incide pasando por el foco, se refleja paralelo al eje principal.
Historia Los espejos como utensilios de tocador y objeto manual fueron muy usados en las civilizaciones egipcia, griega, etrusca y romana. Se elaboraban siempre con metal bruñido, generalmente cobre, plata o bronce, a este proceso se le conoce como plateo. Tenían forma de placa redonda u oval, decorada ordinariamente con grabados o relieves mitológicos en el reverso (los romanos carecen de grabados, pero no de relieves) y con m ango tallado para asirlos cómodamente; de ellos, se conservan todavía muchos ejemplares en algunos museos arqueológicos. Durante la alta Edad Media, apenas se hizo uso del espejo, hasta que en el siglo XIII se inventó la fabricación de los de vidrio y de cristal de roca sobre lámina metálica (o con amalgama de plomo o estaño que son los espejos azogados), sin dejar por esto de construirse los de sólo metal hasta el siglo XVIII. El espejo, como mueble de habitación, empieza con el siglo XVI, pues aunque durante los dos siglos anteriores se citan algunos ejemplares históricos apenas era conocido y su uso era poco corriente. En dicho siglo, se presenta con marco elegante y pie artístico y ocupa lugar distinguido en el salón como objeto movible y de dimensiones reducidas. Hacia fines del siglo XVII las fábricas venecianas logran construir espejos de gran tamaño y desde entonces sirven como objetos singularmente decorativos en los salones, en los que ocupan un lugar destacado.
Los espejos modernos consisten de una delgada capa de plata o aluminio depositado sobre una plancha de vidrio, la cual protege el metal y hace al espejo más duradero. También cuenta la leyenda, que cuando los europeos vinieron a América , trajeron consigo el espejo, y era tal la impresión de los americanos que llegaron a cambiar el espejo por oro
Fórmulas FísicasPara una imagen formada por un espejo parabólico (o esférico de pequeña abertura, donde sea válida la aproximación paraxial) se cumple que:
en la que f es la distancia del foco al espejo, s la distancia del objeto al espejo y s' la distancia de la imagen formada al espejo, se lee: "La inversa de la distancia focal es igual a la suma de la inversa de la distancia del objeto al espejo con la inversa de la distancia de la imagen al espejo"
y en la que m es la magnificación o agrandamiento lateral.
Folklore El espejo ocupa un lugar importante en la mitología y las supersticiones de muchos pueblos. La imagen que en él se refleja se identifica a menudo con el alma o espíritu de la persona: de ahí por ejemplo que los vampiros, cuerpos sin alma, no se reflejen en él. Cuando un moribundo está a punto de dejar este mundo, es común que se cubran los espejos, por temor a que el alma del agonizante quede encerrada en ellos. El espejo se concibe, así, como ventana al mundo de los espíritus. La leyenda urbana de Verónica aprovecha ejemplarmente esta visión. Viceversa, el mundo de los espíritus tiende a imaginarse como una contrapartida especular del de los vivos. Lewis Carroll desarrolla magistralmente la idea del espejo como entrada a un mundo inverso en la segunda parte de las aventuras de Alicia. El espejo es también objeto frecuente de consulta: se le juzga capaz de mostrar sucesos y objetos distantes en el tiempo o el espacio. En el cuento de Blancanieves, el espejo tiene la facultad de hablar y responde a las preguntas que le formula la madrastra. J. R. R. Tolkien retoma con su célebre «espejo de Galadriel» la tradición del espejo capaz de mostrar el futuro. En la novela Harry Potter y la piedra filosofal , de J. K. Rowling, aparece el espejo de Oesed (Deseo leído a la inversa), que no refleja la imagen de quien lo contempla, sino sus deseos más profundos. También es notable el Espejo de la Sabiduría (en el que se refleja "todas las cosas del cielo y de la tierra excepto el rostro de quien se mira en él"), descrito por Oscar Wilde en el cuento El pescador y su alma.
Formación de imágenes en los espejos cóncavos
Un cuerpo iluminado o que emite o refleja luz se considera un Objeto en óptica geométrica. Colocando un objeto delante de un espejo cóncavo este formará una Imagen real de ese objeto.
Todos los rayos emitidos por la punta de la vela Q son reflejados por el espejo y se cruzan en Q' (se enfocan en ese punto).
Todos los rayos emitidos por el punto M del objeto llegan, una vez reflejados, al punto M'. Cada punto del objeto vela, situado sobre QM emitirá rayos. Todos juntos darán la imagen correspondiente, Q'M'. Colocando una pantalla en esta zona se formará sobre ella una imagen nítida y claramente definida. Debido a que la imagen se puede formar sobre una pantalla, se llama imagen real. Si vamos alejando la pantalla, la imagen se va haciendo cada vez menos nítida. Si miramos el objeto a través de un espejo es exactamente en el punto de enfoque (convergencia de los rayos) donde nos parece que está situado el objeto.
Casos de formación de la imagen según la posición del objeto 1º Caso
Si el objeto está situado entre el centro de curvatura y el infinito, la imagen será menor, real e invertida. Estará situada entre C y F.
2ª Caso
Si el objeto está situado en C la imagen también estará en C y será igual, invertida y real.
3º caso
Si el objeto está situado entre el centro de curvatura y el foco, la imagen será mayor, real e invertida. Estará situada entre C y el infinito
4º Caso
Si el objeto está situado entre el foco y el espejo, la imagen será mayor, derecha y virtual. Estará situada detrás del espejo.
NOMBRE DEL ALUMNO: SANTA ANA SARABIA RAUL
GRUPO: 405
PROFESOR: FERNANDO.
TRABAJO: TRABAJO ANEXO
1. DETERMINACION DE LA REFLEXION DE LA LUZ 2. LEY DE LA REFLEXION 3. TRAZOS DE RAYOS REFLEJADOS 4. LEY DE SNELL 5. INDICES DE REFRACCION 6. REFLEXION DE SONIDO 7. MODELOS ATOMICOS 8. DALTHON 9. THOMPSON 10. TUTHERFORD 11.PRINCIPIO DE EXCLUSION DE PAULI 12.EL NUCLEO ATOMICO
13.DESCRIPCION DE LA RADIOACTIVIDAD ALFA, BETA Y GAMA 14.FICION NUCLEAR 15.REACCION EN CADENA 16.REACTORES NUCLEARES
Se trata de la relación existente entre la velocidad de la luz en el vacío (c = 3 108 m/s), respecto a la velocidad que lleva la luz en dicho medio A. [22-1] Por tanto, el índice de refracción de la luz en el vacío es 1 (ya que vvacío=c). El valor del índice de refracción del medio es una medida de su “densidad óptica”:
La luz se propaga a velocidad máxima en el vacío pero más lentamente en los demás medios transparentes; por tanto en todos ellos n > 1 . Ejemplos de valores típicos de n son los del aire (1.0003), agua (1.33), vidrio (1.46 – 1.66) o diamante (2.42). ¿Qué le pasa a la luz al llegar a la superficie de separación de dos medios transparentes? Cuando un rayo luminoso incide sobre la superficie de separación entre dos medios diferentes, el haz incidente se divide en tres: el más intenso penetra en el segundo medio formando el rayo refractado, otro es reflejado en la superficie y el tercero se descompone en numerosos haces débiles que emergen del punto de incidencia en todas direcciones, formando un conjunto de haces de luz difusa. Ley de Snell Nosotros nos vamos a centrar en el rayo refractado que penetra en el medio. La
recta perpendicular a la superficie de separación entre medios diferentes, el rayo incidente, y el rayo refractado están en el mismo plano (Figura [22-1]). La ley de Snell establece que: [22-2] Figura [22-1] donde n1 y n2 son los índices de refracción del primer y segundo medio, respectiv amente; y α y β son los ángulos de incidencia y de refracción medidos respecto a la normal a la superficie. Observa que si α = 0, entonces β = 0, por lo que el rayo
no se desvía si incide perpendicularmente a la superficie de separación de los dos medios. (En el caso del rayo reflejado, n1 = n2 , por lo que β = α , y el ángulo de reflexión
es por tanto, igual al de incidencia). En este experimento se aplicará la Ley de Snell para dos casos particulares: el de la refracción aire → vidrio y el de la refracción vidrio → aire.
Cuando se estudia el caso en que la luz pasa de un medio menos refringente a otro más refringente (esto es, n2 > n1 , como p. ej. aire → vidrio o aire → agua), el ángulo de incidencia va a ser siempre mayor que el de refracción (α > β ). S in
embargo, cuando se produce la refracción entre un medio cualquiera y otro menos refringente que él (o sea, n1 > n2 , como p. ej. vidrio→ aire o agua→ aire), el
ángulo de refracción va a ser siempre mayor que el incidencia (β > α). Se define el ángulo lí mite, lím α , como el ángulo de refracción a partir del cual
desaparece el rayo refractado y toda la luz se refleja. Como el valor máximo del ángulo de refracción, a partir del cual todo se refleja, es βmáx= 90º, podremos
conocer el ángulo límite por la ley de Snell (ec. [22-2]) : 1 2 máx 1 lím 2 lím n β = 90º ⇒ n ⋅ senα = n ⇒ senα = n [22 -3] En el caso particular de refracción vidrio → aire se tiene:
vidrio lím n senα = 1 [22 -4]
Espectro visible No existen límites en las longitudes de onda de la radiación electromagnética: todas las longitudes de ondas son teóricamente posibles, desde los rayos gamma (λ <
10-2 nm) hasta las ondas de radio (λ > 106 nm). (1 nanómetro = 1 nm = 10 -9 metros).
El ojo humano sólo es sensible a un pequeño intervalo de longitudes de onda de la
radiación electromagnética, denominado espectro visible, formado por los diferentes colores componentes2 de la luz visible. La combinación conjunta de todos estos colores es el color blanco. El espectro visible está comprendido entre los 400 nm (longitud de onda del color violeta) y los 700 nm (longitud de onda del color rojo). Dispersión cromática El índice de refracción n de un medio material es una función de la longitud de onda, λ, de la radiación incidente sobre él. Esto quiere decir que lo s distintos colores que forman la luz blanca viajan en el medio a distinta velocidad en función de su longitud de onda λ característica. Por consiguiente, el ángulo de refracción , β , también depende de dicha longitud de onda λ: este fenómeno recibe el no mbre de
dispersión. La dependencia del índice de refracción n de los vidrios ópticos con la longitud de onda λ en la zona del espectro visible pue de representarse con bastante exactitud
según la expresión: [22-5] Cuando sobre un prisma óptico incide luz no monocromática (como es el caso de la luz blanca procedente de una lámpara de incandescencia), en cada una de las interfases vidrio-aire cada una de las componentes de la luz se refracta con un ángulo distinto, saliendo en abanico. En este experimento se observará el fenómeno de la dispersión cromática en un prisma óptico: al incidir la luz sobre él, aparecen franjas luminosas de diferentes colores, refractadas a distintos ángulos. Dispersión en prismas Un prisma óptico es un medio transparente limitado por dos superficies planas que se cortan en una arista, formando un ángulo diedro A. El rayo de luz que incide en una de las dos caras con ángulo i (desde el aire al vidrio), sale por la otra con un ángulo e (de vidrio a aire). Se denomina desviación total δ a la desviación del rayo que sale respecto de la dirección del rayo incidente, y vale: δ = i + e − A [22 -6] Para cada prisma óptico, existe un ángulo de incidencia para el cual la desviación total es mínima. Tal situación se da cuando se cumple la condición i = e . En esta situación: Figura [22-2] [( ) ] sen(A / 2) n sen min A / 2 + = δ
[22-7] Este ángulo mín δ se denomina ángulo de desviación mínima.
En la práctica, δ no se puede calcular haciendo uso de la fórmula 22 -6, ya que los
ángulos de incidencia y refracción (i y e) se miden respecto a la perpendicular a la cara del prisma, cosa que no puede determinarse fácilmente en el laboratorio. Sin embargo, considerando que δ es la desviación que sufre el ángulo de incidencia i,
podremos medir directamente su valor haciendo uso del disco óptico.
La reflexión es el cambio de dirección de un rayo o una onda que ocurre en la superficie de separación entre dos medios, de tal forma que regresa al medio inicial. Ejemplos comunes son la reflexión de la luz, el sonido y las ondas en el agua. Leyes de la reflexión regular y especular Cuando la superficie reflectante es muy lisa ocurre una reflexión de luz llamada especular o regular. Para este caso las leyes de la reflexión son las siguientes: 1. El rayo incidente, el rayo reflejado y la recta normal, deben estar en el mismo plano (mismo medio), con respecto a la superficie de reflexión en el punto de incidencia. 2. El ángulo formado entre el rayo incidente y la recta normal es igual al ángulo que existe entre el rayo reflejado y la recta normal. θi = θr
Reflexión interna total Cuando en la refracción la refracción el ángulo el ángulo de incidencia es mayor que el ángulo el ángulo crítico ocurre lo que se conoce como reflexión como reflexión interna total. Otros tipos de reflexión Retrorreflexión
Principio de funcionamiento de un reflector de esquina. Artículo principal: Retrorreflector principal: Retrorreflector La retrorreflexión es la capacidad que tienen algunas superficies que por su estructura pueden reflejar la luz de vuelta hacia la fuente, sin que importe el ángulo de incidencia original. Este comportamiento se puede observar en un espejo, pero únicamente cuando éste se encuentra perpendicular a la fuente; es decir, cuando el ángulo de incidencia es igual a 90°. Se puede construir un retrorreflector simple colocando tres espejos ordinarios de forma que todos sean perpendiculares entre sí (un reflector (un reflector esquinero). esquinero). La imagen que se produce es igual a la imagen producida por un espejo pero invertida. Tal como se observa en la figura, la combinación de las diferentes superficies hace que el haz de luz sea reflejado de vuelta a la fuente. Si a una superficie se le aplica una pequeña capa de esferas reflectivas es posible obtener una superficie con una capacidad cap acidad limitada de retrorreflexión. El mismo efecto se puede obtener si se dota a la superficies con una estructura similar a
pequeñas pirámides (reflexión esquinera). En ambos casos, la estructura interna de la superficie refleja la luz que incide sobre ella y la envía directamente hacia la fuente. Este tipo de superficies se utilizan para crear las señales de tránsito y las placas de los automóviles; en este caso particular no se desea una retrorreflexión perfecta, pues se quiere que la luz retorne tanto hacia las luces del vehículo que emite el haz de luz como a los ojos de la persona que lo va conduciendo. Reflexión acoplada compleja La luz se refleja exactamente en la dirección de la fuente de donde proviene debido a un proceso óptico no lineal. En este tipo de reflexión, no solo se invierte la dirección de la luz; también se invierte el frente de la onda. Un reflector acoplado se puede utilizar para remover aberraciones aberraciones en un haz de luz, reflejándola y haciéndola pasar de nuevo por el dispositivo óptico que causa Reflexión de neutrones Materiales que reflejan neutrones, reflejan neutrones, como como por ejemplo el berilio, el berilio, son son utilizados en reactores nucleares y en armas en armas atómicas. En atómicas. En las ciencias físicas y químicas, la reflexión de neutrones es utilizada para determinar la estructura y composición interna de un material. refl material. refl HD.htm Reflexión del sonido Cuando una onda una onda sonora golpea una superficie plana es reflejada de manera coherente asumiendo que el tamaño de la superficie reflectiva es lo suficientemente larga con relación a la longitud de la onda que incide. Tómese en cuenta que las ondas del sonido audible tienen un amplio rango de frecuencias (de 20 Hz hasta 20000 Hz), al igual que la longitud de onda (que pude variar de 20 mm hasta 17 m). Como resultado, se obtiene que la naturaleza en general, así como el comportamiento del fenómeno de reflexión varía de acuerdo con la estructura y la textura de las superficies de reflexión; por ejemplo, una superficie porosa tiende a absorber grandes cantidades de energía, mientras que una superficie áspera (donde áspero es relativo a la longitud de onda) reflejará las ondas en todas direcciones dispersando la energía de la onda, en lugar de reflejar el sonido en forma coherente. Esto nos lleva al campo de la Acústica arquitectónica, porque arquitectónica, porque la naturaleza de estas reflexiones son críticas para la sensación del espacio en un auditorio. Reflexión sísmica Las ondas Las ondas sísmicas producidas por terremotos terremotos o por otras fuentes tales como explosiones, pueden explosiones, pueden ser reflejadas por capas dentro de la Tierra. la Tierra. El El estudio de las ondas sísmicas reflejadas en las profundidades ha dado a los sismólogos los sismólogos la oportunidad de determinar las capas que conforman la estructura la estructura de la Tierra. El Tierra. El estudio de las ondas sísmicas reflejadas de poca profundidad se utiliza en
sismología por reflexión, que estudia la corteza de la Tierra en general, y en particular para encontrar posibles yacimientos de petróleo o gas natural. Interpretación cuántica Todas la interacciones entre fotones y materia se describen como una serie de absorciones y emisiones de fotones. Cuando un fotón que llega golpea una molécula en la superficie de la materia, es absorbido y casi de inmediato vuelto a emitir. El "nuevo" fotón puede emitirse en cualquier dirección; esto causaría una reflexión difusa. [se necesita cita]. La reflexión especular (siguiendo la ley de la reflexión equi-angular de Herón) es un efecto de la mecánica cuántica, explicado como la suma de los caminos más probables tomados por los fotones. La interacción con materia liviana es un tópico de la electrodinámica cuántica, descrita por Richard Feynman en su libro QED:La extraña teoría de la luz y la materia. La energía de un fotón que llega a una molécula puede que concuerde con la energía requerida para cambiar el estado de la molécula, causando una transición en el estado cinético, rotacional, electrónica o vibracional de la energía. Cuando esto ocurre, puede que el fotón absorbido no se reemita o puede que se reemita con pérdida de energía. Estos efectos son conocidos como Raman, Brillouin.pollo
Trazo del rayo (gráficos) El “rayo que remonta” vuelve a dirigir aquí. Para el rayo que remonta en la física,
vea Trazo del rayo (física). En gráficos de computadora, trazo del rayo es una técnica para generar imagen remontando la trayectoria de luz por pixeles en plano de imagen. La técnica es capaz de producir un grado muy alto de photorealism; generalmente más arriba que el de típico representación del scanline métodos, pero en un mayor coste de cómputo. Esto hace remontar del rayo más adecuado para los usos donde la imagen se puede rendir lentamente delante de tiempo, por ejemplo en imágenes inmóviles y película y televisión efectos especiales, y satisfecho más mal para los usos en tiempo real tenga gusto juegos de computadora donde está crítica la velocidad. El trazo del rayo es capaz de simular una variedad amplia de efectos ópticos, por ejemplo reflexión y refracción, dispersión, y aberración cromática.
Descripción del algoritmo El trazo óptico del rayo describe un método para producir las imágenes visuales construidas adentro gráficos de computadora 3D ambientes, con más photorealism que el bastidor o el scanline del rayo que rinde técnicas. Trabaja remontando una trayectoria de un ojo imaginario a través de cada pixel en una pantalla virtual, y calculando el color del directo visible del objeto él. Las escenas en raytracing son descritas matemáticamente por un programador o por un artista visual (que usa las herramientas intermediarias). Las escenas pueden también incorporar datos de las imágenes y de los modelos capturados por medios tales como fotografía digital. Típicamente, cada rayo se debe probar para la intersección con un cierto subconjunto de todos los objetos en la escena. Una vez que se haya identificado el objeto más cercano, el algoritmo estimará la luz entrante actualmente la intersección, examina las características materiales del objeto, y combina esta información para calcular el color final del pixel. Ciertos algoritmos de la iluminación y los materiales reflexivos o translúcidos pueden requerir más rayos ser modificado en la escena. Puede parecerse al principio counterintuitive o “al revés” enviar rayos lejos de la
cámara fotográfica, más bien que en (como la luz real hace en realidad), pero haciendo así que es de hecho muchas órdenes de la magnitud más eficientes. Puesto que la mayoría abrumadora de rayos ligeros de una fuente de luz dada no la hace directamente e n el ojo del espectador, una simulación “delantera” podría potencialmente perder una enorme cantidad de cómputo en las trayectorias ligeras que nunca se registran. Se llama una simulación de computadora que comienza echando irradia de la fuente de luz El traz del fotón, y dura mucho que un rastro comparable del rayo. Por lo tanto, el atajo tomado en raytracing es presuponer que un rayo dado interseca el marco de la visión. Después de un número máximo de reflexiones o de un rayo que viaja cierta distancia sin la intersección, el rayo deja de viajar y el valor del pixel es actualizado. La intensidad de luz de este pixel se computa usando un número de algoritmos, tales como los cuales puede incluir el algoritmo la representación clásico y puede también incorporar técnicas radiosity. Descripción detallada del algoritmo de la computadora del rayo que remonta y de su génesis Qué sucede en naturaleza
En naturaleza, una fuente de luz emite un rayo de la luz que viaja, eventual, a una superficie que interrumpa su progreso. Uno puede pensar en este “rayo” como
corriente de fotones el viajar a lo largo de la misma trayectoria. En un vacío perfecto este rayo será una línea recta. En realidad, cualquier combinación de tres cosas pudo suceder con este rayo ligero: absorción, reflexión, y refracción. Una superficie puede reflejar el todo o una parte del rayo ligero, en unas o más direcciones. Puede ser que también absorba la parte del rayo ligero, dando por resultado una pérdida de intensidad de la luz reflejada y/o refractada. Si la superficie tiene cualesquiera transparente o translúcido las características, refracta una porción del rayo de luz en sí mismo en una diversa dirección mientras que absorbe algo (o todo el) espectro (y posiblemente alterando el color). Entre la absorción, la reflexión, y la refracción, toda la luz entrante se debe explicar, y no más. Una superficie no puede, por ejemplo, reflejar el 66% de un rayo ligero entrante, y refractar el 50%, puesto que los dos agregarían hasta sea 116%. Una excepción aquí es fluorescencia por el que frecuencias ligeras no-visibles más altas tales como UV, que son irradiadas por muchas fuentes de luz a diversos grados, se puedan convertir por algunos materiales a la luz visible. De aquí, los rayos reflejados y/o refractados pueden pulsar otras superficies, donde sus características absorbentes, refractivas, y reflexivas otra vez se calculan basadas en los rayos entrantes. Algunos de estos rayos viajan de una manera tal que golpeen nuestro ojo, haciéndonos ver la escena y así que contribuya a la imagen rendida final. Algoritmo del bastidor del rayo El primer bastidor del rayo (contra el trazo del rayo) el algoritmo usado para rendir fue presentado por Arturo Appel en 1968. La idea detrás del bastidor del rayo es tirar a rayos del ojo, uno por el pixel, y encuentra el objeto más cercano el bloquear de la trayectoria de ese rayo - para pensar en una imagen como pantallapuerta, con cada cuadrado en la pantalla que es un pixel. Éste es entonces el objeto que el ojo ve normalmente a través de ese pixel. Usando las características materiales y el efecto de las luces en la escena, este algoritmo puede determinar sombrear de este objeto. Se hace la asunción de simplificaión que si una superficie hace frente a una luz, la luz alcanzará esa superficie y no será bloqueada o en sombra. El sombrear de la superficie se computa usando los gráficos de computadora tradicionales 3D que sombrean modelos. Un bastidor importante del rayo de la ventaja ofreció el excedente más viejo algoritmos del scanline es su capacidad de tratar fácilmente de las superficies y de los sólidos no-planar, por ejemplo conos y esferas. Si una superficie matemática se puede intersecar por un rayo, puede ser rendida usando el bastidor del rayo. Los objetos
elaborados pueden ser creados usando el modelar sólido técnicas y rendido fácilmente. El bastidor del rayo para producir gráficos de computadora primero fue utilizado por los científicos en Mathematical Applications Group, Inc., (UNOS DE LOS REYES MAGOS) de Elmsford, Nueva York, Nueva York. En 1966, crearon a la compañía para realizarse exposición de radiación cálculos para Departamento de la defensa. El software de UNOS DE LOS REYES MAGOS calculaba no sólo cómo rayos gama despedido apagado de superficies (el bastidor del rayo para la radiación había sido hecho desde los años 40), pero también cómo penetraron y refractaron dentro. Estos estudios ayudaron al gobierno a determinar ciertos usos militares; construyendo los vehículos militares que protegerían a tropas contra la radiación, diseñando los vehículos del reingreso para la exploración del espacio. Bajo dirección del Dr. Philip Mittelman, los científicos desarrolló un método de generar imágenes usando el mismo software básico. En 1972, UNOS DE LOS REYES MAGOS hicieron un estudio comercial de la animación. Este estudio utilizó el bastidor del rayo para generar la animación de computadora tridimensional para los anuncios de televisión, películas educativas, y ofrezca eventual las películas crearon mucha de la animación en la película Tron usando el bastidor del rayo exclusivamente. UNOS DE LOS REYES MAGOS salieron de negocio en 1985. Algoritmo que remonta del rayo La brecha importante siguiente de la investigación vino de Turner Whitted en 1979. Los algoritmos anteriores echaron rayos del ojo en la escena, pero los rayos fueron remontados no más lejos. Whitted continuó el proceso. Cuando un rayo golpea una superficie, podría generar hasta tres nuevos tipos de rayos: reflexión, refracción, y sombra. Un rayo reflejado continúa encendido en la dirección de la espejo-reflexión de una superficie brillante. Entonces se interseca con los objetos en la escena; el objeto más cercano que se interseca es qué será visto en la reflexión. Rayos de la refracción que viajan a través de trabajo material transparente semejantemente, con la adición que un rayo refractivo podría ser que incorporaba o que salía de un material. Para evitar más lejos de remontar todos los rayos en una escena, un rayo de la sombra se utiliza para probar si una superficie es visible a una luz. Un rayo golpea una superficie en un cierto punto. Si la superficie a este punto hace frente a una luz, un rayo (a la computadora, a una línea segmento) se remonta entre este punto de la intersección y la luz. Si algún objeto opaco se encuentra entre la superficie y la luz, la superficie está en sombra y así que la luz no contribuye a su cortina. Esta nueva capa del cálculo del rayo agregó más realismo a las imágenes remontadas rayo. Excedente de las ventajas otros métodos de representación
El renombre que remonta del rayo proviene su base en una simulación realista de encender el excedente otros métodos de representación (tales como representación del scanline o bastidor del rayo). Efectos tales como reflexiones y sombras, que son difíciles de simular con otros algoritmos, es un resultado natural del algoritmo que remonta del rayo. Relativamente simple poner en ejecución con todo rindiendo los resultados visuales impresionantes, rayo que remonta representa a menudo un primer saqueo en la programación de los gráficos. La independencia de cómputo de cada rayo hace remontar del rayo favorable a parallelization. Desventajas Una desventaja seria del trazo del rayo es funcionamiento. Los algoritmos de Scanline y otros algoritmos utilizan coherencia de los datos para compartir cómputos entre los pixeles, mientras que el rayo que remonta comienza normalmente el proceso de nuevo, tratando cada rayo del ojo por separado. Sin embargo, esta separación ofrece otras ventajas, tales como la capacidad de tirar a más rayos como necesario para realizarse anti-aliasing y mejore la calidad de la imagen donde necesitado. Aunque maneja el interreflection y efectos ópticos tales como refracción exactamente, el trazo tradicional del rayo no es también necesariamente photorealistic. El photorealism verdadero ocurre cuando representación de la ecuación se aproxima de cerca o se pone en ejecución completamente. Poner la ecuación en ejecución de representación da photorealism verdadero, pues la ecuación describe cada efecto físico del flujo ligero. Sin embargo, éste es generalmente infeasible dado los recursos que computan requeridos. El realismo de todos los métodos de representación, entonces, se debe evaluar como aproximación a la ecuación, y en el caso del trazo del rayo, no es necesariamente el más realista. Otros métodos, incluyendo el traz del fotón, se basan sobre el rayo que remonta para ciertas partes del algoritmo, con todo de resultados lejos mejores de la elasticidad. Dirección invertida de traversal de la escena por los rayos El proceso de tirar a rayos del ojo a la fuente de luz para rendir una imagen se refiere a veces como al revés trazo del rayo, puesto que es el recorrido opuesto de los fotones de la dirección realmente. Sin embargo, hay confusión con esta terminología. El trazo temprano del rayo fue hecho siempre del ojo, y los investigadores tempranos tales como James Arvo utilizaron el término al revés trazo del rayo para referir a rayos que tiran de las luces y de recolectar los resultados. Como tal, está más claro distinguir ojo-basado contra luz-basado trazo del rayo. Para combinar ambos, los extremos de los rayos basados ojo recolectan la energía (temporal, espacial, direccional, frecuencia) de los extremos próximos
de rayos basados luz. Esto se puede poner en ejecución con la fuerza bruta para 1000×1000 una escena típica de los marcos del pixel 1000 como los rayos almacenados apenas cabidos en un espacio de dirección típico de 32 pedacitos. Con las superficies o los medios difusos el límite se alcanza anterior. Se llama esto el traz del fotón y se considera una clase de iluminación global. En un paso del refinamiento el ojo irradia y los rayos ligeros que transportan la mayoría de la luz a la cámara fotográfica se varían para generar rayos próximos y para substituir los rayos poco importantes, que no serán variados, en memoria. Éste es Transporte de la luz de la metrópoli. La luz se puede también hacer para escaparse entre los rayos cercanos en las superficies difusas. Se llama esto radiosity. Algoritmo: trazo recurrente clásico del rayo Para cada pixel en imagen { cree el rayo del eyepoint que pasa a través de este pixel inicializan NearestT al INFINITO y NearestObject a la FALTA DE INFORMACIÓN
para cada objeto en escena { si el rayo interseca este objeto { si t de la intersección es menos que NearestT { fije NearestT a t de la intersección NearestObject determinado a este objeto } } }
si NearestObject es FALTA DE INFORMACIÓN { llene este pixel de color del fondo }{ tire a un rayo a cada fuente de luz para comprobar si en sombra
si la superficie es reflexiva, genere el rayo de la reflexión: el recurse si la superficie es transparente, genera el rayo de la refracción: uso NearestObject y NearestT del recurse de computar sombrear el terraplén de la función este pixel con el resultado del color de sombrear la función } } Debajo está una imagen que demuestra un ejemplo simple de una trayectoria de los rayos generados recurrentemente de la cámara fotográfica (o del ojo) a la fuente de luz usando el algoritmo antedicho. Una superficie difusa refleja la luz en todas las direcciones. Primero, un rayo se crea en un eyepoint y se remonta a través de un pixel y en la escena, donde golpea una superficie difusa. De esa superficie el algoritmo genera recurrentemente un rayo de la reflexión, que se remonta con la escena, donde golpea otra superficie difusa. Finalmente, otro rayo de la reflexión se genera y se remonta con la escena, donde golpea la fuente de luz y se absorbe. El color del pixel ahora depende de los colores de la primera y segunda superficie difusa y el color de la luz emitida de la fuente de luz. Por ejemplo si la luz blanca emitida de la fuente de luz y las dos superficies difusas eran azules, entonces el color que resulta del pixel es azul. En tiempo real La primera puesta en práctica de un rayo-trazalíneas “en tiempo real” fue acreditada en el 2005 SIGGRAPH la conferencia de los gráficos de computadora como las herramientas de REMRT/RT se convirtió cerca Mike Muuss para BRLCAD sistema que modela sólido. Puesto en ejecución inicialmente adentro 1986 y más adelante publicados en 1987 en USENIX, el rayo-trazalíneas de BRL-CAD es la primera puesta en práctica sabida de un sistema rayo-que remonta distribuido red paralela que alcanzó varios marcos por segundo en la representación de funcionamiento.[1] Este funcionamiento fue logrado leveraging el motor rayo-que remontaba agnóstico alto-optimizada con todo de la plataforma LIBRT en BRLCAD y usando el sólido implícito CSG geometría en varias máquinas compartidas del paralelo de la memoria sobre una red de la materia. El rayo-trazalíneas de BRL-CAD, incluyendo las herramientas de REMRT/RT, continúa siendo disponible y convertido hoy como Abra la fuente software.[2]
Desde entonces, ha habido esfuerzos considerables e investiga hacia poner el rayo en ejecución que remontaba en las velocidades en tiempo real para una variedad de propósitos en configuraciones de escritorio independientes. Estos propósitos incluyen usos interactivos de los gráficos 3D por ejemplo producciones del demoscene, juegos de la computadora y del vídeo, y representación de la imagen. Algunos motores en tiempo real del software 3D basados en el trazo del rayo han sido desarrollados por el aficionado a los hobbys programadores de la versión parcial de programa desde los últimos años 90.[3] OpenRT el proyecto incluye una base alto-optimizada del software para el rayo que remonta junto con OpenGL- como el API para ofrecer un alternativa a la corriente rasterisation acercamiento basado para los gráficos interactivos 3D. Hardware que remonta del rayo, por ejemplo el experimental Unidad de proceso del rayo convertido en Universidad de Saarland, se ha diseñado aceleran algunas de las operaciones de cómputo intensivas del trazo del rayo. En 16 de marzo, 2007, la universidad de Saarland reveló una puesta en práctica de un motor que remontaba del rayo de alto rendimiento que permitió que los juegos de computadora fueran rendidos vía el rayo que remontaba sin uso intensivo del recurso.[4] Ejemplo Como demostración de los principios implicados en raytracing, déjenos consideran cómo uno encontraría la intersección entre un rayo y una esfera. En vector notación, la ecuación de una esfera con el centro y radio r es Cualquier punto en un rayo a partir de punto con la dirección (aquí es a vector de la unidad) puede ser escrito como donde t está su distancia en medio y . En nuestro problema, sabemos , r, (e.g. la posición de una fuente de luz) y , y necesitamos encontrar . Por lo tanto, substituimos para : Dejado para la simplicidad; entonces Saber que es d un vector de la unidad no nos prohibe esta simplificación de menor importancia: Esto ecuación cuadrática tiene soluciones Los dos valores de t son encontradas solucionando esta ecuación dos tales que son los puntos donde el rayo interseca la esfera.
Si uno (o ambos) de ellos es negativo, después las intersecciones no mienten en el rayo sino en el contrario half-line (es decir. el que está a partir de con la dirección opuesta). Si la cantidad bajo raíz cuadrada es negativa, entonces el rayo no interseca la esfera. Supongamos ahora que hay por lo menos una solución positiva, y deje t sea el mínimo. Además, déjenos suponen que la esfera es el objeto más cercano en nuestra escena que interseca nuestro rayo, y que está hecha de un material reflexivo. Necesitamos encontrar en qué dirección se refleja el rayo ligero. Los leyes de reflexión indique que el ángulo de la reflexión es igual y frente al ángulo de la incidencia entre el rayo del incidente y normal a la esfera. El normal a la esfera está simplemente donde es el punto de la intersección encontrado antes. La dirección de la reflexión se puede encontrar por a reflexión de con respecto a , eso es Así el rayo reflejado tiene ecuación Ahora necesitamos solamente computar la intersección del último rayo con nuestro campo visual, para conseguir el pixel que nuestro rayo ligero reflejado golpeará. Pasado, este pixel se fija a un color apropiado, considerando cómo el color de la fuente de luz original y el que está de la esfera son combinados por la reflexión. Ésta es simplemente la matemáticas detrás del intersección de la Línea-esfera y la determinación subsecuente del color del pixel que es calculado. Hay, por supuesto, lejos más al proceso general de raytracing, pero de éste demuestra un ejemplo de los algoritmos usados.
Ley de Snell
Refracción
La ley de Snell es una fórmula simple utilizada para calcular el ángulo de refracción de la luz al atravesar la superficie de separación entre dos medios de propagación de la luz (o cualquier onda electromagnética) con índice de refracción distinto. El nombre proviene de su descubridor, el matemático holandés Willebrord Snel van Royen (1580-1626). Le pusieron "Snell" debido a su apellido pero le pusieron dos "l" por su nombre Willebrord el cual lleva dos "l". La ley de snell es muy utilizada en muchos casos. La misma afirma que el producto del índice de refracción por el seno del ángulo de incidencia es constante para cualquier rayo de luz incidiendo sobre la superficie separatriz de dos medios. Aunque la ley de Snell fue formulada para explicar los fenómenos de refracción de la luz se puede aplicar a todo tipo de ondas atravesando una superficie de separación entre dos medios en los que la velocidad de propagación de la onda varíe. Descripción óptica
n1 y n2 son los índices de refracción. de los materiales. La línea entrecortada delimita la línea normal, la cual es la línea imaginaria perpendicular a la superficie. Los ángulos θ son los ángulos que se forman con la línea normal, siendo θ1 el ángulo de la onda incidente y θ2 el ángulo de la onda refractada. Consideremos dos medios caracterizados por índices de refracción y separados por una superficie S. Los rayos de luz que atraviesen los dos medios se refractarán en la superficie variando su dirección de propagación dependiendo del radio entre los índices de refracción y . Para un rayo luminoso con un ángulo de incidencia sobre el primer medio, ángulo entre la normal a la superficie y la dirección de propagación del rayo, tendremos que el rayo se propaga en el segundo medio con un ángulo de refracción cuyo valor se obtiene por medio de la ley de Snell.
Obsérvese que para el caso de (rayos incidentes de forma perpendicular a la superficie) los rayos refractados emergen con un ángulo para cualquier y .
La simetría de la ley de Snell implica que las trayectorias de los rayos de luz son reversibles. Es decir, si un rayo incidente sobre la superficie de separación con un ángulo de incidencia se refracta sobre el medio con un ángulo de refracción , entonces un rayo incidente en la dirección opuesta desde el medio 2 con un ángulo de incidencia se refracta sobre el medio 1 con un ángulo . Una regla cualitativa para determinar la dirección de la refracción es que el rayo en el medio de mayor índice de refracción se acerca siempre a la dirección de la normal a la superficie. La velocidad de la luz en el medio de mayor índice de refracción es siempre menor. La ley de Snell se puede derivar a partir del principio de Fermat, que indica que la trayectoria de la luz es aquella en la que los rayos de luz necesitan menos tiempo para ir de un punto a otro. En una analogía clásica propuesta por el físico Richard Feynman, el área de un índice de refracción más bajo es substituida por una playa, el área de un índice de refracción más alto por el mar, y la manera más rápida para un socorrista en la playa de rescatar a una persona que se ahoga en el mar es recorrer su camino hasta ésta a través de una trayectoria que verifique la ley de Snell, es decir, recorriendo mayor espacio por el medio más rápido y menor en el medio más lento girando su trayectoria en la intersección entre ambos.
Cuando el ángulo de incidencia es mayor o igual al ángulo crítico, la luz no puede refractarse y se refleja totalmente en la frontera. Los ángulos del dibujo corresponden a la frontera aire-agua. los rayos dibujados en rojo están en reflexión total.
Reflexión interna total
Un rayo de luz propagándose en un medio con índice de refracción incidiendo con un ángulo sobre una superficie sobre un medio de índice con puede reflejarse totalmente en el interior del medio de mayor índice de refracción. Este fenómeno se conoce como reflexión interna total o ángulo límite y se produce para ángulos de incidencia mayores que un valor crítico cuyo valor es:
En la ley de Snell:
si , entonces . Eso significa que cuando aumenta, llega a radianes (90°) antes que . el rayo refractado (o transmitido) sale paralelo a la frontera. Si aumenta aún más, como no puede ser mayor que , no hay transmisión al otro medio y la luz se refleja totalmente. La reflexión es realmente total (100%) y sin pérdidas. Es decir, mejor que los espejos metálicos (plata, aluminio) que solo reflejan 96% de la potencia luminosa incidente. La ley de Snell fue descubierta primero por Ibn Sahl en el siglo XIII, que la utilizó para resolver las formas de las lentes anaclastic (las lentes que enfocan la luz con aberraciones geométricas). Fue descubierta otra vez en el siglo XVI y enunciada nuevamente en el siglo XVII, por Willebrord Snel y John Locke [cita requerida]. En los países francofonos la ley de Snell se conoce como "segunda ley de contraccion".
Índice de refracción
Frentes de onda de una fuente puntual en el contexto de la ley de Snell. La región debajo de la línea gris tiene un índice de refracción mayor y velocidad de onda proporcionalmente menor que la región por encima de la línea.
Refracción de la luz en la interfaz entre dos medios con diferentes índices de refracción (n2 > n1). Como la velocidad de fase es menor en el segundo medio (v 2 < v1), el ángulo de refracción θ 2 es menor que el ángulo de incidencia θ 1; esto es, el rayo en el medio de índice mayor es cercano al vector normal. El índice de refracción es una medida que determina la reducción de la velocidad de la luz al propagarse por un medio homogéneo. De forma más precisa, el índice de refracción es el cambio de la fase por unidad de longitud, esto es, el número de onda en el medio (k) será n veces más grande que el número de onda en el vacío (k0). Definición científica El índice de refracción (n) está definido como el cociente de la velocidad (c) de un fenómeno ondulatorio como luz o sonido en el de un medio de referencia respecto a la velocidad de fase (vp) en dicho medio:
Generalmente se utiliza la velocidad de la luz (c) en el vacío como medio de referencia para cualquier materia, aunque durante la historia se han utilizado otras referencias, como la velocidad de la luz en el aire. En el caso de la luz, es igual a:
Donde εr es la permitividad relativa del material, y μr es su permeabilidad electromagnética relativa. Para la mayoría de los materiales, μr es muy cercano a 1 en frecuencias ópticas, es decir, luz visible, aunque n es aproximadamente Contrario a lo que afirman muchos libros clásicos y algunos modernos de física, está comprobado que puede existir un índice de refracción menor a 1; por ejemplo, para los rayos x.[1] Este hecho puede tener aplicaciones técnicas, como espejos para rayos x basados en refracción externa total para su aplicación en
herramientas médicas. Otro ejemplo de un índice de refracción menor a uno son las ondas electromagnéticas cuando viajan a través del plasma. El índice de refracción del aire es de 1,00029 pero para efectos prácticos se considera como 1, ya que la velocidad de la luz en este medio es muy cercana a la del vacío.
Ejemplo de un rayo electromagnético pasando por un metamaterial con refracción negativa. La investigación reciente también ha demostrado la existencia de índice de refracción negativo, lo que puede ocurrir si las partes reales tanto de permitividad εeff como μeff pueden tener permeavilidad con valores negativos. No se espera que esto ocurra naturalmente con luz visible con algún material, aunque puede lograrse con metamateriales; materiales creados en laboratorio creados para dicho propósito. El índice de refracción negativa ofrece la posibilidad de superlentes, dispositivo de invisibilidad y otros fenómenos exóticos. Por otra parte, el índice de refracción, en algunos materiales, depende de la frecuencia del rayo incidente. Por esta misma razón, y en ciertos materiales, podemos obtener un índice de refracción negativo no estándar. Por otro lado, como ya se dijo, existen metamateriales que permiten esta propiedad en condiciones estándar o con la luz visible. En una guía de ondas (ej: fibra óptica) el índice de refracción efectivo determina el índice de refracción que experimenta un modo de propagación en razon a su velocidad de grupo. La constante de propagación de un modo que se propaga por una guía de ondas es el índice efectivo por el número de onda del vacío:
Nótese que el índice efectivo no depende sólo de la longitud de onda sino también del modo de propagación de la luz ( β). Es por esta razón que también es llamado índice modal.
El índice de refracción efectivo puede ser una cantidad compleja, en cuyo caso la parte imaginaria describiría la ganancia o las pérdidas de la luz confinada en la guía de ondas. No debe confundirse con la ídea que el índice efectivo es una medida o promedio de la cantidad de luz confinada en el núcleo de la guía de onda. Esta falsa impresión resulta de observar que los modos fundamentales en una fibra óptica tienen un índice modal más cercano al índice de refracción del núcleo. La propiedad refractiva de un material es la propiedad más importante de cualquier sistema óptico que usa refracción. Es un índice inverso que indica el grosor de los lentes según un poder dado, y el poder dispersivo de los prismas. También es usado en la química para determinar la pureza de los químicos y para la renderización de materiales refractantes en los gráficos 3D por computadora
Fenómeno Una onda se refleja (rebota al medio del cual proviene) cuando se encuentra con un obstáculo que no puede traspasar ni rodear.
Características El tamaño del obstáculo y la longitud de onda determinan si una onda rodea el obstáculo o se refleja en la dirección de la que provenía. Si el obstáculo es pequeño en relación con la longitud de onda, el sonido lo rodeara (difracción), en cambio, si sucede lo contrario, el sonido se refleja (reflexión). Si la onda se refleja, el ángulo de la onda reflejada es igual al ángulo de la onda incidente, de modo que si una onda sonora incide perpendicularmente sobre la superficie reflejante, vuelve sobre sí misma. La reflexión no actúa igual sobre las altas frecuencias que sobre las bajas. La longitud de onda de las bajas frecuencias es muy grande (pueden alcanzar los 18 metros), por lo que son capaces de rodear la mayoría de obstáculos; en cambio las altas frecuencias no rodean los obstáculos por lo que se producen sombras detrás de ellos y rebotes en su parte delantera. Acústica En acústica esta propiedad de las ondas es ampliamente conocida y aprovechada. No sólo para aislar, sino también para dirigir el sonido hacia el auditorio mediante placas reflectoras (reflectores y tornavoces) a esto se le puede llamar acústica sonora por que cuando el sonido choca contra una pared las ondas sonoras se esparcen por esa pared y por los raíles de la que lo forman, es decir, que cuando choca el sonido contra algo, todo lo demás lo escucha y las ondas se esparcen .
La línea amarilla es el sonido directo, las otras líneas son algunas de las primeras reflexiones. Fenómenos relacionados con la reflexión
Las ondas estacionarias. Una onda estacionaria se produce por la suma de una onda y su onda reflejada sobre un mismo eje. Dependiendo cómo coincidan las fases de la onda incidente y de la reflejada, se producirán modificaciones en el sonido (aumenta la amplitud o disminuye), por lo que el sonido resultante puede resultar desagradable. En determinadas circunstancias, la onda estacionaria puede hacer que la sala entre en resonancia. Véase:Onda estacionaria. El eco. La señal acústica original se ha extinguido, pero aún no es devuelto el sonido en forma de onda reflejada. El eco se explica porque la onda reflejada nos llega en un tiempo superior al de la persistencia acústica. Véase:Eco. La reverberación. Se produce reverberación cuando las ondas reflejadas llegan al oyente antes de la extinción de la onda directa, es decir, en un tiempo menor que el de persistencia acústica del oído.
Historia: modelos atómicos Desde la Antigüedad, el ser humano se ha cuestionado de qué estaba hecha la materia. Unos 400 años antes de Cristo, el filósofo griego Demócrito consideró que la materia estaba constituida por pequeñísimas partículas que no podían ser divididas en otras más pequeñas. Por ello, llamó a estas partículas átomos, que en griego quiere decir "indivisible". Demócrito atribuyó a los átomos las cualidades de ser eternos, inmutables e indivisibles. Sin embargo las ideas de Demócrito sobre la materia no fueron aceptadas por lo s filósofos de su época y hubieron de transcurrir cerca de 2 200 años para que la idea de los átomos fuera tomada de nuevo en consideración. Año
Científico
Descubrimientos experimentales
Modelo atómico
Durante el s.XVIII y principios del XIX algunos científicos habían investigado distintos aspectos de las reacciones químicas, obteniendo las llamadas leyes clásicas de la Química.
1808
John Dalton
La imagen del átomo expuesta por Dalton en su teoría atómica, para explicar estas leyes, es la de minúsculas partículas esféricas, indivisibles e inmutables, iguales entre sí en cada elemento químico.
De este descubrimiento dedujo que el Demostró que dentro de los átomos átomo debía de ser una esfera de hay unas partículas diminutas, con materia cargada positivamente, en cuyo carga eléctrica negativa, a las que se interior estaban incrustados los llamó electrones. electrones. (Modelo atómico de Thomson.)
1897
J.J. Thomson
1911
Demostró que los átomos no eran macizos, como se creía, sino que están vacíos en su mayor parte y en su centro hay un diminuto núcleo.
Dedujo que el átomo debía estar formado por una corteza con los electrones girando alrededor de un núcleo central cargado positivamente. (Modelo atómico de Rutherford.)
Espectros atómicos discontinuos or iginados por la radiación emitida por los átomos excitados de los elementos en estado gaseoso.
Propuso un nuevo modelo atómico, según el cual los electrones giran alrededor del núcleo en unos niveles bien definidos. (Modelo atómico de Bohr.)
E. Rutherford
1913
Niels Bohr
Un modelo atómico es una representación gráfica de la materia a nivel atómico. Tiene como finalidad la facilitación de su estudio a través de la abstracción de la lógica de un átomo a un esquema.
Existen distintos tipos de modelos atómicos. El modelo atómico de Schrödinger , por ejemplo, es un modelo cuántico no
relativista que se basa en la solución de la ecuación de Schrödinger para un potencial electrostático con simetría esférica. El modelo atómico de Bohr o de Bohr-Rutherford, por su parte, es un modelo cuantizado del átomo que Bohr propuso para explicar cómo los electrones pueden tener órbitas estables alrededor del núcleo. Este modelo funcional no representa el átomo en sí, como objeto físico, sino que explica su funcionamiento a través de ecuaciones. El modelo atómico de Thomson o modelo del pudín es una teoría sobre la estructura atómica propuesta por Joseph John Thomson, descubridor del electrón. De acuerdo a este modelo, el átomo está compuesto por electrones de carga negativa en un átomo positivo, como las pasas en un pudín. El modelo atómico de Rutherford fue propuesto por el químico y físico Ernest Rutherford para explicar los resultados de su experimento de la lámina de oro. Rutherford señaló que los átomos poseen electrones y que éstos se encuentran girando alrededor de un núcleo central. Ese núcleo concentraría toda la carga positiva del átomo y casi toda la masa. Por último, podemos mencionar al modelo atómico de Sommerfeld, una generalización relativista del modelo atómico de Bohr . Arnold Sommerfeld advirtió que, en ciertos átomos, las velocidades de los electrones alcanzaban una fracción apreciable de la velocidad de la luz. Por eso modificó el modelo atómico de Bohr , en el cual los electrones sólo giraban en órbitas circulares, y agregó que también podían girar en órbitas elípticas.
John Dalton John Dalton
Nacimiento
6 de septiembre de 1766 Cumberland, Reino Unido
Fallecimiento
27 de julio de 1844 Mánchester, Reino Unido
Residencia
Reino Unido
Nacionalidad
Británico (Inglés
Campo
)
Química, Matemática, Ciencias Naturales
John Dalton (ʤɒn ˈdɔːltən) (Eaglesfield, Cumberland (Reino Unido), 6 de septiembre de 1766 - Mánchester, 27 de julio de 1844), fue un naturalista, químico y matemático, meteorólogo británico. Biografía Nació en 1766 en el seno de una familia pobre de tejedores devotos. Con 12 años, en 1778, comenzó a impartir enseñanza elemental en Cumberland, 7 años más tarde se hizo director de la misma y a partir de 1780 lo hizo en Kendal durante 12 años más. En 1792, a la edad de 26 años se trasladó a Mánchester, donde impartió matemática y filosofía natural en el New College. En 1793 inició estudios sobre meteorología, recopilando a lo largo de su vida más de 200.000 anotaciones,[1] y ese mismo año publicó Observaciones y Ensayos de Meteorología. En sus estudios sobre la meteorología desarrolló varios instrumentos de
medición y propuso por primera vez que el origen de la lluvia se encuentra en el descenso de la temperatura. En este ámbito estudió también las auroras boreales, y determinó que éstas están relacionadas con el magnetismo de la Tierra.[2] Estudió la enfermedad que padecía, conocida como acromatopsia y posteriormente llamada daltonismo en su honor, y publicó hechos extraordinarios relativos a la Visión de Colores (1794). A partir de 1800 pasó a la enseñanza privada y ocupó el cargo de secretario de la Sociedad Filosófica y Literaria de Manchester, que presidió a partir de 1817. En 1801 enunció la ley de las presiones parciales y la de las proporciones múltiples.[3] En 1808 expuso la teoría atómica en la que se basa la ciencia física moderna. Demuestra que la materia se compone de partículas indivisibles llamadas átomos. También ideó una escala de símbolos químicos, que serán luego reemplazadas por la escala de Berzelius .[4] En 1826 se le concedió la Medalla de Oro de la Royal Society de Londres, así como de la Academia Francesa de las Ciencias. Falleció en Manchester en 1844, a la edad de 78 años. Más de 40.000 personas acudieron al funeral para presentar sus respetos al científico [5] [6] Teoría de Dalton Dalton tomo como punto de partida una serie de evidencias experimentales conocidas en su época:
Las sustancias elementales no pueden descomponerse. Las sustancias, simples o compuestas, tienen siempre las mismas propiedades características. Los elementos no desaparecen al formarse un compuesto, pues se pueden recuperar por descomposición de éste. La masa se conserva en las reacciones químicas, que provenía de la Ley de conservación de la masa del químico francés Lavoisier. La proporción de los elementos que forman un compuesto es constante, que provenía de la Ley de las proporciones definidas del también químico francés Proust.
Para explicar estos hechos propuso las siguientes hipótesis:
La masa es discontinua; está formada por átomos que son partículas indivisibles. Todos los átomos de un mismo elemento son iguales, tienen la misma masa y átomos de diferentes elementos difieren en su masa. Los átomos de diferentes elementos se combinan para formar "átomos compuestos". Los cambios químicos son cambios en las combinaciones de los átomos entre sí, los átomos no se crean ni se destruyen.
Los átomos que se combinan para formar un compuesto lo hacen siempre en la misma proporción, es decir, que ninguno de los "átomos compuestos" de una misma sustancia son iguales, que será la Ley de las proporciones múltiples.
La contribución de Dalton no fue proponer una idea asombrosamente original, sino formular claramente una serie de hipótesis sobre la naturaleza de los átomos que señalaban la masa como una de sus propiedades fundamentales, y preocuparse por probar tales ideas mediante experimentos cuantitativos. Los errores de Dalton por culpa del daltonismo La ceguera a ciertos colores que padecía, conocida hoy como daltonismo, le jugó más de alguna mala pasada a este científico. Al momento de experimentar sus teorías en el laboratorio, pocas veces pudo comprobarlas porque confundía los frascos de reactivos. Sin embargo, continuaba firme defendiendo sus ideas en el papel. Otra muestra de esta ceguera que le acompañó toda su vida ocurrió en 1832, cuando fue a conocer al rey Guillermo IV y lució una vestimenta académica escarlata (rojo), un color nada habitual para un hombre de su discreción. La razón: él la veía de color gris oscuro por lo que poco le importó la sorpresa que ese día causó entre sus conocidos. Dalton descubrió que tenía esta afección porque a la hora de experimentar sus teorías confundía los frascos de reactivos. Así, el daltonismo fue descrito por primera vez por John Dalton en 1808. Él, al igual que su hermano, sufría de este error genético que en términos simples le impide identificar colores como el rojo y el verde. Abreviatura La abreviatura Jn.Dalton se emplea para indicar a John Dalton como autoridad en la descripción y clasificación científica de los vegetales. (Ver listado de especies descritas por este autor en IPNI) Referencias 1. ↑ Smith, R. Angus (1856). Memoir of John Dalton and History of the Atomic Theory, London: H. Bailliere, pp. 279. Consultado el 24-12-2007. 2. ↑ George Hadley Encyclopedia Britannica. Visto30 de abril de 2009. 3. ↑ Roscoe, Henry E.; Arthur Harden (1896). A New View of the Origin of Dalton's Atomic Theory, London: Macmillan, pp. 50 – 51. Consultado el 24 de diciembre de 2007. 4. ↑ Roscoe, Henry E.; Arthur Harden (1896). A New View of the Origin of Dalton's Atomic Theory, London: Macmillan. Consultado el 24 de diciembre de 2007. 5. ↑ Patterson, Elizabeth C. (1970). John Dalton and the Atomic Theory, Garden City, New York: Anchor. 6. ↑ Elliott, T. Lenton (1953). «John Dalton's Grave». Journal of Chemical Education 30: pp. 569. http://search.jce.divched.org/JCEIndex/FMPro?-db=jceindex.fp5&lay=wwwform&combo=dalton&-find=&-formato=detail.html&-skip=12&-max=1&token.2=12&-token.3=10.
Ken Thompson Kenneth Lane Thompson
Ken Thompson (izquierda) y Dennis Ritchie Nacimiento
4 de febrero de 1943, 67 años Estados Unidos, Nueva Orleans
Nacionalidad
estadounidense
Ocupación
informático
Cónyuge
Bonnie Thompson
Kenneth Lane Thompson (* Nueva Orleans, 4 de febrero de 1943), conocido como Ken Thompson, es un pionero en las ciencias de la computación. Su trabajo con el lenguaje de programación B y el sistema operativo UNIX y Plan 9 para los laboratorios Bell. Se le adjudica a Thompson, junto a Dennis Ritchie, la creación de UNIX Biografía En 1965 se diploma en ciencias y en 1966 consigue un Master en ingeniería eléctrica y ciencias de la computación, por la universidad de California. En los años 60, Thompson y Dennis Ritchie trabajaron el sistema operativo Multics. Mientras escribía Multics, Thompson creó el lenguaje de programación Bon, al que llamo así por su esposa, Bonnie. Tanto Thompson como Ritchie abandonaron el desarrollo de Multics por su creciente complejidad, y en 1969 crean el sistema operativo UNIX. Thompson también diseñó el lenguaje de programación B, un precursor del C. Thompson había desarrollado la versión de CTSS del editor QED, que incluyó las expresiones regulares para buscar el texto. QED y un editor más moderno ed (el editor por defecto en Unix) contribuyeron al desarrollo de las expresiones regulares. Estas llegaron a ser importantes en procesadores de texto. Casi
todos los programas que trabajan con expresiones regulares hoy, utilizan una cierta variante de la notación de Thompson. También trabajó en el desarrollo de la PDP-11 y en la introducción de las pipes o tuberías en los sistemas operativos. En el 2 de septiembre de 1992, inventa junto a Rob Pike el código de caracteres UTF-8, pero no fue presentado oficialmente hasta enero de 1993 en una conferencia en San Diego. Junto con Joseph Condon, creó el hardware y el software para Belle, un ordenador de ajedrez. Más adelante, con la ayuda del experto ajedrecista John Roycroft, Thompson distribuyó sus primeros resultados en CD-ROM. El estilo de programación de Thompson ha influenciado notablemente a otros programadores. A finales de 2000, Thompson se retiró de los laboratorios de Bell, para trabajar en Entrisphere donde estuvo hasta 2006. Actualmente trabaja para Google. Premios Premio Turing (1983), junto con Dennis Ritchie. Por sus contribuciones al desarrollo de sistemas operativos en general y la creación de UNIX en particular. Medalla nacional de la Tecnología de Estados Unidos (1999). Premio Tsutomu Kanai (1999) del IEEE.
Ernest Rutherford Ernest Rutherford
Ernest Rutherford Nacimiento
30 de agosto de 1871 Brightwater, Nueva Zelanda
Fallecimiento
19 de octubre de 1937 66 años Cambridge, Inglaterra
Residencia
Inglaterra
Nacionalidad
Neozelandesa y
Campo
Química y Física
británica
Ernest Rutherford, barón Rutherford de Nelson, OM, PC, FRS, conocido también como Lord Rutherford (Brightwater, Nueva Zelanda, 30 de agosto de 1871 – Cambridge, Reino Unido, 19 de octubre de 1937), fue un físico y químico neozelandés. Se le considera el padre de la física nuclear. Estudió las emisiones radioactivas descubiertas por H. Becquerel, y logró clasificarlas en alfa, beta y gamma. Halló que la radiactividad iba acompañada por una desintegración de los elementos, lo que le valió ganar el Premio Nobel de Química en 1908. Se le debe un modelo atómico, con el que probó la existencia del núcleo atómico, en el que se reúne toda la carga positiva y casi toda la masa del átomo. Consiguió la primera transmutación artificial con la colaboración de su discípulo Frederick Soddy. Si durante la primera parte de su vida se consagró por completo a sus investigaciones, pasó la segunda mitad dedicado a la docencia y dirigiendo los Laboratorios Cavendish de Cambridge, en donde se descubrió el neutrón. Fue maestro de Niels Bohr y Robert Oppenheimer. Los primeros años Rutherford era el cuarto de los doce hijos de James y Martha Rutherford. Su padre era un escocés granjero y mecánico, mientras su madre, nacida en Inglaterra, emigró antes de casarse. Allí había sido maestra. Ambos deseaban dar a sus hijos una buena educación y tratar de que pudiesen proseguir sus estudios. Rutherford destacó muy pronto por su curiosidad y su capacidad para la aritmética. Sus padres y su maestro lo animaron mucho, y resultó ser un alumno brillante, lo que le permitió entrar en el Nelson College, en el que estuvo tres años. También tenía grandes cualidades para el rugby, lo que le valía ser muy popular en su escuela. El último año, terminó en primer lugar en todas las asignaturas, gracias a lo cual entró en la Universidad, en el Canterbury College, en el que siguió practicando el rugby y en el que participó en los clubes científicos y de reflexión. Por esa época empezó a manifestarse el genio de Rutherford para la experimentación: sus primeras investigaciones demostraron que el hierro podía magnetizarse por medio de altas frecuencias, lo que de por sí era un descubrimiento. Sus excelentes resultados académicos le permitieron proseguir sus estudios y sus investigaciones durante cinco años en total en esa Universidad. Se licenció en Christchurch y poco después consiguió la única beca de Nueva Zelanda para estudiar matemáticas, y sobrevivió el último año como maestro. Obtuvo de ese modo el título de "Master of Arts" con una doble primera clase en matemáticas y física. En 1894 obtuvo el título de "Bachelor of Science", que le permitió proseguir sus estudios en Gran Bretaña, en los Laboratorios Cavendish de Cambridge, bajo la dirección del descubridor del electrón, J.J. Thomson a partir de 1895. Fue el primer estudiante de ultramar que alcanzó esta posibilidad. Antes de salir de Nueva Zelanda, se prometió con
Mary Newton, una joven de Christchurch. En los laboratorios Cavendish, reemplazaría años más tarde a su maestro J.J. Thomson. Cambridge, 1895-1898 En primer lugar prosiguió sus investigaciones acerca de las ondas hertzianas, y sobre su recepción a gran distancia. Hizo una extraordinaria presentación de sus trabajos ante la Cambridge Physical Society, que se publicaron en las Philosophical Transactions de la Royal Society of London, hecho poco habitual para un investigador tan joven, lo que le sirvió para alcanzar notoriedad. En diciembre de 1895, empezó a trabajar con Thomson en el estudio del efecto de los rayos X sobre un gas. Descubrieron que los rayos X tenían la propiedad de ionizar el aire, puesto que pudieron demostrar que producía grandes cantidades de partículas cargadas, tanto positivas como negativas, y que esas partículas podían recombinarse para dar lugar a átomos neutros. Por su parte, Rutherford inventó una técnica para medir la velocidad de los iones, y su tasa de recombinación. Estos trabajos fueron los que le condujeron por el camino a la fama. En 1898, tras pasar tres años en Cambridge, cuando contaba con 27 años, le propusieron una cátedra de física en la Universidad Mc Gill de Montreal, que aceptó inmediatamente, pues representaba para él la posibilidad de reunirse con su prometida, que seguía viviendo en Nueva Zelanda. Montreal, 1898-1907: radioactividad Becquerel descubrió por esa época (1896) que el uranio emitía una radiación desconocida, la "radiación uránica". Rutherford publicó en 1899 un documento esencial, en el que estudiaba el modo que podían tener esas radiaciones de ionizar el aire, situando al uranio entre dos placas cargadas y midiendo la corriente que pasaba. Estudió así el poder de penetración de las radiaciones, cubriendo sus muestras de uranio con hojas metálicas de distintos espesores. Se dio cuenta de que la ionización empezaba disminuyendo rápidamente conforme aumentaba el espesor de las hojas, pero que por encima de un determinado marco disminuía más débilmente. Por ello dedujo que el uranio emitía dos radiaciones diferenciadas, puesto que tenían poder de penetración distinto. Llamó a la radiación menos penetrante radiación alfa, y a la más penetrante (y que producía necesariamente una menor ionización puesto que atravesaba el aire) radiación beta. En 1900, Rutherford se casa con Mary Newton. De este matrimonio nació en 1901 su única hija, Eileen. Por esa época, Rutherford estudia el torio, y se da cuenta al utilizar el mismo dispositivo que para el uranio, de que el hecho de abrir una puerta en el laboratorio perturba notoriamente el experimento, como si los movimientos del aire en el experimento pudieran alterarlo. Pronto llegará a la conclusión de que el torio desprende una emanación, también radiactiva, puesto que al aspirar el aire que rodea el torio, se da cuenta de que ese aire transmite la corriente fácilmente, incluso a gran distancia del torio.
También nota que las emanaciones de torio sólo permanecen radiactivas unos diez minutos y que son partículas neutras. Su radiactividad no se ve alterada por ninguna reacción química, ni por cambios en las condiciones (temperatura, campo eléctrico). Se da cuenta asimismo de que la radiactividad de esas partículas decrece exponencialmente, puesto que la corriente que pasa entre los electrodos también lo hace, y descubre así el periodo de los elementos radiactivos en 1900. Con la ayuda de un químico de Montreal, Frederick Soddy, llega en 1902 a la conclusión de que las emanaciones de torio son efectivamente átomos radiactivos, pero sin ser torio, y que la radioactividad viene acompañada de una desintegración de los elementos. Este descubrimiento provocó un gran revuelo entre los químicos, muy convencidos del principio de indestructibilidad de la materia. Una gran parte de la ciencia de la época se basaba en este concepto. Por ello, este descubrimiento representa una auténtica revolución. Sin embargo, la calidad de los trabajos de Rutherford no dejaban margen a la duda. El mismísimo Pierre Curie tardó dos años en admitir esta idea, a pesar de que ya había constatado con Marie Curie que la radioactividad ocasionaba una pérdida de masa en las muestras. Pierre Curie opinaba que perdían peso sin cambiar de naturaleza. Las investigaciones de Rutherford tuvieron el reconocimiento en 1903 de la Royal Society, que le otorgó la Medalla Rumford en 1904. Resumió el resultado de sus investigaciones en un libro titulado "Radioactividad" en 1904, en el que explicaba que la radioactividad no estaba influenciada por las condiciones externas de presión y temperatura, ni por las reacciones químicas, pero que comportaba un desprendimiento de calor superior al de una reacción química. Explicaba también que se producían nuevos elementos con características químicas distintas, mientras desaparecían los elementos radiactivos. Junto a Frederick Soddy, calculó que el desprendimiento de energía debido a la desintegración nuclear era entre 20.000 y 100.000 veces superior al producido por una reacción química. Lanzó también la hipótesis de que tal energía podría explicar la energía desprendida por el sol. Él y Rutt opinan que si la tierra conserva una temperatura constante (en lo que concierne a su núcleo), esto se debe sin duda a las reacciones de desintegración que se producen en su seno. Esta idea de una gran energía potencial almacenada en los átomos encontrará un año después un principio de confirmación cuando Albert Einstein descubra la equivalencia entre masa y energía. Tras estos trabajos, Otto Hahn, el descubridor de la fisión nuclear junto con Lise Meitner, acudirá a estudiar con Rutherford en Mc Gill durante unos meses. A partir de 1903 empieza a hacerse preguntas sobre la naturaleza exacta de las radiaciones alfa y deduce su velocidad, el signo (positivo) de su carga, y la relación que hay entre su carga y su masa, haciendo que atraviesen campos eléctricos y magnéticos. Éste es el camino que le llevará hacia sus más célebres trabajos. El motivo por el cual algunas partículas alfa rebotaban era que se desviaban por los núcleos. Rutherford no sabía al principio la carga del núcleo (positiva o negativa), pero tiempo más tarde descubrió que el núcleo estaba formado por dos componentes: protones y neutrones. Durante su estancia en Mc Gill, publicará unos 80 artículos, e inventará numerosos dispositivos que no tienen nada que ver con la física nuclear.
Manchester, 1907-1919: el núcleo atómico En 1907, obtiene una plaza de profesor en la Universidad de Mánchester, en donde trabajará junto a Hans Geiger. Junto a éste, inventará un contador que permite detectar las partículas alfa emitidas por sustancias radiactivas (prototipo del futuro contador Geiger), ya que ionizando el gas que se encuentra en el aparato, producen una descarga que se puede detectar. Este dispositivo les permite estimar el número de Avogadro de modo muy directo: averiguando el periodo de desintegración del radio, y midiendo con su aparato el número de desintegraciones por unidad de tiempo. De ese modo dedujeron el número de átomos de radio presente en su muestra. En 1908, junto a uno de sus estudiantes, Thomas Royds, demuestra de modo definitivo lo que se suponía, es decir, que las partículas alfa son núcleos de helio. En realidad, lo que prueban es que una vez desembarazadas de su carga, las partículas alfa son átomos de helio. Para demostrarlo, aisló la sustancia radiactiva en un material suficientemente delgado para que las partículas alfa lo atravesaran efectivamente, pero para ello bloquea cualquier tipo de "emanación" de elementos radiactivos, es decir, cualquier producto de la desintegración. Recoge a continuación el gas que se halla alrededor de la caja que contiene las muestras, y analiza su espectro. Encuentra entonces gran cantidad de helio: los núcleos que constituyen las partículas alfa han recuperado electrones disponibles. Ese mismo año gana el Premio Nobel de Química por sus trabajos de 1908. Sufrirá sin embargo un pequeño disgusto, pues él se considera fundamentalmente un físico. Una de sus citas más famosas es que "la ciencia, o es Física, o es filatelia", con lo que sin duda situaba la física por encima de todas las demás ciencias. En 1911 hará su mayor contribución a la ciencia, al descubrir el núcleo atómico. Había observado en Montreal al bombardear una fina lámina de mica con partículas alfa, que se obtenía una deflexión de dichas partículas. Al retomar Geiger y Marsden de modo más concienzudo estos experimentos y utilizando una lámina de oro, se dieron cuenta de que algunas partículas alfa se desviaban más de 90 grados. Rutherford lanzó entonces la hipótesis, que Geiger y Marsden enfrentaron a las conclusiones de su experimento, de que en el centro del átomo debía haber un "núcleo" que contuviera casi toda la masa y toda la carga positiva del átomo, y que de hecho los electrones debían determinar el tamaño del átomo. Este modelo planetario había sido sugerido en 1904 por un japonés, Hantarō Nagaoka, aunque había pasado desapercibido. Se le objetaba que en ese caso los electrones tendrían que irradiar girando alrededor del núcleo central y, en consecuencia, caer. Los resultados de Rutherford demostraron que ese era sin dudar el modelo bueno, puesto que permitía prever con exactitud la tasa de difusión de las partículas alfa en función del ángulo de difusión y de un orden de magnitud para las dimensiones del núcleo atómico. Las últimas objeciones teóricas (sobre la irradiación del electrón) se desvanecieron con los principios de la teoría cuántica, y la adaptación que hizo Niels Bohr del modelo de Rutherford a la teoría de Max Planck, lo que sirvió para demostrar la estabilidad del átomo de Rutherford. En 1914 empieza la Primera Guerra Mundial, y Rutherford se concentra en los métodos acústicos de detección de submarinos. Tras la guerra, ya en 1919, lleva a cabo su primera transmutación artificial. Después de observar los protones producidos por el bombardeo de hidrógeno de partículas alfa (al observar el parpadeo que producen en pantallas cubiertas de sulfuro de zinc), se da cuenta de que obtiene muchos de esos parpadeos si
realiza el mismo experimento con aire y aún más con nitrógeno puro. Deduce de ello que las partículas alfa, al golpear los átomos de nitrógeno, han producido un protón, es decir que el núcleo de nitrógeno ha cambiado de naturaleza y se ha transformado en oxígeno, al absorber la partícula alfa. Rutherford acababa de producir la primera transmutación artificial de la historia. Algunos opinan que fue el primer alquimista que consiguió su objetivo. Cambridge, 1919-1937: la edad de oro en Cavendish Ese mismo año sucede a J.J. Thomson en el laboratorio Cavendish, pasando a ser el director. Es el principio de una edad de oro para el laboratorio y también para Rutherford. A partir de esa época, su influencia en la investigación en el campo de la física nuclear es enorme. Por ejemplo, en una conferencia que pronuncia ante la Royal Society, ya alude a la existencia del neutrón y de los isótopos del hidrógeno y del helio. Y éstos se descubrirán en el laboratorio Cavendish, bajo su dirección. James Chadwick, descubridor del neutrón, Niels Bohr, que demostró que el modelo planetario de Rutherford no era inestable, y Robert Oppenheimer, al que se considera el padre de la bomba atómica, están entre los que estudiaron en el laboratorio en los tiempos de Rutherford. Moseley, que fue alumno de Rutherford, demostró, utilizando la desviación de los rayos X, que los átomos contaban con tantos electrones como cargas positivas había en el núcleo, y que de ello resultaba que sus resultados "confirmaban con fuerza las intuiciones de Bohr y Rutherford". El gran número de clases que dio en el laboratorio Cavendish, la gran cantidad de contactos que tuvo con sus estudiantes dio una imagen de Rutherford como una persona muy pegada a los hechos, más aún que a la teoría, que para él sólo era parte de una "opinión". Este apego a los hechos experimentales, era el indicio de un gran rigor y de una gran honestidad. Cuando Enrico Fermi consiguió desintegrar diversos elementos con la ayuda de neutrones, le escribió para felicitarle de haber conseguido "escapar de la física teórica". Sin embargo, por fortuna, Rutherford no se detenía en los hechos, y su gran imaginación le dejaba entrever más allá, las consecuencias teóricas más lejanas, pero no podía aceptar que se complicaran las cosas inútilmente. Con frecuencia hacía observaciones en este sentido a los visitantes del laboratorio que venían a exponer sus trabajos a los estudiantes y a los investigadores, cualquiera que fuera la fama del visitante. Su apego a la simplicidad era casi proverbial. Como él mismo decía: "Yo mismo soy un hombre sencillo". Su autoridad en el laboratorio Cavendish no se basaba en el temor que pudiera inspirar. Por el contrario, Rutherford tenía un carácter jovial. Se sabía que estaba avanzando en sus trabajos cuando se le oía canturrear en el laboratorio. Sus alumnos lo respetaban mucho, no tanto por sus pasados trabajos o por el mito que le rodeaba como por su atractiva personalidad, su generosidad y su autoridad intelectual. Se le apodó "el cocodrilo", porque como un cocodrilo que nunca ve su propia cola, siempre miraba delante de él. También ésta es para Rutherford la época de los honores: fue presidente de la Royal Society entre 1925 y 1930, y chairman de la Academic Assistance Council, que en esos políticamente turbulentos tiempos, ayudaba a los universitarios alemanes que huían de su
país. También se le concedió la Medalla Franklin en 1924 y de la Medalla Faraday en 1936. Realizó su último viaje a Nueva Zelanda, su país de nacimiento, que nunca olvidó, en 1925 y fue recibido como un héroe. Alcanzó la nobleza en 1931 y obtuvo el título de Barón Rutherford de Nelson, de Cambridge. Pero ese mismo año murió su única hija, Eileen, nueve días después de haber dado a luz a su cuarto hijo. Rutherford era un hombre muy robusto y entró en el hospital en 1937 para una operación menor, tras haberse herido podando unos árboles de su propiedad. A su regreso a su casa, parecía recuperarse sin problemas, pero su estado se agravó repentinamente. Murió el 19 de octubre y se le enterró en la abadía de Westminster, junto a Isaac Newton y Kelvin. Los experimentos llevados a cabo por Rutherford permitieron, además, el establecimiento de un orden de magnitud para las dimensiones reales del núcleo atómico. Durante la Primera Guerra Mundial estudió la detección de submarinos mediante ondas sonoras, de modo que fue uno de los precursores del sonar. Asimismo, logró la primera transmutación artificial de elementos químicos (1919) mediante el bombardeo de un átomo de nitrógeno con partículas alfa. Las transmutaciones se deben a la capacidad de transformarse que tiene un átomo sometido a bombardeo con partículas capaces de penetrar en su núcleo. Muy poco después de su descubrimiento se precisaron las características de las transmutaciones y se comprobó que la energía cinética de los protones emitidos en el proceso podía ser mayor que la de las partículas incidentes, de modo que la energía interna del núcleo tenía que intervenir la transmutación. En 1923, tras fotografiar cerca de 400 000 trayectorias de partículas con la ayuda de una cámara de burbujas (cámara de Wilson), Blackett pudo describir ocho transmutaciones y establecer la reacción que había tenido lugar. Rutherford recibió el Premio Nobel de Química de 1908 en reconocimiento a sus investigaciones relativas a la desintegración de los elementos. Entre otros honores, fue elegido miembro (1903) y presidente (1925-1930) de la Royal Society de Londres y se le concedieron los títulos de sir (1914) y de barón Rutherford of Nelson (1931). A su muerte, sus restos mortales fueron inhumados en la abadía de Westminster.
Principio de exclusión de Pauli El principio de exclusión de Pauli es un principio cuántico enunciado por Wolfgang Ernst Pauli en 1925 que establece que no puede haber dos fermiones con todos sus números cuánticos idénticos (esto es, en el mismo estado cuántico de partícula individual). Hoy en día no tiene el estatus de principio, ya que es derivable de supuestos más generales (de hecho es una consecuencia del Teorema de la estadística del spin). Desarrollo El principio de exclusión de Pauli sólo se aplica a fermiones, esto es, partículas que forman estados cuánticos antisimétricos y que tienen espín semientero. Son fermiones, por ejemplo, los protones, los neutrones y los electrones, los tres tipos de partículas subatómicas que constituyen la materia ordinaria. El principio de exclusión de Pauli rige, así pues, muchas de las características distintivas de la materia. En cambio, partículas como el fotón y el (hipotético) gravitón no obedecen a este principio, ya que son bosones, esto es, forman estados cuánticos simétricos y tienen espín entero. Como consecuencia, una multitud de fotones puede estar en un mismo estado cuántico de partícula, como en los láseres. "Dos electrones en la corteza de un átomo no pueden tener al mismo tiempo los mismos números cuánticos". Es sencillo derivar el principio de Pauli, basándonos en el artículo de partículas idénticas. Los fermiones de la misma especie forman sistemas con estados totalmente antisimétricos, lo que para el caso de dos partículas significa que:
(La permutación de una partícula por otra invierte el signo de la función que describe al sistema). Si las dos partículas ocupan el mismo estado cuántico |ψ>, el estado del sistema completo es |ψψ>. Entonces,
así que el estado no puede darse. Esto se puede generalizar al caso de más de dos partículas. Consecuencias El principio de exclusión de Pauli interpreta un papel importante en un vasto número de fenómenos físicos. Uno de los más importantes es la configuración electrónica de los átomos. Un átomo eléctricamente neutro aloja a un número de electrones igual al número de protones en su núcleo. Como los electrones son fermiones, el principio de exclusión les prohíbe ocupar el mismo estado cuántico, así que tienen que ir ocupando sucesivas capas electrónicas. Como ejemplo, es ilustrativo considerar un átomo neutro de helio, que tiene dos electrones ligados. Estos dos electrones pueden ocupar los estados de mínima energía (1s), si presentan diferente espín. Esto no viola el principio de Pauli, porque el espín es parte del estado cuántico del electrón, así que los dos electrones están ocupando diferentes estados cuánticos (espínorbitales). Sin embargo, el espín sólo puede tomar dos valores propios diferentes (o, dicho de otra forma, la función que describe al sistema sólo puede tener dos estados diferentes que sean propios del operador espín ). En un átomo de litio, que contiene tres electrones ligados, el tercer electrón no puede entrar en un estado 1s, y tiene que ocupar uno de los estados 2s (de energía superior). De forma análoga, elementos sucesivos producen capas de energías más y más altas. Las propiedades químicas de un elemento dependen decisivamente del número de electrones en su capa externa, lo que lleva a la tabla periódica de los elementos. El principio de Pauli también es responsable de la estabilidad a gran escala de la materia. Las moléculas no pueden aproximarse arbitrariamente entre sí, porque los electrones ligados a cada molécula no pueden entrar en el mismo estado que los electrones de las moléculas vecinas. Este es el principio que hay tras el término de repulsión r -12 en el Potencial de Lennard-Jones. Enunciado en palabras llanas, pero didácticas: En la astronomía se encuentran algunas de las demostraciones más espectaculares de este efecto, en la forma de enanas blancas y estrellas de neutrones. En ambos objetos, las estructuras atómicas usuales han sido destruidas por la acción de fuerzas gravitacionales muy intensas. Sus constituyentes sólo se sustentan por la "presión de degeneración" (que les prohíbe estar en un mismo estado cuántico). Este estado exótico de la materia se conoce como materia degenerada. En las enanas blancas, los átomos se mantienen apartados por la presión de degeneración de los electrones. En las estrellas de neutrones, que presentan fuerzas gravitacionales aún mayores, los electrones se han fusionado con los protones para producir neutrones, que tienen una presión de degeneración mayor.
Otro fenómeno físico del que es responsable el principio de Pauli es el ferromagnetismo, en el que el principio de exclusión implica una energía de intercambio que induce al alineamiento paralelo de electrones vecinos (que clásicamente se alinearían antiparalelamente).
Fisión nuclear
Fisión nuclear de un átomo de uranio-235. En física nuclear, la fisión es una reacción nuclear, lo que significa que tiene lugar en el núcleo atómico. La fisión ocurre cuando un núcleo pesado se divide en dos o más núcleos pequeños, además de algunos subproductos como neutrones libres, fotones (generalmente rayos gamma) y otros fragmentos del núcleo como partículas alfa (núcleos de helio) y beta (electrones y positrones de alta energía). Mecanismo La fisión de núcleos pesados es un proceso exotérmico lo que supone que se liberan cantidades sustanciales de energía. El proceso genera mucha más energía que la liberada en las reacciones químicas convencionales, en las que están implicadas las cortezas electrónicas; la energía se emite, tanto en forma de radiación gamma como de energía cinética de los fragmentos de la fisión, que calentarán la materia que se encuentre alrededor del espacio donde se produzca la fisión. La fisión se puede inducir por varios métodos, incluyendo el bombardeo del núcleo de un átomo fisionable con una partícula de la energía correcta; la otra partícula es generalmente un neutrón libre. Este neutrón libre es absorbido por el núcleo, haciéndolo inestable (como una pirámide de naranjas en el supermercado llega a ser inestable si alguien lanza otra naranja en ella a la velocidad correcta). El núcleo inestable entonces se partirá en dos o más pedazos: los productos de la fisión que incluyen dos núcleos más pequeños, hasta siete neutrones libres (con una media de dos y medio por reacción), y algunos fotones.
Los núcleos atómicos lanzados como productos de la fisión pueden ser varios elementos químicos. Los elementos que se producen son resultado del azar, pero estadísticamente el resultado más probable es encontrar núcleos con la mitad de protones y neutrones del átomo fisionado original. Los productos de la fisión son generalmente altamente radiactivos, no son isótopos estables; estos isótopos entonces decaen, mediante cadenas de desintegración. Fisión fría y rotura de pares de nucleones La mayor parte de las investigaciones sobre fisión nuclear se basa en la distribución de masa y energía cinética de los fragmentos de fisión. Sin embargo, esta distribución es perturbada por la emisión de neutrones por parte de los fragmentos antes de llegar a los detectores. Aunque con muy baja probabilidad, en los experimentos se ha detectado eventos de fisión fría, es decir fragmentos con tan baja energía de excitación que no emiten neutrones. Sin embargo, aún en esos casos, se observa la rotura de pares de nucleones, la que se manifiesta como igual probabilidad de obtener fragmentos con número par o impar de nucleones. Los resultados de estos experimentos permiten comprender mejor la dinámica de la fisión nuclear hasta el punto de escisión, es decir, antes de que se desvanezca la fuerza nuclear entre los fragmentos. Induciendo la fisión La fisión nuclear de los átomos fue descubierta en 1938 por los investigadores alemanes Otto Hahn y Fritz Strassmann a partir del trabajo desarrollado por el propio Hahn junto a Lise Meitner durante años anteriores. Por este descubrimiento Otto Hahn recibió en 1944 el Premio Nobel de química, pero el trabajo de Meitner quedó sin reconocimiento. El estudio de la fisión nuclear se considera parte de los campos de la química y la física. Aunque la fisión es prácticamente la desintegración de materia radioactiva, comenzada a menudo de la manera más fácil posible (inducido), que es la absorción de un neutrón libre, puede también ser inducida lanzando otras cosas en un núcleo fisionable. Estas otras cosas pueden incluir protones, otros núcleos, o aún los fotones de gran energía en cantidades muy altas (porciones de rayos gamma). Muy rara vez, un núcleo fisionable experimentará la fisión nuclear espontánea sin un neutrón entrante. Cuanto más pesado es un elemento más fácil es inducir su fisión. La fisión en cualquier elemento más pesado que el hierro produce energía, y la fisión en cualquier elemento más liviano que el hierro requiere energía. Lo contrario también es verdad en las reacciones de fusión nuclear (la fusión de los elementos más livianos que el hierro produce energía y la fusión de los elementos más pesados que el hierro requiere energía). Los elementos más frecuentemente usados para producir la fisión nuclear son el uranio y el plutonio. El uranio es el elemento natural más pesado; el plutonio
experimenta desintegraciones espontáneas y tiene un período de vida limitado. Así pues, aunque otros elementos pueden ser utilizados, estos tienen la mejor combinación de abundancia y facilidad de fisión. Reacción en cadena Artículo principal: Reacción en cadena Una reacción en cadena ocurre como sigue: un acontecimiento de la fisión empieza lanzando 2 ó 3 neutrones en promedio como subproductos. Estos neutrones se escapan en direcciones al azar y golpean otros núcleos, incitando a estos núcleos para experimentar la fisión. Puesto que cada acontecimiento de la fisión lanza 2 o más neutrones, y estos neutrones inducen otras fisiones, el proceso se construye rápidamente y causa la reacción en cadena. El número de los neutrones que se escapan de una cantidad de uranio depende de su área superficial. Solamente los materiales fisibles son capaces de sostener una reacción en cadena sin una fuente de neutrones externa. Masa crítica Artículo principal: Masa crítica La masa crítica es la mínima cantidad de material requerida para que el material experimente una reacción nuclear en cadena. La masa crítica de un elemento fisionable depende de su densidad y de su forma física (barra larga, cubo, esfera, etc.). Puesto que los neutrones de la fisión se emiten en direcciones al azar, para maximizar las ocasiones de una reacción en cadena, los neutrones deberán viajar tan lejos como sea posible y de esa forma maximizar las posibilidades de que cada neutrón choque con otro núcleo. Así, una esfera es la mejor forma y la peor es probablemente una hoja aplanada, puesto que la mayoría de los neutrones volarían de la superficie de la hoja y no chocarían con otros núcleos. También es importante la densidad del material. Si el material es gaseoso, es poco probable que los neutrones choquen con otro núcleo porque hay demasiado espacio vacío entre los átomos y un neutrón volaría probablemente entre ellos sin golpear nada. Si el material se pone bajo alta presión, los átomos estarán mucho más cercanos y la probabilidad de una reacción en cadena es mucho más alta. La alta compresión puede ser alcanzada poniendo el material en el centro de una implosión, o lanzando un pedazo de ella contra otro pedazo de ella muy fuertemente (con una carga explosiva, por ejemplo). Una masa crítica del material que ha comenzado una reacción en cadena se dice que se convierte en supercrítica. Moderadores Artículo principal: Moderador nuclear Únicamente con juntar mucho uranio en un sólo lugar no es suficiente como para comenzar una reacción en cadena. Los neutrones son emitidos por un núcleo en fisión a una velocidad muy elevada. Esto significa que los neutrones escaparán del núcleo antes de que tengan oportunidad de golpear cualquier otro núcleo (debido a un efecto relativista).
Un neutrón de movimiento lento se llama neutrón térmico y solamente esta velocidad del neutrón puede inducir una reacción de fisión. Así pues, tenemos cuatro velocidades de neutrones: Un neutrón (no-térmico) rápidamente se escapará del material sin la interacción; Un neutrón de velocidad mediana será capturado por el núcleo y cambiará el material en un isótopo (pero no induciría la fisión). Un neutrón de movimiento lento (térmico) inducirá a un núcleo a que experimente la fisión. Un neutrón móvil realmente lento será capturado o escapará, pero no causará fisión. Algunos años antes del descubrimiento de la fisión, la manera acostumbrada de retrasar los neutrones era hacerlos pasar a través de un material de peso atómico bajo, tal como un material hidrogenoso. El proceso de retraso o de moderación es simplemente una de las colisiones elásticas entre las partículas de alta velocidad y las partículas prácticamente en reposo. Cuanto más parecidas sean las masas del neutrón y de la partícula pulsada, mayor es la pérdida de energía cinética por el neutrón. Por lo tanto los elementos ligeros son los más eficaces como moderadores del neutrón. A unos cuantos físicos en los años 30 se les ocurrió la posibilidad de mezclar el uranio con un moderador: si fuesen mezclados correctamente, los neutrones de alta velocidad de la fisión podrían ser retrasados al rebotar de un moderador, con la velocidad correcta, para inducir la fisión en otros átomos de uranio. Las características de un buen moderador son: peso atómico bajo y baja o nula tendencia a absorber los neutrones. Los moderadores posibles son entonces el hidrógeno, helio, litio, berilio, boro y carbono. El litio y el boro absorben los neutrones fácilmente, así que se excluyen. El helio es difícil de utilizar porque es un gas y no forma ningún compuesto. La opción de moderadores estaría entonces entre el hidrógeno, deuterio, el berilio y el carbono. Fueron Enrico Fermi y Leó Szilárd quienes propusieron primero el uso de grafito (una forma de carbono) como moderador para una reacción en cadena. El deuterio es el mejor tecnológicamente (introducido en el agua pesada), sin embargo el grafito es mucho más económico. Efectos de los isótopos El uranio natural se compone de tres isótopos: 234U (0,006%), 235U (0,7%), y 238U (99,3%). La velocidad requerida para un acontecimiento de fisión contra acontecimiento de captura de la no-fisión es diferente para cada isótopo. El uranio-238 tiende a capturar neutrones de velocidad intermedia creando 239U, que decae sin fisión a plutonio-239, que sí es fisible. Debido a su capacidad de producir material fisible, a este tipo de materiales se les suele llamar fértiles. Los neutrones de alta velocidad (52.000 km/s), como los producidos en una reacción de fusión tritio-deuterio, pueden fisionar el uranio-238. Sin embargo los producidos por la fisión del uranio-235, de hasta 28.000 km/s, tienden a rebotar inelásticamete con él,
lo cual los desacelera. En un reactor nuclear, el 238U tiende, pues, tanto a desacelerar los neutrones de alta velocidad provenientes de la fisión del uranio-235 como a capturarlos (con la consiguiente transmutación a plutonio-239) cuando su velocidad se modera. El uranio-235 fisiona con una gama mucho más amplia de velocidades de neutrones que el 238U. Puesto que el uranio-238 afecta a muchos neutrones sin inducir la fisión, tenerlo en la mezcla es malo para promover la fisión. De hecho, la probabilidad de la fisión del 235U con neutrones de velocidad alta puede ser lo suficientemente elevada como para hacer que el uso de un moderador sea innecesario una vez que se haya quitado el 238U. Sin embargo, el 235U está presente en el uranio natural en cantidades muy reducidas (una parte por cada 140). La diferencia relativamente pequeña en masa entre los dos isótopos hace, además, que su separación sea difícil. La posibilidad de separar 235U fue descubierta con bastante rapidez en el proyecto Manhattan, lo que tuvo gran importancia para su éxito.
Reactor nuclear
Planta nuclear en Kewaunee, Wisconsin. Un reactor nuclear es un dispositivo en donde se produce una reacción nuclear controlada. Se puede utilizar para la obtención de energía en las denominadas centrales nucleares, la producción de materiales fisionables, como el plutonio, para ser usados en armamento nuclear, la propulsión de buques o de satélites artificiales o la investigación. Una central nuclear puede tener varios reactores. Actualmente solo producen energía de forma comercial los reactores nucleares de fisión, aunque existen reactores nucleares de fusión experimentales. La potencia de un reactor de fisión puede variar desde unos pocos kW térmicos a unos 4500 MW térmicos (1500 MW "eléctricos"). Deben ser instalados en zonas cercanas al agua, como cualquier central térmica, para refrigerar el circuito, y se emplazan en zonas sísmicamente estables para evitar accidentes. Poseen grandes medidas de seguridad. No emiten gases que dañen la atmósfera pero producen residuos radiactivos que duran decenas de miles de años, y que deben ser almacenados para su posterior uso en reactores avanzados y así reducir su tiempo de vida a unos cuantos cientos de años
Aplicaciones Generación nuclear: Producción de calor para la generación de energía eléctrica Producción de calor para uso doméstico e industrial Producción de hidrógeno mediante electrólisis de alta temperatura Desalación Propulsión nuclear: Marítima Cohetes de propulsión térmica nuclear (propuesta) Cohetes de propulsión nuclear pulsada (propuesta) Transmutación de elementos: Producción de plutonio, utilizado para la fabricación de combustible de otros reactores o de armamento nuclear Creación de diversos isótopos radiactivos, como el americio utilizado en los detectores de humo, o el cobalto-60 y otros que se utilizan en los tratamientos médicos Aplicaciones de investigación, incluyendo: Su uso como fuentes de neutrones y de positrones (p. ej. para su uso de análisis mediante activación neutrónica o para el datado por el método de potasio-argón). Desarrollo de tecnología nuclear
Reactor nuclear de fisión Véase también: Fisión nuclear
Un reactor nuclear de fisión consta de las siguientes partes esenciales: Combustible.-Isótopo fisionable (divisible) o fértil (convertible en fisionable por activación neutrónica): Uranio-235, Uranio-238, plutonio-239, Torio-232, o mezclas de estos (MOX, Mezcla de óxidos de uranio y plutonio). El combustible habitual en las centrales refrigeradas por agua ligera es el dióxido de uranio enriquecido, en el que alrededor del 3% de los núcleos de uranio son de U-235 y el resto de U-238. La
proporción de U-235 en el uranio natural es sólo de 0.72%, por lo que es necesario someterlo a un proceso de enriquecimiento en este nucleido. Moderador (nuclear).- Agua, agua pesada, grafito, sodio metálico: Cumplen con la función de frenar la velocidad de los neutrones producidos por la fisión, para que tengan la oportunidad de interactuar con otros átomos fisionables y mantener la reacción. Como regla general, a menor velocidad del neutrón, mayor probabilidad de fisionar con otros núcleos del combustible en los reactores que usan uranio 235 como combustible. Refrigerante.- Agua, agua pesada, anhídrido carbónico, helio, sodio metálico: Conduce el calor generado hasta un intercambiador de calor, o bien directamente a la turbina generadora de energía eléctrica o propulsión. Reflector.- Agua, agua pesada, grafito, uranio: reduce el escape de neutrones y aumenta la eficiencia del reactor. Blindaje.- Hormigón, plomo, acero, agua: Evita la fuga de radiación gamma y neutrones rápidos. Material de control.- Cadmio o boro: hace que la reacción en cadena se pare. Son muy buenos absorbentes de neutrones. Generalmente se usan en forma de barras (de acero borado por ejemplo) o bien disuelto en el refrigerante. Elementos de Seguridad.- Todas las centrales nucleares de fisión, constan en el 2007 de múltiples sistemas, activos (responden a señales eléctricas), o pasivos (actúan de forma natural, por gravedad, por ejemplo). La contención de hormigón que rodea a los reactores es la principal de ellas. Evitan que se produzcan accidentes, o que, en caso de producirse, haya una liberación de radiactividad al exterior del reactor.
Tipos de reactores nucleares de fisión Existen varios tipos básicos en el 2007:[1] LWR - Light Water Reactors (Reactores de agua ligera): utilizan como refrigerante y moderador el agua. Como combustible uranio enriquecido. Los más utilizados son los PWR (Pressure Water Reactor o reactores de agua a presión) y los BWR (Boiling Water Reactor o reactores de agua en ebullición): 264 PWR y 94 BWR en funcionamiento en el 2007. CANDU - Canada Deuterium Uranium (Canadá deuterio uranio): Utilizan como moderador y refrigerante agua pesada (compuesta por dos átomos de deuterio y uno de oxígeno). Como combustible utilizan uranio natural: 43 en funcionamiento en el 2007. FBR - Fast Breeder Reactors (reactores rápidos realimentados): utilizan neutrones rápidos en lugar de térmicos para la consecución de la fisión. Como
combustible utiliza plutonio y como refrigerante sodio líquido. Este reactor no necesita moderador: 4 operativos en el 2007. Solo uno en operación. AGR - Advanced Gas-cooled Reactor (reactor refrigerado por gas avanzado): usa uranio como combustible. Como refrigerante utiliza CO 2 y como moderador grafito: 18 en funcionamiento en el 2007. RBMK - Reactor Bolshoy Moshchnosty Kanalny (reactor de canales de alta potencia): su principal función es la producción de plutonio, y como subproducto genera energía eléctrica. Utiliza grafito como moderador y agua como refrigerante. Uranio enriquecido como combustible. Puede recargarse en marcha. Tiene un coeficiente de reactividad positivo. El reactor de Chernóbil era de este tipo. Existían 12 en funcionamiento en el 2007. ADS - Accelerator Driven System (sistema asistido por acelerador): utiliza una masa subcrítica de torio, en la que se produce la fisión solo por la introducción, mediante aceleradores de partículas, de neutrones en el reactor. Se encuentran en fase de experimentación, y se prevé que una de sus funciones fundamentales sería la eliminación de los residuos nucleares producidos en otros reactores de fisión.
Ventajas de los reactores nucleares de fisión Una de las ventajas de los reactores nucleares actuales es que casi no emiten contaminantes al aire (aunque periódicamente purgan pequeñas cantidades de gases radiactivos), y los residuos producidos son muchísimo menores en volumen y más controlados que los residuos generados por las plantas alimentadas por combustibles fósiles. En esas centrales térmicas convencionales que utilizan combustibles fósiles (carbón, petróleo o gas), se emiten gases de efecto invernadero (CO2 principalmente), gases que producen lluvia ácida (SO2 principalmente), carbonilla, metales pesados, miles de toneladas anualmente de cenizas, e incluso material radiactivo natural concentrado (NORM). En una central nuclear los residuos sólidos generados son del orden de un millón de veces menores en volumen que los contaminantes de las centrales térmicas. Estas centrales generan residuos radiactivos, sin embargo su volumen puede reducirse considerablemente aplicando tecnologías ya e xistentes. Una planta nuclear moderna diseñada para minimizar los residuos no genera desechos radiactivos de vida superior a los 100 años [cita requerida]. El uranio enriquecido utilizado en las centrales nucleares no sirve para construir un arma nuclear ni para usar uranio procedente de ellas. Para ello se diseñan los reactores en ciclos de alto enriquecimiento o bien se usan diseños como reactores tipo RBMK usados para la generación de plutonio.
Últimamente se investigan centrales de fisión asistida, donde parte de los residuos más peligrosos serían destruidos mediante el bombardeo con partículas procedentes de un acelerador (protones seguramente) que por espalación producirían neutrones que a su vez provocarían la transmutación de esos isótopos más peligrosos. Esta sería una especie de central de neutralización de residuos radiactivos automantenida. El rendimiento de estas centrales sería en principio menor, dado que parte de la energía generada se usaría para la transmutación de los residuos. Se estima que la construcción del primer reactor de transmutación (Myrrah) comenzará en el año 2014.
Desventajas de los reactores nucleares de fisión Los reactores nucleares generan residuos radiactivos. Algunos de ellos con un semiperiodo elevado, como el americio, el neptunio o el curio y de una alta toxicidad. Los detractores de la energía nuclear hacen hincapié en el peligro de esos residuos. Algunas centrales también sirven para generar material adicional de fisión (plutonio) que puede usarse para la creación de armamento nuclear. Dicho interés en la creación de dichas sustancias impone un diseño específico del reactor en detrimento de la ecología del mismo. La percepción de peligro en la población proviene de que una accidente o un ataque terrorista les exponga a la radiación. La probabilidad de que un accidente similar al sucedido en Chernobyl se repita en las centrales occidentales es sumamente pequeño debido a su propio diseño.
Reactor nuclear de fusión Véase también: Fusión nuclear
Instalación destinada a la producción de energía mediante la fusión nuclear. Tras más de 60 años de investigación en este campo, se ha logrado mantener una reacción controlada, si bien aún no es energéticamente rentable. La mayor dificultad se halla en soportar la enorme presión y temperatura que requiere una fusión nuclear (que sólo es posible encontrar de forma natural en el núcleo de una estrella). Además este proceso requiere una enorme inyección de energía inicial (aunque luego se podría automantener ya que la energía desprendida es mucho mayor) Actualmente existen dos líneas de investigación, el confinamiento inercial y el confinamiento magnético. El confinamiento inercial consiste en contener la fusión mediante el empuje de partículas o de rayos láser proyectados contra una partícula de combustible, que provocan su ignición instantánea.
Los dos proyectos más importantes a nivel mundial son el NIF (National Ignition Facility) en EE.UU. y el LMJ (Laser Mega Joule) en Francia. El confinamiento magnético consiste en contener el material a fusionar en un campo magnético mientras se le hace alcanzar la temperatura y presión necesarias. El hidrógeno a estas temperaturas alcanza el estado de plasma. Los primeros modelos magnéticos, americanos, conocidos como Stellarator generaban el campo directamente en un reactor toroidal, con el problema de que el plasma se filtraba entre las líneas del campo. Los ingenieros rusos mejoraron este modelo dando paso al Tokamak en el que un arrollamiento de bobina primario inducía el campo sobre el plasma, aprovechando que es conductor, y utilizándolo de hecho como un arrollamiento secundario. Además la resistencia eléctrica del plasma lo calentaba. Sin embargo el mayor reactor de este tipo, el JET (toro europeo conjunto) no ha logrado mantener una mezcla a la temperatura (1 millón de grados) y presión necesarias para que se mantuviera la reacción. Se ha comprometido la creación de un reactor aun mayor, el ITER uniendo el esfuerzo internacional para lograr la fusión. Aun en el caso de lograrlo seguiría siendo un reactor experimental y habría que construir otro prototipo para probar la generación de energía, el llamado proyecto DEMO.
Posibles combustibles para reactores de fusión nuclear La reacción óptima para producir energía por fusión es la del deuterio y tritio debido a su elevada sección eficaz. Es también, por ello, la más usada en las pruebas experimentales. La reacción es la siguiente: D + T → 4He + n+89999+011+M-3'14
Obtener deuterio no es difícil ya que es un elemento estable y abundante que se formó en grandes cantidades en la sopa primordial de partículas (véase Big Bang). En el agua una parte por 5000 es deuterio. Esto significa que hay 30 gramos de material en cada metro cúbico de agua. En un reactor automantenido la reacción deuterio-tritio generaría energía y neutrones. Los neutrones son la parte negativa de la reacción y hay que controlarlos ya que las reacciones de captación de neutrones en las paredes del reactor o en cualquier átomo del reactivo pueden inducir radiactividad. De hecho, los neutrones, con tiempo suficiente pueden llegar a debilitar la estructura del propio contenedor con el consecuente riesgo de que se produzcan peligrosas fisuras. Para ello están los moderadores y blindajes de neutrones tales como el agua pesada, el berilio, el sodio o el carbono como moderadores muy usados en las centrales de fisión, o el boro y el cadmio, usados como productos que
paran completamente los neutrones absorbiéndolos. Si se quiere fabricar un reactor realmente limpio habrá que buscar otras fórmulas. Se ha planteado una doble solución al problema de los neutrones y al de la abundancia del tritio. El tritio no se encuentra en la naturaleza ya que es inestable así que hay que fabricarlo. Para obtenerlo se puede recurrir a las centrales de fisión, donde se puede generar por la activación del hidrógeno contenido en el agua, o al bombardeo del litio, material abundante en la corteza terrestre, con neutrones. 6
Li + n → 4He + T
7
Li + n → 4He + T +n
Hay dos isótopos estables del litio el litio-6 y el litio-7 siendo éste último mucho más abundante. Por desgracia, la reacción que absorbe neutrones es la que se da con el litio-6, el menos abundante. Todo esto tampoco evita que muchos neutrones acaben impactando con las paredes del propio reactor con la subsiguiente fabricación de átomos radiactivos. A pesar de ello una de las propuestas para el ITER es la de recubrir las paredes con litio-6 el cual pararía una buena parte de los neutrones para producir más tritio. Debido a todos estos problemas se están investigando otras reacciones de sección eficaz alta pero más limpias. Una de la más prometedoras es la del deuterio más helio-3. D + 3He → 4He + p
El problema en ésta reacción reside en la menor sección eficaz con respecto a la de deuterio-tritio y en la propia obtención del helio-3 que es el isótopo más raro de dicho elemento. Los protones no entrañan tanto peligro como los neutrones ya que estos no serán fácilmente captados por los átomos debido a la barrera coulombiana que deben atravesar cosa que con las partículas de carga neutra como los neutrones no ocurre. Además un protón puede ser manipulado mediante campos electromagnéticos. Una solución para obtener helio-3 artificialmente sería la de incorporar, en el propio reactor, la reacción deuterio-deuterio. D + D → 3He + n
El problema es que, de nuevo, obtenemos un neutrón residual, lo que nos devuelve de nuevo al problema de los neutrones. Quizá la clave fuera la obtención de helio-3 natural, pero éste es extremadamente raro en la Tierra. Hay que tener en cuenta que el poco helio-3 natural que se produce por radiactividad tiende a escapar de nuestra densa atmósfera. Lo curioso es que dicho isótopo es abundante en la Luna. Se encuentra esparcido por su superficie y proviene del viento solar que durante miles de millones de años ha bañado la desnuda superficie lunar con sus partículas ionizadas. Este helio lunar podría ser, en un futuro, la clave para los reactores de fusión.