Propagación de errores De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En Estadística, la propagacion de errores (o propagación de incertidumbre) es el efecto de variables de incertidumbre (o errores) en la incertidumbre de una función matemática basada en ellos. Cuando las variables son los valores de mediciones experimentales tienen incertidumbre debido a la medición de limitaciones (por ejemplo, instrumento de precisión), que se propagan a la combinación de variables en la función. La incertidumbre es normalmente definida por el error absoluto. La incertidumbre también puede ser definida por el error relativo Δx/x, que usualmente es escrito como un porcentaje. Más comúnmente, el error en una cantidad, Δx, está dado por la desviación estándar, σ. La desviación estándar es la raíz cuadrada positiva de la varianza, σ2. El valor de una cantidad y su error son, a menudo, expresados como . Si la distribución de probabilidad estadística de la variable es conocida o puede ser asumida, es posible derivar el intervalo de confianza para describir la región dentro de la cual el valor verdadero de la variable puede ser encontrado. Por ejemplo, el intervalo de confianza de 68% de una variable perteneciente a una distribución normal es ± una desviación estándar del valor, esto es, existe un 68% de probabilidad que el valor verdadero se encuentre en la región . Si las variables están correlacionadas, entonces la covarianza debe ser tomada en cuenta.
Contenido [ocultar]
1 Advertencias 2 Referencias 3 Enlaces externos 4 Véase también
Advertencias [editar] La estimación de errores para funciones no lineares está sesgada debido al uso de series de expansión truncas. La extensión de este sego depende de la naturaleza de la función; por ejemplo, el sesgo en el error calculado para log x se incrementa si x aumenta, dado que la expansión de 1+x es una buena aproximación solo si x es pequeña. En aplicaciones de data correspondiente, es a menudo posible asumir que los errores de medida no están correlaciones; sin embargo, los parámetros derivados de estas mediciones,
tales como parámetros Mínimos cuadrados, estarán correlacionados. Por ejemplo, en una regresión lineal, los errores en la pendiente y la intercepción estarán correlacionados y esta correlación debe ser tomada en cuenta cuando se derive el error en un valor calculado.
En el caso especial de la inversa 1 / B donde B = N(0,1), la distribución es una distribución de Cauchy y no hay una varianza definible. Para tales distribuciones de ratio, puede haber probabilidades definidas para intervalos que pueden ser definidos o bien por simulación Monte Carlo o, en algunos casos, usando la transformación Geary-Hinkley.1
Referencias [editar] 1. ↑ Jack Hayya, Donald Armstrong y Nicolas Gressis (July de 1975). «A Note on the Ratio of Two Normally Distributed Variables». Management Science 21 (11): 1338–1341.
Enlaces externos [editar]
Incertidumbre y propagación de errores, Apéndice V del Manual de Laboratorio de Mecánica, Case Western Reserve University. Una discusión detallada de las medidas y la propagación de la incertidumbre explica los beneficios de usar fórmulas de propagación de errores y simulaciones Montecarlo, en lugar de simple aritmética significativa.
Véase también [editar]
Precisión y exactitud
Obtenido de "http://es.wikipedia.org/wiki/Propagaci%C3%B3n_de_errores" http://es.wikipedia.org/wiki/Propagaci%C3%B3n_de_errores
Precisión y exactitud De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En ingeniería, ciencia, industria y estadística, exactitud y precisión no son equivalentes.
Precisión se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de la variabilidad es la desviación estándar de las mediciones y la precisión se puede estimar como una función de ella. Exactitud se refiere a que tan cerca del valor real se encuentra el valor medido. En términos estadístico, la exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el sesgo más exacta es una estimación. Cuando expresamos la exactitud de un resultado se expresa mediante el error absoluto que es la diferencia entre el valor experimental y el valor verdadero.
Analogías útiles [editar] Ejemplo 1 Varias medidas son como flechas disparadas hacia un objetivo. La exactitud describe la proximidad de las flechas al centro del objetivo. Las flechas que impactaron más cerca del centro se consideran más exactas. Cuanto más cerca están las medidas a un valor aceptado, más exacto es un sistema. La precisión, en este ejemplo, es el tamaño del grupo de flechas. Cuanto más cercanas entre sí estén las flechas que impactaron el objetivo, más preciso será el sistema. Hay que notar que el hecho de que las flechas estén muy cercanas entre sí es independiente al hecho que estén cerca del centro del objetivo. En sí, se puede decir que la precisión es el grado de repetibilidad del resultado. Se podría resumir que exactitud es el grado de veracidad, mientras que precisión es el grado de reproductibilidad. Ejemplo 2 Un reloj analógico, de manecillas, desplaza su minutero "sólo de minuto en minuto", si bien lo hace en absoluta sincronía con el horario oficial o "real" (que es el objetivo ). Un segundo reloj utiliza minutero, segundero, incluso está dotado de un sistema de medición de décimas de segundo. Si observamos que su horario, no coincide plenamente con el horario oficial o real (que sigue siendo el objetivo de todo reloj), concluiremos que el primer reloj es altamente exacto, aunque no sea preciso, mientras que el segundo, es altamente preciso, aunque no se muestra exacto...al menos en nuestro ejemplo.
Véase también [editar] http://es.wikipedia.org/wiki/Precisi%C3%B3n_y_exactitud
FísicaFísica modernaPrincipio
de incertidumbre
de Heisenberg De Wikilibros, la colección de libros de texto de contenido libre. Física/Física moderna/Principio de incertidumbre de Heisenberg Saltar a navegación, buscar
En mecánica cuántica el principio de indeterminación de Heisenberg afirma que no se puede determinar, simultáneamente y con precisión arbitraria, ciertos pares de variables físicas, como son, por ejemplo, la posición y la cantidad de movimiento de un objeto dado. En palabras sencillas, cuanta mayor certeza se busca en determinar la posición de una partícula, menos se conoce su cantidad de movimiento lineal. Este principio fue enunciado por Werner Heisenberg en 1927.
Contenido [ocultar]
1 Definición formal 2 Explicación cualitativa 3 Consecuencias del principio 4 Incertidumbre
[editar] Definición formal Si se preparan varias comadres idénticas de un sistema cerradito en un estado determinado por su papá las medidas de la posición y el momento variarán de acuerdo a como las muevan y como brinquen. con una cierta distribución de probabilidad característica del estado cuántico del sistema. Las medidas de la desviación estándar Δx de la posición y el momento Δp verifican entonces el principio de incertidumbre que se expresa matemáticamente como
donde h es la constante de Planck (para simplificar,
suele escribirse como
)
En la física de sistemas clásicos esta incertidumbre de la posición-momento no se manifiesta puesto que se aplica a estados cuánticos y h es extremadamente pequeño. Una de las formas alternativas del principio de incertidumbre más conocida es la incertidumbre tiempo-energía que puede escribirse como:
Esta forma es la que se utiliza en mecánica cuántica para explorar las consecuencias de la formación de partículas virtuales, utilizadas para estudiar los estados intermedios de una interacción. Esta forma del principio de incertidumbre es también la utilizada para estudiar el concepto de energía del vacío.
[editar] Explicación cualitativa Podemos entender mejor este principio si pensamos en lo que sería la medida de la posición y velocidad de un electrón: para realizar la medida (para poder "ver" de algún modo el electrón) es necesario que un fotón de luz choque con el electrón, con lo cual está modificando su posición y velocidad; es decir, por el mismo hecho de realizar la medida, el experimentador modifica los datos de algún modo, introduciendo un error que es imposible de reducir a cero, por muy perfectos que sean nuestros instrumentos. No obstante hay que recordar que el principio de incertidumbre es inherente al universo, no al experimento ni a la sensibilidad del instrumento de medida. Surge como necesidad al desarrollar la teoría cuántica y se corrobora experimentalmente. No perdamos de vista que lo dicho en el párrafo anterior es un símil pero no se puede tomar como explicación del principio de incertidumbre.
[editar] Consecuencias del principio Este Principio supone un cambio básico en nuestra forma de estudiar la Naturaleza, ya que se pasa de un conocimiento teóricamente exacto (o al menos, que en teoría podría llegar a ser exacto con el tiempo) a un conocimiento basado sólo en probabilidades y en la imposibilidad teórica de superar nunca un cierto nivel de error. El principio de indeterminación es un resultado teórico entre magnitudes conjugadas (posición - momento, energía-tiempo, etcétera). Un error muy común es decir que el principio de incertidumbre impide conocer con infinita precisión la posición de una partícula o su cantidad de movimiento. Esto es falso. El principio de incertidumbre nos dice que no podemos medir simultáneamente y con infinita precisión un par de magnitudes conjugadas. Es decir, nada impide que midamos con precisión infinita la posición de una partícula, pero al hacerlo tenemos infinita incertidumbre sobre su momento. Por ejemplo, podemos hacer un montaje como el del experimento de Young y justo a la salida de las rendijas colocamos
una pantalla fosforescente de modo que al impactar la partícula se marca su posición con un puntito. Esto se puede hacer, pero hemos perdido toda la información relativa a la velocidad de dicha partícula. Por otra parte, las partículas en física cuántica si siguen trayectorias bien definidas. SI es posible conocer el valor de las magnitudes físicas que describen a la partícula antes de ser medidas. Por lo tanto es falso asignarle una trayectoria a un neutron. Todo lo más que podemos es decir que hay una determinada probabilidad de que la partícula se encuentre en una posición más o menos determinada.
[editar] Incertidumbre Los términos "indeterminación" e "incertidumbre" son equivalentes en este contexto, podemos referirnos al "principio de indeterminación de Heisenberg" o "principio de incertidumbre de Heisenberg" indistintamente. Obtenido de "http://es.wikibooks.org/wiki/F%C3%ADsica/F%C3%ADsica_moderna/Principio_de_incertidumbre _de_Heisenberg" Categoría: Física http://es.wikibooks.org/wiki/F%C3%ADsica/F%C3%ADsica_moderna/Principio_de_incertid umbre_de_Heisenberg