MODULO I: INTRODUCCION A LOS METODOS INSTRUMENTALES DE ANALISIS. (REVISION SEMIFINAL DEL TEXTO A SUSTENTAR DICIEMBRE-2015) 1. Concepto.El Curso de Análisis Instrumental es una ciencia fundamental que tiene profunda influencia en todas las otras ciencias especialmente en los de Ingeniería y Medicina. Por consiguiente no sólo los estudiantes de Ingeniería y Medicina, sino todo aquel que piensa seguir una carrera científica deben tener una completa comprensión de la materia, molécula, átomo, del espectro electromagnético y de las radiaciones electromagnéticas. Si analizamos las carreras profesionales de Ingeniería es un quehacer profesional con un soporte científico básico, comparativamente alto, en relación a otras profesiones. Su sustento científico se asocia a las llamadas Ciencias Básicas, denominación bajo la cual se agrupan la Matemática, Física, Química y Biología. De ellas se derivan las Ciencias de la Ingeniería, que constituyen otra parte de la formación científica de estas carreras.
Figura. Nro. 01. Expresión visual del Análisis instrumental en la formación científica de las carreras de las ciencias de la Ingeniería, bioquímica y medicina, que constituyen ahora nuestra cultura inicial.
Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
En esta sección se desarrolla muchos términos utilizados en la química analítica y otros temas considerados de repaso, Definición del problema, Decidir el método apropiado para identificar el analito que interesa, ¿Cómo obtener una muestra representativa?, luego decidir sobre que método utilizar para la preparación de la muestra, la eliminación de las interferencias, realizar los ensayos, tratamiento de los datos, la concentración de la sustancia en la muestra, Pruebas estadísticas las que nos ayudan a decidir si hemos dado una respuesta correcta al problema analítico planteado, esto es respuestas numéricas con limites de error. Empleo de equipos adecuados, Calibración instrumental que aseguren el funcionamiento correcto, Construcción de una curva de calibración con el empleo de patrones o estándares de concentración conocida, Validación de un método analítico, esto implica demostrar experimentalmente y formalmente que un proceso de medición química funciona como se espera de él, Evaluación de la calidad de un laboratorio analítico, y finalmente la acreditación del laboratorio, reconocimiento formal por una organización independiente con bases certificadas, para los cuales el laboratorio afirma ser competente. 1.1. Conceptos Prelimi nares de Análisis Instrumental. Todos queremos saber sobre la composición de las cosa, el arte de RECONOCER sustancias diferentes y DETERMINAR sus constituyentes, ocupa una posición privilegiada entre las aplicaciones de la ciencia, ya que las preguntas que nos permite responder surgen DOQUIERA QUE SE EMPLEE UN PROCESO QUÍMICO, con propósitos científicos o técnicos. Su suprema importancia ha hecho que se cultive asiduamente desde los inicios de la historia de la química, y sus resultados constituyen una gran parte del trabajo cuantitativo que está DISEMINADO POR TODO EL AMBITO DE LA CIENCIA. (Oswald, 1894) LA QUÍMICA ANALÍTICA INSTRUMENTAL: Es una Ciencia Metrológica que DESARROLLA, OPTIMIZA Y APLICA herramientas, materiales, metodologías y estrategias de amplia naturaleza (fisicoquímica, químicas, físicas, matemáticas, bioquímicas, biológicas, etc.) que se materializan en procesos analíticos encaminados a
OBTENER
INFORMACIÓN
bioquímica
de
calidad,
tanto
parcial
(presencia/concentración/estructura) como global, sobre materias o sistemas de amplia naturaleza (fisicoquímica, química, bioquímica y biológica) en el espacio y en el tiempo para RESOLVER PROBLEMAS analíticos generados por problemas económico-sociales. (Valcárcel, 1996).De acuerdo a esta definición puede resaltarse la importancia de la palabra Información que se relaciona íntimamente con la trazabilidad. La calidad es atribuible al proceso analítico el que puede evaluarse a través de la capacidad de resolver un determinado problema analítico. La información de calidad debe ser lo más veráz posible (aproximarse al valor verdadero) para que la toma de decisiones sea adecuada, esto es:
fundamentada, eficaz y a tiempo. Las propiedades analíticas indican calidad y se las agrupa de acuerdo a tres grupos:
Propiedad suprema
Exactitud y Representatividad
Propiedad básica
Precisión, Sensibilidad, Selectividad y Muestreo
Propiedad complementaria
Rapidez, Seguridad y Costo
1.2. Clasificación
de los Métodos Analíticos Instrumentales. Son métodos modernos de
separación, cuantificación e identificación de especies químicas utilizando una zona específica del espectro electromagnético, en paralelo al desarrollo de la industria
electrónica e
informática; se basan en el uso de propiedades físicas que pueden utilizarse como señales analíticas en los métodos instrumentales. Cuadro Nro. 01. Cuadro Nro. 01: Clasificación métodos analíticos instrumentales Señal
Métodos instrumentales
Emisión de radiación
Espectroscopia de emisión(Rayos X, visible, de elctrones Auger), fluorescencia, fosforescencia y luminiscencia (rayos X, UV, y visible) Espectrometria y fotometría (rayos X, UV, visible, IR), espectroscopia foto acústica, resonancia magnética nuclear y espectroscopia de resonancia de espin electrónico. Turbidimetría, nefelometría, espectroscopiaRaman
Adsorción de radiación Dispersión de la radiación Refracción de la radiación Difracción de la radiación Rotación de la radiación Potencial eléctrico Carga eléctrica Resistencia eléctrica Masa Razón masa a carga Velocidad de reacción Propiedades térmicas
Refractometria, Interferometria Métodos de difracción de rayos X y de electrones.
Polarimetría, dispersión rotatoria óptica, dicroísmo circular Potenciometría, cronopotenciometría Coulumbimetria Conductivimetria Gravimetria (microbalanzas) Espectrometría de masas Métodos cinéticos Conductividad térmica, análisis térmico diferencial y métodos de entalpia Radioactividad Métodos de activación y dilución isotópica Fuente: http://www.pucpr.edu/titulov/Q420/Cap%201.pdf 1.2.1. Instrumentos para el Análisis. Un instrumento para el análisis químico transforma la información relacionada con las propiedades físicas o químicas del analito en información que puede ser manipulada e interpretada por un ser humano. Por tanto, un instrumento analítico
puede considerarse como un dispositivo de comunicación entre el sistema objeto de estudio y el científico. Para conseguir la información del analito deseado es necesario proporcionar un estimulo generalmente en forma de energía electromagnética, eléctrica, mecánica o nuclear, como se muestra en la Figura Nro. 02.
Diversos instrumentos de análisis Figura. Nro. 02. www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-3946691
instrumental.
Fuente:
Cuadro. Nro. 02. Componentes de los instrumentos analíticos en función de los diversos equipos. Fuente:Sergio Figueroa Arroyo Alberto Valdés Tabernero y Ana Mª Garcia Palomino. Introducción a las técnicas de análisis instrumental pág. Nro. 8
1.2.2. Dominio de los Datos. En el proceso de medida colaboran una amplia variedad de dispositivos que transforman la información de una forma a otra. Para estudiar cómo funcionan los instrumentos, es importante entender la manera en la que se codifica la información, o se transforma de un sistema de información a otro como una señal eléctrica, tal como tensión, corriente, carga o variaciones de estas cantidades. Los diferentes modos de codificar la información en forma eléctrica se denominan dominios de los datos. (SKOOG-HOLLER-NIEMAN Pag. 3, 6)
Figura. Nro. 03. Esquema básico de un espectroscopio UV/VISIBLE. Fuente:quimica-analiticai.wikispaces.com/ 1.3. Planteamientodel Problema. Para definir el problema analítico principal es necesario una definición clara, el método de trabajo seleccionado depende de la respuesta a las siguientes cuestiones: Tabla Nro 01: Preguntas de un problema analítico 1 2 3 4 5 6 7 8 910
¿Cuál es el analito a determinar? ¿Qué exactitud y precisión se requieren? ¿De qué metodologías analíticas se dispone para su determinación? ¿Cuál es la muestra en que se encuentra el analito? ¿Cuántas muestras se analizan? ¿Cuál es el intervalo de concentraciones que puede encontrarse del analito en la muestra? ¿Qué componentes de la muestra interferirían en la determinación? ¿Cuáles son las propiedades físicas y químicas de la matriz de la muestra?
[ Ca + ] Ppm Absorción atómica
¿Cuántas muestrasconsiderar deben analizarse? También debemos los siguientes criterios
.3Costo y disponibilidad de equipos, costo por muestra . Tiempo requerido para el análisis, complejidad del
Solución Varias 640 ppm Mn
+
Solución acuosa
método, habilidad del operador. Proceso analítico: El conjunto de operaciones que se inicia con la definición de un problema analítico y que finaliza con la obtención de unos resultados analíticos que satisfacen los requerimientos o demandas. Problema: Asunto planteado por la sociedad (o grupo) de forma genérica. De él se deriva el problema analítico. Ejm: Presencia de de minerales metálicos. Muestra: Parte representativa del objeto tomada en el espacio y tiempo. Ejm: Rocas, Sedimentos, Geoquímicos, Menas, agua, etc. Analito: Especie de interés. Ejm: Cu, Ag, Au, Th, Li, etc. Técnica: Principio científico en base al cual se obtiene información que sirve de base para la determinación cualitativa, cuantitativa y/o estructural. Se materializa en un instrumento . Es la base científica de los métodos. Ejm: Químico o Clásico, Instrumental, Separación. Método: Aplicación concreta de una técnica analítica. Ejm: Digestión regia, perclórica, total. Procedimiento: Conjunto de instrucciones pormenorizadas para desarrollar un método. Análisis: Conjunto global de operaciones analíticas aplicadas a la muestra Determinación: Medida de la concentración de uno o varios componentes de la muestra Medida: Término aplicable a la propiedad física o físico-química que nos sirve de base para la determinación del analito. LA MUESTRA SE ANALIZA, EL ANALITO SE DETERMINA Y LA PROPIEDAD SE MIDE FORMULACIÓN DEL PROBLEMA ANALÍTICO Y ESTRATEGIA ANALÍTICA
Figura. Nro. 04. Expresión de una manera objetiva de la formulación del problema analítico y estrategia a seguir. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
a. Identificar el componente a analizar. b. Grado de exactitud y precisión que se requiere. Esta exigencia determina el proceso analítico a seguir, por lo que es necesario tener en cuenta el tiempo necesario que se ha de destinar al trabajo. c. Selección de la metodología disponible estandarizada. d. Numero de muestras a analizar. Da lugar a la selección de un método. e.
Intervalo de concentración de trabajo. A menor concentración más sensible a de ser el método empleado.
f.
La muestra contiene otro componente. Se determina si interfieren o no en la cuantificación del analito principal.
g. Propiedades fisicoquímicas de la muestra. Para determinar el tratamiento más adecuado para su disolución sin pérdida del analito. La química analítica moderna es una combinación de principios químicos, instrumentales y electrónicos además del juicio que da la práctica. Los instrumentos son esenciales pero son una parte relativamente pequeña. Durante el desarrollo experimental trataremos de seguir los pasos del proceso de investigación: Tabla Nro 02: Proceso de Investigación 1
Establecimiento del problema/propósito
7
Metodología:
Diseño,
Muestreo,
muestra,
Instrumentos,
Procedimientos, Análisis de datos, 2
Relevancia del estudio
3
Revisión de la literatura
4
Marco conceptual
5
Hipótesis/Pregunta/Objetivo
6
Definiciones
8
Discusiones y conclusiones Publicaciones
Tabla Nro 03: Problema, Muestra, Muestreo, Preparación, Ensayos Estadísticos y Estandarización Equipo Instrumental Etapas Planteamiento del problema (1.3)
Muestra, Tipos, Muestreo y toma, preparación de la muestra (1.4) Selección metodológica analítica.(1.5)
Análisis Preliminar Un primer paso que debe preceder al método analítico, es una definición clara del problema analítico. El método de trabajo seleccionado dependa de la respuesta a las siguientes cuestiones: Porción seleccionada para el examen La muestra tiene que ser representativa de la composición del material a analizar.
Habilidades Necesarias . Intervalo de concentración de trabajo. . Qué grado de exactitud se requiere
Programa de muestreo Habitualmente la muestra necesita algún tipo de tratamiento. Métodos químicos Métodos instrumentales Relación señal/concentración.
analizan Reducción de tamaño
Emplear una estrategia de muestreo. Que propiedades físico-químicas tienen la muestra Cuantas muestras se
Volumetría Manejo de pH- metros, espectrofotómetros.
Tratamiento estadísticos de los resultados instrumentales (1.6) Calibración (1.7) Adición de estándar y estándar interno (1.8) Puesta a punto del metodo analitico (1.9)
Patrones de calibración Método estándar. 1.Tipos de de errores 2.Precisión, exactitud, sensibilidad 3. Calibración y límite de detección. 2.Sesgo 3.Sensibilidad
Manejo de los procedimientos instrumentales. 1. Desviación estándar absoluta, relativa, coeficiente de variación, varianza. 2. Límite de decisión, cuantificación, confianza.
Calidad de una calibración Calculo de la recta de regresión Método adición de estandar Método de estándar interno Covarianzas
Gráfica de calibración Por mínimos cuadrados 1.Parámetros característicos: límite de cuantificación(LOQ), el límite de linealidad (LOL).(LOD) 2.Coeficiente de selectividad 1.Sesgo, sensibilidad, 2. Evaluación de la calidad de un laboratorio analítico. 3.Acreditación de laboratorios
1.Validación de un método analítico 2. parámetros fundamentales de validación. 4.Método estándar 5.Resolución de problemas 6.Prácticas de laboratorio
Fuente: El autor 1.4. Muestra, tipos de muestra, muestreo, tipos de muestreo y preparación de la muestra. ¿Cómo organizar la secuencialidad del programam de muestreo desde el sitio de toma de muestra hasta el laboratorio?Las técnicas de acopiar (recoger) muestras son simples pero no por ello son carentes de importancia. Es necesario seguir unas normas que se refieren a la preparación del recipiente, tipo de recipiente, llenado y tratamiento de las muestras. El recipiente puede ser de vidrio o de polietileno. En todos los casos deben de estar bien limpiosy debe de ser enjuagado dos o tres veces con la propia agua a muestrear. La limpieza debe hacerse con ácido (HNO 3) y después con agua destilada. En la mayoría de los casos es más recomendable el polietileno por su comodidad en el manejo, pero en otros, como es el caso de las muestras para la determinación de plaguicidas, es preferible el vidrio. En otros casos, como cuando se pretende medir con precisión gases disueltos o la DBO, se deben usar botellas de cuello ancho con tapón esmerilado y biselado para poder cerrar sin dejar ninguna burbuja de aire (botella Wrinkler). En cuanto al llenado, es preciso que estén totalmente llenas las botellas y perfectamente cerradas. De esta manera se evitan alteraciones del pH, CO2 gases, alcalinidad y calcio. Para algunas determinaciones, como metales pesados, es necesario tomar una doble muestra y en una de ellas, estabilizar dichos metales mediante acidificación, que puede hacerse con HCl ó HNO3. En casos excepcionales, sobre todo en verano, las muestras deben conservarse en nevera portátil hasta su llegada al laboratorio. Esto es especialmente importante para muestras en la que haya que realizar análisis bacteriológicos (tomados en botellas estériles) o para determinaciones muy precisas en las que cambios térmicos pueda provocar variaciones iónicas indeseables. Una vez ingresadas las muestras al laboratorio, han de seguirse las normas básicas de almacenamiento y análisis que se describen en la parte experimental de este Manual instructivo.Etiquetar la muestra con las especificaciones exactas de su contenido.
Figura. Nro. 05. Muestra tenemos que tener en cuenta su Naturaleza, Concentración y Matriz. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
1.4.1. Muestra. Es la parte (alícuota) del objeto que contiene a los analítos. Porción pequeña seleccionada para su examen, de una cantidad de material en mayor proporción, a la hora de recoger la muestra es de especial atención, que esta sea representativa de una mucha mayor cantidad. Su composición debe reflejar lo mejor posible una porción representativa de todo el material. Dentro de la muestra se encuentran constituyentes, es decir, las sustancias que trataremos de determinar.
Figura. Nro. 06. Muestra tenemos que tener en cuenta su Naturaleza, Concentración y Matriz. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
El objetivo es seleccionar una, varias porciones o alícuotas del material a ensayar, como primera parte de un procedimiento analítico, entonces el método de muestreo y la preparación de la
muestra están íntimamente relacionados con el procedimiento analítico a realizar, la meta de cualquier procedimiento de muestreo es asegurar que la muestra tomada sea REPRESENTATIVA de la composición del material a analizar, se consideran seis principios generales a tenerse en cuenta en esta etapa del análisis. Toma de muestra, preparación, medida, evaluación de datos, resultados y conclusiones e informe. Otros factores en un proceso analítico que se consideran.
Figura. Nro. 07. Otros factores que se consideran en un proceso analítico. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
1.4.2. Tipos de muestra.
1. Muestras aleatorias: Es aquella que se selecciona de tal manera que cualquier porción del objeto tiene un determinado grado de probabilidad de ser tomada. Son aquellas que resultan de un muestreo regular al azar. 2. Muestras blancas: Son aquellas que tienen unas características bien definidas y conocidas que se mantienen globalmente constantes, salvo excepciones. 3. Muestra ciega. Es aquella que tiene una composición definida y se introduce en el conjunto a analizar como una actividad de control de calidad. 4. Muestra estratificadas: Es la porción que procede de un sustrato o zona bien definidad del objeto. 5. Muestras grises: Son aquelas de las que se tiene un conocimiento aproximado de su composición. 5. Muestras negras. Son aquellas de las que no se tiene ninguna información previa. 6. Muestra test o alícuota: Es la porción que finalmente se somete al proceso analítico. 7. Muestra de laboratorio. Es aquella porción que entra debidamente conservada en el laboratorio. 8. Muestras representativas: Es aquella porción que resulta de un plan de muestreo coherente con el problema analítico. 9. Muestras selectivas: Son aquellas que resultan de un muestreo dirigido. 10. Muestra estratificadas: Son aquellas que resultan del muestreo al azar estratificado.
11. Muestras heterogeneas. a. Espacial: Significa que el material es diferente en extensión, profundidad, etc. Ej: unaLámina de acero, una pila de un mineral extraído de una mina o unContenedor colmado de cereales. b. Temporal: El material presenta cambios a lo largo del tiempo. Pueden ser Continuos oDiscontinuos. Ej.: el incremento de una especie en particular en un reactorIndustrial o cambios accidentales que se producen en el tiempo, sonEjemplos de cambios continuos.Tabletas farmacéuticas en una cinta de producción/embalaje. c. Espacial/Temporal: Es cuando el material varía simultáneamente en espacio y tiempo. Ej. Un río cambia desde su nacimiento hasta su desembocadura y además en lasdistintas épocas del año. 1.4.3. El muestreo. Una muestra adecuada debe ser representativa y homogénea del material a analizar, lo que significa que debe ser igual en todas sus partes, en la medida que esto se logre el error de muestreo se reduce. Muchas veces el muestreo es el factor limitante en la precisión y en la exactitud de los resultados. Una de las problemáticas principales del muestreo se srcina en la heterogeneidad del material a analizar, la heterogeneidad siempre existe y podemos tener según el plan de muestreo como intuitivo, estadístico, dirigido, discreta, continua. (Espacial, temporal o ambas), de protocolo.
Figura. Nro. 08. El objetivo en la toma de muestras es que sea homogenea. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
En la medida en que se logra que las muestras sean homogéneas y representativas, el error de muestreo se reduce. Las muestras pueden presentarse como: Lotes: Material completo del que se toman las muestras. Ej. Agua de un lago, cajas individuales de un camión.
Muestra bruta:
Se obtiene del lote para análisis o almacenamiento, suele seleccionarse de modo
que sea representativa del lote y su selección es crítica para realizar un análisis válido. De la muestra bruta se toma una muestra de laboratorio. Muestra de la borato rio:
Mas reducida, deben tener exactamente la misma composición de la
muestra bruta, para realizar los análisis individuales se emplean alícuotas de la muestra de laboratorio.
Diagrama Nro 01: Tipos de muestra
Identificar la población de la que debe obtenerse la muestra es inmediato, mientras que la obtención de la muestra bruta, muestra de laboratorio, no son sencillas, pueden requerir más esfuerzo e ingenio que cualquier otra etapa del esquema general de todo el proceso analítico. Cuando las muestras son heterogéneas (distinta composición en sus partes) el problema se complica en gran medida, el resultado final depende de la forma y trato de las muestras
1.4.4. Tipos de muestreo según su estado. Muestreo de sólidos: Los sólidos en forma de fragmentos o partículas se toman cogiendo una selección aleatoria de dichos lotes. Y en los sólidos de forma compacta como metales aleaciones se obtienen por limaduras, trituración o taladrando. Muestreo de líquidos: Frecuentemente se utiliza una sonda llamada ―ladrón de toma de muestras‖, la cual se sumerge a la profundidad que se desee y bse habre para recoger la muestra. Muestreo de gases: llenar un tubo con el gas con desplazamiento del aire que en principio contienen estos recipientes.
1 2
Tabla Nro. 04: El programa de muestreo debe tener en cuenta P,[Cu + ], λ, ν
Definición de los parámetros a determinar Elección de los puntos de muestreo
1, 2,..3
3 4 5 6
Tipo de muestraa analizar: Homogéneas/heterogéneas. Liq. Sól. O gas Estadofísico de la fracción que se va a analizar Liq. Sól. O gas Propiedades químicas del material Ácido, básico, ... Selección del sistema de preparación, transporte y Tipo de frasco almacenamiento Reducción de la muestra a un tamaño adecuado Molienda
7
(K.A. Rubinson y J.F. Rubinson, pag. 92) 1. Al azar: consiste
en un procedimiento de muestreo para el análisis de materiales que se
presentan como unidades uniformes, por ejemplo pastillas, botellas de agua mineral, etc. Las unidades para el análisis son escogidas totalmente al azar. 2. Muestreo regular: se eligen al azar un número determinado de unidades a analizar del total, donde cada una tiene la misma probabilidad de ser elegida. 3. Muestreo estratificado: se eligen dentro de las unidades de muestreo, Estratos o subdivisiones del total y se toman aleatoriamente las
unidades a analizar.
4. Intuitivo: se selecciona por decisión personal la porción del material a analizar, por ejemplo debido a un cambio textural o cromático de la sustancia a analizar, o cuando se observa alguna alteración puntual en un proceso productivo, etc. 5. Estadístico: la selección se basa en reglas estadísticas. Se calcula el número mínimo de muestras suponiendo distribución gaussianade la composición del material. 6. Dirigido: el problema analítico exige un tipo específico de información, por ejemplo el análisis de trazas de metales en las partículas en suspensión en un agua natural. 7. De protocolo: cuando se debe seguir un procedimiento de muestreo detallado en una norma, método estándar, publicación oficial, etc. Errores de muestreo: Los grandes errores son debidos con más frecuencia a un muestreo incorrecto que a una aplicación del método no adecuado. La libreta del analista debe contener información de cómo se recolecta y almacena la muestra, antes de proceder con el análisis. Las causas frecuentes son no tomar en cuenta las estratificaciones, propiedades analíticas varié de forma no uniforme, que las emulsiones o suspensiones durante el transporte srcinen separación de partículas. Para errores aleatorios, la desviación estándar global (S ), se relaciona 0 con la desviación estándar del proceso analítico (S ) y la desviación estándar global del muestreo a (S ): m 2
2
So = Sa + Sm
2
1.4.5. Toma de muestras de material que se encuentra en gran cantidad. Definimos como Plan de Muestreo a la estrategia a seguir para garantizar que los resultados obtenidos reflejen la realidad del material analizado. 1. Toma directa: La masa a muestrear depende críticamente del tamaño de las partículas, la heterogeneidad y el nivel de precisión exigido. 2.
On-line: Se debe realizar a intervalos regulares y con un método fijo. Se analiza cada una por separado y se calcula el valor promedio.
3. Pila cónica: Se utiliza el método de conificación y división en cuartos, se toma la muestra de cada cuarto de la pila, norte, sur, este y oeste, se trituran y se forma con ella una pila cónica más pequeña, se aplana y se divide en cuartos iguales, se eligen al azar dos cuartos opuestos y se mezclan, trituran y se forma otra pila.Se repite el procedimiento hasta obtener el tamaño de muestra necesario para las réplicas del análisis de laboratorio. 4. Cuando el material es sólido , se somete a tratamientos de trituración y pulverización y/o molienda hasta llegar a obtener polvos completamente mezclados. Es importante que contengan un gran número de partículas para minimizar la variación del contenido de las muestras individuales, de esta manera la muestra es más representativa del material srcinal. 5. ¿Cuántas Muestras son Necesarias? Imaginemos que queremos tener una cierta seguridad (supongamos del 95% de certeza) esto es que el error relativo de la media de un análisis no exceda de un límite especifico.
Figura Nro. 09. Etapas de un análisis.: Fuente: cursweb.educadis.uson.mx/.../Introducción%202007-2.%20Unidad%20I.PPt
En cuanto a las estrategias de muestreo tenemos que para muestras homogéneas la situación es más fácil, estos se dividen en unidades y se analizan aleatoriamente obteniéndose resultados más precisos si se mezclan las unidades. En caso de muestras heterogéneastomamos varias muestras de cada uno de los estratos, y de cada una de ellas tomamos otro par, se mezclan y así se obtienen las muestras representativas para el análisis. 1.4.6. Preparación de la Muestra para que este en forma correcta para el Análisis. Son escasos los casos donde no se requiera un tratamiento de la muestra, habitualmente la muestra necesite algún tipo de manejo, con el fin de preparar la muestra en la forma, tamaño y concentración adecuada del analito, conforme al método (técnica) seleccionada y eliminar las interferencias matriciales. Esto quiere decir que deben tenerse en cuenta los cinco principios generales. Tabla Nro. 05: Preparación de la muestra 1
Debe hacerse sin perder ningún analito.
2
Debe transformar el analito (s) en la mejor forma química para el
Iones
método de ensayo a utilizar 3
Debe, si es necesario, incluir la eliminación de interferencias en la
Precipitación
matriz 4
Debe hacerse sin agregar ningún nuevo interferente
5
Debe considerar, siempre y cuando sea necesario, la dilución o la
Concentración
concentración del analito hasta obtener una concentración del mismo
dentro del intervalo
que esté dentro del intervalo optimo del método de análisis utilizado.
(K.A. Rubinson y J.F. Rubinson, pag. 92)
Figura. Nro. 10. Expresión de una manera complementaria del proceso analítico para un caso. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
1. La preparación de la muestra debe llevarse a cabo sin la perdida de analito (s) máxima recuperación. 2. Se debe trasformar el analito en la mejor forma química para el método de ensayo a utilizar 3. Se debe incluir, si es necesario, la eliminación de interferencias de matriz (mayor selectividad) 4. No se deben introducir nuevas interferencias (contaminación cruzada) 5. Debe considerar la dilución o concentración del analito, de manera que esté dentro del intervalo de concentración óptimas del método seleccionado. 6. En cuanto a la estabilidad de algunas soluciones de reactivos se descomponen en cuestión de horas, por lo que, deben ser preparados justo antes de su empleo frentes a otras que son estables durante años. 7. Antes de llevar a cabo un análisis se debe tener confianza en el procedimiento. Para ello el procedimiento completo se ha de llevar a cabo mediante los reactivos estándares de referencia. Los reactivos más comunes para atacar muestras, son los inorgánicos (HCl, HNO 3), el amoniaco concentrado más calor, disuelve todos los metales excepto al cromo y aluminio, fusión con sales solidas con un exceso de 10 veces el fundente, calentando hasta la fusión entre 300 y 1000 °C, obteniéndose un producto soluble en agua.
Figura. Nro. 11. Las técnicas y los métodos de la extracción, concentración y limpieza. Fuente: www.utim.edu.mx/~navarrof/Docencia/QuimicaAnalitica /conf1.ppt 1.5. Selección metodológica analítica. Existen diversas formas de medir o cuantificar un procedimiento de análisis químico instrumental, las mismas que podemos resumir en dos grandes grupos. Diagrama Nro 02: Selección Metodológica analítica
Métodos Analíticos
Métodos químicos or vía húmeda
Gravimetría
Precipitación Pesada
Análisis volumétrico
Titulación
Métodos instrumentales
Electroquímicos
Separación
Ópticos
Electrólisis Cromatografía Emisión Conductimetría
Fuente. www.uhu.es/alfredo_velasco/.../01-TranspIntrodQA-0708.ppt
a. Métodos Químicos. Que son los gravimétrico y volumétricos
Absorción
Figura. Nro. 12. Métodos analíticos clásicos, se basan en la proporcionalidad estequiométrica. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
Figura. Nro. 13. Método volumétrico determinación de la concentración de un analito. Fuente.
www.uhu.es/alfredo_velasco/.../01-TranspIntrodQA-0708.ppt
Figura. Nro. 14. Métodos analíticos clásicos, valoración por formación de complejos, precipitación, ácido-base y valoración redox. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
Entre los métodos clásicos se tienen también los del análisis titrimétrico, papeles de ensayo para el análisis semi-cuantitativo de los iones haluro y los papeles de ensayo para diferentes iones metálicos. Tabla Nro. 06: Tipos de Métodos Instrumentales Señal Emisión de radiación
Dispersión de la radiación
Métodos Instrumentales Espectroscopia de emisión ( rayos X, UV-visible, de electrones, Auger); fluorescencia, fosforescencia y luminiscencia (rayos X, UV y visible) Espectrofotometría y fotometría (rayos X, UV, visible, IR); espectroscopia foto acústica; resonancia magnética nuclear y espectroscopia de resonancia de espín electrónico Turbidimetría; nefelometría; espectroscopia Raman.
Refracción de la radiación
Refractometría; Interferometría
Difracción de la radiación
Métodos de difracción de rayos X y de electrones.
Rotación de la radiación
Polarimetría; Dispersión rotatoria óptica; dicroísmo circular.
Potencial Eléctrico
Potenciometría; Cronopotenciometría
Carga Eléctrica Corriente Eléctrica Resistencia Eléctrica Masa Razón masa a carga
Coulombimetría Polarografía; Amperometría Conductimetría Gravimetría ( Microbalanza de cristal de cuarzo) Espectrometría de masas
Velocidad de reacción
Métodos cinéticos
Absorción de radiación
Propiedades Térmicas
Conductividad Térmica ; gravimetría y titulometría termal; Análisis térmico diferencial y métodos de entalpía
Radiactividad
Métodos de activación y dilución isotópica
Fuente: SKOOG-HOLLER-NIEMAN Principios de ANALISIS INSTRUMENTAL 5ta Edic. Mc Graw Hill Pag. 2
b. Métodos Instrumentales: Materia de nuestro estudio principal y el de mayor utilización se basan en la medida de una propiedad analítica relacionada con la masa o la concentración de la especie a analizar. Se clasifican según la forma en la que interaccionan con la materia. Tabla Nro 07: Selección del método 1.Opticos
1. Emisión de radiación(a,b) 2. Absorción de radiación( c ) 3. Dispersión de radiación(d) 4. Refracción de radiación(e) 5. Rotación de la radiación(f)
2.Electroanalítico s
1.Potencial eléctrico(a) 2. Carga eléctrica(b) 3. Corriente eléctrica( c ) 4. Resistencia eléctrica (d)
3. De separación
Cromatográficos. No cromatográficos
4.Otros métodos:
Masa Razón masa carga Velocidad de reacción Propiedades térmicas Radioactividad.
a. Espectroscopia de emisión (rayos X, UV, visible, de electrones, Auger) s b. Fluorescencia, fosforescencia y luminiscencia (rayos X, UV, y visible) c. Espectrofotometría y fotometría (rayos X, UV, visible. IR), espectroscopia fotoacustica:resonancia magnética nuclear y espectroscopia de resonancia de espin electrónico. d.Turbidimetria, nefelometría, espectroscopia Raman. e. Refractometria, interferometria. f. Polarimetría, dispersión rotatoria óptica: dicroísmo circular. a. Potenciometria: cronopotenciometria. b. Culombimetria c. Polarografia: aperometria. d. Conductimetria, CST. Según la definición dada por Keulemans la cromatografía es un método de separación en el que los componentes a desglosar se distribuyen entre dos fases, una de las cuales constituye un lecho estacionario de amplio desarrollo superficial y la otra es un fluido que pasa a través o a lo largo del lecho estacionario. Gravimetria:microbalanzas Espectrometría de masas Métodos cinéticos catalíticos y no catalíticos. Análisis térmico diferencial. Métodos de activación y de dilución isotópica.
Casi todos los métodos instrumentales se basan en la relación entre energía y materia. La variedad de los métodos instrumentales es tal, que casi todas las manifestaciones de energía tienen su correspondiente método analítico.
Los métodos ópticos incluyen todos aquellos métodos que implican una interacción entre la materia y la radiación electromagnética, desde los rayos X hasta las microondas. Parte de la radiación `puede ser absorbida por la muestra y convertida en energía térmica, otra parte puede ser dispersada o reemitida con o sin cambio de longitud de onda, también puede tener un cambio en las propiedades de la radiación no absorbida ni dispersada tal como un cambio en el estado de polarización, finalmente la muestra, la muestra misma puede emitir radiación electromagnética, bajo condiciones determinadas de excitación.
Figura. Nro. 15. Un método analítico instrumental convierte una señal en un valor de interés. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
Figura. Nro. 16. Método espectrofotométrico para la determinación de la concentración de un analito. Fuente.www.uhu.es/alfredo_velasco/.../01-TranspIntrodQA-0708.ppt
Ventajas:
Rapidez Precisión Elevada selectividad y sensibilidad Pueden automatizarse Inconvenientes: Manejado por expertos Ha de calibrarse previamente por patrones Mayor coste en el instrumento y su mantenimiento
Tabla Nro. 08: Procedimiento analítico Instrumental Propiedad utilizada
Técnica
Emisión de radiación
Espectroscopia de emisión, Luminiscencia, Fluorescencia, Fosforescencia.
Absorción de radiación
Espectroscopia de Absorción Espectrofotometría, fotometría Resonancia magnética nuclear Resonancia de espín electrónico
Difracción de la radiación
Difracción de rayos X Difracción de electrones
Rotación de la radiación
Polarimetría Dicroísmo circular
Corriente eléctrica
Voltimetría, amperometría, polarografia
Relación masa/carga
Espectrometría de masa
Radioactividad
Activación neutrónica, Difusión isotópica
Figura. Nro. 17. Interpolación de la señal en la curva de calibración para determinar la concentración del analito.Fuente: www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-
3946691 En un método (técnica) instrumentalbasados en la interacciones de la materia – energía, utiliza un instrumento más o menos complejo para evaluar una propiedad físico-química mediante unaseñal (S), en función de la sensibilidad requeridas del sistema objeto de análisis o la solución del problema de análisis. S ∞ [C] analito
Donde: S (sensibilidad) es proporcional a La concentración [C]del analito. Todos los métodos ofrecen características diferenciadas por lo que es necesaria su selección en función de la sensibilidad y selectividad requerida en el problema de análisis.Un método analítico se considera físico cuando no incluye reacción química alguna y la operación de medida no modifica la composición química del sistema. Diagrama Nro 03: Interacción radiación electromagnética con la materia
Figura Nro. 18. Interacción de la radiacioón electromagnética con la materia. Fuente:www.utim.edu.mx/~navarrof/Docencia/QuimicaAnalitica/conf1.ppt
1.5.1. Método estándar. Expresa un procedimiento de análisis que incluye los pasos secuenciales (etapas) y técnicas a utilizar en el análisis de muestras especificas y que viene con un soporte de la normatividad de organismos y agencias nacionales e internacionales competentes en el tema. (Existen varios métodos estándar aplicable para un mismo analito) Si es de cumplimiento obligatorio, recibe el nombre de protocolo. Ejemplo: Ejemplo:
Técnicas AOAC (Association Official Analytical C hemistry) Normas FIL (Federation International de Laiterie), cualquier diseño de método
alternativo, requiere una validación comparativa de los resultados obtenidos en el nuevo método con el de otros métodos estándar. Por lo general se requieren muestras estándar (composición fija, conocida y estable, material de referencia certificado). Tabla Nro. 09. Características patrones de calibración Patrones de calibración
Grafica de calibración
Concentración conocida Cubrir el rango de concentración de las muestras a analizar en los ensayos Mismos disolventes y reactivos que en el ensayo Matriz lo más parecida posible que la muestra real Incluir el blanco en la curva (no restar) Señal instrumental en ordenada Concentración, cantidad en abscisa Habitualmente lineal y = a + bx (no siempre)
Errores
Coeficiente variación de señal instrumental 2-3% Preparación del patrón < 0,1% (despreciable) Si se realiza varias medidas punto calibración : Distribución gaussiana normal
Tabla Nro 10: Requerimientos durante un procedimiento de un análisis. Información requerida
¿Qué? ¿Cuánto? ¿Cómo?
Tipo de Muestra
Naturaleza
Tiempo de análisis Costo de análisis Posibilidad de destruir la muestra Cantidad de muestra disponible Medios de que dispone el analista Número de análisis a realizar Calidad de los resultados
Concentración del componente a analizar Matriz Función del manejo de la muestra Función de los reactivos y tipo de instrumentos Función de la cantidad de la muestra. Información, reactivos y equipos Necesidad o no de automatización Exactitud y precisión requerida
Identificación Determinación Información estructural Información superficial Distribución espacial etc Estado físico, solubilidad, volatilidad, toxicidad, etc Sensibilidad Interferencias El mínimo permisible El mínimo necesario Función del requerimiento necesario. Método estándar Los necesarios Manejo estadístico, análisis de errores, Niveles de confianza
Fuente: cursweb.educadis.uson.mx/.../Introducción%202007-2.%20Unidad%20I.PPt- reeditado por el autor. Tabla 11. Reactivos Utilizados para la Digestión Concentración Acido clorhídrico 38% p/p
Propiedades Reductor
Usos Metales que se oxidan mas fácilmente que el hidrogeno
Acido Nítrico 70% p/p Acido sulfúrico 98.3% p/p Acido perclórico 70% p/p
Oxidante Alto punto de ebullición aproximadamente 340º C Oxidante fuerte
Acido Fluorhídrico 70% p/p
Forma fluoruros estables
Hidróxido sádico
Base fuerte, oxidante cuando es concentrada
Metales que no reaccionan con HCl Metales, destruye materia orgánica Metales, no se pueden utilizar cuando existen agentes reductores. Sílice y silicatos, utilizado con otros ácidos. Aluminio y óxidos anfóteros de Sn, Pb, Zn, Cr
Fuente: Fuente: K.A. Rubinson y J.F. Rubinson, Analisis Instrumental. pag. 99 1.5.2. Tipos de
Tratamiento más frecuentes. En ciertos tratamientos la reducción de la
muestra a polvos es suficiente, por ejemplo para el análisis térmico de la fluorescencia de rayos X, la activación neutrónica y otras técnicas de análisis de superficies. Algunas transformaciones de formas químicas son. 1. Dilución: es la descomposición de un soluto en sus componentes mediante enlaces solutodisolvente 2. Digestión: es el proceso por el cual se disuelve en un líquido, mediante aplicación de una energía externa, puede ser acida, alcalina u oxidante. Digestión con microondas,
3. Disgregación: para producir partes de componentes molecular o ionizado (plasma),más pequeños 4. Extracción: Transferir analitos de una matriz a otra, la primera matriz es sólida o liquida, la segunda es un fluido. 5. Vaporización. Algunos de los instrumentos utilizados para el análisis requieren que la muestra se introduzca en forma de vapor. Si la muestra es un sólido o un liquido, se debe vaporizar primero el material a un gas-atómico, más pequeño. La vaporización se utiliza para convertir las muestras en la forma correcta (gas) para su análisis en técnicas tales como cromatografía de gases, espectrometría de masas y espectrometría atómica, que trataremos estos temas en su momento. En la siguiente tabla Nros 1.6; 1.7 se presenta un resumen de métodos o técnicas de análisis. 6. tenemos así otras transformaciones: Descomposición, Diálisis, Solubilizaciòn, Resorción, Atrapar,
Evaporar,
Ablación,
Vaporización,
Volatilización,
Atomización,
Ionización,
Neutralización, Condensación, Licuefacción, Fusión, Absorción, oxidación, Reducción, Flotación etc. 7. Fusión: Transformación de sales insolubles en ácidos como silicatos, ciertos óxidos minerales y algunas aleaciones de hierro, en otras solubles en ácidos mediante mezclado con una cantidad elevada de una sal de metal alcalino (fundente) y fusión de la mezcla a elevada temperatura (de 300 a 1200ºC). 1.5.3. Medida. Significa la determinación propiamente dicha, la medida dara lugar a la cantidad precisa del constituyente buscado en la muestra, la elección del método se hace entre una amplia variedad de técnicas posibles como se muestra en la tabla Nros.01 y 05. Emisión, Absorción, Difracción, Rotación de radiación. Tabla 12. Reactivos utilizados para el tratamiento de muestras cidos más frecuentes cido clorhídrico
til en la disolución de óxidos metálicos y metales más fácilmente oxidables que el hidrógeno. El HCl concentrado es 12 M pero en ebullición se diluye hasta 6 M (p.e. 110ºC)
cido nítrico
Disolución de metales excepto Al y Cr que se pasivan. Con Sn, W o Sb forma óxidos hidratados poco solubles.
cido sulfúrico
Disuelve muchos materiales, incluyendo metales y muchas aleaciones, debido a su punto de ebullición tan elevado (p.e. 340ºC). Los compuestos orgánicos se deshidratan y oxidan a CO2 y H2O en ácido sulfúrico caliente.
cido perclórico
En caliente es un potente oxidante capaz de disolver aleaciones de hierro y aceros inoxidables. Peligro de explosión violenta cuando el ácido perclórico caliente entra en contacto con materia orgánica o sustancias inorgánicas fácilmente oxidables.
cido fluorhídrico
Descomposición de rocas y minerales de silicato
cuando no se va a determinar silicio ya que éste se pierde en forma de SiF4 que es volátil. Normalmente es necesario eliminar el exceso de HF ya que disuelve el vidrio. Se evapora en presencia de H2SO4 o HClO4 o bien se inactiva complejándolo con ácido bórico. El HF es extremadamente tóxico, ocasiona serias quemaduras y heridas muy dolorosas en contacto con la piel mostrándose los efectos horas después de la exposición. Mezclas oxidantes
El agua regia (3 partes de HCl + 1 parte de HNO3) se emplea en digestiones difíciles. La adición de agua de bromo o peróxido de hidrógeno a ácidos minerales aumenta la acción disolvente y acelera la oxidación de materia orgánica.
Fuente:www.unioviedo.es/QFAnalitica/trans/An... - En caché Tabla 13. Fundentes utilizados para el tratamiento de muestras Tipos de fundentes Carbonato sódico(carbonato potásico)
Descompone silicatos y muestras que contienen sílice, alúmina, sulfatos y fosfatos poco solubles al calentar a 1000-1200ºC. CaSiO3(insoluble) +Na2CO3Na2SiO3(soluble)+CaCO3(soluble en ácidos)
Los cationes de la muestra se transforman en carbonatos u óxidos solubles en ácidos. Los no metales se transforman en sales sódicas solubles. Normalmente se emplean crisoles de Pt. Carbonato sódico más un agente como KNO3, KClO3 o Na2O2
Muestras que contienen S, As, Sb, Cr, etc, y que por lo tanto requieren un medio oxidante. Temperatura de fusión de 600-700ºC. Crisoles de Ni o Pt (no con Na2O2).
Hidróxido sódico o potásico
Fundente básico enérgico para silicatos, carburo de silicio y ciertos minerales. Temperatura de fusión más baja que con carbonatos. Crisoles de Au, Ag o Ni.
Peróxido de sodio
Fundente oxidante básico enérgico para sulfuros, aleaciones insolubles en ácidos de Fe, Ni, Cr, Mo, W, y Pt y minerales de Cr, Sn y Zr. Crisoles de Fe o Ni.
Pirosulfato potásico
Fundente ácido para óxidos y muestras que contienen óxidos poco solubles. Temperatura de fusión de 400ºC. Crisol de Pt o porcelana. K2S2O7K2SO4+SO3
Ácido bórico
Fundente ácido para silicatos y óxidos en los que se tiene que determinar metales alcalinos. Temperatura de fusión de 800-850ºC. Evaporando a sequedad con alcohol metílico la disolución del fundido, se elimina el óxido bórico, que destila en forma de borato de metilo B(OCH3)3.
Crisoles de Pt. Carbonato cálcico(8) + cloruro amónico(1)
Calentando el fundente se produce una mezcla de CaO y CaCl2 que se usa para descomponer silicatos para la determinación de metales alcalinos. Crisoles de Ni.
Fuente:www.unioviedo.es/QFAnalitica/trans/An... - En caché 1.6. Problemas resueltos. Problema Nro.1.Una disolución de acido sulfúrico tiene una densidad de 1.28 g mL-1 y contiene 4. 37.0 % en peso de H 2SOnormalidad a) Calcular la molaridad, y molalidad de la solución. b) .Cual es la fracción molar del H2SO4? c) .Que volumen de este acido contienen 10 g de H2SO4? d) .Cuantos mL de la disolución deben ser diluidos con agua para obtener un litro de una. Disolución que contenga 10.0 % en peso de H2SO4? e) ¿En que proporción debe ser mezclada esta disolución con una disolución de H 2SO4 0.50 N. Para obtener 10.0 L de una disolución de H2SO41.00M?
Datos: Pm (H2SO4) = 98.08 g mol-1; Pm (H2O) 18.015 g mol-1 Solución. (a) Molaridad: M =
molL . = M*val. = 4.83x2 = 9.66 N (eqL ) Normalidad: N = = 5.99 mol Kg Molalidad: m= = -1
-1
-1
= = 9.73x10 Luego X
(b). Fracción molar Xi =
-2
2
= 1 – 9.73 X 10-2 = 0.9027
© ¿Qué volumen de este ácido contienen 10 gramos de H2SO4? Aplicamos la ley de dilución. moles1 = [C1] V1 = [C2] V2 = moles2 moles1 =
= 0.102 moles = 4.83 x V
2
Luego V2 = 21.1 ml.
(d) Debemos conseguir un litro de una disolución del 10% en peso en ácido sulfúrico, contamos con los siguientes datos: ρ1 =1.28 [C1] = 37% V1 =? N1 =? V2 = 1000mL. [C2] = 10%
Como se puede apreciar debemos calcular N
1, ρ2 y
N2
para ello recurrimos a la formula: = 9.6574
De las Tablas de concentración versus porcentaje de riqueza para el ácido sulfúrico para una [C2] = 10% corresponde ρ2 = 2.1671
ρ2 =? =? N2
Luego: n
1=
[C1] V2 = [C2] V2=n2 Luego: V
2=
= 224.39 mL.
e)¿En qué proporción debe ser mezclada esta disolución con una disolución de H 2SO4 0.50 N. Para obtener 10.0 L de una disolución de H2SO41.00M?
0 101 0 1
(1) M1V1 + M2 V2 = M3V3 (2) V1 + V2 = V3
Teniendo en cuenta que N = M*θ 2 (1) 4.8287V 1*10 (2) V11++ 0.25V ==V10 2
V2 = 8.3619 L
1.6380 L V V 2/V11== 5+ 105/100
Problema Nro. 2. De una disolución compuesta por 54.35 g KOH y 439.50 g de H 2O, con una densidad de 1.0873 gmL-1, calcular: a) El porcentaje en peso de KOH, b) El porcentaje en volumen de KOH, c) La concentración en gmL -1. Datos: MKOH = 56.1gMol-1, MH2O=18.015gMol-1. Solución: a) % peso= = = 11 %
b) El porcentaje en volúmenes, el peso de potasa por cien mililitros de disolución en 100 mL se tiene: %v = 1087.3 g de muestra x 0.1L x = 11.96% c) La concentración es 10 veces el porcentaje en volumen: ρ = 10 x 11.96 = 119.6 gL-1 Problema Nro. 3. Calcular la cantidad de BaCl2.2H2O que es necesario utilizar para preparar: a) 0.5 L de disolución que contenga 100 ppm de BaCl2. b) 0.5 L de disolución que contenga un 5 % (en volumen) de Ba. c) 1 L de disolución que contenga 0.01 g de BaCl2 por mL. Datos: Pm (BaCl2.2H2O) = 244.27 g mol-1; Pm (BaCl2) = 208.25 g mol-1; P.at (Ba) = 137.34 g mol-1 Solución. -1
a) BaCl2.2H2O w BaCl2 = =100 x 0.5L = 50mg de BaCl=2, 58.65mg luego w 50mgL mg BaCl 2.2H2Ox
x 500mL x = 44.46g BaCl .2H O c) w = x 1000mLx = 11.73 g BaCl .2H O Problema Nro. 4. Un 48% (w/w) solución de HBr (M = 80,917) en el agua tiene una densidad de b) w BaCl2.2H2O =
2
BaCl2.2H2O
2
2
2
1,50 g/ml. ¿Cuál es la concentración formal? Solución: Formalidad: Es el cociente entre el número de pesos fórmula gramo (pfg) de soluto que hay por cada litro de solución. Peso fórmula gramo es sinónimo de peso molecular. La molaridad (M) y la formalidad (F) de una solución son numéricamente iguales, pero la unidad formalidad suele preferirse cuando el soluto no tiene un peso molecular definido, ejemplo: en los sólidos iónicos. F=
/. . /./. /
Problema Nro. 5. ¿Qué volumen de la solución de 48% (w/w), se necesita para preparar 500 mL de una solución de HBr 0.16M? F1V1 = F2V2 (8, 8980) V 1= (0,16M) (500mL)
V 1 = 8, 99 = 9, 0 mL
Problema Nro. 6. Sobre 400 mL de una disolución de sosa de concentración desconocida se añaden 5 g de hidróxido sódico puro, y al disolverse no se aprecia variación de volumen. Se toman
20 mL de la solución resultante, se diluyen hasta 100 mL y se valoran con acido clorhídrico 0.200 N, gastándose 50 mL. ¿Qué masa de sosa contenían los 400 mL iniciales? Dato: Pm (NaOH) = 40.0 g mol-1 Solución: 3 g Problema Nro. 7. Tomamos 0.4000 g de una muestra problema en la que queremos determinar un compuesto X, los disolvemos y los llevamos a un matraz de 250 mL (Disolución A). De esta disolución tomamos 5 mL y los llevamos a un matraz aforado de 25 mL, enrasando con agua (Disolución B). Tomamos 8 mL de esta disolución y los ponemos en una cubeta cilíndrica, medimos su concentración por un método instrumental y resulta ser de 5.00 ppm en la disolución de la cubeta. Calcular la concentración del compuesto X en el matraz A y el porcentaje de X en la muestra srcinal Solución: 25 mg L-1 1.56 % Problema Nro. 8. Se desea analizar un fármaco llamado atazanavir usado para el tratamiento del VIH (virus de inmunodeficiencia humana) mediante una técnica instrumental. Para ello se consiguió de la casa comercial 100 mg de este compuesto en forma de sal sulfatada. .Cuantos mg tendremos que pesar en la balanza analítica de atazanavir para hacer una disolución de 1000 ppm como disolución madre en un matraz de 25 mL? .Que volumen tengo que coger para hacer una disolución estándar de 5 ppb (μg/L) en 10 mL a partir de la disolución madre previamente preparada? Haz los cálculos necesarios para hacer una disolución intermedia y discute breve y razonadamente si esta dilución seria necesaria. Datos: Pm de atazanavir sulfatado (C38H52N6O7•H2SO4) = 802,9 g mol-1 Solución: a) 28.48 mg b) 0.05 μL c) si sería necesario
Tabla Nro. 14. Métodos y técnicas analíticas.Fuente: www.uclm.es/profesorado/jmlemus/T-01.ppt En caché - Similares(Diciemb. 2010)
Tabla. Nro 15.Metodos ópticos.Fuente: www.uclm.es/profesorado/jmlemus/T-01.ppt - En caché Similares(Diciemb. 2010) 1.7. Tratamiento estadístico de los resultados instrumentales. Teniendo el resultado final, es muy significativo poder decir cuál es la certeza del resultado, para lo cual utilizamos los análisis matemáticos estadísticos para la evaluación de los resultados experimentales. La inferencia estadística consiste en la obtención de conclusiones a partir de un cierto número de observaciones experimentales de acuerdo a unas hipótesis formalizadas y con unas reglas de cálculo objetivas, se puede investigar posibles tendencias en los datos y aplicar criterios que permitan descubrir las causas de error no aleatorios, acompañado del tratamiento estadístico de una serie de experimentos planificados que permitan observar la influencia de diversas variables con más eficiencia y menos trabajo. La propia estadística ha realizado modificaciones para adaptar los conceptos a series pequeñas de datos con la siguiente jerarquía metodológica: Resultado final Media de n resultados Media de ∞ resultados
= xi = =∞
̅
Una alícuota n alícuotas (n<30) alícuotas (n>30)
Figura. Nro. 19. La metrología en el análisis instrumental es la parte aplicativa para la evaluación de los resultados experimentales. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
1.7.1. Tipos de errores en el análisis instrumental. Los análisis instrumentales juegan un papel predominante en cualquier laboratorio analítico, por loque, los errores que aparezcan en estos tienen gran importancia. Nuestro principio será que no existen resultados cuantitativos válidos, sino van acompañados de una estimación de los errores inherentes a ellos .Error absoluto: Valor =
x±Δx, Error relativo ɛr =(Δx/x).100.%. Es imposible realizar una medición de forma tal que los resultados estén totalmente libres de errores o incertezas. a.Errores experimentales o crasos. Estos errores son tan graves que no queda otra alternativa que abandonar el experimento y empezar de nuevo. Ej. Pérdida de parte de la muestra, contaminación de la muestra, averia de algún instrumento.
Fuente:http://www.bioestadistica.uma.es/baron/apuntes/ficheros/estad_uma_04. ppt ... b.Errores sistemáticos o determinados. Se deben a sesgos constantesen el trabajo experimental o en la medida. Son aquellos que pueden determinarse y probablemente evitarse o corregirse, afectan al resultado, siempre en el mismo sentido, bien por exceso o por defecto. Ej. Pueden ser causados por errores de calibrado de los aparatos de medida, balanzas, pH-metros (instrumentales), errores de operación, errores de método, uso de fórmulas o modelos aproximados (personales), etc.los errores sistemáticos afectana la exactitud de la medida, es decir a la proximidad del verdadero valor. Se manifiesta de forma tal que los resultados obtenidos son siempre o altos o bajos. c. Errores aleatorios o indeterminados. Pueden ser positivos o negativos, se deben al propio proceso de medida (ruido, escala,) y a la irreproducibilidad del trabajo experimental, se evalua por medios estadísticos, puede minimizarse. Son errores fortuitos cuya magnitud y signo no pueden predecirse, se presentan por exceso o por defecto con igual probabilidad. (Figura Nro. 20). Los errores aleatorios dan lugar a desviaciones positivas y negativas, los errores sistemáticos producen variaciones en una sola dirección. Las cifras que muestran la
dispersión de los disparos a un blanco proporcionan una representación visual de las diferencias entre loa erroresa estadisticos (al azar) y errores sistemática.
Figura. Nro. 20. Los errores sistemáticos y estadísticos. Los errores aleatorios dan lugar a desviaciones positivas y negativas, los errores sistemáticos producen variaciones en una sola dirección. Las cifras que muestran la dispersión de los disparos a un blanco proporcionan una representación visual de las diferencias entre loa erroresa estadisticos (al azar) y errores sistemática. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
d.Test Q de Dixon de datos sospechosos. Cuando una serie de mediciones contiene menos de 10 resultados es aconsejable aplicar el criterio Q de Dixon de rechazo de valores dudosos.En ocasiones, un dato no es coherente con los restantes. Se puede usar el test Q Tabla Nro. 15 como ayuda para decidir si se retiene o se descarta un dato sospechoso.Para aplicar el test Q se ordenan los datos en orden creciente y se calcula Q definido como: Q
El recorrido es la dispersión total de los datos. La divergencia es la diferencia entre el valor sospechoso y el valor más próximo. Si QcalculadaQtabulada , el punto sospechoso se descarta (se rechaza el dato). Problema Nro. 09. Considere los siguientes 5 resultados: 12,53, 12.56, 12,47, 12,67 y 12,48. ¿Es el valor 12,67 un punto rechazable? Calculada Qtabla Condición: Q QCalculada al 90% de confianza. Respuesta: QCalculada
Q= Qtabla
Solución: No es rechazable
Qtabla = 0,64
e. Distribución normal. Es definida por una fórmula matemática complicada, pero tenemos tablas publicadas que definen el área debajo de la curva normal estándar, en ella su media es cero y la desviación estándar es ± 1. La mayoría de las variables aleatorias que se presentan en los estudios relacionados con la química, física, biología, etc, son contínuas y se distribuyen según su función de densidad.T de estudent, Chi cuadrado, F de Snedecor y Exponencial.
Figura. Nro. 21. y= La altura vertical de un punto sobre la distancia normal, x= Distancia a lo largo del eje horizontal, σ= Desviación estándar de los datos, µ= La media de la distribución de datos Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
Valor promedio: Estimador del valor verdadero (valor central de la distribución). Expresión del valor promedio para N< 30determinaciones:
̅
∑
, s=
∑̅ ̅ ,
,s
RSD(%) = (100) (1)
Problema Nro. 10. Se analizo el contenido de cobre en un lote de producción, los valores que se encontraron en cinco muestras fueron 27.5, 28.3, 29.0, 28.5 y 28.2 ppm. ¿Cuál es el valor medio del contenido de cobre?
̅
∑
=
27.5 28.3 29.0 28.5 28.2 5
= 28.3 ppm
Otra definición es la desviación con respecto a la media d i se define, para cada medida individual, como la diferencia entre cada medida del valor x i y el valor medio calculado para todas las medidas, di = xi –
̅ ̅
(2 )
El recorrido es la diferencia, en magnitud, entre el mayor y el menor de los valores observados en una serie. Recorrido = (Rango) w = xsuperior - xinferior = 29.0 – 27.5 = 1.5 Para el problema 10 es 1.5 Numero medidas
de
1 2 3 4 5 N = 5 = 141.5 28.3
̅
Peso medido xi
Desviación con respecto a la media di
27.5 28.3 29.0 28.5 28.2 ∑Xi
- 0.8 0.0 +0.7 +0.2 -0.1
0.64 0.00 0.49 0.04 0.01
27.5-28.5 28.3-28.5 29.0-28.5 28.5-28.3 28.2-28.3 1.18
Varianza s2 = ( d12 + d22 +…+ dN2 )/ N-1 = 1.18/4 = 0.295
Desviación con respecto a la media al cuadrado( di )2
(3 )
Otra medida estadística del error es la desviación estándar relativa, que es la desviación estándar expresa como una fracción o porcentaje de la media. Algebraicamente se expresa como: Desviación estándar relativa σ = s /
̅ ̅ (5)
El tanto por ciento de la desviación estándar relativa (RSD%) es:
e. Método de mínimos cuadrados. El procedimiento mas objetivo para ajustar una recta representado por: y = bx+a + e, donde b es la pendiente y a el coeficiente que representa la intersección con el eje de las abcisas y e es el error o residuo entre las observaciones y el modelo: e = y-(a + bx), presenta dos características importantes: 1. Es nula la suma de las desviaciones verticales de los puntos a partir de la recta de ajuste
∑
2. Es minima la suma de los cuadrados de dichas desviaciones. Ninguna otra recta daría una suma menor de las deviaciones elevadas al cuadrado: n
x
y
∑
→ 0 sea (mínima)
xy
x
1.7.2. Parámetros de calidad. A continuación vamos definir los criterios cuantitativos que se utilizan para definir si un determinado método instrumental es o no adecuado para resolver un problema analítico. Estas características se conocen con el nombre de parámetros de calidady se expresan en términos numéricos. Estos parámetros permiten reducir la selección de los instrumentos a tan sólo unos pocos, tomandose los criterios cualitativos de funcionamiento según su velocidad, facilidad y comodidad, habilidad deloperador, coste y disponibilidad del equipo y coste de muestras. a. Precisión y Exactitud. (Precisión: mide la Concordancia entre varios resultados obtenidos realizando iguales observaciones, error asociado al instrumento utilizado y al almacenamiento del dato). Hasta ahora solo hemos considerado la difusión o dispersiónde los datos de los resultados analíticos. Cuando la dispersión de los datos obtenidos experimentalmente es pequeña, decimos que la precisión es alta. La desviación estándar es pequeña cuando la precisión del experimento es elevada.. Figura Nro. 24 Parámetros estadísticos que estiman precisión. (Exactitud: Mide la concordancia entre el valor experimental obtenido y el verdadero valor de la magnitud determinada, mide los errores sistemáticos, se define como la diferencia de la mitad de los análisis realizados y el valor verdadero, error asociado al método de medición, el que afecta a la localización del dato). Mide el error sistemático o determinado de un método analítico. Exactitud = µ - xt. Donde µ es la medida de la población para la concentración de analito de una muestra cuya concentración verdadera es xt. Requiere analizar estándares de referencia.
Figura Nro. 22. Fórmulas de estimación de la precisión. Fuente:http://www.slideshare.net/belkyspereira/mtodos-analticos-clase-1anlisis-instrumental-1
̅
Es muy probable que el promedio experimental difiera del verdadero valor . Entonces, se debe evaluar si dicha diferencia se debe a errores indeterminados o determinados.
̅
. Material de referencia certificada.
Para tratar este problema en forma estadísitica, la diferencia ( que sería causada por errores indeterminados. Si (
̅
̅
se compara con la diferencia
para un determinado nivel de confidencia, luego se puede decir que los valores comparados son los mismos y que la probable presencia de errores determinados no puede ser detectada.Si ( > es significativamente mayor que el valor crítico, se puede decir que existe una diferencia real entre y y que el error determinado es significativo.
̅ ̅
El valor crítico para descartar la hipótesis nula se calcula mediante la fórmula (criterio t de student): Incertidumbre. Intérvalo de confianza en el cual se encuentra el valor verdadero con una probabilidad dada.
̅
√ . En el caso de que s tienda σ se puede reemplazar t por z.
Sin embargo, todavía no hemos considerado si el valor medio, calculado a partir de una serie de datos experimentales, se acerca a la cantidad presente realmente en la muestra. En otras palabras,la precisión de los datos no nos responde a la pregunta de: ¿Cuánto se acerca el valor medio al valor real en los análisis? O expresado de otro modo: ¿cuál es su exactitud? (K.A. Rubinson y J.F. Rubinson, pag. 23).
Medición exacta: Los resultados no están sujetos a errores sistemáticos, depende de la diferencia entre los valores medidos y el valor real. Medición precisa: Los valores medidos tienen una buena reproducibilidad, depende del grado de dispersión de los datos. Tipos de medidas: Medidas directas, el error depende de la precisión del aparato utilizado para medir. Medidas indirectas, el error depende de la precisión de todos los equipos o técnicas usadas. Análisis estadístico: La varianza (s2) y la desviación estándar (s) son una medida de la dispersión de los valores observados.Se define como la raíz cuadrada de la suma de los cuadrados de las diferencias, entre los valores medidos individualmente y la media de las mediciones dividida por (N – 1): Lasecuaciones (6,7 y 8) son formas de expresar la precisión (describe la reproducibilidad de las medidas).
∑̅
(6) (Para N< 30 casos o series pequeñas). (s) Estimador de la dispersión de los datos.
Al aumentar N, la cantidad (N – 1) se acerca cada vez más a N (población), por lo que, no tiene trascendencia usar N, cuando N se acerca a 20 o 30, ó(N – 1) series pequeñas, (<30 casos) en
el cálculo de la desviación estándar. Aunque para números pequeños de observaciones (caso especialmente importante en Análisis instrumental), la distinción es significativa.
∑̅
(Para N>30 casos o series pequeñas)(7)
Experimentalmente, la s de la muestra constituye una estimación de la desviación estándar de la población (σ), que es la que se desea conocer. No se puede determinar realmente un número infinito de mediciones. s se aproxima a σ , cuanto mayor es el tamaño de la muestra. Análogamente, la media de la muestra, resulta ser una estimación tanto más exacta en la medida 2 de la población, cuanto mayor es el tamaño de la muestra aleatoria. El cuadrado de la desviación estándar, se denomina varianza (V = s ).
b. Desviación estándar relativa (DER): mejor medida de la precisión para fines comparativos: CV
(coeficiente de variación) = DER = * 100
(8)
Sus unidades son %, y es un ejemplo de error relativo, es decir, es una estimación del error dividida por una estimación del valor absoluto de la cantidad medida. Los errores relativos se utilizan con frecuencia en la comparación de las precisiones de los resultados obtenidos y son importantes en el cálculo de la propagación de errores.
̅
Donde xi es cada valor medido, es el promedio, se toma como la mejor estimación del valor verdadero y n = N es el número de datos. Titulación de agua oxigenada con KMnO 4: x1 xx2 3 x=
N
8.86M
8.78M 9.10M 8.91M 3
s2 = [(8.86-8.91)2 + (8.78-8.91)2 + (9.10-8.91)2]/(3-1) = 0,02775 Resultado; varianza
s = 0.16658 = 0.2
2
(s ) = 8.9 ± 0.2
c. Sensibilidad.Cambio en respuesta (señal analítica) dividido por el correspondiente cambio en el estímulo (la concentración del analito) IUPAC, Compendium of Analytical Nomenclature, web edition http://www.iupac.org/publications/analytical_compendium/ Sensibilidad = pendiente = AUnidades: señal × concentración –1 d. Sesgo. Mide el error sistemático de un método analítico. Sesgo = µ - [CX ] Para determinar exactitud hay que analizar uno o de varios de referencia cuya concentración de laanalito es conocidad. Los resultados dichomateriales análisis tedrán tantos erroes aleatorios como sistemáticos pero con un número suficiente de determinaciones, se puede determinar la media (para un nivel de confianza dado). La diferencia entre la media y la
concentración del analito en el material de referencia se puede atribuir al sesgo. En un método analítico, se intenta identificar las causas del sesgo y su eliminaciónmediante el uso de blancos y el calibrado del instrumento. e. Selectividad.Grado en el que un método puede usarse para determinar un analito en mezclas, sin interferencias de otros componentes de comportamiento similar.J Vessman, RI Stefan, JF Van Staden, K Danzer, W Lindner, DT Burns, A Fajgelj, H Müller, Pure Appl. Chem. 73 (2001) 13811386. La selectividad hace referencia al grado de interferencia de unas especies sobre la identificación de otras. El caso más favorable de selectividad es aquel en el que ninguna otra sustancia interfiere y la reacción o el método son completamente característicos de la sustancia que se determina. Se dice entonces que el método es específico. La selectividad se representa cuantitativamente por el coeficiente de selectividad, el cual se define, para una sustancia B, potencialmente interferente sobre un determinado analito, A, como: kB,A = mB/mA Donde mBy mA son las pendientes del calibrado a la concentración de interés, de B y de A respectivamente. El coeficiente de selectividad puede variar desde cero (no hay interferencia) hasta valores superiores a la unidad. Es un parámetro de bastante utilidad, si bien, su uso se centra casi exclusivamente, para caracterizar el funcionamiento de los electrodos selectivos de iones. La selectividad de los métodos instrumentales es muy diversa , existiendo algunos muy selectivos, en especial, algunos métodos ópticos. f. Rapidez.Con respecto a la rapidez, los métodos instrumentales son más rápidos para determinaciones en serie o de rutina . Requieren un tiempo de puesta a punto, pero luego suelen ser rápidos. Además, suelen ser fácilmente automatizables, ya que muchos dan respuestas rápidas y continuas, haciendo posible su adaptación a análisis de control, lo cual permite, tras una interpretación, pasar a la acción en poco tiempo. En la industria, normalmente se parte de unos materiales que, después de someterlos a una serie de manipulaciones se transforman para srcinar unos productos finales. g. Coste.Finalmente, en cuanto a la economía, podría parecer, en principio, que los métodos químicos son más económicos que los instrumentales, y, si bien, ésto es cierto en cuanto al material, no lo es tanto en relación con el tiempo necesario para llevarlos a la práctica ni en relación con el personal, pues, en contra de lo que pueda parecer a primera vista, se precisa mayor tiempo de adiestramiento para utilizar un método clásico, que para aprender a manejar un instrumento. Esto hace que los métodos instrumentales puedan ser rentables para trabajos en serie. En calibración univariada la selectividad debe ser total: 1 En calibración univariada de las interferencias siempre afectan la exactitud.Es la concentración de un interferente que produce un cierto sesgo en la predicción de un analito en una muestra típica, por ejemplo, de ± 5 %.
Figura Nro. 23. Relación de interferentes que producen un error. Fuente: analisisindustrial.wikispaces.com/.../Calibracion+univariada+y+AFOMs.ppt Limite de detección. Menor concentración de analito que puede ser detectada con un cierto nivel de confianza. Fuente: LA Currie, Pure Appl. Chem. 67 (1995) 1699-1723 h. Límite crítico o de decisión: Nivel de concentración límite a partir Del cual se define la ―detección‖ o ―no detección‖ Del analito. H van der Voet, en AH El-Shaarawi, WW Piegorsch (Eds.), Encyclopedia of Environmetrics , Vol. 1, Wiley, Chichester, 2002, pp. 504-515. Límite crítico (L C) o de decisión = LOD
Figura Nro. 24. Cálculo del límite de detección. Fuente: analisisindustrial.wikispaces.com/.../Calibracion+univariada+y+AFOMs.ppt g. Limite de cuantificación.Menor concentración que puede ser medida con una precisión mínima dada (usualmente 10%). Fuente: LA Currie, Anal. Chim. Acta 391 (1999) 127-134.
Figura Nro. 25. Parámetros de calidad. Limite de detección y cuantificación, rango lineal y dinámico. Fuente: analisisindustrial.wikispaces.com/.../Calibracion+univariada+y+AFOMs.ppt
1.7.3. Límite de detección en técnicas instrumentales. El objetivo esaprender la metodología para la determinación de la concentración de un analito a partir de los datos obtenidos por técnicas instrumentales. Evaluar el error involucrado en dicha determinación. Estimar el límite de detección de técnicas instrumentales. Obtener las herramientas para la correcta confección de informes. En definitiva las técnicas instrumentales implican el estudio teórico de los fenómenos físicos, fisicoquímicos, espectros electromagnético, aplicaciones estadísticas a los resultados analíticos; así como el conocimiento del tamaño, forma, estabilidad y estructura de las moléculas; complementado por el conocimiento y la descripción de los componentes básicos de los instrumentos empleados. a. Conocimientos previos. Se considera que términos como exactitud, precisión, error aleatorio, error sistemático, población, muestra, media de la población ( ), desviación estándar de la población (s), varianza de la población (s 2), media de la muestra ( ), desviación estándar de la muestra (s), varianza de la muestra ( s2), distribución normal de error (z), ANOVA son conocidos por el alumno, que hemos descrito como afianzamiento en el acápite precedente. Información sobre su significado puede encontrarse en D.A. Skoog, J.J. Leary, Análisis Instrumental, 4ta.Edición, Apéndice 1.
̅
b.Límites de confianza. La media de la población o media verdadera ( ) de una medición es una constante que es siempre desconocida. Sin embargo, en ausencia de errores sistemáticos, pueden estimarse ciertos límites dentro de los cuales cabe esperar que caiga la media de la población con
una cierta probabilidad. Los límites así obtenidos se llaman límites de confianza de la media muestral. Los límites de confianza derivan de la desviación estándar de la muestra, s y dependen de la certidumbre con que se la conozca. Si ésta desviación estándar se obtiene a partir de una buena cantidad de réplicas, será una buena aproximación de la desviación estándar de la población, s, y entonces los límites de confianza serán más estrechos que si la estimación de s se basa en sólo dos o tres mediciones. La Figura Nro. 27muestra una curva de distribución normal de error en la que la abscisa representa la desviación respecto de la media en unidades de desviación estándar de la población. La columna de números del centro de la Figura Nro 26 indica el tanto por ciento del área total de la curva incluida entre los valores indicados de -z y +z. Por ejemplo, el 80% del área de cualquier curva gaussiana (distribución normal) está entre incluida entre -1,29s y + 1,29s. El 80% de las mediciones caerán en este intervalo y en este caso se dice que el nivel de confianza es del 80% y el intervalo de confianza para una nueva señal es ± zs = ± 1,29s. El límite de confianza de la media muestral para N mediciones repetidas se calcula como: =
̅ √
(9)
̅
Donde es el valor promedio de la muestra y m la media de la población. Los límites de confianza basados en la ecuación (9) son válidos en ausencia deerrores sistemáticos, es decir, cuando las mediciones son exactas . La Tabla I da los valores de z para distintos niveles de confianza. En la mayoría de las situaciones experimentales, se realizan pocas réplicas y por lo tanto, no es verificable que la distribución de probabilidad de las señales sea Normal, o pueda aproximarse a una Normal. Por este motivo, se está lejos de tener una estimación exacta de s y el valor de s calculado a partir de un conjunto pequeño de datos puede estar sujeta a una incertidumbre considerable; y el límite de confianza debe ampliarse. En este caso no se utiliza el parámetro estadístico z de la distribución Normal sino que se utiliza el parámetro estadístico t denominada de la distribución t de Student y la ecuación (9) se transforma en: = (10)
̅ √
El valor de t depende tanto del valor de N para valores mayores de 30 casos (N-1) para meno res de 30 casos , que se conoce como grados de libertad así como del nivel de confianza requerido. La Tabla 18 muestra los valores de t para varios niveles de confianza. La distribución de probabilidad de las señales se utiliza en la determinación del Límite de detección, como veremos luego.
Figura Nro. 26: Distribución Normal de Probabilidad. La esencia del cálculo del límite de confianza estriba en relacionar la desviación estándar de un resultado individual, σ, con la desviación estándar con respecto al valor medio, σm La Figura Nro. 26 muestra una curva de distribución normal de error en la que la abscisarepresenta la desviación respecto de la media en unidades de desviación estándar de la población. La columna de números del centro de la Figura Nro. 26indica el tanto por ciento del área total de la curva incluida entre los valores indicados de -z y +z. Por ejemplo, el 80% del área de cualquier curva gaussiana (distribución normal) está incluida entre -1,29 σ y + 1,29 σ. El 80% de las mediciones caerán en este intervalo y en este caso se dice que el nivel de confianza es del 80% y el intervalo de confianza para una nueva señal es ± z σ = ± 1,29 σ. El límite de confianza de la media muestral para N mediciones repetidas (mayores de 30 casos) se calcula como:
µ= ±
√
(11)
Donde es el valor promedio de la muestra y µ la media de la población.Los límites de confianza basados en la ecuación (11) son válidos en ausencia de errores sistemáticos, es decir, cuando las mediciones son exactas . La Tabla Nros.16, 17 y 18dan los valores de z para distintos niveles de confianza. En la mayoría de las situaciones experimentales, se realizan pocas réplicas y por lo tanto, no es verificable que la distribución de probabilidad de las señales sea Normal, o pueda aproximarse a una Normal. Por este motivo, se está lejos de tener una estimación exacta de σ (desviación estándar) y el valor de σcalculado a partir de un conjunto pequeño de datos puede estar sujeto a una incertidumbre considerable; y el límite de confianza debe ampliarse. En este caso no se utiliza el parámetro estadístico z de la distribución Normal sino que se utiliza el parámetro estadístico t denominada de la distribución t de Student y la ecuación (11) se transforma en:
√(
̅
µ= ±
12)
El valor de t depende tanto del valor de N (mayores de 30 casos) ; N- 1 (para menores d
e 30
, que se conoce como grados de libertad así como del nivel de confianza requerido. La
casos)
Tabla Kenneth A. Rubinson, Judith F.Rubinson Análisis Instrumental Pag.83. Muestra los valores de t para varios niveles de confianza. La distribución de probabilidad de las señales se utiliza en la determinación del Límite de detección, como veremos luego. De hecho, el límite se encuentra en el entorno de 1,96 σm por ello: la media al: para:
√
̅
(13)
EL L.C.
b1. Límite de confianza cuando se desconoce el error σ. La ecuación (13) no tiene aplicación en la mayoría de los análisis químicos, debido a que el valor del error aleatorio promedio para cada experimento, σ, raramente se conoce. Por la que la ecuación (11) se modifica para aplicar a la situación donde σm y σsean ambos desconocidos, se reemplaza el valor 1.96 por un factor t. El valor de t para el 95% L.C. (limite de confianza) será siempre mayor que 1.96, ya que N no es finito (mayores de 30 casos). Por tanto debemos sustituir s por σ en la ecuación (10)
̅
Media ± 95% L.C. para µ = ± t
√cuando se desconoceσ(14)
(intervalo, limite de confianza: Si t exp ≥ ttab. Si existe error sistemático)
√
Los valores de t y ( ) véaseen Anexo 1 (K.A. Rubinson y J.F. Rubinson, Apêndice I pag. 820) t; student, depende Del número de grados de libertad, si suponemos que La distribución es normal, entonces El 95% de las distribuciones normales se encuentran en el intervalo dado por:
̅ + t √
(15)
̅ √ -t
µ
También se utiliza El intervalo de confianza AL 99% que viene dado por:
̅
- 2,58
√ µ ̅ + 2,58 √
Asítenemosunejemplo de confianza AL 95% para La concentración de un íon nitrato con s = 0,0165
lossiguientes valores:
̅
Respuesta: µ = 0,500 0,0046
/L
Tabla Nro. 16. Propagación de errores en los cálculos aritméticos
Tabla Nro. 17. Valores de Q AL 90 % de confianza Q 90%
0.90
0.76
0.64
0.56
0.51
0.47
0.44
N
3
4
5
6
7
8
9
10
0.831
0.717
0.621
0.570
0.524
0.494
0.464
Q 95%
0.41
TablaNro. 18. Valores de z para distintos niveles de confianza Nivel de confianza % 50
z
z
0,67
Nivel de confianza % 90
68 80
Z
1,64
Nivel de confianza 99
1,00
95
1,96
99,7
1,29
96
3,00
2,00
99,9
3,29
2,58
Tabla Nro. 19. Valores de t para varios niveles de confianza Grado de libertad 1 2 3 4 5 6 7
80% Interv. Confianza 3,08 1,89 1,64 1,53 1,48 1,44 1,42
90% Interv. Confianza 6,31 2,92 3,35 2,13 2,02 1,94 1,90
95% Interv. Confianza 12,7 4,30 3,18 2,78 2,57 2,45 2,36
99% Interv. Confianza 63,7 9,92 5,84 4,60 4,03 3,71 3,50
99,9% Interv. Conf. 63,7 31,6 12,9 8,60 6,86 5,96 5,40
8 9 10 11 12
1,40 1,38 1,37 1,36 1,36
1,86 1,83 1,81 1,80 1,78
2,31 2,26 22,23 2,20 2,18
3,36 3,25 3,17 3,11 3,06
5,04 4,78 4,59 4,44 4,32
13 14 ∞ 1,29
1,35 1,34
1,77 1,76 1,64
2,16 2,14 1,96
3,01 2,98 2,58
4,22 4,14 3,29
Problema. Nro. 11. Se determino El contenido de NaCl de una muestra de orina, utilizando un electrodo selectivo de iones, obteniéndose los siguientes valores: 102mM
97mM
99mM
98mM
101mM
=100,5 Mm s = 3,27 mM, N-1 = 5, para un nivel de confianza = 95%
̅
µ = 100,5 2,57
106mM t = 2,57
√ = 100,5 ± 3,4 mM.
Problema. Nro. 12. Se comprueba La escala de absorbancia de un espectrofotómetro a una λ concreta, usando un patrón que da una absorbancia de 0,47 Los valores determinados fueron 10,
̅
de los que se obtuvieron unos valores de = 0,461 y s = 0,03. Calcular el intérvalode confianza del 95% de la absorbancia media y decir si existe un error sistemático.
µ = 0,461 2,26
√ 0,461 ± 0,002
[ 0,463 --------- 0,459] Rango de trabajo obtenido
Esta fuera Del rango 0,47 por lo que decimos que existe un error sistemático en estas afirmaciones. Problema. Nro.13. Se tomo una muestra aleatoria de 50 candidatos que se presentan a realizar La prueba de 16PF en El departamento de selección, donde se tiene una media de 150 puntos y una desviación de 53 puntos. Calcular el intervalo de confianza Del 95%.
̅
N = 50, Z = 95% ≈ 1.96, = 150, σ = 53
̅
√
± Zα/2( )= 150 ± 1.96 * (
√)= 150 ± 14.369
Los limites de confianza están entre 135.631 ≤ µ ≤ 164.369 Está relacionada con la desviación estándar o desviación típica, que se suele denotar por la letra griega σ (sigma) y que es la raíz cuadrada de la varianza,
o bien
(14)
•
Si el material analizado supone una distribución gaussiana en su composición, se caracterizan por una desviación estándar de muestreo σm que define la dispersión. Estos errores pueden sumarse a otros errores en el proceso del análisis de la muestra.
•
Como las varianzas son aditivas la varianza total σt2 será la suma de las varianzas aportadas por el muestreo, σm2, más las debidas al procedimiento analítico σa2
•
t
2
= σ m2+ σ a2
(15)
El peso estadístico de la varianza debida al muestreo en la varianza total es muy notable, suele ser generalmente de 5 a 10 veces mayor que las demás varianzas, lo que demuestra la trascendencia de esta etapa y la necesidad de mejorarla.
•
Si recordamos el cálculo del límite de confianza (LC), este relaciona la desviación estándar de un resultado único σ (error aleatorio promedio de cada experimento ), con la desviación estándar del valor medio σm (error de la media), siendo la relación entre ellas:
σm =
√
Error estándar de la media(16)
LC para: µ= ± 1,96
√
para LC del: 95% =1.96
Cuando no se conoce σ entonces LC para: µ •
=
±
̅ √
)Con t=1,96 para N= ∞(Desconocido)
Necesito encontrar N para que según la (s) del método, el LC sea alguna fracción dela error máximo permisible que llamaremos R.
ts/
√ ̅ =
R → N = t2 s2 ∕ R2X2
̅
como
(17)
Como El valor de t depende de N es necesario iterar(repetir) comenzando por N = ∞ para LC: 95% y t = 1.96 En el caso de tener materiales en forma de partículas de dos clases diferentes, según la teoría de la probabilidad podemos hallar la probabilidad que una muestra tomada al azar tenga la misma composición que la muestra total. En este caso la varianza de muestreo se conoce por la distribución binomial como: σm
=
Donde n es el
número de partículas que se sacan al azar, p y q son las
probabilidades de cada tipo de partículas respectivamente. Así conociendo el tamaño de las
partículas y la densidad de las mismas se puede calcular como numero de partículas o como masa la cantidad necesaria para que el muestreo sea representativo. Curva distribución gaussiana Problema. Nro. 14. Supongamos que un método para la determinación de acido bórico en una disolución para la producción de un colirio da un valor de 3,0 ± 0,1 mg mL -1 de ácido bórico. Esto supone s = 0.17mg mL-1 Si el proceso requiere que la disolución esté dentro del 5% de la concentración establecida, ¿Cuántos análisis se deberían hacer de cada lote para alcanzar los limites prescritos con un nivel de probabilidad del 95%? Fuente: Kenneth A. Rubinson, Judith F.Rubinson Analisis Instrumental Pag.83. 1. Datos: R = 0.05, s = 0.17, , X = 3,00 2. Comenzando por el valor de t para un número infinito de muestras, para un nivel de confianza del 95% N = t2 (s2/R2
2
) = ( 1.96)2 . [(0.17)2 /(0.05)2 (3.00)2] = 4.9 Se redondea a 5 ensayos.
3. Para N = 5, El valor t =2.78 a un nivel de confianza del 95% (Apendice I) Fuente:Kenneth A. Rubinson, Judith F.Rubinson Analisis Instrumental Pag.820) Este valor de t se sustituye. N = t2
(s2/R2 2) = (2.78)2 x 1.28 = 9.9, este valor se redondea a 10 ensayos 4. Para N = 10, t = 2.26;
N = 7, t = 2.45
N = 8, t = 2.36
Para obtener El resultado con La certeza deseada, se deben analizar ocho muestras. Problema. Nro. 15. Aquí se muestra cómo calcular la varianza de un conjunto de datos. Los datos representan la edad de los miembros de un grupo de niños. {4, 1, 11, 13, 2, 7} 1. Calcular el promedio o media aritmética
̅
̅ ∑ ̅ ∑ .
1. En este caso, N = 6 porque hay seis datos; Sustituyendo N por 6
∑ ̅
Este es el promedio
2. Cálculo de la varianza (muestral): var = var =
var = 32,86 ésta es la varianza. 1.8. Calibración.Según ISO (International Estándar Office), se entiende por calibración al conjunto de operaciones que permiten establece, bajo condiciones específicas, la relación entre las señales
producidas por un instrumento analítico y los correspondientes valores de concentración [ ] o masa del juego de patrones de calibrado. El procedimiento consiste en que el operario prepara una serie de muestras (5-6) con [ ] conocida de analito, las mide en el instrumento en iguales condiciones y seguidamente medirá las muestras problema. De esta manera, a partir de la señal obtenida para cada patrón de [ ] conocida se construye la gráfica de calibración, y a partir de esta se interpola la [ ] del analito en las muestras problema.
Figura. Nro. 27. Conjunto de operaciones en el proceso de calibración en química analítica. LS=Recta global por mínimos cuadrados de regresión, es muy sensible a los valores atípicos. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
El procedimiento anterior presenta varias preguntas estadísticas: 1. ¿Es lineal la gráfica de calibración?, y si es curva ¿Qué grafica tiene? 2. Teniendo en cuenta que cada uno de los puntos de la gráfica está sujeto a errores, ¿Cuál es la mejor recta que pasa por esos puntos? 3. Suponiendo que la calibración es lineal, ¿Cuáles son los errores estimados y los límites de confianza para la pendiente y la ordenada en el srcen? 4. Cuando la gráfica se usa para el análisis de una muestra problema, ¿cuáles son los errores y los límites de confianza para una [ ] determinada? 5. ¿Cuál es el límite de detección del método, es decir, la menor [ ] de analito que se puede detectar con un nivel de confianza predeterminado? Tabla Nro. 20 Relación entre los tipos de ensayo los parámetros de desempeño
Fuente: http://www.lysconsultores.com/Descargar/NT004.pdf
Figura. Nro. 28. Criterios de la calidad de una calibración analitica. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
1.8.1. Calidad de una calibración. La calidad de la determinación de una concentración no puede ser mejor que la calidad intrínseca de la calibración. Los factores que determinan la calidad de una calibración son: a. La precisión de las medidas: estimada a través de la repetitividad y la reproducibilidad de las medidas. La repetitividad se evalúa a través del cálculo de la desviación estándar relativa (RSD%) de la medida de los patrones de calibrado. En la práctica puede ocurrir que la repetitividad para los patrones sea más pequeña que para las muestras, por lo que será necesario fabricar patrones similares a las muestras o agregar el analito a las mismas.
b. Exactitud de los patrones . Es esencial que los patrones de calibración cubran el intervalo completo de [ ] requerido en los análisis en los que se encuentran las muestras problemas. Valor de concentración o masa asignado a cada patrón trae aparejado un error pequeño si es preparado a partir de reactivos puros (grado analítico) con estequiometria bien definida. Este error en general se desprecia, frente al error en las medidas de las señales producidas por el instrumento. c. La [ ] de las muestras problema se calcula por interpolación, a excepción del método de la adición de estándar, que se hace por extrapolación. d. Es importante incluir una muestra en blanco en la curva de calibración. Esta muestra no contiene ningún analito, pero si contiene la misma composición que las otras muestras estándar de referencia, y está sujeta a la misma secuencia del proceso analítico. La respuesta podría ser cero, pero por impurezas de reactivos u otras causas pueda no ser así. e. La curva de calibración se presenta siempre con la respuesta del instrumento en el eje de las ordenadas y la [ ] de los patrones en el eje de abscisas. f. Validez de la calibración . Generalmente es el factor más importante. Cuando se calibra un instrumento se debe tener una razonable certeza de que éste responderá de igual manera a los patrones así como a las muestras, aunque estas tengan una matriz relativamente diferente*. Si estas diferencias son muy grandes, pueden llegar a invalidar el proceso de calibración. Es necesario estar completamente seguro de que el calibrado del instrumento es válido antes de utilizarlo para obtener el valor de la concentración de la muestras incógnita. En caso contrario, pueden cometerse serios errores en la determinación. Muchas veces, el uso de instrumentos verificados legalmente dentro de un sistema de calidad puede presentar problemas, ya que sólo se indican los EMP (errores máximos permitidos), sin la determinación de laincertidumbre.http://www.labci.com.ar/nota04.html
Patrones calibración
Cuadro Nro. 17 Calibración y regresión de 1.Concentración conocida 2.Cubrir el rango de concentración de las muestras a analizar en los ensayos 3.Mismoas disolventes y reactivos qque en el ensayo 4.Matriz lo más parecida posible que la muestra real 5.Incluir el blkanco en la curva (no restar)
Gráfica calibración
de 1.Señal instrumental en ordenadas 2.Concentración, cantidad en abcisa 3.Habitualmente lineal y= a + bx Errores 1.Coeficiente de variación de señal instrumental de 2-3% 2.Preparación del patrón < 0.1% (despreciable) 3. Si se realiza varias medidas punto calibración: Distribución gaussiana normal. Fuente: www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-3946691 1.8.2. Grafica de calibración. En esta técnica se preparan una serie de soluciones estándar que contienen [ ] conocidas del analito teniendo en cuenta los puntos antes señalados. Dichas soluciones deben cubrir el intervalo de [ ] de interés, asi como tener una composición matricial tan parecida como se pueda a la de las soluciones de las muestras problema. También se analiza una solución en blanco de fondo.
Generalmente hay una relación lineal entre la señal analítica y, y la [ ] x. Por ello los datos se ajustan a una recta por el método de mínimos cuadrados, es decir, minimizando la suma de los cuadrados de los residuos y. Una vez establecida la gráfica de calibración se puede obtener la [ ] de analito en cualquier muestra problema por interpolación del valor en dicha recta: Señal = constante x concentración y=mx
(18)
La constante m es llamada sensibilidad y corresponde a la constante de proporcionalidad entre la señal y la concentración. Esta proporcionalidad es útil sobre un restringido intervalo de valores. A valores muy bajos de concentración la señal es demasiado pequeña y está sujeta a una gran incertidumbre. A valores muy altos la proporcionalidad dada en ecuación (18) puede dejar de ser válida. Este modelo es utilizado en muy pocos casos. Si la respuesta a concentración cero de analito no es conocida de antemano, es necesaria una calibración con un mínimo de dos puntos. Para esta calibración se utiliza un modelo lineal con un término constante: Señal = señal del blanco + constante x concentración
y = m x+ b
(19)
El término b indica la magnitud de la señal estimada del blanco, mientras que m es la pendiente de la recta de calibrado e indica nuevamente la sensibilidad. Estadísticamente, una calibración realizada a partir de dos puntos es muy pobre y su construcción a partir de un número mayor de patrones es obligatoria . El procedimiento estadístico para determinar los coeficientes b y m de la ecuación (19) se denomina regresión por cuadrados mínimos.
Figura. Nro. 29. Métodos instrumentales de establecer la relación señal/concentración. Fuente:
www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-3946691 La regresión por cuadrados mínimos es una herramienta muy útil, sin embargo, deben conocerse sus limitaciones. Además de la regresión por cuadrados mínimos siempre debe hacerse una inspección gráfica de los datos obtenidos, para detectar puntos anómalos test Q de Dixon valores dudosos o fallas en la linealidad. Las ecuaciones mediante las que se obtienen los coeficientes de la ecuación (19) se detallan en la próxima sección.
a. ¿Por qué se prefiere la calibración lineal? Esta apoyado por un soporte teórico (Ley de Lambert-Beer, ecuación de Ilkovic y otros), el tratamiento matematico es mas sensillo y más intuitivo, la sensibilidad es constante en la región de calibrado y a cada valor de la señal analítica le corresponde un único valorde concentración.
Figura. Nro. 30. Utilizar los datos para adaptar a una línea de predicción que relacione una variable dependiente y una sola variable independiente x. Es decir, queremos escribir y como una funciónlineal de x: y = α + ßx +ε. Linea verdadera (true line). Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
a. ¿Por qué se prefiere la calibración lineal? Esta apoyado por un soporte teórico (Ley de Lambert-Beer, ecuación de Ilkovic y otros), el tratamiento matemático es mas sensillo y más intuitivo, la sensibilidad es constante en la región de calibrado y a cada valor de la señal analítica le corresponde un único valorde concentración. 1.8.3. Cálculo de la recta de regresión por mínimos cuadrados. Es la recta que minimiza la suma de los cuadrados de los residuos, se establece una recta lineal que relaciona x e y.Para el modelo de la ecuación (19) los puntos individuales sobre la recta los denotaremos como:{(x 1, y1) = blanco, (x2,y2), (x3,y3)} siendo el primer punto el corresponde a la lectura del blanco. Como los residuos de y, algunas veces serán negativos y otros positivos, se intenta minimizar la suma de los cuadrados de los residuos. Esto explica el uso del término de minimos cuadrados, por lo que la recta buscada pasa por el centro de gravedad, y su pendiente y su ordenada en el srcen serán:
∑∑̅̅ ∑
b
(20)
a=
̅
(21)
Donde: , son promedio aritméticos de los valores de x (patrones de concentración = [ ]) y valores de y (señales). En la ecuación (20), el numerador es simbolizado S xy y el denominador Sxx la expresión: Syy
Se denota con el símbolo Syy
Ejemplo Con la pendiente y la ordenada en el srcen se construye la recta de regresión de y sobre x: y = 1.93x +1.52
(22)
Figura Nro. 31. Grafica de una recta de regresión. Fuente:www.slideshare.net/todocello/tema-4calibraciones-y-regresion-3946691. Este método es ampliamente utilizado en todas las ramas encontrándoseincorporado en muchas calculadoras y planillas de cálculo.
de
las
ciencias,
La calidad de la calibración se evalúa prediciendo el valor de la señal , para los distintos patrones a través del modelo utilizado (ecuación 22). Las diferencias entre la señal observada y las predichas se denominan residuos. A partir de estos valores se calcula:http://www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-3946691
∑
[Sy/x para (N-2)](23)
Sy/x es llamada desviación estándar residual y tiene unidades correspondientes a la señal observada.También se la conoce como s y/x en el texto de Miller o como s e en otros textos.Es una estimación de los parámetros de regresión.Se emplea N-2 grados de libertad para una regresión lineal simple, ya que hay N datos disponibles. Es importante conocer las realizadas limitacionesalgunas del método de cuadrados Al cumplen deducir las Estas nomínimos. siempre se en ecuaciones anteriores fueron suposiciones. un problema de química analítica, por lo que debemos estar atentos. Las suposiciones que se realizan son:
Figura Nro. 32. Los errores de la pendiente y ordenada en el srcen parecida a la desviación estándar de medidas repetidas de una distribución gaussiana excepto que ahora trabajamos con una recta (n-2). Fuente: http://www.slideshare.net/todocello/tema-4-calibraciones-y-regresin3946691 a. La incertidumbre en la concentración de los patrones es despreciable frente a la desviación estándar de la señal medida. Para ello los patrones de calibrado deben ser preparados con una precisión superior a la de la medición de la señal. b. Todas las medidas son estadísticamente independientes unas de otras. Cualquier tendencia de las señales a través del tiempo (deriva de la línea de base o contaminaciones secuenciales) invalida el calibrado. c. Todas las medidas tienen igual desviación estándar, la cual no depende del valor de la señal observada, por lo tanto las señales altas tendrán igual desviación estándar que las pequeñas. Esta suposición es particularmente discutible si se trabaja en un amplio intervalo de concentraciones. Si no se cumple, es necesario utilizar un método de calibración ponderado por las desviaciones estándar de las medidas. d. Las medidas están normalmente distribuidas. En general, el error en una medida analítica es una suma de errores independientes provenientes de distintas partes del instrumento. Aunque el error de cada fuente individual no sea normalmente distribuido, la suma de esas contribuciones, producirá una distribución normal. De todas las suposiciones anteriores, la más débil es la tercera, porque en general a bajas concentraciones, la precisión de las medidas empeora. Una buena aproximación puede realizarse restringiendo el intervalo en el cual se realiza la curva de calibración, de manera que la precisión sea constante. Si no se desea disminuir el rango lineal, se debe hacer una regresión ponderada. La ecuación (24) se usa para calcular la concentración de una muestra incógnita:
(24)
Figgura Nro. 33. Los errores de estos parámetros se calculan a partir de la varianza de regresión, que estiman los errores aleatorios en la dirección y. Nro.xxx Fuente: http://www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-3946691 Para controlarla calidad de la información obtenida se puede establecer el intervalo de confianza modelo. La desviación estándar (mas correctamente llamada error estándar) de la pendiente, sdel m. Desviación estándar de la pendiente.
∑̅ ∑̅ ̅ ∑() Sb
Intervalo de confianza de la pendiente: b t (n-2) Sb(25)
La desviación estándar de la pendiente S b(error estándar) y de la ordenada Saal srcen es:
Sb
Sa = SR
(26)
= puntos sobre la recta de regresión calculada, correspondientes a los valores de x, es decir; los valores de y ajustados. El valor de para un valor de x dado, se calcula a partir de la ecuación de regression. Los valores de Sm y Sb se pueden utilizar para estimar los límites de confianza para la pendiente y la ordenada en el Origen. Así, los límites de confianza para la pendiente viene dados por:
b= t(n-2) Sbcon t que se obtiene para un nivel de confianza deseado y n-2 grados de libertad. De manera similar, los límites de confianza para la ordenada en el srcen son: a= t(n-2) Sa
Intervalo de confianza de la ordenada en el srcen: a t(n-2) Sa Predicción en muestras incognitas. Los valores de b y ase requieren para realizar predicciones en muestras incognitas, a través de la ecuación: y = bx +a, donde puede obtenerse la concentración estimada del analito en la muestra: xinicial = (yinicial - a)/b
Figura. Nro.34. Si tenemos unaFuente: muestrahttp://www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-394669 de señal yo se puede calcular la concentración correspondiente a la misma como: Un resultado no es tal, sin embargo, si no está acompañado por su correspondiente nivel de incetidumbre. Para informar xinic con su incertidumbre asociada, y establecer su número correcto de cifras, es necesario calcular el error estándar en la concentración predicha Sx inic, lo cual se lleva a cabo mediante la siguiente expresión
Sxinic
Siendo: (27)
yinic = Valor de la señal experimental de la muestra N = Número de patrones utilizados en calibración xinic = Concentración de patrones de calibración. L = Repeticiones de la medida de la muestra. Sy/x = es el desvio estándar de los residuos de la regresión dado por la ecuación (26) Intervalo de confianza de la concentración interpolada La ecuación (27) permite calcular la desviación estándar para la concentración obtenida a partir de la media de un conjunto de L análisis repetidos cuandose usa una curva de calibración de N puntos.Recuérdese que es el promedio de la señal obtenida para los N datos de la calibración. A medida que el valor de la señal x se acerca al valor promedio el error de la
determinación disminuye, por lo que es mejor determinar muestras cuyo valor de señal se encuentre en el centro de la curva de calibrado. Cuantas más veces se repite el análisis de la muestra incógnita, mayor será L y por lo tanto menor será la desviación estándar. El diseño de la curva de calibrado también es importante, puesto que S x x debe ser pequeño. Esto se logra aumentando la cantidad de patrones en los extremos de la curva de calibrado. La raíz cuadrada de la ecuación (27), y la segunda con los términos: que colectivamente recibe el nombre de de leva (del inglés). La leva mide, de algún modo, la distancia de la muestra incognita al centro de la calibración. ¿Cómo expresamos la incertidumbre del resultado de una muestra incógnita? Esto se hace en base a un intervalo de confianza para el promedio de concentraciones obtenidos mediante L análisis repetidos de lasemuestra. Puesto en general el número de muestras utilizado en la calibración es pequeño debe utilizar el que parámetro t para generar un intervalo de confianza. Este intervalo de confianza de la concentración interpolado se calcula mediante la ecuación (28). Los resultados para una muestra incógnita se expresan como:
̅
(28)
Donde t depende del número de muestras realizadas en la calibración y del intervalo de confianza deseado (ver tabla 14,15,16 y 17 Pag. Nro. 42). No debemos olvidar el correcto redondeo de las cifras decimales, que deberá hacerse cuando se hayan finalizado los cálculos. e. Ámbito Lineal del calibrado. Una parte importante de la tarea de calibración de un instrumento analítico es determinar el intervalo de concentraciones para el cual el modelo lineal es válido. Hay tres maneras de verificar esto, ninguna de ellas excluye a las otras.
Diagrama. Nro. 04. Representación de la correlación de Pearson.Fuente: aprendeenlinea.udea.edu.co/lms/moodle/mod/.../view.php? La primera, es la investigación del gráfico de residuos en función de la concentración. Los residuos deben ser todos de la misma magnitud y deben estar distribuidos aleatoriamente en su signo (en una secuencia del tipo ± ± ± etc.). Si esto no fuese así, debe sospecharse una relación no lineal entre x e y por lo que debe disminuirse el rango de trabajo, o bien aplicar otro modelo, si la teoría así lo permite. Otra manera de verificar la validez del modelo lineal es mediante el cálculo del coeficiente de correlación (r ) de Pearson: resumen:
r b
,∑∑,̅̅-,-- ∑ ∑∑ ∑ ̅ ∑ ∑ -1
,
(29)
,
b Pendiente
Sensibilidadinstrumental: a
̅
, Ordenada en el srcen.
( ) () (∑ )
El coeficiente de correlación vale 1 o –1 en el caso de que las variables estén perfectamente correlacionadas, pero no debe mal interpretarse puesto que un coeficiente de correlación de 1, no necesariamente significa que la linealidad sea buena, sino que el numerador y el denominador de la expresión anterior se cancelan mutuamente. Es común obtener buenos coeficientes de correlación con rectas de regresión que no responden a un modelo lineal. El coeficiente de correlación sólo es otro indicio adicional que debe sumarse al análisis de los residuos. En ocasiones se obtienen valores de r más bajos, siendo necesario utilizar una prueba estadística para establecer si r es realmente significativo. El método más simple es calcular un valor de t usando la ecuación:
(√)
(30)
Este valor está tabulado y se compara usando una prueba t de dos colas y (n-2) grados de libertad. Si t calculada es mayor que t teórico, se puede asegurar que existe una correlación significativa. También se pueden calcular los límites de confianza de la pendiente y de la ordenada en el srcen, y comparar que estos parámetros están incluidos dentro de estos límites. 1.8.4. El tercer método es el análisis de la varianza de la regresión. El análisis de la varianza (ANOVA) puede utilizarse para detectar una falla de ajuste en la regresión. Muchas planillas de cálculo realizan este cálculo automáticamente. Para realizar este análisis de forma completa, se necesitan datos replicados para cada patrón. Test F de Linealidad. Este Test se basa en descomponer la varianza existente entre las señales experimentales y los valores predichos en dos aportes. Uno de ellos es el error experimental. Para tener una estimación del error experimental en la medición de las señales, debemos medir ―i‖ replicados de cada patrón, por lo que para cada punto x habrá varios valores de señal ( yi). Para estimar la varianza debida al error puramente Experimental, calculamos la media de los cuadrados debida aesta contribución (MS PE , Mean Squares Pure Error): (La media de cuadrados de error puro)
∑ ∑ ()
MSPE
(31)
Donde n es el número total de mediciones, k es el número total de patrones, i son las repeticiones de cada patrón y los y ij son las señales de todos los experimentos. Para estimar el posible error debido a una falla de ajuste debida a la elección de un modelo incorrecto, calculamos la media de los cuadrados debida a la ―falta de ajuste‖ (MS LO F , Mean Squares Lack of Fit): (Media de los Cuadrados falta de ajuste)
∑ ̂
MSLOF
(32)Fcal
(33)
Esto mide la diferencia media entre la media de las réplicas de cada patrón y su correspondiente valor estimado por la regresión. Cabe esperar que si el modelo lineal es correcto, las varianzas
MSLOF y MSPEserán comparables. Si MSLOFes mayor que MSPEel ajuste no es correcto y hay que
utilizar otro modelo o reducir el ámbito de concentraciones en el cuál se hace el calibrado. Para comparar M LOF y MSPEhacemos un test F de varianzas calculando (33)
Si Fcal < Fk-2, n-k, (obtenido de tablas) se acepta que existe buen ajuste al modelo lineal. Los cálculos de ANOVA pueden ser un poco engorrosos y se recomienda el uso de planillas de cálculo que facilitan mucho la tarea.
1.9. Adición de estándar y estándar interno. En el método del adición de estandarse le agrega a la muestra, concentraciones crecientes del analito de interés. La señal obtenida se deberá a la cantidad de analito srcinalmente presente en la muestra sumada a la cantidad agregada. El propósito de estos métodos es generalmente corregir efectos de interferencias multiplicativas (las interferencias multiplicativas son aquellas que producen un cambio en la concentración) debidas a la matriz de la muestra. Una vez obtenidas, la señales instrumentales se grafican versus las cantidades de analito añadidas.
Figura. Nro. 35. Métodos de calibración en instrumentación. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
1.9.1. Método de adición de estándar. Otra solución consiste en realizar todas las medidas sobre la muestra problema, esto se consigue usando el método de la adición estándar. Este método consiste en tomar volúmenes iguales de problema, añadir a cada uno por separado cantidades distintas de analito, excepto a una de las muestras, y finalmente diluir todas las muestras al
mismo volumen final. Seguidamente se determinan las señales instrumentales para cada disolución y se representan los resultados. La escala de concentración (x) se define con las [ ] concentraciones de analito agregadas a las soluciones muestra. Por tanto, la [ ] desconocida está dada por el punto en el cual la línea extrapolada corta al eje x, es decir, el valor de x para y = 0. Este valor es igual a la razón de la ordenada en el srcen y la pendiente de la recta de regresión establecida por mínimos cuadrados. b y a están sujetos a error, así el valor calculado para la [ ], también lo estará. Pero en este caso el resultado no se obtiene a partir de medidas de una sola muestra, por lo que, la desviación estándar del valor extrapolado se calcula de la siguiente forma: (35).La recta de regresión se calcula de manera usual. Para conocer la concentración de la muestra incógnita se extrapola la recta al punto sobre el eje x donde y=0. La intersección negativa sobre el eje x corresponde a la cantidad de analito en la muestra problema. Este valor viene dado por a/b. En este caso los resultados se expresan como:
(34)
∑̅
(35)
En esta expresión no aparece L como en la expresión (27), puesto que no se hacen réplicas de cada muestra, sino que se hace un agregado patrón por cada una de ellas. Esto demanda mucho tiempo y esfuerzo. No debemos olvidar que para obtener el valor de concentración en la muestrasrcinal, debemos corregir al valor de x y a su incertidumbre, por las diluciones hechas.Fuente: http://es.scribd.com/doc/42087016/Calibracion-y-Limite-de-Deteccion-en-TecnicasInstrumentales.
Figura. Nro.36. La adición de patrón es apropiada cuando la composición de la muestra es desconocida o compleja y afecta a la señal analítica. Fuente: http://www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-394669 Puede observarse que al aumentar N mejora la precisión de la cantidad estimada, siendo necesarios al menos 6 puntos en un experimento de este tipo. Además se mejora la precisión maximizando esta cantidad, por lo que, el intervalo de [ ] a cubrir por las disoluciones de calibración debe ser lo más amplio posible. Los límites de confianza para la [ ] del analito en la muestra problema vendrán dados por: [CAnalito ] = x ± t Sx E
E
Diagrama Nro. 05: Lectura del analito con agregado patrón Esta es una representación para orientar al alumno cuando tiene que desarrollar sus prácticas de laboratorio.
Figura. Nro. 37. Representación gráfica del método de adición de un patrón en la solución problema. Fuente: www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-3946691
Figura. Nro.38. La incertidumbre de la concentración por adición de patrón, método de extrapolación. Fuente: http://www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-394669 1.9.2. Método de estándar interno. Una cantidad fija de una sustancia pura (estándar interno), se añade tanto a las soluciones muestra como a las soluciones estándar.
Figura. Nro. 39. Adición de un patrón interno en la solución problema. Fuente:
www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-3946691
El estándar interno debe ser una sustancia similar al analito con una señal fácilmente medible y que no interfiere con la respuesta del analito. Después se determinan las respuestas del analito y del estándar interno, y se calcula el cociente de las dos respuestas. De esta manera, si sé varia algún parámetro que afecte a las respuestas medidas, dichas respuestas del analito y del estándar interno, deben ser afectadas por igual. Por tanto, el cociente de respuestas depende solamente de la concentración de analito.
Figura. Nro.40. La incertidumbre de la concentración por adición de patrón, método de extrapolación. Fuente: http://www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-394669 Una representación de la relación o cociente de respuestas analito a estándar interno como función de la [ ] del analito, da una gráfica de calibración cuyo ajuste se hace por mínimos cuadrados. 1.9.3. Parámetros característicos.―El primer objetivo de un proceso de medición en el laboratorio debe ser alcanzar su control estadístico‖ a. Límite de Detección.En Análisis Instrumental, debemos aprender a elegir la técnica correcta para cumplir con nuestro análisis. Para ello, debemos comparar muchas ―figuras de mérito‖ de cada método. Las figuras de mérito forman una base común sobre las que se pueden comparar los métodos analíticos. Ya hemos visto algunas figuras de mérito, como ser la sensibilidad, la exactitud y la precisión. Otra figura de mérito importantísima es el Límite de Detección.Puede definirse como aquella que proporciona una señal instrumental significativamente diferente de la señal del blanco o señal de fondo. El cálculo del límite de detección responde la pregunta: ¿Cuál es la
menor concentración que podemos detectar con este método de análisis? Para responder a esta pregunta, debemos analizar cuál es la menor señal detectable.
Figura Nro. 41. Validación límite de Cuantificación, detección y de ruido. Fuente:www.ops-
oms.org/Spanish/AD/THS/EV/bpm-Validacion04.pp La probabilidad que la más pequeña señal analítica discernible, yL, puede ser medida y no corresponde a una fluctuación aleatoria de la medida del blanco, yB, depende de a cuantas unidades de desviación estándar del blanco ( sB ) está yLde (promedio de las medidas del blanco). Si la diferencia entre yBe yLes 3sBla probabilidad que la medida de yLsea una fluctuación del blanco es menor que el 0,13% (si el número de medidas del blanco es superior a 25). Para determinar la concentración límite, x L ,, IUPAC define que :
(36) Donde k es un valor que se elige de acuerdo al nivel de confianza que se desee, generalmente 3. La concentración límite es una función de yLy por lo tanto:
(37) En donde xL es la s eñal lím ite , obtenida para la concentración mínima detectable de analito. Sustituyendo la ecuación (36) en la (37) se obtiene que: SB = desviación estandar del blanco
(38)
Por lo tanto el límite de detección puede encontrarse dividiendo k s B por la pendiente obtenida por regresión de la curva de calibración . Sin embargo, la concentración límite así obtenida será un reflejo del verdadero límite de detección sólo si la pendiente, m,y la ordenada al srcen , b , están bien calculadas. El método IUPAC utiliza como fuente de variabilidad de las señales, la desviación estándar del blanco. Undelmétodo alternativo, aunque menos usado, la desviación deEsto los sx(ecuación residuales calibrado 27) como estimador de utiliza la desviación estándarestándar del blanco. es útil si no se ha repetido el blanco y sBno puede calcularse.
El método definido por la ecuación (37) es válido solo si la principal fuente de error está en el blanco. Por lo tanto, en la mayoría de los casos este método dará límites de detección más bajos que si se tiene en cuenta todo el error del calibrado. Un detallado artículo sobre límite de detección puede leerse en Analytical Chemistry ; 55 (1983) 712A. Experimentalmente, el límite de detección se determina involucrando todos los factores que afectan la medida y se define, en general, para obtenerlo en unidades de concentración como: LD = 3sB / mcalbajas concentraciones
(39)
Donde, s B = desviación estándar de los blancos, (b) m ca l es la pendiente de una curva de calibración del sistema, preparada a muy bajas concentraciones. Este criterio es recomendado por IUPAC. Aplicado a los métodos espectrofotométricos, entonces, s B = desviación estándar de los blancos en absorbancia y (b) m c al pendiente de la curva de calibración (A vs [C]) en unidades de Absorbancia/Concentración, por lo tanto, al calcular la relación el límite de detección se obtiene en unidades de concentración. Otros autores, utilizan para calcular el límite de detección, la siguiente expresión:
(40)
En donde C nominal es la concentración del patrón de baja concentración y C promedio corresponde al promedio aritmético, de las concentraciones halladas experimentalmente por interpolación (después de interpolar la absorbancia en una curva de calibración), de por lo menos diez replicas de la solución de baja concentración. Este criterio aunque no lo recomienda IUPAC es muy utilizado en diferentes laboratorios. b. Límite de cuantificación : Corresponde a la cantidad o concentración del analito a partir de la cual es confiable realizar determinaciones cuantitativas y se define como: Límite de cuantificación = LOQ = 10s B / m cal bajas concentraciones (41) Definición sugerida recientemente por organismos oficiales de EEUU. En términos generales se puede definir él limite de detección de un analito, como aquella [ ] que proporciona una señal instrumental significativamente diferente de la señal de una muestra en blanco, o la señal de fondo. ―Significativamente diferente‖, da al analista un buen margen de libertad para establecer la definición exacta del límite de detección. De hecho, en la práctica existe poco acuerdo entre los Organismos Oficiales sobre este acuerdo. Una definición aceptable de límite de detección, que ha sido sugerida recientemente por organismos de EEUU, es que el límite de detección es la cantidad de analito que proporciona una señalye igual a la del blanco más tres veces la desviación estándar del blanco: yLD = yB + 3 SB
(42)
El límite de cuantificación o determinación considerado como el límite de [ ] más bajo para mediciones precisas, define la cantidad de analito que proporciona una señalyecuantitativamente igual a la del blanco más se diez vecescomo la desviación estándar del blanco: yLQ = yB + 10 SB
(43)
En la práctica, cuando se trabaja con una recta de regresión convencional, se puede usar la desviación estándar de residuos Sy/x en lugar de S B, y se puede emplear el valor de A = (0,0) como una estimación de la señal correspondiente al blanco. Una vez obtenido el valor de y obtendremos la [ ] correspondiente al límite de detección o cuantificación, a partir de la recta de calibrado. Para resolver problemas son definiciones ampliatorias a lo desarrollado anteriormente, pero que tienen el mismo concepto.
Figura. Nro. 42. Representación gráfica de sensibilidad, LOD, LOQ (S b=SB) y rango dinámico.
Fuente: www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-3946691 yLD = yB + 3 SB yLD = b + 3 Sy/x
Luego: b + 3 S
y/x
=mx+b
x=
(44)
y=mx+b c. Rango de trabajo.Es el rango de concentraciones de analito el cual puede producir valores de absorbancia adecuados para análisis prácticos. Es imposible ser específico en definir este rango debido a que las necesidades analíticas pueden ser muy variables. No obstante como una regla general para un rango de trabajo debiera caer entre 0.1 y 0.8 U. ABS, pues esta es la región de mayor precisión óptica. Sin embargo, mediciones útiles pueden ser realizadas a absorbancias
menores, y el rango completo de trabajo puede extenderse hasta el límite más bajo que es alrededor de 10 veces el límite de detección. Para análisis con llama, el cálculo del rango de trabajo essimple: El fabricante del instrumento usualmente proporciona laconcentración característica que puede ser esperada paracada elemento en solución acuosa. Este valor puede entonces emplearse para establecer un rango nominal de trabajo.
Figura. Nro. 43. [C m] = Concentración mínima de sustancia apreciable, LC = Límite De cuantificación, LL = Límite de linealidad. Fuente:www.uam.es/personal_pdi/ciencias/.../InstrumentalLecc1.pdf
Como la concentración característica corresponde a 0.0044U.ABS, un factor 100 proporcionaría 0.44 U.ABS (alrededor de la mitad del rango óptimo). Una vez establecido lo anterior resulta fácil determinar el rango óptimo de trabajo.
d. Rango lineal.El intervalo de [ ] en que es aplicable un método analítico va desde el limite de cuantificación hasta la [ ], a la cual, la curva de calibrado se desvía de la linealidad (LL). En el límite de cuantificación (LC), figura Nro. 42, la desviación estándar relativa de las medidas es de aproximadamente un 10 %, y disminuye con rapidez cuando aumentan las concentraciones [ ]. e. Sensibilidad. La sensibilidad de un instrumento o método se define como, su capacidad para discriminar entre pequeñas diferencias en la [ ] de un analito. La sensibilidad viene limitada por la pendiente de la curva de calibración y la reproducibilidad o precisión del sistema de medida, también se define como la pendiente del calibrado, de manera que para dos métodos que tengan igual precisión, el que presente mayor pendiente en la curva de calibración será el más sensible, y viceversa. La IUPAC, define la sensibilidad como la pendiente de la curva de calibración a la [ ] de interés. Como la mayoría de las curvas de calibración son lineales, en ellas la sensibilidad de calibración es independiente de la [ ], e igual a la pendiente de la recta de calibrado. Mandel y Stichler, definen la sensibilidad analítica a una determinada [ ], teniendo en cuenta la precisión, como:
Donde m= pendiente SS = desviación estándar de las señales.
= sensibilidad analítica.
f. Selectividad. La selectividad de un método analítico durante el grado de ausencia de interferencias, debidas a otras especies contenidas en la matriz de la muestra. Desafortunadamente, ningún método analítico está totalmente libre de interferencias, y con frecuencia deben realizarse distintas operaciones para eliminarlas. Consideremos una muestra que contiene un analito A, así como dos especies potencialmente interferentes (B y C), encontrándose en [ ] C A, CB, CC, con sensibilidad de calibración: ma, mb, mc. La señal medida en el instrumento vendrá dada por: Sblanco = ma C A + mb CB + mc CC + Sbl
(45)
Se define el coeficiente de selectividad de B con respecto de A, como:
El coeficiente de selectividad nos da la respuesta relativa del método para la especie B cuando se compara con A. Análogamente, el coeficiente de selectividad de C con respecto de A, será:
Si sustituimos en la ecuación anterior estos coeficientes, obtenemos que: S = mA (CA + KB,A · CB + KC,A · CC) + Sbl
(46)
Los coeficientes de selectividad pueden variar desde 0 en ausencia de interferencias hasta 1 ó más. Un coeficiente será negativo si la interferencia causa una reducción en la intensidad de la señal del analito y a la inversa. Los coeficientes de selectividad son parámetros de calidad útiles para describir la selectividad de los métodos analíticos, pero son poco usados. g. Relaciónruido-señal. La señal analíticapuede dividirse en dos partes; una causada por los analitos componentes de la matriz de la muestra y la otra srcinada por la instrumentación usada en la medición, parte de la señal se conoce como ruido y constituye información no deseada, ya que degrada la exactitud y precisión del análisis, a la vez que aumenta el límite de detección. Para una señal cualquiera, la magnitud del ruido se define como la desviación estándar del valor de la señal medida, mientras que la señal viene dada por la media de la medida:
S/N =
̅
(47)
Conforme la [ ] disminuye hacia el nivel de trazas, el problema de distinguir las señales respecto al ruido, se hace cada vez más difícil, lo que ocasiona una disminución en la exactitud y presión de las mediciones a la vez que se aumenta el límite inferior de la cantidad de analito que se pueda detectar. h. Homocedasticidad: Varianza constante del término de error. Se refiere al supuesto de que las variables dependientes exhiban iguales niveles de varianza a lo largo del rango de los valores de las variables independientes. ¿Cómo evaluarla? 1. Examen visual de los residuos 2. Test de Levene: Igualdad de varianzas, este test es una alternativa al test de Bartlett. El test de Levene es menos sensible a la falta de normalidad que el de Bartlett. Sin embargo, si estamos seguros de que los datos provienen de una distribución normal, entonces el test de Bartlett es el mejor. El test de Levene se resuelve con un ANOVA de los valores absolutos de las desviaciones de los valores muestrales respecto a un estadístico de centralidad (media, mediana o media truncada) para cada grupo. La elección del estadístico de centralidad de los grupos detemina la robustez y la potencia del test. Por robustez se entiende la habilidad del test para no detectar erróneamente varianzas distintas, cuando la distribución no es normal y las varianzas son realmente iguales. La potencia significa la habilidad del test para señalar varianzas distintas, cuando efectivamente lo son.Fuente: http://erre-que-erre-paco.blogspot.com/2009/11/test-delevene-para-la-igualdad-de.html
Figura. Nro. 44. ¿Pero qué sucede si los datos tienen valores atípicos y/o no cumple con los supuestos de análisis de regresión?
Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
1.9.4. ¿Qué esperamos en el desarrollo del análisis instrumental? El análaisis instrumentalque podemos conceptuar de otra manera, es la ciencia y la tecnología de los sistemas complejos que permiten medir magnitudes físicas cuyo objetivo es la obtención de datos que se transmiten a dispositivos de representación, registro o elementos de control aprovechando las propiedades físicas, químicas yelectromagnéticas de la materia entendiéndolo en su manifestación infinitisimal.
Se puede definir como la ciencia que desarrolla y mejora métodos e instrumentos para obtener información sobre la composición y naturaleza química de la materia. a.La in str um entación analítica.
Dentro de la Química Analítica Instrumental se incluye elAnálisis Instrumentación, que se basa en las propiedades químico, físicas y del espectro electromagnético. La clasificación del análisis instrumental como hemos visto en la sección preliminar. b. En el mercado ambiental. Nos permiten probar los contaminantes biológicos y químicos en el aire, agua, alimentos y tierra. Alrededor del mundo, estas herramientas han contribuido decisivamente en los esfuerzos para proteger el medio ambiente y la salud humana. c. Alteraciones endocrinas por pesticidas y metales pesados en la tierra, de los alimentos y el agua: Se cree que ciertos pesticidas alteran el sistema endocrinológico y causan trastornos tales como defectos de nacimiento, cáncer de seno y cancers de diverso orden.Existen metodologías de Cromatografía de gases/ espectrometría de masas (GC/MS) capaz de analizar rápidamente muestras de los 567 pesticidas y otros probables alteradores del sistema endocrino que causan preocupación mundial, ofreciendo un método más sencillo para supervisar estos químicos en el abasto de alimentos. Los hidrocarburos volátiles contribuyen ala degradación del ozono a nivel de la tierra, uno de los principales componentes del smog urbano. La Agencia Mundial Antidopaje (AMA) ha estipulado seis clases de substancias prohibidas: estimulantes, narcóticos, agentes anabólicos/esteroides, diuréticos, hormonas pépticas y compuestos afines, así como otras drogas restringidas. Estas clases incluyen más de 400 substancias y miles de compuestos relacionados. Problema Nro. 16.A partir de las siguientes observaciones para 5 años de las variables (x, y), ajústese el modelo de regresión de y en función de x más idóneo. Donde: y: producción nacional de un subsector industrial, en millones de toneladas.
x: tiempo. Año 1995 1996 1997 1998 1999
∑*∑+
x 1 2 3 4 5
Pendiente/sensibilidad instrumental,
y 1,25 5 11,25 20 30,5
Ordenada en el srcen
∑ ∑, r = ∑ ∑ , ∑ ∑ ∑ xy
1.Ajuste de una función lineal: y = bx + a xi
yi
x2
y2
xi yi
1 2 3 4 5 15 3
1,25 5 11,25 20 30,5 68 13,6
1 4 9 16 25 55 11
1,56 25 126,56 400 930,25 1483,3
1,25 10 33,75 80 152,5 277,5
̅ ̅ ̅ -2 -1 0 1 2
-12.35 -8.6 -2.35 6.4 16.9
24.7 8.6 0 6.4 33.8 73.5
4 1 0 1 4 10
Reemplazandolos datos del problema Nro. 16 en el cuadro de regresiónlineal por mínimos cuadrados.
Figura.Nro.44. Fuente: www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf - En caché Similares
1.9.4. Covarianza. El análisis de la covarianza es una técnica estadísticaque, utilizando un modelo de regresión lineal múltiple, busca comparar los resultados obtenidos en diferentes grupos de una variable cuantitativa pero corrigiendo las posibles diferencias existentes entre los grupos en otras variables que pudieran afectar también al resultado (covariantes). En el estudio conjunto de dos variables, lo que interesa principalmente es saber si existe algún tipo de relación entre ellas. Esto se ve gráficamente con el diagrama de dispersión. La covarianza S(x,y) de dos variables aleatorias x e y se define como:
(48) Donde xi yi representan los pares de valores de la variable y el producto producto de las medias aritmeticas de las variables x e y respectivamente.
que corresponde al
Si Sxy> 0 hay dependencia directa (positiva), es decir, a grandes valores de x corresponden grandes valores de y.
Si Sxy = 0 Una covarianza 0 se interpreta como la no existencia de una relación lineal entre las dos variables estudiadas.
Si Sxy< 0 hay dependencia inversa o negativa, es decir, a grandes valores de x corresponden pequeños valores de y.
La matriz de covarianza SXY de dos variables aleatorias n-dimensionales expresadas como vectores columna
,,-,- ∑ eY
Donde: E[ ] es el operador esperanza.
se define como:
-
=
= 55,32
Hemos obtenido un valor práctico para la covarianza que corresponde a una dependencia directa. CONCLUSIONES 1
Recordar: Un supuesto básico del modelo de regresión, es que para cada valor posible de x,y es una variable aleatoria con distribución normal cuya media es µ y/x
2
Lo correcto es decir que las medias poblacionales de y se incrementan ( o disminuyen) al aumentar x
3
Recordar que en realizad trabajamos con estimadores de parámetros desconocidos, y son por tanto, variables aleatorias sobre las que se deben hacerse afirmaciones probabilísticas.
http://www.slideshare.net/smedinat/regresin-por-mnimos-cuadrados Problema Nro. 17. Calcular covarianza talla – peso Talla
160
165
168
170
171
175
175
180
180
182
cm x Peso
55
58
58
61
67
62
66
74
79
83
Kg y 1. Sumamos los productos de los valores x (talla) por los de y (pesos) ∑ xi yi = 160*55+165*58+168*58+170*61+171*67+175*62+175*66+180*74+180*79+180*83 ∑ xi yi = 114987 Definimos n como numero de eventos que en este caso es igual a 10
Hasta esta parte hemos descrito como debemos manejar la muestra, en cuanto a la toma y preparación, así como debemos de manejar la teoría estadística que requerimos para evaluar los datos. 1.10. Puesta a punto del mètodo analitico. 1.10.1. Validación de un Método Analítico. Es el proceso que permite demostrar que los resultados producidos por el mismo son fiables y reproducibles y que el método es adecuado para la aplicación sobre la que se emplea. La confirmación mediante un examen y la provisión de una evidencia objetiva de que se han satisfecho unos requisitos particulares para un uso pretendido y específico. La puesta en operación de un método analítico se completa con la validación del mismo. Validar implica demostrar experimentalmente y formalmente que un proceso de medición química o una parte del proceso (por ej. Muestreo) funciona como se espera de él y lo hace a lo largo del tiempo. Se trata de documentar la calidad del procedimiento analítico
determinando sus características (performance) sobre la base de criterios tales como la exactitud, precisión, límite de detección, etc. Este proceso obliga a que el analista investigue todas las posibles fuentes de error y las elimine. De esta forma demostrará que el método srcina resultados que pueden ser manejados hasta las referencias elegidas, esto se consigue solo con estructuras adaptadas, personal entrenado, motivado y con instrumentos adaptados y convenientemente sustentados. 1.10.2. Los pasos de interés. a. Validación de la instrumentación. Debe ser siempre anterior a la validación del método. b. Revisión bibliográfica. Hay muy pocos métodos analíticos que estén suficientemente detallados y validados como para poder ser aplicados directamente sin riesgos. c. Validadción del método analítico. La estrategia consiste en estudiar el procedimiento analítico hacia atrás, estudiando primero el sistema más sensillo (p.e. las disoluciones empleadas en el calibrado) y después paso a paso hasta la muestra real. Tambien debe evaluarse la robustez del procedimiento, los métodos patrón o estandarizados son de validación sensilla. En este caso basta con evaluar la precisión, verificar la veracidad, investigar la sensibilidad y la robustez. d. Validación de la etapa de detección final. Los errores en la etapa de calibración son muy frecuentes, incluyen: Errores en cálculos sensillos (p.e. concentraciones) Errores de dilución Confusiones srcinadas al utilizar disolventes Utilización de compuestos impurificados Contaminaciones, interferencias, patrones inadecuados Corrección de fondo mal hecha o confianza ciega en sistemas de integración Mal uso de las unidades como ppm, ppb. Debe de prepararse disoluciones con concentraciones exactamente conocidas en el analito, almacenarse en adecuadas condiciones y ser manejadas con cuidado para no ser contaminados. e. Muestras sólidas. Estar familiarizado con el manejo de las muestras solidas mineralizadas f. Robustez del método. Evitar cambio del equipo (Soxhlet, reactores, …), de temperatura o humedad. g. Puntos y gráficos de control. Los gráficos de control permiten la detección de nuevos erroeres sistemáticos y elk seguimiento de la precisión si se hacen medidas replicadas. h. Materiales de referencia certificados. (MRC). Cada valor certificado se acompaña de su incertidumbre a un nivel de confianza dado: Sustancias o disoluciones puras para calibración e identificación Materiales de matriz conocida para calibración de métodos comprativos Materiales de matriz lo más parecida posible a la analizada por el usuario
Materiales de referencia definidos metodológicamente p.e. biodisponibilidad, lixiviables, Implican un protocolo muy estricto. i. Buenas prácticas de laboratorio. (BPL). Estan relacionadas con los procesos organizativos y la planificación en los laboratorios j. Normalización. Depende del campo de actividad (alimentos, medio ambiente, biomédico), son sistemas de acreditación que cada países ha adoptado, hay normas escritas, organismos normalizadores, Anivel mundial el organismo central es el ISO, con cientos de comités técnicos. La validación tiene dos objetivos fundamentales. Y
X
Variable dependiente
Variable independiente
Variable explicada
Variable explicativa
Variable de respuesta
Variable de control
Variable predicha
Variable predictor
Regresando
Regresor (covariable)
Figura Nro. 45. El estudiante como parte de sudeentrenamiento, manualmente y/o reemplazar.Determinar los parámetros validados la estadística resolver de linealidad que se han obtenido. Fuente: www.ops-oms.org/Spanish/AD/THS/EV/bpm-Validacion04.pp
Figura Nro.46.Reemplazando los datos de la tabla anterior en: Fuente: www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf - En caché - Similares comparar los resultados con lo mostrado en la figura Nro. 39
Se puede
Objetivo 1. Definir y asegurar la calidad de la información analítica generada.Una validación intrínseca que consiste en caracterizar un proceso de medición química a través de las propiedades o características de desempeño del mismo. Objetivo 2. Garantizar la coherencia entre la información analítica generada y las necesidades informativas planteadas por la sociedad, industria, comercio, ciencia y tecnología, en un proceso denominado validación extrínseca del proceso analítico. La validación intrínseca puede hacerse de dos maneras generales, una es la validación por etapas, se valida instrumentos, muestreo, datos etc, y la otra es la validación global del proceso de medición química. Durante el proceso de validación, los estudios para determinar los parámetros de desempeño de un método deben realizarse con equipamiento debidamente calificados, es decir que cumplan con las especificaciones necesarias, que funcionen correctamente y estén correctamente calibrados.Los analistas deben de estar entrenados y conocer adecuadamente la metodología en estudio. Deben utilizar equipos, reactivos y materiales de laboratorio apropiado y en perfectas condiciones para su uso; patrones de referencia bien caracterizados de pureza adecuada y debidamente documentada. Se recomienda la utilización de MRC de naturaleza similar a las muestras sobre que se aplicara el ensayo.
Todo el proceso de validación se debe confirmar y encontrarse documentado en protocolos e informes de validación. Tenemos tres tipos de validación: Validación Prospectiva: es aquella validación realizada a métodos analíticos nuevos. Validación Retrospectiva: Para métodos analíticos antiguos, pero que se usan en forma rutinaria, y que no han sido validados. Revalidación: repetición parcial o total de una validación debido a cambios efectuados, que puedan afectar a la capacidad del método validado. 1.10.3. Parámetros fundamentales de validación.Una vez que se ha realizado el ajuste de los parámetros y se ha probado con éxito el método en muestras, se está en condiciones de realizar la validación del método, para poder confirmar y documentar que los resultados obtenidos por el método son seguros y confiables. En el proceso de validación, los parámetros que son evaluados generalmente son: Selectividad, Linealidad, Precisión, Sesgo, Exactitud, Sensibilidad. Parámetros de calidad. En la Tabla 18 se enumeran los criterios cuantitativos de funcionamiento de los instrumentos, criterios que se pueden utilizar para decidir si un determinado método instrumental es o no adecuado para resolver un problema analítico. Estas características se expresan en términos numéricos y se denominan parámetros de calidad. Tabla. Nro. 20: Criterios numéricos para seleccionar métodos analíticos Criterios Precisión e incertidumbre: Grado de concordancia mutua entre los datos que se han obtenido de una misma forma. Estima la repetitividad. Veracidad: Exactitud Trazabilidad: Propiedad del resultado de una medición o de un patrón, Sesgo: Error absoluto sistemático, error relativo sistemático.
Parámetros de calidad Desviación estándar absoluta, y relativa, coeficiente de variación, varianza, covarianza. Se refiere a la diferencia entre el valor obtenido y el verdadero. Combinación de la veracidad y precisión Error absoluto sistemático, error relativo sistemático. sesgo ═ µ - xt Donde µ es la media de la población de la concentración de un analito en una muestra cuya concentración verdadera es xt
Sensibilidad: Es una medida de la capacidad de un método, depende de la
Sensibilidad de calibración, sensibilidad analítica
pendiente de la curva de calibrado la reproducibilidad de las medidas y de Limite de detección: Mínima concentración o mínima masa de analito que se puede detectar para un nivel de
Blanco mas tres veces la desviación estándar del blanco
confianza dado. Intervalo de concentración Selectividad y especificidad: Grado de ausencia de interferencias con otras especies que contienen la matriz de la muestra. La capacidad de un método para determinar exactamente y específicamente el analito de interés en la presencia de otros componentes en la matriz, bajo condiciones de prueba estadística. Robustez
Concentración entre el limite de cuantificación (LOQ),límite de detección (LOD) y el limite de linealidad ( LOL) Coeficiente de selectividad
Es una medida de su capacidad de permanecer inalterado por pequeñas, pero deliberadas, variaciones en los parámetros del método y proporciona una indicación de su confiabilidad durante su uso normal.
Otras características Velocidad, Facilidad y Comodidad, Habilidad del operador, Coste y disponibilidad de tiempo, Coste por muestra Fuente: Ampliada - SKOOG-HOLLER-NIEMAN Principios de ANALISIS INSTRUMENTAL 5ta Edic. Mc Graw Hill Pag. 12
Precisión. De los datos analíticos se define como el grado de concordancia mutua entre los datos que se han obtenido de una misma forma. La precisión indica la medida del error aleatorio, o indeterminado de un análisis. Los parámetros de la calidad de la precisión son la desviación estándar absoluta y relativa, el coeficiente de variación y la varianza. (SKOOG-HOLLER-NIEMAN Pag. 12)
Exactitud. Mide el error sistemático o determinado de un método analítico. Se puede determinar por comparación con muestras patrón y por comparación con un método patrón. Exactitud =
̅
Donde
̅
valor medio
Sesgo. El sesgo se define mediante la ecuación: sesgo ═ µ - xt Donde µ es la media de la población de la concentración de un analito en una muestra cuya concentración verdadera es x t Sensibilidad. En general se acepta que la sensibilidad de un instrumento o de un método es una medida de su capacidad de diferenciar pequeñas variaciones en la concentración del analito. La definición aceptada por (IUPAC), es la de sensibilidad de calibrado, que se define como la pendiente de la curva de calibrado a la concentración objeto de estudio. En un método (técnica) Instrumental se mide una señal (S), en función de la sensibilidad requeridas en la solución del problema de análisis. S ∞ [CX] analit
Figura Nro. 47. LD = Limite De dilución, LOQ = Límite de cuantificación, LOL = Límite de linealidad. Fuente: SKOOG-HOLLER-NIEMAN Principios de ANALISIS INSTRUMENTAL 5ta Edic. Mc Graw Hill Pag. 12 Donde: S (sensibilidad analítica) es proporcional a La concentración [C]del analito. Todos los métodos ofrecen características diferenciadas por lo que es necesaria su selección en función de la sensibilidad y selectividad requerida en el problema de análisis. S ═ m [C] + Sbl
(49)
Donde S es la señal de medida, [C] es la concentración del analito, S bl es la señal instrumental de un blanco y m (b) es la pendiente de la línea recta. Mandel y Stiehler (1964) consideraron la necesidad de incluir la precisión en un tratamiento matemático y proponen: (m) γ ═ m ∕ SS (50) Donde m es la pendiente de la curva, SS es la desviacio0n estándar de las medidas. Selectividad. Depende de la interrelación de todos los componentes, longitud de onda, interferentes, y la muestra. 1.10.3. Limite de detección y cuantificación.Son varios los métodos empleados para la determinar el límite de detección (LOD) y límite de cuantificación (LOQ), dependiendo si el procedimiento es instrumental o no instrumental. (LOD) Es la mínima concentración de analito que se puede detectar para un nivel de confianza dado. Este límite depende de la relación entre la magnitud de la señal analítica y el valor de las fluctuaciones estadísticas de la señal del blanco. (LOQ) Es la menor concentración de analito en una muestra determinada que puede proporcionar una medida cuantitativa positiva, utilizando un método analítico determinado. En análisis instrumental debemos aprender a elegir la técnica correcta para cumplir con nuestro análisis, ya hemos visto algunas figuras de mérito importantísimas en el límite de detección como la sensibilidad, la exactitud y la precisión, otra figura de mérito importantísima es el límite de detección. El cálculo del límite de detección (LD) responde a la pregunta. ¿Cuál es la menor
concentración que podemos detectar con este método de análisis? Para responder a esta pregunta, debemos analizar cuál es la menor señal detectable. DEFINICION DE IUPAC: La concentración del analito que produce una señal igual a la del blanco mas ―k‖ veces la desviación estándar del blanco. Ahora veamos si la concentración CL para lo cual: yL =
Cada punto de la curva de calibración (incluyendo el blanco) tiene una variación (normalmente distributiva) sobre el eje ―y‖ que puede estimarse con la desviación estándar de los residuos SR 0 -----------------------------------CLD------------------------------------------CLC---------- Concentración yB------------------------------- yL + 3SB -----------------------------------y + 10SB--- Señal Analito sin detectar
Región de Detección
Región de cuantificación
Recuewrde siempre: Las definiciones son bastante arbitrarias, es el usuario quien escoje ―k‖ cuando se reporta un límite de detección debe incluirse información de ―k‖.
Figura. Nro. 48. Patrones analíticos para la construcción de una curva de calibrado apartir de soluciones patrón. Fuente: http://isearch.babylon.com/?q=limite+de+detecci%C3%B3n+powerpoint&s=web&as=3&babsrc=HP_ss 1.10.4. Calibración de los instrumentos. Se entiende por el proceso por el cual se asegura que un sistema (instrumental) es apropiado para el uso que se desee emplear y que se desempeña de acuerdo con las especificaciones dadas por el fabricante. Es decir, asegurarse de que el instrumento funciona correctamente. Los distintos sistemas de calidad y/o requerimientos regulatorios requieren variados niveles y combinaciones de calificación, calibración, verificación y ensayos de adecuación del sistema. Son ejemplos la comprensión, el conocimiento y manejo del espectro
electromagnético la
determinación de la exactitud de la longitud de onda con filtros de oxido de holmio, o la calibración de una balanza analítica mediante el uso de pesas calibradas. Luego se continúa con la calibración metodológica analítica, que consiste en comparar la señal (S) generada por el analito presente en la muestra con aquella proporcionada por el analito de una muestra patrón o estándar. Por ejemplo en el cuadro 1-3, se aprecia la utilización del estándar externo, existe otros métodos como el de agregar un estándar a la muestra a analizar, y un estándar interno. a.Curva o gráfica analítica. Se preparan una serie de disoluciones patrón de forma que cubran un intervalo de concentraciones adecuado y que tengan una composición en matriz parecida a la de la muestra. También se prepara un blanco, este tiene igual composición que los demás estándares pero sin el analito. Su señal debería ser cero pero a veces por efecto del ruido de fondo no es así. Se representan las respuestas en una gráfica frente a las concentraciones de los estándares que las han proporcionado. Generalmente hay una relación lineal entre la señal analítica (y) y la concentración [x] y por ello los datos se ajustan a una recta por el método de mínimos cuadrados según y=ax+b, siendo y la señal instrumental, a la pendiente, b la ordenada en el srcen y x las concentraciones de los estándares. En general, la etapa de calibración y la obtención de la concentración de analito en una muestra constan de los siguientes pasos: Paso 1: Preparación de los patrones. Se preparan patrones del analito que cubran un intervalo adecuado de concentraciones, y se mide la señal analítica proporcionada por los mismos.
Disoluciones del analito de concentración conocida y creciente
Paso 2: Obtención de la relación señal-concentración. Se traza un gráfico con las señales frente a la concentración de analito y se calcula la recta que "mejor" se ajusta a los datos mediante un ajuste por mínimos cuadrados. De esta forma se obtiene la pendiente (b) y la ordenada (a) en el srcen que definen la recta.
Gráfico s eñal-c on c ent rac ión y recta ajustada por mínimos cuadrados Paso 3: Uso de la recta de calibrado . Una vez obtenida la gráfica, se interpola la señal de la muestra y se obtiene la concentración de analito en la muestra.
Figura Nro. 49. Obtención de la concentración de analito en las muestras a partir de la gráfica y la rectaFuente:http://www.uv.es/gammmm/Subsitio%20Operaciones/6%20Calibracion.htm En el desarrollo del cursoel tutor del curso les alcanza una plantilla para el ajuste por mínimos cuadrados mediante la hoja de cálculo EXCEL y la herramienta de gráficos de dicho programa para
que el estudiante pueda consolidar sus tareas. Finalmente, para obtener la concentración de analito en la muestra hay que tener en cuenta en los cálculos las posibles diluciones a las que se ha sometido la muestra para obtener las disoluciones M1, M2 y M3 de medida. Problema Nro. 18. Estimación de LD (Límite de detección) Y LC (Límite de cuantificación) a partir de la repetitibilidad de la señal del blanco (o matriz de la muestra) comparado con una señal producida por un estándar de concentración muy diluida, donde señal sea más de 3 veces la del ruido.Datos en mV obtenidos CG-FID para un pesticida en un efluente de aguas residuales. Cstd= 4 pp. A partir de lecturas de blanco y un estándar diluido
Figura Nro. 50. El estudiante desarrolle manualmente los parámetros encontrados, como parte de su preparación para el examen, determine la curva de calibrado apartir de soluciones patrón. Fuente: www.unlu.edu.ar/.../Tp/Introduccionalanalisisquimicocuantitativo2011.ppt Respuesta al ejercico de aplicaciones numéricas.
Figura
Nro.51.Reemplazando
los
datos
de
la
tabla
anterior
en:
Fuente:
www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf - En caché - Similares Problema Nro. 19: Se han analizado una serie de soluciones estándar de fluoresceína con un espectrofluorómetro, obteniéndose las siguientes intensidades de fluoresceína (en unidades arbitrarias) Intensidad fluorescencia (u.a)
2,1
5,0
9,0
12,6
17,3
21,0
24,7
Concentración de floresceina pg/mL
0
2
4
6
8
10
12
a. Calcule la pendiente y la ordenada al srcen de la recta de regresión para los datos mostrados. b. Calcule la desviación estándar residual y los límites de confianza al (95 %) para la pendiente y la ordenada al srcen. c. Determine las concentraciones, las desviaciones estándar y sus límites de confianza (95%) para soluciones con intensidades de fluorescencia de 2,9 13,5 y 23 unidades (L=1). Analice cual presenta el mejor limite de confianza en valores absolutos. Analice donde es conveniente que caiga el valor de la señal de la muestra dentro de la curva de calibración. d. Si se considera como el promedio de cuatro medidas el valor de intensidad de fluorescencia de 13,5 cuáles serán los valores de la desviación estándar de la
concentración calculada y el límite de confianza? Y si fuera el promedio de ocho? Analice cual es la mejora obtenida al aumentar el número de medidas. e. ¿El análisis del grafico de residuos indica una buena linealidad? Solución: En el procedimiento de calibración en análisis instrumental se consideran los siguientes asunciones básicas. i.
Los errores aleatorios en el experimento de calibración ocurren solamente en los valores de y, las ―y‖ y las concentraciones estándares sobre la ―x‖
ii.
L magnitud del error aleatorio en y es independiente de la concentración del analito (HOMOCEDASTICIDAD)
iii.
El error aleatorio en y sigue una distribución normal
iv.
La muestra en blanco contiene todo los reactivos menos el analito.
v.
El coeficiente de correlación Momento-Producto: (x1 , y1) (x2 , y2)..(xi , yi)..(xn , yn)
. Intensidad fluorescencia (u.a)
2,1
5,0
9,0
12,6
17,3
21,0
24,7
Concentración de floresceina pg/mL
0
2
4
6
8
10
12
El coeficiente de correlación ―r‖ esta dado por: r=
∑̅ ∑ ̅ ∑
̅ ∑ ̅ ∑ ̅ ∑̅ ∑ ∑ ̅ ∑
Suma de los cuadrados de las desviaciones de los datos con respecto a la media
,
Sb=
, Sa=
Sy/x =
,r=
a. Calcule la pendiente y la ordenada al srcen de la recta de regresión para los datos dados en el problema: Con los datos tabulados y las fórmulas de regresión.
∑ ̅ ̅ (10.5830)(20.4524)
Pendiente: Intercepto:
Línea de regresión: y = 1,93x + 1,52
216.45
Desviación estándar de la pendiente:
=
Sb=
,
= 0.471423
S = = √ = = 0.0445453 b
Desviación estándar de la ordenada en el srcen: Sa =
̅
= 0.47142
= 0.47142
√
= 0.321221
El calculo del coeficiente de correlación ―r‖ esta dado por: r=
∑̅ ∑ ̅ ∑= √ = 0.998545
b. Calcule la desviación estándar residual y los límites de confianza (al 95%) para la pendiente y la ordenada al srcen. Datos: n = 7 a = 1,52 b = 1,93 SXX = 112
̅
SYY = 418,56 t = 2,57 (95% f=5)
√
0,471423
Límites de confianza: Para la pendiente y la ordenada. b ± tSb = 1,93 ± 2,57*0,0445453 = 1,93 ± 0,11
Sa
=
SR
̅ = 0, 471423
0,321221
a ± tSa = 1,52 ± 2,57*0,321221 = 1,52 ± 0,83 Figura Nro. 52. Gráfica de la recta de regresión: y= (1.93±0.11) x – (1.52 ± 0.83) c. Determine las concentraciones, las desviaciones estándar y sus límites de confianza (95%) para soluciones con intensidades de fluorescencias de 2,9; 13,5 y 23 unidades para L= 1. Analice donde es conveniente que caiga el valor de la señal de la muestra dentro de la curva de calibración. Solución. 1. Calculo de la concentración de una muestra desconocida : xo =
2. y0 = Es el valor experimental de y a partir del cual se determina x 0
|̃|
3. Donde de L= es el número de lecturas para obtener y0 4. Intervalo de confianza: x0 ± t Sxo t con (n-2) grados de libertad. 5. Datos: n=7 a = 1,52
SR = 0,471423 L = 1 b = 1,93
6. Intervalo de confianza:
Para yo = 2,9
= 0,72 ± 0,74
Para = 13,5 yo
=
6,21 ± 0,67
Para = 23,0 yo
= 11,13 ± 0,73
Nótese que estos intervalos se hacen más anchos a medida que yo se aleja de y d. Si se considera como el promedio de cuatro medidas el valor de intensidad de fluorescencia de 13,5 cuáles serán los valores de la desviación estándar de la concentración calculada y el límite de confianza? Y si fuera el promedio ocho? Analice cual es la mejora obtenida al aumentar el número de medidas. n=4
̅
SR = 0,4672 b = 1,93 y o = 13,5 S xx = 112
= 0,3054
Limite de confianza para el 95%.
b ± tSb = 1, 93 ± 2, 57*0, 3054 = 1, 93 ± 0, 8877
̅ Sa = SR
= 0, 471423
0, 3564
a ± tSa = 1,52 ± 2,57*0,3564 = 1,52 ± 0,9159; Para un valor de 8. = 0,2798
Problema Nro. 20. L a concentración de plata en una muestra de desechos fotográficos se determino por AA. 0
5
10
15
20
25
30
0.32
0.41
0.52
0.60
0.70
0.77
0.89
Determine la concentración de plata en la muestra y los límites de confianza al 95 % para esta concentración.
y= 0.01864x + 0.3218
̅
a = - 0.3216 S xx = 700
0.6014 b = 0.01864 SR = 0.01092
y= 0.01864x + 0.3218 Cuando y= 0
- t = 2.57 (95% f=5) = = = 0.2221
XAg =|[ SbAg
XAg = 17.3 ± 0.2 ug/mL
1.10.5. Materiales de Referencia Certificada (CRM). 1. Son muestras en las que los valores de una o más de sus propiedades están certificadas, con sus incertidumbres especificas, obtenidos por procedimientos técnicamente validos bajola responsabilidad de un organismo competente e independiente; la certificación también implica una documentación detallada de su trazabilidad. 2. En el mundo existen varios organismos reconocidos como certificadores de materiales de referencia dentro de ellos se encuentran: NIST (NationalInstitute of Standars and Technology) de US, NRC (nacional Research Council de Canada, BRC (EU Standars, measurement & testing programe, Bélgica) 3. Su costo es demasiado elevado para permitir el uso diario y suele ser reemplazado por materiales de referencia secundarios con propiedades certificadas por el laboratorio usuario mediante el uso de un material de referencia certificado.
4. Existen normas Internacionales y Nacionales vinculadas a distintos aspectos acerca de los materiales de referencia. 1.11. Características de desempeño de un método analítico. Es necesario contar con información completa de las condiciones experimentales debido a que cuanto más variadas sean estas, mayores serán las causas de variabilidad, mayor la dispersión del conjunto de resultados y menor precisión. Linealidad. Capacidad del método de producir resultados que son directamente proporcionales a la concentración del analito en la muestra. Rango Dinámico Lineal. Intervalo entre las concentraciones máximas y mínima del analito para las que se ha demostrado que el método tiene niveles aceptables de precisión, exactitud y linealidad. Robustez. Es una medida de la capacidad del método para no ser afectado por pequeños cambios deliberados en sus parámetros y provee una indicación de su confiabilidad durante su uso normal. Sensibilidad. La definición aceptada por (IUPAC), es la de sensibilidad de calibrado, que se define como la pendiente de la curva de calibrado a la concentración objeto de estudio. a. Límite de detección. Es la concentración de analito [C LD ] que corresponde a una señal Y LOD que puede distinguirse estadísticamente de una señal del blanco (Y Blanco) y que se concreta matemáticamente en la expresión: Y LOD = YB + 3σB Siendo Y B la media cuando n > 30 blancos y σB su desviaci{on etandar.
Figura Nro. 53. Comparación de límites de detección. Fuente. analisisindustrial.wikispaces.com/.../Calibracion+univariada+y+AFOMs.ppt
b. Limite de cuantificación. El límite instrumental de cuantificación, se puede definir como la cantidad más pequeña de un analito que se pueda cuantificar confiablemente en un instrumento. Generalmente se acuerda la cuantificación como la señal para una concentración igual a 10 veces la desviación estándar del blanco. Esto se llama el límite de la cuantificación o límite de la determinación, por ello: YLOQ = YB + 10σB
Figura Nro. 54. Limite de cuantificación. Fuente:analisisindustrial.wikispaces.com/.../Calibracion+univariada+y+AFOMs.ppt
Figura Nro. 55. Elaboración de la curva patrón, señalando sus componentes principales. Fuente: analisisindustrial.wikispaces.com/.../Calibracion+univariada+y+AFOMs.ppt 1.12. Evaluación de la calidad de un laboratorio analítico . La evaluación de la calidad debe realizarse de dos formas distintas e independientes mediante control de calidad interno y control de calidad externo.
El control de calidad interno de un laboratorio es el conjunto de procedimientos llevados a cabo por el personal del laboratorio para controlar en forma continua la operación y los resultados de las mediciones a fin de decidir si los resultados son suficientemente confiables para ser emitidos. Puede utilizarse un MRC material de referencia certificada o un MRI material de referencia interno o secundario. Estos materiales deben ser en lo posible representativos de las muestras que se están ensayando en lo que respecta a composición de la matriz, el estado físico de preparación y el intervalo de concentración del analito. Tanto los materiales de control como aquellos usados para calibraciones debieran ser trazables a materiales de referencia certificados o por lo menos a un método de referencia reconocido. Procedimiento general: Se somete rutinariamente la muestra control a análisis completo en condiciones de reproducibilidad y luego se evalúan estadísticamente los resultados obtenidos. Se construyen diagramas de control que son trazos gráficos de los resultados de las pruebas con relación al tiempo o secuencia de las mediciones, se establecen límites estadísticos que pueden ser preventivos o de Peligro (±2σ) o límites de acción o rechazo (±3σ) Diariamente, se somete una alícuota de la misma muestra del MRC o MRI al análisis y se representa en la carta de control. Existen varias reglas destinadas a interpretar diagramas de control, una de las mas conocidas son las reglas de Shewhart. El control de calidad externo está a cargo de un grupo de laboratorios que participan de una ronda de análisis de un MRC o un MRI común, luego un organismo externo realiza las evaluaciones estadísticas de los resultados. De esta manera puede conocerse la exactitud de los resultados emitidos por un laboratorio respecto de los demás. Puede realizarse con distintos fines: a. Acreditación del Laboratorio b. Examinar el trabajo de los laboratorios: Proficienty Testing, doble comparación entre valores de los laboratorios participantes y con el valor certificado si es un MRC. 1.13. Acreditación de laboratorios.Es el reconocimiento formal, por una organización independiente con bases científicas, de que un laboratorio es competente para realizar pruebas específicas. Por lo general la acreditación es específica para probar sistemas, productos, componentes o materiales, para los cuales el laboratorio afirma ser competente. En Argentina existen instituciones gubernamentales y privadas que poseen atribuciones legales o licencias internacionales para realizar acreditaciones. El SENASA es el organismo oficial de acreditación de laboratorios para realizar determinaciones en alimentos a exportar. El Bureau VERITAS posee la licencia a nivel Nacional para acreditación de normas ISO. A su vez organismos internacionales que realizan sus propias acreditaciones como la FDA de US.
1.14. Problemas básicos de calibración. Técnicas instrumentales. Problema. Nro. 21. Los datos obtenidos en la calibración para determinar plomo a partir de su espectro de emisión de llama se analizaron por mínimos cuadrados y la ecuación obtenida fue: S = 1.12 cPb +0.312 Siendo cPb la concentración de plomo en partes por millón y S la señal de la intensidad relativa de la línea de emisión del plomo. Se obtuvieron los siguientes resultados en los replicados: Conc. Pb en ppm
Nro. de replicados
Valor medio de S
s
10.000
10
11.6200
0.1500
1.000
10
1.1200
0.0250
0.000
24
0.0296
0.0082
Calcular (a) la sensibilidad de calibrado, (b) la sensibilidad analítica para 1 ppm y para 10 ppm de Pb y (c) el límite de detección. Solución: (a) La definición cuantitativa de sensibilidad aceptada por la Unión Internacional de Química Pura y Aplicada (IUPAC), es la de sensibilidad de calibrado, que se define como la pendiente de la curva de calibrado a la concentración objeto de estudio. La mayoría de las curvas de calibrado que se usan en química analítica son lineales y se puede representar mediante la ecuación: S= mc + Sbl en la que S es la señal medida, c es la concentración del analito, Sbl es la señal instrumental de un blanco y m es la pendiente de la línea recta. El valor de Sbl será la intersección de la recta con el eje y. Por lo tanto el valor de la pendiente es la sensibilidad de calibrado: m = 1.12 (b) Mandel y Stiehler proponen la siguiente definición para la sensibilidad analítica γ = m/SS siendo m pendiente y SS es la desviación estándar de las medidas. Para 10 ppm de plomo γ = 1.12/0.15 = 7.5 Para 1 ppm de plomo γ = 1.12/0.025 = 45 (c) El límite de detección es la mínima concentración o la mínima masa de analito que se puede detectar para un nivel de confianza dado. Este límite depende de la relación entre la magnitud de la señal analítica y el valor de las fluctuaciones estadísticas de la señal del blanco. Sm = Ŝbl + ks bl = 0.0296 + 3 x 0.0082 = 0.054 sustituyendo en la ecuación: c m = [Sm - Ŝbl] / m = [0.054 -0.0296] / 1.12 = 0.022 ppm de Pb. Referencia: pag. 14 Skoog-Holler-Nieman Principios de Análisis Instrumental
Problema Nro. 22. El coeficiente de selectividad para un electrodo selectivo de iones de K + con respecto a los iones Na+ es de 0.052. Calcular el error relativo en la determinación de K + de una disolución que tiene una concentración 3.00 x 10 -3 M de K+ si la concentración de Na + es (a) 2.00 x 10-2 M; (b) 2.00 x 10 -3 M; (c) 2.00 x 10 -4 M. Suponer que Sbl para una serie de blancos es cero. Solución. La selectividad de un método analítico indica el grado de ausencia de interferencias con otras especies que contiene la matriz de la muestra. El coeficiente de selectividad indica la respuesta relativa del método para la especie B cuando se compara con A: k AB = mB / mA. Un coeficiente similar para C con respecto a A será: kCA = mC / mA. Sustituyendo en Sm = Ŝbl + ksbl Conduce: S= mA (cA + kBA cB+ kCA cC ) + Sbl Luego: (a)
S / mK+= (cK+ + kNa+K+ cNa+ ) + Sbl
S/ mK+= 3, 00 x 10-3 +0.052 X 2.00 X 10-2 = 4, 04 X 10-3 Si no hubiera Na+ S / mK+ = 3,00 x 10-3 Para (b) S/ m K+= 3, 00 x 10-3 +0.052 x 2.00 x 10-3 = 3, 104 x 10-3 Para (c) S/ m K+= 3, 00 x 10-3 +0.052 x 2.00 x 10-4 = 3, 0104 x 10-3 Luego los errores relativos en c K+ será idéntico al error relativo en S/ mK+ (a) E rel = [(4,04 x 10 -3 – 3,00 x 10-3)/3,00 x 10-3] x 100%
= 35.00%
(b) E rel = [(3,104 x 10-3 – 3,00 x 10-3)/3,00 x 10-3] x 100% = 3.46% (c) E rel = [(3,0104 x 10-3 – 3,00 x 10-3)/3,00 x 10-3] x 100% = 0.346% Referencia: pag. 15 Skoog-Holler-Nieman Principios de Análisis Instrumental Problema Nro. 23. Se pipetean varias alícuotas de 10 ml. De una muestra de agua mineral en matraces aforados de 50.00 ml. A cada uno se adicionan exactamente 0,00; 5,00; 10,00; 15,00 y 20,00 ml de una disolución patrón que contiene 11,1 ppm de Fe3+ seguido de un exceso de ion tiocianato para dar el complejo rojo Fe(SCN)2+ y se enrasan hasta 50,00 ml. Las señales del fotómetro para las cinco disoluciones fueron 0,240; 0,437; 0,621; 0,809 y 1,009, respectivamente (a) ¿Qué concentración de Fe3+ hay en la muestra de agua? (b) Calcular la desviación estándar de 3+
la pendiente, de la ordenada en el srcen y de la concentración de Fe Solucion: (a) Calculo de la concentración de Fe3+
m=b=
a
X(V)
Y(S)
X
XY
Y
0
0,240
0
0
0.0576
5
0,437
25
2,185
0,19097
10
0,621
100
6,21
0,3844
15
0,809
225
12,135
0,6545
20
1,009
400
20,18
1,01808
50
3,116
750
40,71
2,30555
1/5
10
0,6232
150
8.142
0.46111
XY - X Y = [(8,142 – 10 x 0, 6235)] / (150 – 100) = 0, 0382 X X
1/5
1/5
2
2
Y - b X = 0, 6232 – (0, 0382)10 = 0, 2412
y=bx+a S = 0,0382Vs + 0, 2412 La concentración CX se puede obtener a partir de los valores de b y a y los valores conocidos de: b = 0,0382 CS = 11,1 ppm Fe 3+ VX = 10,00ml y VS = a / b = V X CX /CS CX = a CS / b VX = (0, 2412 x 11, 1) / (0, 03820 x 10, 00) = 7, 01 ppm de Fe3+ Este valor se puede determinar por extrapolación. El valor extrapolado representa el volumen de reactivo que corresponde a una señal en el instrumento y que en este caso es -6,31 mL La concentración desconocida de analito en la disolución srcinal se puede calcular como sigue:
grafica 1.600E+00 1.400E+00
ia c n 1.200E+00 a b o s
1.000E+00
b A : 8.000E-01 je e l e 6.000E-01 d lo u ít T
grafica Lineal (grafica)
4.000E-01 2.000E-01 0.000E+00 0.000E+00 1.000E+01 2.000E+01 Título del eje: Concentración
CX = - [(VS)O]CS / VX = 6,31 mL x 11,1ppm / 10,00 mL = 7,01 ppm Fe3+
(b) La desviación estándar de la pendiente Sb y la desviación estándar de la ordenada en el srcen S a la raíz cuadrada de esta ecuación da:
SC
⟨⟩
⟨⟩
SC
Fe3+
CX= 7.01 ± 0.12 ppm Referencia: pag. 18 Skoog-Holler-Nieman Principios de Análisis Instrumental Problema Nro. 24. En la determinación de una especie X por un método instrumental en el que la señal analítica se define como P = kCx, se obtuvieron los siguientes datos de calibración: Concentración de Xi
0
2
6
10
14
18
Señal analítica P
0,031
0,173
0,422
0,702
0,956
1,248
a) Representa y calcula la ecuación de la curva de calibrado. b) Calcular la concentración molar de X en una muestra, si al medir la intensidad de la señal Analítica se obtiene un valor de P = 0,532. c) Sabiendo que la desviación estándar absoluta del blanco es s b= 0.0079, calcula el limite de detección y de cuantificación del compuesto X usando este método instrumental. d) Define la sensibilidad del calibrado y calcula la sensibilidad analítica del método propuesto. Dato: Pm (X) = 207.2 g mol-1 Respuesta: a) y = 0,0670x + 0.03001; b) 3.615x10-5 M; c)LOD = 0.353 y LOQ = 1.180; d) 0.067 y 0.143. Solución: Vamos a resolver este problema por dos procedimientos el manual y por el método regresión lineal por mínimos cuadrados según la fuente:: www.uclm.es/profesorado/pablofernandez/FAI/1-INTRODUCCION.pdf -
0 2
̅ ̅ ̅ 0.031
-8.33
69.3889
-0.557
0.310249
4.63981
0.173
-6.33
40.0689
-0.415
0.172225
2.7834695
6
0.422 -2.33
5.4289
-0.166
0.027556
0.38678
10
0.702 1.67
2.7889
0.114
0.012996
0.19038
14
0.956 5.67
32.1489
0.368
0.135424
2.08656
18
1.248 9.67
93.5089
0.66
0.4356
6.1715874
243.3334
-0.004
1.09405
16.2585869
8.33 0.588 -4.33 Procedimiento manual.
El coeficiente de correlación ―r‖ esta dado por:
Donde:
Fuente: www.uclm.es/profesorado/pablofernandez/FAI/1-INTRODUCCION.pdf Línea de regresión: y = 0.0668x + 0.032 (Procedimiento manual) Linea de regresión: y = 0.06704x + 0.03001 (procedimiento según Fuente: www.uclm.es/profesorado/pablofernandez/FAI/1-INTRODUCCION.pdf -) b) Calcular la concentración molar de X en una muestra, si al medir la intensidad de la señal
Analítica se obtiene un valor de P = 0,532. y = 0.0668x + 0.032 0.532 = 0.0668x + 0.032 x = 7.485 ppm. c) Sabiendo que la desviación estándar absoluta del blanco es S B = 0.0079, calcula el limite de detección y de cuantificación del compuesto X usando este método instrumental.
= = 0.35479 ppm LOQ = = = 1.1826 ppm LOD =
d) Define la sensibilidad del calibrado y calcula la sensibilidad analítica del método propuesto. 1. La sensibilidad del calibrado es el valor de la pendiente: b= 6.68x10 -2 2. La sensibilidad analítica de las medidas:
∑( )
=
se define como el valor de la pendiente entre la desviación estándar
= 0.1428 = 1.428x10
-1
Problema Nro. 25. Se llevo a cabo la determinación de un metal M en vinos mediante una técnica óptica (absorción atómica). Para ello, en cinco matraces aforados de 50 mL se pusieron 10 mL de vino y se le añadieron a cada uno de ellos 0, 5, 10, 15 y 20 mL de una disolución patrón de M conteniendo una concentración de 10 mg L-1 de dicho metal. Seguidamente, los matraces se enrasaron con agua des ionizada y se midió la absorbancia de cada una de ellas obteniendo los siguientes valores: 0.040, 0.062, 0.081, 0.102, 0.135. Realiza un esquema del experimento propuesto y explica brevemente que tipo de método de calibración se ha usado para la determinación del M. Finalmente calcula la ecuación de la recta de regresión y obtén la concentración del M en el vino (mg L-1). Solución: 8.26 mg L-1 de M Problema 26. Un acero de alto grado se analizo para ver su contenido en Mn, usando para su determinación Fe como estándar interno. Se preparo una muestra estándar que contenía Fe y 5 mg L-1 de Mn cuya lectura de intensidades absolutas fueron 8.0 (2933 A) y 10.2 (2932 A) respectivamente. Una muestra desconocida de acero se trato de la misma forma, es decir, se le añadió la misma concentración de Fe y se midieron las intensidades absolutas a las longitudes de onda correspondientes para cada metal obteniéndose valores de 8.2 y 12.5 para Fe y Mn respectivamente. Explica brevemente en que consiste el método de calibración usando patrón interno y calcula la concentración de Mn en la muestra de acero desconocida. Solución: 5.98 mg L-1 de Mn Cuadro Nro. 04. Uso de puntos experimientales
Fuente: http://www.ebookpp.com/ej/ejercicios-de-regresion-no-lineal-resueltos-ppt.html.
Tabla 21: Diversas Técnicas de Análisis empleadas según la fase de la Muestra. Fase Gas
Técnicas de Análisis que aceptan esta fase de la muestra Espectrometría Infrarroja Raman (camino largo) Espectrometría UV-VIS Emisión y Absorción atómica Luminiscencia Espectrometría de microondas Cromatografía de Gases Espectrometría de masa Métodos radio químicos Espectrometría de movilidad de iones
Disolución/liquido
Cromatografia liquida Cromatografia de gás Cromatografia de fluidos supercríticos Volumetrias Ressonância magnética nuclear Espectrometria infrarroja Espectrometria Raman Espectrometria UV-VIS Resonancia de spin eletrônica Gravimétrica Métodos eletroquímicos Absorciòn, emisiòn atômica Espectrometria de masas Métodos de radiofrecuenccias Métodos radioquimicos Dispersiòn por luz de polímero
Sólidos
Fluorescencia de rayos X Cristalografía de rayos X Espectrometría infrarroja (reflexión y transmisión) Espectrometría Raman UV-Visible (reflexión y transmisión) Espectrometria fotoacústica Activacion neutronica Métodos radioquimicos Métodos de análisis térmico Resonancia del estado sólido Técnicas de magnética análisis de nuclear superficies(ESCA, Auger, microscopia de efecto túnel, microscopia de fuerza atómica, retrodifusion de Rutherford, Difracción electrónica) Espectrometría de Moosbauer Resonancia de spin electrónico
1.15. Prácticas de laboratorio. Práctica N° 1: Cifras significativas, propagación de errores y tratamiento estadístico de resultados. I.
Objetivos. a. Determinar las cifras significativas experimentales , propagación de errores y eltratamiento estadístico de los resultados.
b. Adquirir habilidad en el uso y aplicación de las herramientas estadísticas de naturaleza aleatoria. II.
Fundamentos teóricos
III.
Materiales, Reactivos y Equipos. a. Clips, clavos, monedasbalanza analitica
IV.
Método operatorio a. Pesar las muestras proporcionadas por el profesor. b. Fórmula =
̅ √
c. Desarrollar los ejercicios de cifras significativas, incertidumbre con la cantidad correcta de cifras significativas y método de mínimos cuadrados para calcular la ecuación de la mejor recta. (del 1 al 13) V.
Cálculos y resultados a. Presentar las respuestas para un L.C. al 97%
VI.
Bibliografia
1. Redondee cada número a la cantidad de cifras significativas, incertidumbre que se indica. a) 1,2367 a 4 c. s b) 1, 2384 a 4 c. s c) 0, 1352 a 3 c. s d) 2,051 a 2 c. s e) 2, 0050 a 3 c. s f) 2, 0150 a 3 c. s g) 2, 00501 a 3 c. s Respuesta: 1,237; 1,238; 0,135; 2,1; 2,00; 2,02; 2,01.
2. Escriba cada respuesta con la cantidad correcta de cifras significativas. a) 1,021 + 2,69 = 3,711 b) 12,3 – 1,63 = 10,67 c) 4,34 x 9,2 = 39,928
4
d) 0,0602 / (2,113 x 10 ) = 2,84903 x 10
-6
-6
Respuesta: 3,71; 10,7; 40; 2,85 x 10 .
3. Empleando la cantidad correcta de cifras significativas, calcule la masa molar de: a) cloruro de bario b) C31H32O8N2 PA Ba = 137,327 g.mol-1 PA Cl = 35,4527 -1 g.mol PA C = 12,011 g.mol
PA H = 1,00794 g.mol-1 PA O = 15,9994 -1 g.mol PA N = 14,00674 -1 g.mol
7. Escriba cada resultado con la cantidad correcta de cifras significativas: a) 1,0 + 2,1 + 3,4 + 5,8 = 12,3000 b) 106,9 - 31,4 = 75,5000 2
3
c) 107,868 - (2,113 x 10 ) + (5,623 x 10 ) = 5519,568 d) (26,14 / 37,62) x 4,38 = 3,043413 8
-2
-10
e) (26,14 / 37,62 x 10 ) x (4,38 x 10 ) = 3,043413 x 10 f) (26,14 / 3,38) + 4,2 = 11,9337 -10
Respuesta: 12,3; 75,5; 5520; 3,04; 3,04 x 10
; 11,9.
8. Determine la incertidumbre absoluta y la incertidumbre relativa porcentual para cada cálculo. Exprese los resultados con una cantidad razonable de cifras significativas. a) 9,23 (± 0,03) + 4,21 (± 0,02) - 3,26 (± 0,06) = ? b) 91,3 (± 0,1) x 40,3 (± 0,2) / 21,1 (± 0,2) =? c) [4,97 (± 0,05) - 1,86 (± 0,01)] / 21,1 (± 0,2) =? d) 2,0164 (± 0,0008) + 1,233 (± 0,002) + 4,61 (± 0,01) =? 3
2
1
e) 2,0164 (± 0,0008) x 10 + 1,233 (± 0,002) x 10 + 4,61 (± 0,01) x 10 = ? Respuesta: 10,18 (± 0,07) , 10,18 ( ± 0,7 %) ; 174 ( ± 2) , 174 ( ± 1 %) ; 0,147 ( ± 0,003) , 0,147 (± 2 %) ; 7,86 ( ± 0,01) , 7,86 (± 0,1 %) ; 2185,8 ( ± 0,8) , 2185,8 (± 0,04 %).
9. Para el cloruro de sodio.
-1
a) Demuestre que la masa molar del cloruro de sodio es 58,4425 (± 0,0009) g.mol . b) Para preparar una disolución de cloruro de sodio, se tomó una masa de 2,634 (± 0,002) g y se disolvió en un matraz aforado de 100,00 (± 0,08) mL. Exprese la molaridad de la disolución resultante y su incertidumbre con la cantidad correcta de cifras significativas. -1
PA (Na) = 22.989768 (± 0,000006) g.mol . -1 PA (Cl) = 35.4527 (± 0.0009) g.mol . Respuesta: 0,4507 (± 0,0005) M ; 0,4507 (± 0,1 %) M. 10. Mediante el test Q, decida si el valor 216 debe descartarse del conjunto de resultados 192, 216, 202, 195, 204. Respuesta: No debe descartarse.
11. Empleando el método de mínimos cuadrados se calculó la ecuación de la mejor recta a partir 4 4 4 4 de los puntos: (3,0 ; -3,87 x10 ), (10,0 ; -12,99 x 10 ), (20,0 ; -25,93 x 10 ), (30,0 ; -38,89 x 10 ), 4 (40,0 ; -51,96 x 10 ). 4
Los resultados son: m = -1,29872 x10 , b = 256,695, σm = 13,190, σb = 323,57. Exprese la pendiente y la ordenada en el srcen y sus incertidumbres con la cantidad correcta de cifras significativas. Respuesta: y = [- 12987 ( ± 13) ] x + 257 ( ± 324) 12. Empleando el test Q, determine el número n más grande que podría conservarse en el conjunto 63, 65, 68, 72, n. Respuesta: 88.
13. Aplique el método de mínimos cuadrados para calcular la ecuación de la mejor recta que pase por los puntos: (1 ; 3), (3 ; 2), (5 ; 0). Exprese su respuesta en la forma y = [m (± σm)]x + [b (± σb)], con la cantidad correcta de cifras significativas. Respuesta: y = [- 0,8 ( ± 0,1)] x + 3,9 (± 0,5) Practica Nro. 02: Valoración potenciométrica I.
Objetivo. PARTE A: Valoración de una disolución de NaOH empleando un patrón primario. PARTE B: Obtención de las curvas de valoración de un ácido fuerte y de un ácido débil. PARTE C: Determinación potenciométrica de la constante de acidez del ácido acético.
a. El objetivo de la práctica es doble: por una parte, introducir al alumno en el campo cuantitativo donde, a diferencia del cualitativo, la medición exacta de todas las variables es de capital importancia; y por otra parte, ilustrar la utilización del método potenciométrico en dos de sus aplicaciones más importantes: (1) valoración potenciométrica ácido-base,
obtención de la curva de valoración y (2) utilización de los datos potenciométricos obtenidos en una valoración para la determinación de una constante de acidez.
b. Evaluación del punto de equivalencia utilizando los métodos analíticos instrumentales empleando la primera derivada, segunda derivada y método de Gran. II.
Fundamento teórico.
Figura Nro. 56. Patrones ácidos y patrones alcalinos. Fuente: http://www.powershow.com/view/292265YzAzY/VALORACIONES_CIDOBASE_powerpoint_ppt_presentation
Figura Nro. 57. Forma de l as gráficas de las Titulacionews Potenciométricas. Fuente: http://www.webdelprofesor.ula.ve/ciencias/rmhr/Index_archivos/Conductimetria-%20Potenciometria.pdf
III.
Materiales, reactivos y equipos.
Materiales
Reactivos
Equipos
Dos vasos de precipitados de
Disolución de ácido
pHmetro con
100,400 mL (HAc, (NaOH) de 100 mL de vidrio HCly 3y ―para Valor.pot.) Erlenmeyer de 100 mL Pipeta de 5 mL y 2 propipeta Bureta de 50, 100 mL Papel milimetrado y calculadora Probeta 50 mL Pesasustancias 2 Espátulas por balanza
clorhídrico aprox. 0.1 M para ser valorada. Disolución de NaOH aprox. 0.1 M para ser valorada. Disolución de ácido acético aprox. 0.1 M para ser valorada. Disoluciones tampón de pH 4 y 7 para calibrar el pH-metro Ftalato ácido de potasio (C6H4C2HO4K). Fenolftaleina NaCl (s)
electrodo de vidrio Agitador magnético Balanza digital
IV.
Procedimiento: Según el manual adicional de experimentos,
Figura. Nro. 58: Esquema del sistema de valoración potencio métrica. Fuente:http://www.uv.es/fqlabo/QUIMICOS/GRADO/LQII/LQII_2012-2013/LQII_Practica_8_Valoracion_potenc.pdf V.
Cálculos
1. Graficar los valores de pH vs V mL de HCl añadidos. 2. En la gráfica determine los puntos de equivalencia. Utilizando los métodos analíticos instrumentales empleando la primera derivada, segunda derivada y método de Gran. 3. Determine VA, VB, así como VA/2, VB/2 y calcule los valores de [ pKa y pKb ] Practica Nro. 03: Valoraciones conductivimétricas. I.
Objetivo.
a. Determinar las conductividades de varias muestras de agua. Agua destilada, Agua de servicio público, Agua de diversas fuentes de afloramiento en la provincia de Huaura, Agua de mar. b. Valorar una disolución básica mediante otra ácida de concentración conocida, empleando como método la variación de la conductividad eléctrica. c. Determinar el punto de equivalencia resolviendo las dos ecuaciones conductimétricas, evaluadas por regresión lineal por mínimos cuadrados.
II.
Fundamento teórico.
Figura Nro. 59. Forma del gráfico de una Titulación Conductivimétrica. Fuente: http://www.webdelprofesor.ula.ve/ciencias/rmhr/Index_archivos/Conductimetria%20Potenciometria.pdf
Figura Nro. 60. Relación entre la conductividad y sólidos disueltos. Fuente: http://es.scribd.com/doc/37234683/CONDUCTIMETRIA-Y-POTENCIOMETRIA
Figura Nro. 61. Relación entre la conductividad y Dureza del agua. Fuente: http://es.scribd.com/doc/37234683/CONDUCTIMETRIA-Y-POTENCIOMETRIA III.
Materiales, reactivos y equipos.
Materiales
Reactivos
Equipos
Dos vasos de precipitados de 100,400 mL (NaOH) y 3 de 100 mL de vidrio (HAc, HCl y ―para Valor.pot.) Erlenmeyer de 100 mL Pipeta de 5 mL y 2 propipeta Bureta de 50, 100 mL Papel milimetrado y calculadora Probeta 50 mL Pesasustancias 2 Espátulas por balanza Muestras de aguas de diversas
Disolución de ácido clorhídrico aprox. 0.1 M para ser valorada. Disolución de NaOH aprox. 0.1 M para ser valorada. Disolución de ácido acético aprox. 0.1 M para ser valorada. Disoluciones tampón de pH 4 y 7 para calibrar el pH-metro
Conductívimetro con electrodo de vidrio Agitador magnético Balanza digital
fuentes
Ftalato ácido de potasio (C6H4C2HO4K). Fenolftaleina NaCl (s)
IV.
Método operatorio. Según el manual adicional de experimentos
V.
Cálculos.
Mostrar gráficamente los datos reales y las evaluadas por regresión en papel milimetrado o a computadora con colores diferentes y la solución de las dos ecuaciones que dan el punto exacto de equivalencia volumétrica. VI. CUESTIONARIO: 1. ¿Qué información se puede obtener de una curva de titulación conductivetrica? 2. ¿Cuáles son los equilibrios a considerar en cada parte de esta titulación? 3. ¿Cómo se espera la curva de titulación del ácido acético? 4. ¿Cuáles son los equilibrios a considerar en esta titulación?
Figura Nro. 62.Titulador automático y detalle de los dispositivos que se integran en la celda de valoración. Fuente: agrobioenmiendas.iespana.es/materialesymetodos.pdf Practica Nro. 04: Titulaciones potenciométricas de neutralización I.
Objetivo. a. Determinar la concentración de soluciones problema de electrolitos fuertes y débiles por mediode titulaciones potenciométricas. b. Aplicar la potenciometria en la titulación de neutralización para determinar las constantes de disociación del ácido fosfórico. c. Conocer la aplicabilidad de la titulación potenciométrica para determinar la acidez total en muestras de vino.
II.
Fundamentos teóricos
Figura Nro. 63. Esquema de un proceso de titulación Potenciométrica de neutralización.Fuente: http://www.slideshare.net/madridmgd/mtodos-volumetricos-deanlisis III.
Materiales, reactivos y equipos Vasos de precipitados de: 250,400, 100 mL. Bureta de 50, 100mL. Agitador magnético, potenciómetro Soluciones: NaOH 0.1N, H3PO4 0.1M Solución tampón pH 4 y 7 para calibración del pH-metro Solución problema de ácido fosfórico Vino rosado o blanco.
IV.
Método operatorio a. Según el manual adicional de experimentos: .(Páginas 22-28 Manual de laboratorio de análisis instrumental Prof. Silvia Margarita Calderon y Prof. Aura Marina Gonzalez) b. Titulación de una solución de ácido fosfórico de concentración desconocida, Determiknación de la acidez total de una muestra de vino, Determinación de la acidez total de una muestra de vino.
V.
Cálculos. a. Derivación numérica para determinar los puntos de equivalencia en titulaciones potenciométricas.
Bibliografía
1. Draft EURACHEM/CITAC Guide Quantifying Uncertainty in Analytical Measuremant. Second Edition. Eurachem workshop, Helsinsky 1999. Junio 1999. 2. Frederick M Garfield. Principios de garantía de calidad para laboratorios analíticos. Ed. Española AOAC International. 1993 3. Kenneth Rubinson and Judith F Rubinson.Análisis Instrumental.Editorial Prentice Hall. 2001. 4. Liliana Castro.Calidad en Laboratorios de Alimentos .Programa de metrología en Química. INTI. Congreso Internacional de Ciencia y Tecnolgía de Alimentos. Cordoba. Arg. Nov. 2004. 5. Neil T Crosby, John A Day y otros. Quality in the analytical chemistry laboratory .. Analytical Chemistry by Open Learning. Edit. Published on behalf of ACOL (University of Greenwich). ISBN 0-471-95470-5 6. M Valcarcel.Principios de Química Analítica .Ed. Springer-Verlag Ibérica. Barcelona 1999. Bibliografia electronica www.slideshare.net/todocello/tema-4-calibraciones-y-regresin-3946691 cursweb.educadis.uson.mx/.../Introducción%202007-2.%20Unidad%20I.PPt
www.uhu.es/alfredo_velasco/.../01-TranspIntrodQA-0708.ppt www.utim.edu.mx/~navarrof/Docencia/QuimicaAnalitica /conf1.ppt cursweb.educadis.uson.mx/.../Introducción%202007-2.%20Unidad%20I.PPt
http://es.scribd.com/doc/42279876/Quimiometria-Leccion-5-Calibrado-y-Regresion-Notas-de-Clase.
MODULO II: ESPECTRO ELECTROMAGNETICO Comienza este Manual casi como comienza la vida; con la visión de la luz y el color. Es importante saber que en realidad esa luz blanca que nos ilumina está compuesta por varios colores, los colores del espectro visible , los colores que el ojo humano pueden ver.
Para desarrollar el módulo II, será un desafío cotidiano el manejo y conocimiento de las regiones del espectro electromagnético, el espectro electromagnético monocromático de cada una de las fuente de luz, ya que sin ese conocimiento, el mejor de los proyectos resultará un fracaso si el color o la zona espectral de los objetos involucrados no es reproducido con la fidelidad necesaria. 2.1. Teoría del color. ¿Qué es el color? Es la forma en que percibimos las distintas longitudes de onda de la luz. La verdad es bastante más complicado de lo que puede parecer en un principio, porque en realidad lo que nuestros ojitos perciben no es la luz en sí, lo que vemos en realidad es la luz que reflejan los objetos.Dependiendo de la persona y las condiciones del entorno, el ojo humano es capaz de percibir hasta cerca de un millón de colores. Todo cuerpo iluminado absorbe una parte de las ondas de luz y refleja las restantes. Existen numerosas fuentes emisoras de luz (el sol, las lámparas fluorescentes, incandescentes, el fuego, etc.) y cada una afecta considerablemente la manera en que percibimos los colores.
Figura. Nro. 64. Espacio de la luz visible desde el ultravioleta hasta el infrarrojo. Fuente: http:wwwproyectocolor.eV/teoría-de-los-colores. Cada longitud de onda visible define un color diferente el ser humano tan sólo es capaz de visualizar un subconjunto de las longitudes de onda existentes: las que van desde 380 nanómetros,que corresponden al color violeta, hasta los 730 nanómetros, que corresponden al color rojo. A esta porción de colores que vemos, se le llama espectro visible. El mundo es de colores, donde hay luz hay color. La percepción de la forma, profundidad o claroscuro está estrechamente ligada a la percepción de los colores. El color es un atributo que percibimos de los objetos cuando hay luz. La luz es constituida por ondas electromagnéticas que se propagan a unos 300.000 kilómetros por segundo. Esto significa que nuestros ojos reaccionan a la incidencia de la energía y no a la materia en sí.
Figura. Nro.65. Espectro visible con identificación de los espacios.Fuente: Wikipedia - Enciclopedia libre Las ondas se srcinan, según su longitud de onda, distintos tipos de luz, como infrarroja, visible, ultravioleta o blanca. Las ondas visibles son aquellas cuya longitud de onda está comprendida entre los 380y 770 nanómetros (nm). Los objetos devuelven la luz que no absorben hacia su entorno. Nuestro campo visual interpreta estas radiaciones electromagnéticas que el entorno emite o refleja, como la palabra "COLOR".
Figura. Nro. 66. Ondas de 630nm rojo y 530 nmverde.Fuente: http:wwwproyectocolor.eV/teoríade-los-colores. La composición de los colores. El ojo humano, solo es capaz de distinguir tres colores, los llamados rojo, verde y azul, en ingles Red, Green y Blue (RGB). El resto de colores son derivados de estos básicos. La mezcla aditiva de estos colores basicos tenemos así: Esta representación, si bien es muy clara para ver el principio básico de la suma de colores, es un poco corta para representar la amplia gama de colores que somos capaces de interpretar. Para ello necesitamos acudir al diagrama de cromaticidad de la C.I.E. (Comisión Internacinale de l'Eclairage).
Rojo + verde = amarillo Verde + azul = cian Azul + Rojo = magenta El blanco es la suma de rojo, verde y azul. Mientras que el ne gro es la ausencia de color.
Figura. Nro. 67. Combinación de los colores.Fuente: Wikipedia - Enciclopedia libre Es una representación grafica de la gama de colores visibles por el ojo humano. En los ángulos del triangulo tenemos los colores básicos. Los valores de los colores se pueden representar con valores numéricos de las coordinadas y abscisas. Esta representación, si bien es muy clara para ver el principio básico de la suma de colores, es un poco corta para representar la amplia gama de colores que somos capaces de interpretar. Para ello necesitamos acudir al diagrama de cromaticidad de la C.I .E. (Comisión Internacinale de l'Eclairage). Es una representación grafica de la gama de colores visibles por el ojo humano. En los ángulos del triangulo tenemos los colores básicos. Los valores de los colores se pueden representar con valores los numéricos de las coordinadas y abscisas.
Figura. Nro. 68. Representación gráfica computarizada de la gama de colores. Fuente: Wikipedia Enciclopedia libre
2.2. Propiedades del color. Las definimos como el tono, matiz o croma = longitud de onda ( λ); saturación o intensidad = cantidad de blanco; luminosidad, claridad o brillo = cantidad de luz es el atributo que diferencia el color y por la cual designamos los colores: verde,violeta,anaranjado.
Diagrama. Nro. 22. Propiedades del color.Fuente. http://www.authorstream.com/Presentation/yessicaflorez0711-1440265-teoria-del-color/ Saturación: es la intensidad cromática o pureza de un color. Valor: es la claridad u oscuridadde un color, está determinado por la cantidad de luz que un color tiene. Valor y luminosidad expresan lo mismo. Brillo (brightness): es la cantidad de luz emitida por una fuente lumínica o reflejada por una superficie. Luminosidad (lightness): es la cantidad de luz reflejada por una superficie en comparación con la reflejada por una superficie blanca en iguales condiciones de iluminación. Mezcla sustractiva. La mezcla sustractiva de colores es la forma en que se combinan las tintas, por ejemplo en una impresora o en la paleta de un pintor. Si en la mezcla aditiva veíamos que la mezcla de colores básicos nos daba colores más claros en la sustractiva es todo lo contrario, los colores se oscurecen. En impresión los colores primarios son el cian, magenta y amarillo, es decir los que normalmente consideramos complementarios. La mezcla de estos colores nos genera el resto: Cian + magenta = azul. Magenta + amarillo = rojo. Amarillo +cian = verde. El negro es la suma de todos los colores y el blanco es la ausencia de color, ya que es el color del soporte de impresión.
Figura. Nro. 69. Mezcla sustractiva. Fuente: Wikipedia - Enciclopedia libre Temperatura de color.Como hemos dicho el blanco no es un color primario, si no la suma de los tres colores primarios RGB, eso significa que podemos disponer de una amplia gama de blancos, como podemos ver en el diagrama de cromaticidad de la ICE. Figura Nro. 68. En consecuencia dos luces blancas aun siendo de espectro continuo pueden estar formadas por mezclas de distintas proporciones de espectros. Eso significa que los colores reflejados también variaran en función de esas proporciones. Una luz con un mayor componente rojo nos dará una apariencia más cálida a los colores pues reflejara mayor cantidad de rojos mientras que una luz con mayor cantidad de azul/violeta al reflejar mayor cantidad de esas tonalidades nos dará una apariencia más fría. Para clasificar los diferentes tipos de luz blanca de espectro continuo se usa el concepto de temperatura de color. Que se define como la luz que emitiría un Cuerpo Negro calentado a una temperatura determinada. Por este motivo esta temperatura de color se expresa en kelvin, a pesar de no reflejar directamente una medida de temperatura. Para que se pueda comprender mejor, imaginaros que calentamos una barra de hierro, cuando esta alcance los 1000ºK su color será rojo, a 2000ºK amarillo, a 4000ºK blanco neutro, etc. Algunos ejemplos aproximados de temperatura de color: Tabla Nro. 19 Tabla. Nro. 22. Temperatura de color Velas
1900-2500 K
Lámparas de filamentos 2700-3200 K Fluorescentes
2700-6500 K
Lámparas de Sodio
2000-2500 K
Luz de luna
4000-4500 K
Luz de día
5000-5800 K
Día soleado
5800-6500 K
Día nublado
6000-6900 K
Luz de flash
5000-6000 K
Lámpara de Xenón
6000-6500 K
a. Él arco iris.Según los griegos, tiene todos los colores del espectro solar. Los griegos personificaron este espectacular fenómeno luminoso en Iris, la mensajera de los dioses, que descendía entre los hombres agitando sus alas multicolores.
Arco iris. Fuente: enelnombredejesus.blogspot.com
Figura. Nro. 70. Descomposición de la luz.Fuente: http:wwwproyectocolor.eV/teoría-de-los-colores. La ciencia que aplica la experiencia, explica que los colores son componentes de la luz blanca. (Luz solar del día o luz artificial). La luz blanca no tiene color, pero los contiene todos. Lo demostró Isaac Newton. Figura. Nro. 09. Tabla Nro.23. Relación entre frecuencias y colores percibidos Color
rojo naranja
Longitud de onda
~ 625-740 nm ~ 590-625 nm
Frecuencia
~ 480-405 THz ~ 510-480 THz
amarillo verde azul añil violeta
~ 565-590 nm ~ 520-565 nm ~ 450-500 nm ~ 430-450 nm ~ 380-430 nm
~ 530-510 THz ~ 580-530 THz ~ 670-600 THz ~ 700-670 THz ~ 790-700 THz
b. La luz.Es una mezcla de longitudes de onda visibles, lo cual se demuestra al ver como se descompone al atravesar un prisma.La descripción de la luz como una onda electromagnética explica algunas de sus propiedades como la reflexión y la refracción, sin embargo otras de sus propiedades pueden explicarse con la teoría cuántica. Comportamientos de la luz. Cuando la luz choca con una superficie nos podemos encontrar con tres tipos de comportamientos; se transmite, se refleja o se absorbe, que se conocen también como no espectroscopicos. Estos comportamientos no son excluyentes, es decir se pueden producir uno o varios de una forma simultánea, de hecho lo más corriente es que se produzca una combinación de estos comportamientos en distintas proporciones.
Figura. Nro. 71. Propiedades ondulatorias de la luz, no espectroscópicas. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
La transmisión.Los materiales transparentes transmiten la luz que incide en su superficie. La proporción de luz trasmitida se conoce como transmitancia.Los materiales de alta transmitancia como el agua pura o el cristal transmiten casi la totalidad de la luz que no reflejan, mientras que los materiales de baja transmitancia como el papel solo dejan pasar un pequeño porcentaje. La reflexión. (Ley de la reflexión) Un haz de luz que choque con una superficie de un espejo con un cierto ángulo saldrá rebotado con el mismo ángulo con respecto a la perpendicular. Siendo n(índice de refracción),d(distancia), n = 2dsen (52)
Figura. Nro. 72. Reflexión de la luz. Fuente: www.santalices.net/.../luz%20y%20color/luz%20y%20color.htm La cantidad de luz rebotada dependerá del tipo de material, la composición de la luz y el ángulo de incidencia de esta y puede variar desde una pequeña parte, en el caso de superficies oscuras y mates a casi la totalidad en superficies claras y brillantes. La forma en que se reflejara la luz también dependerá de la textura de la superficie. Una superficie rugosa reflejara la luz en todas direcciones dispersándola mientras que una superficie lisa, como un vidrio pulido o agua calmada la reflejará en una sola dirección, tal como indica la ley de la reflexión. La absorción.Si el material no es un buen transmisor o reflector, la luz se absorbe y se convierte en calor (la energía ni se crea ni se destruye, se transforma). El porcentaje de luz absorbida por una superficie se conoce como absorbencia.Esta dependerá no solo del material si no también del ángulo de incidencia y la longitud de onda. Por ejemplo la madera es opaca a la luz visible, el cristal es transparente a ese mismo espectro y en cambio es opaco a la radiación ultravioleta por debajo de una determinada longitud de onda.
La refracción.Se produce cuando la luz pasa de un medio de propagación a otro con una densidad diferente, sufriendo un cambio de velocidad y un cambio de dirección si no incide perpendicularmente en la superficie. Un ejemplo de este fenómeno se ve cuando se sumerge un lápiz en un vaso con agua: el lápiz parece quebrado La interferencia.RAE (Real Academia Española de la lengua): Acción recíproca de las ondas, de la cual puede resultar, en ciertas condiciones, aumento, disminución o anulación del movimiento ondulatorio. Cuando en una misma superficie nos encontramos con elementos de distintas
densidades o cualidades de reflexión distintas, nos aparece el fenómeno de interferencia. Esto se manifiesta por la descomposición de la luz blanca en diferentes longitudes de onda, generando distintos colores. Por ejemplo cuando luz agua se refleja en la superficie uniris. CD o cuando tenemos una fina capa de aceite flotando encimala del que vemos el efecto de arco 2.3. La naturaleza de la luz. Es conveniente describir la luz en términos de partículas y ondas. Las ondas de la luz constan de campos eléctricos y magnéticos que oscilan en planos perpendiculares entre si. Ha sido estudiada desde hace muchos años por científicos tan notables como Newton y Max Planck.
Figura. Nro. 73: Onda, espectro electromagnético y luz visible.Fuente: Wikipedia - Enciclopedia libre Para los astrónomos conocer la radiación electromagnética es un elemento clave debido a que toda la información que obtenemos de las estrellas nos llega a través del estudio de las radiaciones de las ondas electromagnéticas. Figura. Nro. 58.Cada tipo de fotón tiene una cantidad determinada de energía, los fotones con más energía son los que tienen longitudes de onda más cortas, que corresponden del azul al violeta.Los de la luz roja tienen menor energía y por lo tanto longitudes de onda más largas. La naturaleza de la luz ha sido interpretada de diversas maneras: 1. Ondas similares a las del sonido que requerían un medio para transportarse (el éter) (teoría Ondulatoria - Huygens - 1678, Young, Fresnel)
Figura. Nro. 74. Un método analítico instrumental convierte una señal en un valor de interés. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
2. Ondas electromagnéticas al encontrar sus características similares a las ondas de radio (teoría electromagnética - Maxwell - 1860) 3. Como paquetes de energía llamados cuantos (Plank).
Figura. Nro. 75: características de una onda.Fuente: www.uned.es/cristamine/crist_opt/ cropt_intr.htm 4. La luz como un fenómeno ondulatorio: E = h×
(53)
Figura. Nro. 76. Resumen de las propiedades de la radiación electromagnética con un comportamiento ondulatorio. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril2012) 5. Compuesta Newton - 1670) por corpúsculos que viajaban por el espacio en línea recta (teoría corpuscular -
Figura. Nro. 77. Resumen de las propiedades de la radiación electromagnética con un comportamiento como una partícula. Fuente:www.uclm.es/profesorado/.../4-ESPECTROSCOPIA%20ATOMICA.pdf.(Abril 2012)
6. La luz como un haz de fotones, partícula de luz:
= c/ λ
(54)
La masa del fotón depende de la longitud de onda de la radiación luminosa: 2
2
m fotòn ═ E/c ═ (hc/λ ) / c ═ h / λ c (55) Cuadro Nro. 04. Unidades de uma onda Landa λ
Frecuencia
Se mide en
Metros o múltiplos Angstron = 10-10 m Nanómetros = 10-9 m Micrómetros = 10-6 m Ciclos por segundo Kilohertzio = 10 Hz Megahertzio = 106 Hz Gigahersius = 109 Hz
Figura. Nro 78. Identificación de una onda larga y corta del espectr4o electromagnético: Fuente. rupcultura.files.wordpress.com/2010/11/espect..
El desarrollo de la física moderna ha permitido comprender la organización íntima de la materia. El estudio de los espectros de líneas de diferentes elementos químicos forzó el desarrollo de nuevas teorías que fueran capaces de explicar los resultados experimentales. A los modelos sobre la estructura del átomo han seguido los modelos sobre el núcleo atómico en un intento de abarcar los fenómenos de la física del núcleo tales como las interacciones entre sus componentes, la desintegración radiactiva o las reacciones nucleares. Los experimentos llevados a cabo por Newton sobre el análisis de la luz blanca pusieron de manifiesto que estaba compuesta por la superposición de un conjunto de colores sucesivos que van desde el Con violeta hasta el rojo. elEsta gamaespectro de los colores delcomo arco sinónimo iris recibe de el nombre de espectro visible. cierta frecuencia término se toma gama. Así el espectro electromagnético constituye la gama o conjunto de radiaciones electromagnéticas que comprende desde los rayos de mayor penetración (gamma: γ), hasta las ondas de radio y del cual el espectro visible es sólo una pequeña fracción. Desde el siglo pasado los estudios sobre la dispersión de la luz emitida por la combustión de diferentes elementos químicos han revelado una estructura discontinua de líneas que también recibe el nombre de espectro (de líneas). Investigaciones posteriores han dado lugar a nuevas utilizaciones científicas del término espectro. En su principal significado un espectro es una representación gráfica, fotográfica o meramente visual de la distribución de la intensidad de la radiación electromagnética emitida o absorbida por una sustancia en función de la frecuencia o de la longitud de onda.Los métodos espectrométricos son un amplio grupo de métodos analíticos que se basan en las espectroscopias atómicas y moleculares , la espectroscopia es un término general para la ciencia que trata de las distintas interacciones de la radiación con la materia.
Figura. Nro. 79. Estructura de la materia: Fuente:www.vmaria.pe/alumna/Aula/S3/.../evolucteoatomica.ppt
2.4. Estructura de la materia. Comienza el largo camino de la búsqueda de lo más simple. Las partículas
se
dividen
según
su
espín,
dos
tipos
de
partículas:
a. Bosones: aquellas cuyo espín es de valor entero (1, 2,...) y no "respetan" el Principio de Exclusión de Pauli, es decir, que podemos encontrar dos de ellas en el mismo estado cuántico. Son
bosones
el
fotón,
el
gluón
y
las
partículas
W +,
W- y
Z0.
b. Fermiones: aquellas cuyo espín es de valor semientero (1/2, 3/2,...) Quark, leptones, protones, neutrones etc. y sí cumplen el Principio de Exclusión de Pauli. Ejemplos de fermiones son el electrón, el protón y el neutrón.Los bosones no cumplen este principio.
Diagrama. Nro. 23. Representación del P. E. Pauli para bosones y fermiones Fuente: universoantropico.blogspot.com/.../clasificacion-de-las-particulas.html Este principio dice: dos partículas con el mismo espín no pueden estar en el mismo estado de energía. Los bosones tienen el espin entero: 1, 2,3,… Mediadores de fuerza: fotón , gluon, W, Z, gravitan.Según su estructura interna, se dividen en: a.Leptones: partículas sin estructura interna, es decir, auténticamente elementales. Todas tienen espín semientero (son fermiones). Son leptones el electrón, el muón, el tauón y sus correspondientes neutrinos. b. Hadrones: son partículas compuestas por otras elementales. Según su espín, se subdividen en: 1. Mesones: son bosones (espín entero) formados por un quark y un antiquark. Existen unas 140 variedades, entre las que se incluyen el pión, el kaón, etc. 2. Bariones: son fermiones (espín semientero) por tres quarks. Dentro de este subgrupo encontramos, entre otros, a protones y neutrones.
Figura. Nro. 80. Mesones y bariones. Fuente: universoantropico.blogspot.com/.../clasificacion-delas-particulas.html
Como hemos visto, los hadrones están compuestos por quarks, de los que existen seis variedades: arriba, abajo, extraño, encanto, fondo y cima.Como veremos más adelante, todas las partículas conocidas tienen sus correspondientes antipartículas, idénticas a ellas en cuanto a masa y espín, pero con carga eléctrica de signo contrario.
Figura. Nro. 81. Los hadrones. Fuente: universoantropico.blogspot.com/.../clasificacion-de-las-particulas.html Cuando una partícula se encuentra con su antipartícula, ambas se aniquilan, liberando energía y otras partículas. 2.4.1. Teoría de los quarks. En 1964 Murray Gell-Mann y Georges Zweig propusieron una teoría para explicar la constitución interna de los hadrones: la teoría de los quarks. Según esta teoría los hadrones están compuestos de otras partículas elementales, que denominaron quarks.Pero en 1968 los científicos descubrieron nuevas partículas dentro del Protón. Las llamaron Quarks.
Diagrama. Nro. 24. Fuente: www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r40479.PPT Hay tres quarks en cada protón. Los quarks se mantienen unidos mediante otras partículas llamadas Gluones, que no tienen masa ni carga eléctrica; sólo poseen energía electromagnética.
Diagrama. Nro. 25. Los quarks. Fuente: www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r40479.PPT En 1968 los científicos descubrieron nuevas partículas dentro del Neutrón. Estas tres partículas también eran quarks, unidas también por energía electromagnética llamadas Gluones
Diagrama. Nro. 26. Los quarks. Fuente: www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r40479.PPT Física Hadrónica. Generación dinámica de resonancias mesón-barión. Estudios de posibles estados exóticos (pentaquarks). Átomos y núcleos exóticos (Hipernúcleos). Dispersión profundamente inelástica en núcleos. Distribuciones de protones generalizadas. Teoría de campos no perturbativa, Dinámica y Teorías efectivas de nucleones. Modificación de las propiedades de los hadrones en un medio (ej. estrellas de neutrones) Problemas de muchos cuerpos: Materia y estructura. Líquidos cuánticos. Sopa de Quarks.Después de la inflación, el Universo era una sopa de partículas fundamentales llamadas quarks, gluones, leptones y fotones, todas chocando entre sí a enormes velocidades transformándose continuamente unas en otras.
Fig. Nro. 80. Sopa de quarks. Fuente: quarknet.hep.uprm.edu/institute_2005.../era2.ppt
Inicialmente Gell-Mann y Zweig propusieron un modelo de tres quark y sus correspondientes antipartículas, pero posteriormente se ha ampliado a seis quarks y seis antiquarks. Cada tipo de quark se denomina sabor. Hay pues seis "sabores" de quarks. Toda partícula conocida se podía describir como una combinación de quarks y antiquarks. La tabla Nro. 24 presenta las características más importantes de los quarks. En la tabla inferior los valores de masa vienen dados en MeV/c 2, y se refieren a la masa en reposo; los de la carga en múltiplos de la carga de electrón (1'6 · 10 -19 C) y los del spin en unidades h/2 -34
(1'06 · 10 Js).Los quarks están fuertemente ligados entre sí y confinados dentro de los hadrones y no se han logrado aislar, aunque si se han detectado indicios de su existencia mediante aceleradores de partículas de muy alta energía. Hay pues doce partículas elementales constituyentes de la materia: seis leptones y seis quarks. Además existen sus correspondientes antipartículas, con lo que en total tendríamos veinticuatro. Todos los hadrones son combinaciones de quarks. Los mesones estarían formados por un quark y un antiquark, mientras que los bariones están formados por la combinación de tres quarks. Tabla Nro.24. Características de los quarks CARACTER STICAS DE LOS QUARKS NOMBRE
SÍMBOLO MASA
CARGA SPIN L B
Up (arriba) Down (abajo)
u d
3 7
+ 2/3 - 1/3
1/2 1/2
0 1/3 0 1/3
Strange (extraño)
s
120
- 1/3
1/2
0 1/3
Charm (encanto)
c
1200
+ 2/3
1/2
0 1/3
Bottom (fondo) b
4200
- 1/3
1/2
0 1/3
Top (cima)
175.000 + 2/3
1/2
0 1/3
t
ANTIPARTÍCULA
Los filósofos griegos se preguntaron de qué están hechas las cosas.Hoy, la física de altas energías ha dado una respuesta científica a esta antigua pregunta. Como consecuencia de todos los estudios que se han realizado para comprender mejor la naturaleza de la materia hoy el hombre cuenta con gran cantidad de conocimientos que le permiten desarrollar la ciencia en forma increíble.
Figura. Nro.81. Origen del universo. Fuente: scienzapertutti.lnf.infn.it/concorso/2005/.../micromacromondo_cordobes.p...
El modelo actual que tenemos del átomo ha sido consecuencia de las investigaciones y experimentaciones de una diversidad de científicos a través del tiempo; estudiaremos los principales modelos que se propusieron y que pretendieron establecer la forma del ÁTOMO.
Figura. Nro.82. Partículas subatómicas. 2.4.2. Evolución experimental estructura del átomo. Indicamos los más notorios de las técnicas experimentales: Luigi Galvani (1737-1798). Electricidad animal. Benjamin Franklin (1706-1790). Pararrayos. André Marie Ampere (1775-1836).Electromagnetismo
Figura. Nro.83. La simbiosis entre las leyes de la física, astrofísica y la física nuclear dan lugar a una mejor comprensión de la producción de energía de las estrellas. Fuente: scienzapertutti.lnf.infn.it/concorso/2005/.../micromacromondo_cordobes.p...
William Crookes (1832-1919).Tubos de descarga o de crookes.
Figura. Nro. 84. Fuente:
[email protected] (Herzaín Isaac Rivera Arrieta Posgrado en Ciencias Química Programa de Formación de Profesores) Michael Faraday, (1832) estudio el efecto de la electricidad en las soluciones, acuño el término electrólisis refiriéndose a la ruptura de las moléculas por la electricidad y desarrolló las leyes de la electrolisis.Inducción electromagnética.
Figura. Nro. 85. Electrólisis: Fuente: inmaculadava.maristascompostela.org/.../ EstructuradelaMateria
1-2008.ppt
Carga eléctrica. Es una de las propiedades primarias de la materia como la masa, los objetos con carga eléctrica interactúan entre sí, existe una fuerza eléctrica y un campo eléctrico y experimentan descomposición de las sustancias al paso de la corriente eléctrica. Henri Becquerel (1896).Al observar que ciertas sales de uranio emitían radiaciones espontáneamente, al hacer ensayos con el mineral en distintos estados, descubrió que la radiación siempre tenía la misma intensidad.Por tanto, esta, era una propiedad del interior del átomo. En 1898, el físico francés Pierre Currie y su esposa María Sklodowska Curie, de Polonia, había descubierto la presente en la pechblenda, un mineral de uranio, una sustancia que emite grandes cantidades de radiactividad, al que llamaron radio. Esto aumentó las esperanzas de los científicos y los laicos que los elementos que nos rodean podrían contener enormes cantidades de energía invisible, a la espera de ser explotados. Radioactividad. Es la propiedad que presentan los núcleos atómicos de ciertos isótopos de modificar espontáneamente su constitución, emitiendo simultáneamente una radiación característica. La radioactividad puede ser: Radioactividad natural: Es la que manifiestan los isótopos que se encuentran en la naturaleza. Radiactividad artificial o inducida: Es la que ha sido provocada por transformaciones nucleares artificiales.
Figura. Nro. 86. Radioactividad. Fuente: inmaculadava.maristascompostela.org/.../ EstructuradelaMateria
1-2008.ppt
En 1895 Wilhelm Röntgen observó que cuando los rayos catódicos incidían sobre vidrio y metales, se emitían unos rayos desconocidos. Estos rayos eran de alta energía y podían penetrar la materia. Röntgen los llamo Rayos X. Posteriormente fueron identificados como un tipo de radiación de alta energía. J.J. Thomson (1897) Llamó a las partículas con carga negativa ―electrones‖ y con la ayuda del Tubo de Rayos Catódicos.Los electrones fueron las primeras partículas subatómicas que se descubrieron como consecuencia de una serie de experimentos que se iniciaron a mediados del siglo XIX al estudiarse la descarga en tubos de gases enrarecidos. Determino experimentalmente 8
la relación entre la carga la y la masa delcon electrón (e/m) rayos canales y encontró asociación el protón H +=. 1.759 x 10 culombios/gramo. Estudio los
Figura. Nro. 87: Tubo de descarga de Crooks & Thomson. Cátodo: Polo negativo conectado a la corriente. Ánodo: Polo positivo cierra el circuito. Un gas a muy bajas presiones. Fuente: cea.quimicae.unam.mx/~Estru/documents/Sesion_03b_2011-II.ppt. Rayos catódicos: Los rayos catódicos son corrientes de electrones observados en tubos de vacío, es decir los tubos de cristal que se equipan por lo menos con dos electrodos, un cátodo (electrodo negativo) y un ánodo (electrodo positivo) en una configuración conocida como diodo. Cuando se calienta el cátodo, emite una cierta radiación que viaja hacia el ánodo. Si las paredes internas de vidrio detrás del ánodo están cubiertas con un material fosforescente, brillan intensamente. El CRT (Tubo de Rayos Catodicos) es la clave en los sistemas de televisión, en los osciloscopios, y en las cámaras de televisión video.Figura. Nro. 88 Se alejan del cátodo en línea recta Están provistos de gran energía cinética Se comportan como una corriente eléctrica negativa
Figura. Nro. 88: Rayos catódicos. Fuente: personales.ya.com/.../Presentacion%20teoria%20atomica1.ppt
Rayos anódicos o canales: Cuando en el tubo de descarga se coloca un cátodo perforado, se observa que análogamente al caso anterior, existen unos rayos que lo atraviesan e inciden en la parte opuesta del ánodo. Estos rayos se denominan rayos anódicos o canales y están formados por partículas positivas. Para estas partículas la relación carga/masa depende de la naturaleza del gas encerrado en el tubo. Si el gas es el hidrógeno, esa relación es la mayor de las conocidas, por lo cual el ión positivo es el de menor masa y se denomina protón. Figura. Nro. 80. Rayos canales (Goldstein 1886). Son partículas cuya masa depende del gas encerrado Su masa es mucho mayor que la del electrón Se comportan como una corriente eléctrica positiva
Figura. Nro. 89. Rayos canales. Fuente: personales.ya.com/.../Presentacion%20teoria%20atomica1.ppt R. Millikan (1909) . Calculó experimentalmente el valor de la carga eléctrica negativa de un electrón mediante su experimento con gotas de aceite entre placas de un condensador. Dio como valor de dicha carga e = 1.60217653 x 10-19culombios. Por lo tanto la masa del electrón es:9.1093826 x 10-31 kg 1/1837 veces la masa del átomo más pequeño (H) que es:1,6735 x 10-27 kg
Figura.
Nro.
90.
El
experimento
de
la
gota
de
aceite
de
Millikan.
Fuente:
http://www.taringa.net/posts/ciencia-educacion/11491308/Diez-experimentos-historicos_.html
Ernest Rutherford (1911) utilizando partículas alfa (He2+) como proyectiles atómicos, bombardeo una placa muy fina de oro (0,00006 cm). Estableció que el núcleo era muy denso, muy pequeño y cargado positivamente. Supuso que los electrones se localizaban fuera del núcleo.
Figura. Nro. 91. Descubrimiento del núcleo atómico.Partículas dispersas, La mayoría de las partículas se desvía, delgada lámina de oro, haz de partículas, fuente de partículas alfa, pantalla circular fluorescente. Fuente: inmaculadava.maristascompostela.org/.../ EstructuradelaMateria 12008.ppt
Hizo incidir sobre una lámina finísima de oro un delgado haz de partículas cargadas positivamente de masa mucho mayores que el electrón y dotadas de energía cinética alta. En el choque observó distintos comportamientos:
a. la mayoría atravesaban la lámina sin desviarse b. algunas se desviaban c. muy pocas retrocedían Esta experiencia implicaba:
a. que los átomos estaban casi vacíos, pues la mayoría de las partículas las atravesaban b. que hay una zona cargada positivamente, ya que algunas partículas retrocedían o se desviaban. Esta zona debe estar muy concentrada ya que es mayor el número de desviaciones que de choques.
Figura. Nro. 92: Átomo de oro, núcleo del átomo de oro, las partículas alfa. Fuente: inmaculadava.maristascompostela.org/.../ EstructuradelaMateria
1-2008.ppt
Figura. Nro. 93. a)Los electrones dispersos por todo el átomo, la carga difusa positivo, b) desviación de algunas partículas alfa al chocar con el núcleo. Fuente: inmaculadava.maristascompostela.org/.../ EstructuradelaMateria
1-2008.ppt
Esto le condujo a proponer en 1911 un nuevo modelo atómico en el que se afirmaba que los átomos estaban constituidos por 2 zonas bien diferenciadas: Una de carga positiva con el 99,9% de la masa muy concentrada y por tanto de gran densidad a la que llamó núcleo. Otra rodeando al núcleo a la que llamó corteza donde estaban los electrones con carga negativa girando alrededor del núcleo. Sin embargo, el modelo de Rutherford presentaba fallos: Según la teoría clásica de electromagnetismo, una partícula eléctrica acelerada emite energía. Y el electrón girando el torno al núcleo está sometido a una aceleración centrípeta por lo que irradiaría energía, perdería velocidad y, por fin, caería al núcleo desestabilizando el átomo. Pero como el átomo de hecho es estable, las cosas no pueden ocurrir según el modelo de Rutherford. No explicaba los espectros
Figura. Nro. 94. Ilustración de modelos. Fuente: html.rincondelvago.com Modelo atómico de Bohr. (1913) Para salvar los inconvenientes del modelo de Rutherford, Niels Bohr, se encontraba buscando una explicación del porque el modelo atómico fallaba desde el punto de vista clásico, cuando leyó la teoría de Planck para la radiación del cuerpo negro. El segundo postulado de Planck decía “un oscilador solo emite energía cuando pasa de un estado de mayor energía a otro de menor energía” y consideraba la frecuencia de movimiento circular del electrón alrededor del núcleo análogo a la frecuencia del oscilador de Planck, por lo que se podría solucionar el problema. El átomo solo emite radiación electromagnética cuando los electrones pasan de un nivel de mayor energía a uno de menor energía. Entonces, basado en el modelo atómico de Rutherford, Bohr formuló para su modelo atómico con el átomo de hidrogeno una serie de postulados. 1. El átomo de hidrógeno se compone de un núcleo constituido por una carga +Ze y un electrón ligado
a el por
fuerzas electrostáticas. 2. Existe un conjunto de estados energéticos
(estados
estacionarios) cuantizados en los que se mueve el
electrón
sin emitir radiación electromagnética. En ellos la
energía
es constante. 3. Los electrones pueden saltar de un nivel electrónico a otro sin pasar por estados intermedios. Lo que implica la emisión o absorción de un único cuanto de luz (fotón) cuya energía corresponde a la diferencia de energía entre ambas órbitas. Si se absorbe la energía suficiente el electrón se libera (efecto fotoeléctrico) 4. Las órbitas permitidas tienen valores discretos o cuantizados del momento angular orbital L de acuerdo con la siguiente ecuación con n (número cuántico principal) = 1, 2,3..... 5. Para el valor mínimo 1 corresponde un radio de la órbita del electrón de 0.0529 nm (radio de Bohr).
La energía sólo puede variar por saltos sucesivos, correspondiendo cada salto a una transición de un estado a otro. En cada salto el
átomo
emite luz de frecuencia bien definida dada por: hv = [ Ei - Ei ]
(56)
De esta manera se explican los espectros atómicos, que en el caso del Hidrógeno los
niveles
de energía posibles están dados por la fórmula: E = - (h/R)/n2 , ( n = 1, 2, 3, . . . infinito) h = 60625 x 10-34 Joule - seg, Const. de Plank R = 1.10 x 107 m-1 , Const. de Rydberg La serie de Lyman corresponde a radiación ultravioleta. La serie de Balmer, a radiación visible. El resto, a radiación infrarroja El modelo de Niels Bohr, coincide con el propuesto por Rutherford, admite la presencia de un núcleo positivo que contiene, prácticamente, toda la masa del átomo, donde se encuentran presentes los protones y los neutrones. Los electrones con carga negativa, se mueven alrededor del núcleo en determinados niveles de energía, a los que determinó estados estacionarios, y les asignó un número entero positivo. El nivel más cercano tiene el número 1, le sigue el 2, como se citó en párrafo de éste mismo enunciado (Modelo atómico de Bohr).Siempre que el electrón se mantenga en la órbita que le corresponde, ni gana ni pierde energía. Si un electrón salta de una órbita a otra capta o libera energía en forma de fotones. La cantidad viene dada por la diferencia de energía entre los dos (02) niveles. La energía de cada nivel es mayor en la medida que se aleja del núcleo; sin embargo, las diferencias entre los niveles va disminuyendo, lo que permite que las transiciones electrónicas se produzcan con facilidad.El número de electrones de cada elemento en su estado natural es característico, puesto que depende de su número atómico. Estos electrones estarán distribuidos en diferentes niveles energéticos que pueden funcionar como estaciones de paso para aquellos que reciben suficiente energía para saltar de un nivel a otro. Al devolverse, la luz que, difractada, produce el espectro específico del elemento químico.
Figura. Nro. 95. Formación de series. Fuente. powerpointgratis.net/ficheros/bc6331cc08aece94903a39315d7a1aac.ppt H.G.J. Moseley, (1914) . Utilizando rayos X, determina la carga de los núcleos de la mayoría de átomos. Identifico el Z como el número de protones, lo que provoco la reorganización de la Tabla Periódica en función del número atómico Z en lugar de la masa atómica A. Arnold Sommerfeld.En 1916modifica el modelo atómico de Bohr, en el cual los electrones sólo giraban en órbitas circulares, al decir que también podían girar en órbitas elípticas.Esto dio lugar a un nuevo número cuántico: "Elnúmero cuántico azimutal o secundario ", que determina la forma de los orbitales, se lo representa con la letra "l" y toma valores que van desde 0 hasta n-1.Utiliza para describir su modelo las coordenadas polares.
Figura. Nro. 96. Coordenas polares. Fuente: tabay.unam.edu.ar/aulavirtual/.../8/PowerPoint_tema_1_BIS.ppt (set. 2011) De Broglie (1923). Cualidad onda partícula. La luz puede comportarse como una onda y puede comportarse como partículas De Broglie sugirió que la materia también debería poseer esta dualidad.
Figura. Nro. 96. Principio de la dualidad onda partícula de De Broglie. Fuente: http://www.authorstream.com/Presentation/mbelbruno-393992-estructura-mica-pco-2-distribucielectr-nica-meros-cu-nticos-reglas-de-construcci-1-est-atomica-education-ppt-powerpoint/ Principios de incertidumbre. Heisenberg (1927). Para poder estudiar las propiedades de un átomo y de sus partículas constituyentes, es necesario iluminarlo; es decir lograr la incidencia de luz sobre el; esto trae un cambio en su contenido energético y, a su vez en la posición. En otras palabras: el estudio del átomo lleva un error necesario que nos impide hablar con certeza de la posición o contenido energético del mismo.Esto imposibilita presentar un átomo como hasta el momento se ha hecho, puesto que se puede describir un espacio donde es muy probable encontrar un electrón, pero no se puede excluir la posibilidad de que se encuentre en otro lugar.Según el principio de incertidumbre no se puede conocer con exactitud la posición del electrón ni su contenido energético. Esto obliga a usar un nuevo termino "probabilidad", para la descripción del átomo. De Broglie (1923) Dualidad onda partícula Cuadro Nro. 05. Dualidad de la onda partícula
Fuente: www.tecnoedu.com/Download/RWYoungLuzElectrones.ppt Edwin Schr ödin ger – 1927. La Mecánica Cuántica (1927) engloba la hipótesis de Louis de Broglie y el Principio de indeterminación de Heisenberg. El carácter ondulatorio del electrón se aplica definiendo una función de ondas, Ψ, utilizando una ecuación de ondas, que matemáticamente es una ecuación diferencial de segundo grado, es decir, una ecuación en la cual intervienen derivadas segundas de la función Ψ.
Al resolver la ecuación diferencial, se obtiene que la función Ψdepende de una serie de parámetros, que se corresponden con los números cuánticos, tal y como se han definido en el modelo de Böhr. La ecuación sólo se cumplirá cuando esos parámetros tomen determinados valores permitidos (los mismos valores que se han indicado antes para el modelo de Böhr).
El cuadrado de la función de ondas, Ψ2, corresponde a la probabilidad de encontrar al electrón en una región determinada, con lo cual se está introduciendo en el modelo el Principio de indeterminación de Heisenberg. Por ello, en este modelo aparece el concepto de orbital: región del espacio en la que hay una máxima probabilidad de encontrar al electrón.
(Posición)(Momento):(57)
x· p
h 4
Siendo x la incertidumbre en la posición y p la incertidumbre en la cantidad de movimiento. De esta manera, la idea de órbita perfectamente definida se sustituye por la idea de orbital que sería la zona del espacio alrededor del núcleo atómico en donde existiría la máxima probabilidad de encontrar un electrón. El orbital pues, no tiene límites perfectamente definidos. Un átomo es una entidad esférica, eléctricamente neutra, compuesta de un núcleo central cargado positivamente rodeado por uno o más electrones con carga negativa. Una nube de electrones con carga negativa, moviéndose rápidamente, ocupando casi todo el volumen del átomo; los experimentos han confirmado la existencia de múltiples partículas elementales, como losprotones, neutrones y electrones.
Cuadro. Nro. 06. Desarrollo de la mecánica cuántica. Fuente:www.educa.madrid.org/cms_tools/files/...cc6f.../desvelando_Tema04.pp James Chadwick (1932). Utilizando partículas alfa descubre una partícula atómica neutra con una masa cercana a la del protón (neutrón). Enrico Fermi (1942). Lleva a cabo la primera reacción controlada en cadena liberando energía de los núcleos de los átomos. Con el descubrimiento de que el átomo consiste de un núcleo rodeado de electrones, la naturaleza de la luz, los rayos catódicos, el espectro electromagnético y las ilustraciones de las figuras del 2973 hoy tenemos la certeza de la estructura del átomo.Además de haberse identificado muchas
más partículas subatómicas de estas tres, se han descubierto partículas que forman protones y neutrones (Quarks)
Figura. Nro. 97: Visión del átomo con su periferia electrónica y un núcleo atómico. Fuente: www.se.gob.hn/content_htm/ppts/TEORIA%20ATOMICA85.ppt
Además de haberse identificado muchas más partículas subatómicas descubierto partículas que forman protones y neutrones (Quarks)
de estas tres, se han
Diagrama. Nro. 27: Giro de electrones alrededor del núcleo. Fuente: www.se.gob.hn/content_htm/ppts/TEORIA%20ATOMICA85.ppt
El modelo Standard describe en la actualidad las fuerzas y las partículas que constituyen la realidad.
Figura. Nro.98: Primera fotografía de una molécula. Un pentaceno (22 átomos de carbono y 14 átomos de hidrogeno), de 0.14 nanómetros de largo. Fue sacada por la IBM de Zurich con el microtelescopio que vemos en la foto de arriba. Para que le telescopio pueda ver la molécula, esta estaba en una cámara al vacio a 268 grados bajo cero. Fuente: articulosinteresantes.blogspot.com/.../ primera -fotografia -de-una-molecula.html
Diagrama. Nro. 28. El átomo en manos del hombre. Fuente: www.icodeh.com/ponencias/jueves/curacioncuantica.ppt
2.4.3. Configuración electrónica del átomo. Es la representación esquemática de la distribución de los electrones de un átomo, de acuerdo con el modelo atómico de Bohr. Los electrones tienden a ocupar orbítales de energía mínim a.
El siguiente cuadro Nro 07 muestra el orden de llenado de los orbítales.
NIVELES
ORBITALES
ELECTRONES MÁXIMOS POR NIVEL
Cuadro. Nro. 07. Fuente:www.cespro.com/.../Estructura_electronicaatomo.htm
H : 1 S1 Nro. Cuántico principal
Nro. De electrones en el orbital Nro. Cuántico del momento angular
Figura. Nro. 68. Orden de llenado de los orbitales: 1s2, 2s2, 2p6, 3s2, 3p6, 4s2, 3d10, 4p6, 5s2, 4d10, 5p6, 6s2, 4f14, 5d10, 6p6, 7s2 EJEMPLO: La notación espectral del Calcio (Z = 20) es: 1s2 2s2 2p6 3s2 3p6 4s2
Tipos de radiaciones electromagnéticas según . Diagrama. Nro. 29. Configuración electrónica abreviada. Fuente: http://www.authorstream.com/Presentat ion/mbelbruno-393992-estructura-micapco-2-distribuci-electr-nica-meros-cunticos-reglas-de-construcci-1-estatomica-education-ppt-powerpoint/ 2.4.4.
Estructura
áto m o .
Por
electrónica
estructura
del
electrónica
entendemos los diferentes niveles energéticos que un electrón puede
• • •
• • • •
Rayos Rayos X Rayos UV Radiación visible. Rayos IR Microondas Ondas de radio
• • • • • •
Ondas de radar Ondas de TV. Onda ultracorta Onda corta. Onda media. Onda larga
ocupar en un átomo o molécula. Así, un electrón puede ocupar cualquiera de los
diferentes
niveles
energéticos
propios, pero no puede situarse en un nivel intermedio de energía. Los niveles energéticos reflejan la distancia del electrón al núcleo atómico. Un electrón en un nivel energético más alto está más alejado del núcleo que otro situado en un nivel más bajo. Los electrones se pueden mover entre los
distintos
niveles
de
energía
mediante la absorción o la emisión de radiación electromagnética. Cuando un electrón está en el nivel de energía
Fig. Nro. 99. Tipos de radiaciones. Fuente:
www.uned.es/cristamine/crist_opt/ cropt_intr.htm
más bajo se dice que está en su estado basal. Este electrón puede pasar a un nivel de energía superior mediante la absorción de RE. Sin embargo, esta absorción sólo tendrá lugar si la radiación tiene una energía exactamente igual a la diferencia energética entre los distintos niveles. Se dice entonces que el electrón se ha promovido a un estado excitado. La vuelta al estado basal se produce con la emisión de una RE con la misma energía que la diferencia de energía entre los dos nivel.
Figura.Nro. 100. Estructura electrónica y espectros atómicos. Un espectro es una representación gráfica de todas las longitudes de onda de absorción o emisión de una determinada sustancia. Para los átomos los espectros de absorción y emisión se presentan como bandas muy finas, mientras que las moléculas presentan unas bandas más anchas debido a una mayor complejidad en su estructura electrónica.
Diagrama. Nro. 30. Espectro de emisión y de absorción Fuente: highered.mcgraw hill.com/sites/dl/.../Tippens_fisica_7e_diapositivas_
Los átomos y moléculas o compuesto tiene una estructura atómica única, cada uno presenta un espectro de absorción o emisión característico. La espectroscopia (de absorción y emisión) son las técnicas que nos permiten identificar sustancias químicas mediante espectros.
Figura. Nro.101. Nueva estructura del átomo. Fuente: scienzapertutti.lnf.infn.it/concorso/2005/.../micromacromondo_cordobes.p...
2.5. La radiación electromagnética. (Maxwell 1864) La energía desprendida de los átomos se transmite como ondas electromagnéticas. Consiste en la oscilación de un campo eléctrico y otro magnético en direcciones perpendiculares, entre sí, y a su vez, perpendiculares ambos a la dirección de propagación. Se caracterizan por una determinada longitud de onda “ ” o por su frecuencia “ ”. ( · = c) (c = 300.000 km /s). La frecuencia se mide, en s –1 (herzios) No necesitan para propagarse de un medio material. Se denomina espectro electromagnético al conjunto de ondas electromagnéticas, o más concretamente, a la radiación electromagnética que se emite (espectro de emisión), o que se absorbe (espectro de absorción) una sustancia.
Figura Nro. 102. Espectro de emisión luz blanca. Fuente: http://www.authorstream.com/Presentation/mbelbruno-393992estructura-mica-pco-2-distribuci-electr-nica-meros-cu-nticos-reglas-de-construcci-1-est-atomica-education-ppt-powerpoint/
Dicha radiación sirve para identificar la sustancia, es como una huella dactilar.
Figura Nro. 103. Espectro de emisión del Hidrógeno discontinuo. Fuente: http://www.authorstream.com/Presentation/mbelbruno-393992-estructura-mica-pco-2-distribuci-electr-nica-meros-cu-nticosreglas-de-construcci-1-est-atomica-education-ppt-powerpoint/
Los espectros se pueden observar mediante espectroscopios que, además de permitirnos observar el espectro, permite realizar medidas sobre éste, como la longitud de onda “ ” o la frecuencia de la radiación “ ”. Desde muy bajas longitudes de ondas rayos ultravioleta como los rayos γ (10 – 12
m) hasta kilómetros (como las ondas de radio). Fig. Nro. 98. Tipos de radiaciones y espectro electromagnético según “ ”.
La principal emisión de radiación de los cuerpos es la radiación electromagnética en forma de luz visible. La longitud de onda de la radiación puede ser desde muy pequeña, en el caso de la llamada radiación gamma, hasta muy grande en el de las ondas de radio. Figura. Nro. 104.
Figura. Nro. 104.Cambio en el campo eléctrico, cambio en el campo magnético, distancia de vibración de carga, amplitud, longitud de onda “ ”, la frecuencia baja “ ”, frecuencia alta “ ”Fuente: inmaculadava.maristascompostela.org/.../ EstructuradelaMateria 1-2008.ppt 2.6. Espectros atómicos. A las distribucionesde colores, o de longitudes de onda o de frecuencia, emitidos por los átomos, se las denomina espectros atómicos.Cada elemento produce un espectro con un conjunto de rayas características que sirven para identificarlo. La materia solo absorbe o emite luz de unas frecuencias determinadas Energía = frecuencia de la radiación. La materia no puede tener cualquier estado de energía.
Fig Nro. 105. Espectro electromagnético continúo. Fuente. www. uc.cl/sw educ/ da1106/ CAP2/2B/2B1/
a. Espectro continúo. Contiene todas las longitudes de onda desde el violeta
al rojo
(aproximadamente desde 400 a 700 nm) Fig. Nro. 102 (Luz blanca) b. Espectro discontinuo. Consta de líneas o rayas emitidas a longitudes de onda especifica. Cada elemento posee un espectro característico que puede utilizarse para identificarlo. Ej. El sodio hay 2 líneas intensas en la región amarilla a 589 nm y 589.6 nm. Figura. Nro. 106 (Espectro de Na)
Figura. Nro. 106: Fuente: www.se.gob.hn/content_htm/ppts/TEORIA%20 ATOMICA 85.ppt c. Series espectrales. Las diferentes líneas que aparecieron en el espectro del hidrógeno se podían agrupan en diferentes series cuya longitud de onda es más parecida: Serie Lyman: zona ultravioleta del espectro. Serie Balmer: zona visible del espectro. SeriePaschen: zona infrarroja del espectro. Serie Bracket: zona infrarroja del espectro. Serie Pfund:
zona infrarroja del espectro.
Series espectrales n= n=6 n=5 n=4
Pfund Bracket
n=3
Paschen
n=2
Balmer E=h·
d. Ley de Rydberg. La relación entre las longitudes de onda ( )de las distintas rayas del espectro del hidrógeno viene dada por la expresión:
n=1 Lyman SERIES: Lyman Balmer Paschen Bracket Pfund
Espectro
UV Visible Infrarrojo
1
1 1 R 2 2 n n 2 1
(58)
Donde n1 y n 2 son números naturales, cumpliéndose siempre que n 2 > n1, con lo que el paréntesis queda positivo. R es una constante llamada constante de Rydberg cuyo valor es: R = 1,0968 x 10 7 m–1.
Si n1 = 1; n2 = 2, 3, 4, 5, ...
Serie Lyman
Si n1 = 2; n2 = 3, 4, 5, 6, ... Si n1 = 3; n2 = 4, 5, 6, 7, ...
Serie Balmer Serie Paschen
Si n1 = 4; n2 = 5, 6, 7, 8, ...
Serie Bracket
Si n1 = 5; n2 = 6, 7, 8, 9,...
Serie Pfund .
e. Relación entre los saltos electrónicos y los espectros. Cuando un electrón que ha saltado a niveles de mayor energía (estado excitado) y cae de nuevo a niveles de menor energía se produce la emisión de un fotón de una longitud de onda definida que aparece como una raya concreta en el espectro de emisión.
Figura. Nro 107: Relación entre los saltos electrónicos y los espectros. Fuente:
En cambio, cuando irradia una sustancia con luz blanca (radiación electromagnética continua) los electrones escogen las radiaciones de este espectro continuo para producir saltos a niveles superiores (estado excitado). Si recogemos la radiación electromagnética con la que hemos irradiado después de pasar por la sustancia vemos que le faltan una serie de líneas que corresponden a saltos electrónicos. Es lo que se denomina un espectro de absorción.Lógicamente
las líneas del espectro de emisión son las que faltan en el de absorción pues la energía para pasar de un nivel a otro es la misma suba o baje el electrón. 1) Paramagnéticas: Son sustancias débilmente atraídas por un campo magnético y esta -
atracción generalmente es el resultado de e sin parear. -
2) Diamagnéticas: son sustancias que tienen todos los e pareados y por lo tanto no son atraídas por un campo magnético.
2.7. Principios básicos de la mecánica cuántica. La mecánica cuántica resolvió todas las grandes dificultades que preocupaban a los físicos en los primeros años del siglo XX. Amplió gradualmente el conocimiento de la estructura de la materia y proporcionó una base teórica para la comprensión de la estructura atómica y del fenómeno de las líneas espectrales: cada línea espectral corresponde a la emisión o absorción de un cuanto de energía o fotón, cuando un electrón experimenta una transición entre dos niveles de energía. La comprensión de los enlaces químicos se vio radicalmente alterada por la mecánica cuántica y pasó a basarse en las ecuaciones de onda de schrödinger. Los nuevos campos de la física —como la física del estado sólido, la física de la materia condensada, la superconductividad, la física nuclear o la física de partículas elementales, se han apoyado firmemente en la mecánica cuántica. •
Imprescindible para reconciliarhipótesis atómica con experimentos
•
Imprescindible para entender estabilidad de la materia
•
Imprescindible para entender la tabla periódica (química)
•
Nos permite entender la naturaleza a escala atómica
Diagrama. Nro. 31. La teoría del todo: Fuente: jmverde.googlepages.com/modeos_atomicos-1.ppt 2.7.1. Orígenes de la teoría cuántica. Recapitulando al (1921) a. Él modelo de Rutherford. Basado en la concentración de carga positiva en el núcleo de los átomos girando los electrones en órbitas a enorme distancia del núcleo en relación a su tamaño, explicaba la gran penetrabilidad de determinadas partículas en la materia. Sin embargo, pronto se vieron algunos inconvenientes que sugerían y que debía cambiarse la teoría atómica. La no emisión de energía por el giro de los electrones (se sabía por entonces que al girar partículas cargadas, éstas deberían emitir energía en forma de radiación electromagnética, lo que inevitablemente conduciría a los electrones a ―caer‖ hacia el núcleo produciendo un colapso de los átomos).
Esto iba en contra de la estabilidad observada de los átomos. Igualmente, las líneas espectrales deberían ser explicadas a partir de una nueva teoría atómica. Tabla Nro. 25.Recapitulando al (1921) Espectroscopia y análisis químico Tubos de descarga y rayos catódicos Naturaleza de la luz
Definición de onda Teoría electromagnética de Maxwell Radiación térmica: Cuerpo negro. Hipótesis de Planck Efecto fotoeléctrico
Efecto fotoeléctrico de Einstein Naturaleza de la luz: La luz se comporta de forma dual Espectros atómicos Espectro del hidrógeno:Series. Antecedentes
Llamas coloreadas Estructura interna de la materia Partículas cargadas eléctricamente electrones Newton: La luz está formada por partículas Huygens: La luz tiene naturaleza ondulatoria Young: 1801. Confirma la naturaleza ondulatoria (difracción de la luz) Onda: Propagación de una perturbación, con una amplitud, longitud de onda, frecuencia y velocidad. Onda electromagnética: constituida por un campo eléctrico y un campo magnético. Espectro electromagnético. Ley de Stafan-Boltzmann. Ley de Wien La energía no puede absorberse o emitirse de forma continua. Los metales emiten electrones (producen corriente eléctrica) cuando son iluminados por la luz adecuada (frecuencia superior a la frecuencia umbral del metal) La luz está formada por fotones de E=hf. La energía de los fotones libera a los electrones del metal. Onda: frecuencia, longitud de onda y velocidad. Partícula: tiene energía y momento lineal. De absorción y emisión Lyman, Balmer, Paschen, Brackent y Pfund. Modelo de Rutherford. Postulados del modelo de Bohr: Estados estacionarios, condición de cuantización, transiciones electrónicas. Dualidad onda-corpúsculo para la materia. Ecuación de Schrodinger. Principio de incertidumbre.
Fuente:www.educa.madrid.org/cms_tools/files/dc48a6f9-8313-44fe.../U1.ppt
b. Modelo de Bohr. Para desarrollar su modelo bohr se apoyó en: El modelo atómico nuclear diseñado por Rutherford. La teoría cuántica de la radiación del físico Max Planck. La interpretación del efecto fotoeléctrico dada por Albert Einstein. Bohr afirmó que el electrón sólo puede girar en determinadas órbitas y que no absorbe ni desprende energía mientras no cambie de órbita. Supuso que la radiación se emite o se absorbe cuando el electrón cambia de una órbita a otra. A las órbitas más alejadas del núcleo les corresponden niveles de energía más elevados que a las más próximas a él. La energía del fotón emitido o absorbido es igual a la diferencia entre las energías de los dos niveles. El modelo de Bohr es un modelo cuántico, decimos que un sistema es cuántico si sólo puede poseer ciertos valores definidos de energía. Bohr, calculó los radios de las órbitas permitidas y las energías de dichas órbitas. Mientras un electrón gira en una órbita permitida no absorbe ni emite energía, pero cuando pasa de una órbita a otra más alejada del núcleo, absorbe energía y cuando desciende a una órbita más próxima al núcleo emite energía radiante. Puesto que conoce las energías de cada nivel puede calcular la energía que corresponde a cada salto electrónico y la frecuencia de la luz emitida. Limitaciones. El modelo atómico de Bohr explicaba el espectro atómico del hidrógeno ya que las frecuencias teóricas calculadas con el modelo de Bohr coincidían con las determinadas experimentalmente, sin embargo el modelo de Bohr fallaba al intentar explicar los espectros de los átomos polielectrónicos e incluso con el espectro del hidrógeno cuando se utilizaron espectroscopios más potentes. Los postulados de Bohr además suponían una mezcla un tanto confusa de mecánica clásica y mecánica cuántica.
Figura. Nro. 102. Espectro del átomo de hidrógeno. Fuente: inmaculadava.maristascompostela.org/.../ EstructuradelaMateria
1-2008.ppt
2.7.2. Hipótesis de Plank - Cuantización de la energía. El estudio de estas rayas espectrales permitió relacionar la emisión de radiaciones de determinada “ ”con cambios energéticos asociados a saltos electrónicos. Así Plank supuso que la energía estaba cuantizada, al igual que ocurría con la masa o la carga; es decir, la energía absorbida o desprendida de los átomos sería un múltiplo de una cantidad establecida o “cuanto” que correspondería a la energía correspondiente a la energía emitida o absorbida por
un átomo. Así, si un átomo emite radiación de frecuencia “ ”, la energía desprendida por dicho átomo sería: E = nh
(58)
Y la energía total emitida será por tanto un múltiplo de esta cantidad, según el número de átomos –34
que emitan: E = n h en donde h = 6,626 10 J x s (Constante de Plank) y "n" es un número entero (nº de átomos emisores ), lo cual significa que la energía ganada o cedida por un átomo es un múltiplo de la cantidad de energía mínima (hx ). Como lógicamente el número de átomos es
muy grande y la constante ―h‖ muy pequeña, en la práctica no se aprecia esta cuantización, al igual que sucede con la masa. 2.7.3. El fotón.Es la partícula fundamental de las manifestaciones cuánticas del fenómeno electromagnético. Es la partícula portadora de
todas las formas de radiación
electromagnética, incluyendo rayos gamma. Rayos X, la luz ultra violeta etc. Y tiene las siguientes propiedades:
No tiene masa
Viaja con una velocidad constante C= 300.000 Km/s Se comporta como una onda en fenómenos como la refracción, sin embargo se
comporta como una partícula cuando interacciona con la materia para transferir una cantidad fija de energía.
Vida media estable
No tiene antipartícula
Tiene carga eléctrica.
Figura. Nro. 103. Espectro continuo y discontinuo Fuente:
inmaculadava.maristascompostela.org/.../ EstructuradelaMateria
1-2008.ppt
2.7.4. Efecto fotoeléctrico. Teoría corpuscular. El efecto fotoeléctrico consiste en la emisión de electrones por un material cuando se ilumina con radiación electromagnética.Fue descubierto y descrito por HeinrichHertz en 1887. Albert Einstein utilizó la teoría cuántica para resolver este misterio de la física. Einstein pensó que cada paquete de energía se comporta como una partícula de luz pequeña a la que llamó fotón
. El dedujo que cada fotón debía tener
una energía proporcional a la frecuencia de
Fig. Nro. 27: Ayuntamiento La Coruña(ver
animación)
la luz, Por lo tanto, la luz debe tener una frecuencia suficientemente alta para superar la fuerza que mantiene unidos a los electrones en el metal.
Figura. Nro. 104. Equipo reproducir efecto fotoeléctrico Se sabe que la capacidad para emitir electrones no depende de la intensidad de la radiación sino únicamente de su frecuencia “ ”, es decir, un haz muy luminoso de baja frecuencia puede no
producir ionización, mientras que uno mucho menos luminoso pero de mayor frecuencia, si puede. La frecuencia mínima para extraer un electrón de un átomo (efecto fotoeléctrico) se denomina ―frecuencia umbral ― 0”.
Einstein, aplicando la hipótesis de Planck, elaboró la teoría corpuscular, en la que suponía que la luz estaba formada por partículas, a los que denominó ―fotones‖ cuya energía venía determinada por E = h
Si dicha energía se igualaba o superaba a la energía de ionización se producía la
ionización del electrón.
0
E ioniz h
(59)
Si se suministra una radiación de mayor frecuencia, el resto de la energía se transforma en energía cinética del electrón:
E c in étic a
1 m v2 h 2
Eio n iz
h (
0
)
(60)
Problema Nro. 14: Calcula la energía de fotones de rayos X cuya longitud de onda es de 0,6 nm. (h = 6,625 x 10 –34 J s)
c
3 10
0,6 10
8
m s
9
E = h x=6, 625 x 10
17
5 10
s
1
m
–34
J s x 5 x 1017 s–1=3,3125 x 10–16 J.
Ejercicio a: Determina la energía cinética con la que será expulsado un electrón del cesio al emplear una radiación de 850 nm si sabemos que la energía umbral del C es 6,22 x 10–19 J a. Efecto fotoeléctrico en la actualidad. El efecto fotoeléctrico es la base de la producción deenergía eléctrica por radiación solar y del aprovechamiento energético de laenergía solar. El efecto fotoeléctrico se utiliza también para la fabricación de células utilizadas en los detectores de llama de las calderas de las grandes centrales termoeléctricas. Este efecto es también el principio de funcionamiento de los sensores las cámaras digitales. También se utiliza endiodosf otosensibles tales como los utilizados que se enutilizan en las células fotovoltaicasy enelectroscopioso electrómetros.En la actualidad los materiales fotosensibles más utilizados son, aparte de los derivados delcobre(ahora en menor uso), elsilicio,que produce corrientes eléctricas de mayores frecuencias.
Cuadro Nro. 05. Descripción cuántica de la REM. Fuente: www.uv.es/tunon/pdf_doc/QAIBtema6.pdf 2.7.5. Tecnología y usos de la energía solar. Clasificación por tecnologías y su correspondiente uso más general: Energía solar pasiva: Aprovecha el calor del sol sin necesidad de mecanismos o sistemas mecánicos. Energía solar térmica: Para producir agua caliente de baja temperatura para uso sanitario y calefacción. Energía solar fotovoltaica: Para producir electricidad mediante placas de semiconductores que se alteran con la radiación solar. Se denomina energía solar fotovoltaica a una forma de obtención de energía eléctrica a través de paneles fotovoltaicos.Los paneles, módulos o colectores fotovoltaicos están formados por dispositivos semiconductores tipo diodo que, al recibir radiación solar, se excitan y provocan saltos electrónicos, generando una pequeña diferencia de potencial en sus extremos. El acoplamiento en serie de varios de estos fotodiodos permite la obtención de voltajes mayores en configuraciones muy sencillas y aptas para alimentar pequeños dispositivos electrónicos. 2.7.6. Dualidad onda-corpúsculo (De Broglie/1924): De Broglie unifica las dos teorías existentes sobre la luz, la clásica que consideraba a la luz como una onda y la corpuscular de Einstein. ―Cada partícula lleva asociada una onda ‖cuya longitud es:
h m
v
(61)
Así, los electrones, cuya masa es muy pequeña, tienen un onda asociada apreciable de forma que, siendo ―r‖ el radio de su órbita: 2 r = n
,
sien ―n‖ un número natural, de forma que sólo algunas
órbitas concretas estarían permitidas. 2.8. Teoría de Planck En 1900 emitió una hipótesis que interpretaba los resultados experimentales satisfactoriamente como los cuerpos captaban o emitían energía.
Según Planck, la energía emitida o captada por un cuerpo en forma de radiación electromagnética es siempre un múltiplo de la constante h, llamada posteriormente constante de Planck por la frecuencia v de la radiación.
E =n h xν h=6,62 10-34 J·s, constante de Planck v=frecuencia de la radiación
Al producto [h xν ] le llamó cu ant o de ener gía . Que un cuanto sea más energético que otro dependerá de su frecuencia. •
La teoría cuántica de Plank ha ilustrado las propiedades ―como partícula‖ de las ondas.
•
Louis de Broglie sugirió que las partículas pueden tener propiedades de ondas.
•
El resultado de su investigación es llamado algunas veces “dualidad onda - partícula de
•
Esta dualidad establece que las partículas actúan como ondas y como partículas, se aplica
•
Sin embargo, en las partículas mas masivas son menos obvias las propiedades onda -
la Naturaleza”.
a todas las ondas y todas las partículas. partícula. Los electrones que tienen masas muy pequeñas, exhiben claras propiedades de onda partícula. “Los electrones sólo pueden girar alrededor del núcleo en ciertas ó rbitas permitidas en las
que se cumple que: m xv xr = n x h / 2π” en donde n = 1, 2, 3, 4... (Número cuántico principal)―Los electrones al girar en estas órbitas no emiten energía‖. Cuando un átomo recibe energía los electrones pasan a un nivel superior (estado excitado). Posteriormente, cuando el electrón vuelve a su órbita, el átomo emite un fotón correspondiente a ΔE entre ambos niveles, de frecuencia o longitud de onda determinadas esta dado por: (ΔE = h x ν)‖.Por lo tanto la energía esta cuantizada y es discontinua: E = n h ν0
2.8.1. Modelo mecano-cuántico (para el átomo de hidrógeno). El modelo de Bohr indicaba posición y velocidad de los electrones (incompatible con principio de incertidumbre de la mecánica cuántica). Schrödinger (1926) propuso una ecuación de onda para el electrón del hidrógeno (H), en cuyas soluciones (valores energéticos permitidos) aparecían precisamente unos números que llamaremos números cuánticos: n, l y m.
El modelo mecano-cuántico, que es el que es admitido en la actualidad, se basa precisamente en los siguientes Postulados: ―Los átomos sólo pueden existir en determinados niveles energéticos‖. ―El casmbio de nivel energético se produce por absorción o emisión de un fotonde energía de manera frecuencia
viene
determinada
por
que su
la
ecuación: E = h ·‖. ―Los niveles energéticos permitidos para
un
átomo vienen determinados por los valores
de los
números cuánticos‖. 2.8.2. Números cuánticos.Cada electrón determinado por 4 números cuánticos: n, l,
viene m
(o
ml) y s (o m s) (los tres primeros determinan cada orbital, y el cuarto ―s‖ sirve para diferenciar a cada uno de los dos e– que componen el mismo).Los valores de éstos son los siguientes:
n = 1, 2, 3, 4, ... l = 0, 1, 2, ... (n – 1) m = – l, ... , 0, ... l
s=–½,+½
Figura. Nro. 105: Orbitales atómicos.
Relación entre los saltos electrónicos y los espectros. fresno.pntic.mec.es/~fgutie6/.../Teo_6_princ.htm. (set. 2011) En donde ―n‖ determina el nivel energético o “capa” y ―l‖ el subnivel. Así, en la primera capa n=1, l=0, es decir, existe un solo subnivel ―s‖; El número cuántico magnético ―m‖ indicaría la dirección espacial del orbital en el subnivel , lo que en el caso de un orbital ―s‖ (l=0) nos da una única Orbitales “p”
Orbitales “d”
dirección espacial (m=0).El número cuántico ―s‖ (no confundir con el orbital ―s‖) indica el sentido de giro de cada uno de los dos electrones que comparten cada orbital; por dicha razón toma dos valores (+ ½ y – ½) en todos los orbitales.Los electrones se van situando en los distintos orbitales siguiendo los principios de mínima energía (aufbau): ―Los electrones se colocan siguiendo el criterio de mínima energía, es decir, se rellenan primero los niveles con menor energía y no se rellenan niveles superiores hasta que no estén completos los niveles inferiores‖.
Fuente: enciclopedia.us.es/index.php/Orbital -
Figura. Nro. 106: Nodos de la función, densidad electrónica (probabilidad) a. Principio de máxima multiplicidad (regla de Hund): Es una regla empírica obtenida en el estudio de los espectros atómicos que dice: Al llenar orbitales de igual energía (los tres orbitales p, los cinco d, o los siete f) los electrones se distribuyen, siempre que sea posible, con sus spines paralelos, es decir, separados. El átomo es más estable, tiene menor energía, cuando tiene electrones desapareados (spines paralelos) que cuando esos electrones están apareados (spines opuestos o antiparalelos). ―Cuando un nivel electrónico tenga varios orbitales con la misma energía, los electrones se van colocando desapareados en ese nivel electrónico‖. No se coloca un segundo electrón en uno de dichos orbitales hasta que todos los orbitales de dicho nivel isoenergético están semiocupados. Una vez colocados se cumple el principio de exclusión de Pauli: ―No puede haber dos electrones con los cuatro números cuánticos iguales‖.
n
l
m
s
I
0
0
0
+½
II
1
1
0
+½
III
1
0
0
–½
Problema Nro. 2 1.a) Establezca cuáles de las siguientes series de números cuánticos
IV
2
1 –2 +½
V
2
1 –1 +½
serían posibles y cuáles imposibles para especificar el estado de un electrón; 1.b) Diga en qué tipo de orbital atómico estarían situados los que son posibles.
I) Imposible. (n < 1)
II) Imposible. (l = n)
III) Posible. Orbital ―1 s‖ IV) Imposible (m –1,0,1)
V) Posible. Orbital ―2 p‖
b. El modelo actual. Fue expuesto en 1925 por Heisenberg y Schrodinger, las ecuaciones del modelo mecano-cuántico describen el comportamiento de los electrones dentro del átomo, y recogen su carácter ondulatorio y la imposibilidad de predecir sus trayectorias exactas. La energía está cuantizada, lo que marca la diferencia con el modelo de Böhr es que este modelo no determina la posición exacta del electrón, sino la mayor o menor probabilidad. Dentro del átomo, el electrón se interpreta como una nube de carga negativa, y dentro de esta nube, en el lugar en el que la densidad sea mayor, la probabilidad de encontrar un electrón también será mayor Los números cuánticos se encargan del comportamiento de los electrones, y la configuración electrónica de su distribución ¿Qué es un orbital? Böhr, en su modelo atómico, habla de órbitas; pero el modelo mecanocuántico actual habla de orbitales, ¿cuál es la diferencia? Órbita: cada una de las trayectorias descrita por los electrones alrededor del núcleo. Orbital: región del espacio alrededor del núcleo donde hay la máxima probabilidad de encontrar un electrón. c. Orbital atómico. Según ya sabemos los electrones de un átomo se sitúan en orbitales, los cuales tienen capacidad para situar dos de ellos, según el siguiente esquema:
1ª capa: 1 orb. ―s‖ (2 e –)
2ª capa: 1 orb. ―s‖ (2 e –) + 3 orb. ―p‖ (6 e–)
3ª capa: 1 orb. ―s‖ (2 e –) + 3 orb. ―p‖ (6 e–) + 5 orb. ―d‖ (10 e–)
4ª capa: 1 orb. ―s‖ (2 e –) + 3 orb. ―p‖ (6 e–) + 5 orb. ―d‖ (10 e–) + 7 orb. ―f‖ (14 e –)
Y así sucesivamente… Los orbitales atómicos tienen distintas formas; así, los orbitales ―s‖ son esféricos; sin embargo el resto de los tipos de orbitales poseen direcciones concretas en el espacio; por ejemplo cada uno de los orbitales ―p‖ se alinea sobre cada uno de los tres ejes de coordenadas.Una visión en tres dimensiones
de
los
distintos
orbitales
atómicos
puede
verse
en:http://micro.magnet.fsu.edu/electromag/java/atomicorbitals/
Fig. Nro. 107.En un futuro será nuestro lugar de trabajodel microcosmos almacrocosmos Fuente:www.educa.madrid.org/cms_tools/files/...cc6f.../desvelando_Tema04.pp 2.9. Radiación electromagnética.Según el modelo ondulatorio, (la radiación electromagnética se mide en longitud de onda [λ] cuanto más corta más energía (la radiación ultravioleta, los Rayos X y los Rayos Gamma). La longitud puede llegar a los 10
− 11 m
. En cambio, la radiación
infrarroja y las ondas de radio son las más largas y las que menos energía tienen. Su longitud puede ser de kilómetros.
Figura. Nro. 108: Radiación energética. Penetra la atmósfera terrestre, tipo de radiación [λ] en metros, escala aproximada de tamaño en función de la longitud de onda, Frecuencias en Hz desde el infrarrojo hasta el ultravioleta, temperatura de los objetos en los cuales la radiación con esta longitud de onda es la mas intensa. Fuente. rupcultura.files.wordpress.com/2010/11/espect...
Figura. Nro. 109. Radiación electromagnética, longitud de onda, frecuencia y tipo de radiación. Fuente:docencia.izt.uam.mx/sgpe/files/users/.../2_T_cuantica_estruct_electr.ppt
La radiación electromagnética está constituida por una onda formada por dos campos uno eléctricoy otro magnético que oscilan perpendicularmente uno del otro y ambos perpendiculares en la dirección de propagación.
Figura Nro.110. Onda EM campo eléctrico y magnético perpendiculares. Fuente:www.astro.uchile.cl/glosario/imagenes_glosari...
La radiación electromagnética tiene propiedadesondulatorias y corpusculares. Los fenómenos de
refracción, reflexión, dispersión,
etc.
son
explicables
considerando
la
radiación
electromagnética como ondas. El efecto fotoeléctrico sugiere que la radiación electromagnética también tiene comportamiento corpuscular y que ésta radiación consiste de partículas discretas llamadas fotones, los cuales tienen energías definidas y se desplazan a la velocidad de la luz.
Figura Nro.111. Segundo modelo: Onda EM campo eléctrico y magnético perpendiculares.Fuente:
es.wikipedia.org/wiki/Onda_electromagnética
2.9.1. Naturaleza de la radiación electromagnética. Según la teoría clásica del electromagnetismo, la energía de una onda depende sólo de su amplitud. a. Propiedades ondulatorias: La radiación electromagnética tiene una componente eléctrica y una componente magnética. Únicamente la componente eléctrica es activa al interaccionar con la materia, por lo que únicamente ésta será considerada en el fenómeno de absorción de la radiación. El vector eléctrico y el vector magnético de la radiación están representados en la (Figuras Nros. 85, 86.) En función de su frecuencia, las ondas electromagnéticas tienen diferentes características y producen fenómenos diversos en el medio donde se propaga o sobre el medio que lo absorbe. Sin embargo, por estos fenómenos, podemos agrupar y dividir en varias regiones el espectro electromagnético (figuras Nros. 83, 84). Rayos cósmicos, gamma γ, rayos X, Ultravioleta lejanos, Ultravioleta Cuarzo, Visible, Infrarrojo cercano, Infrarrojo Medio o fundamental, Infrarrojo lejano, microonda, radar, TV, RMN, radio, eléctrica b. Propiedades corpusculares. Max Planck encontró que la relación entre la energía de la radiación electromagnética y su frecuencia está dada por la siguiente ecuación: E=hν
E= Energía del fotón en ergs. ν= Frecuencia de la radiación en ciclos/seg. (hertz). h= Constante de Planck= 6.6254x10-27 ergios. seg. En los últimos años hemos asistido a un incremento sin precedentes, por su número y diversidad, de las fuentes de campos electromagnéticos, utilizadas con fines individuales, industriales y comerciales. Entre ellas, cabe citar los aparatos de televisión y radio (tanto transmisores como receptores), los ordenadores, la telefonía móvil, los hornos de microondas, los radares y otros equipos utilizados en la industria, la medicina y el comercio. Al mismo tiempo, esos avances tecnológicos han suscitado preocupación por los posibles riesgos sanitarios asociados a su uso. Informes científicos han sugerido que la exposición a los campos electromagnéticos emitidos por estos aparatos podría tener efectos perjudiciales para la salud, tales como cáncer, reducción de la fecundidad, pérdida de memoria y cambios negativos en el comportamiento y desarrollo de los niños. Sin embargo, la amenaza real de riesgo tanto sanitario como biológico no es conocida, aunque para determinados campos electromagnéticos y en los niveles detectados en la comunidad podría ser muy baja o inexistente.
Como se ha comentado, hay fuentes tanto naturales como artificiales que generan energía electromagnética en forma de ondas electromagnéticas. Dichas ondas consisten en campos eléctricos y magnéticos de carácter oscilante, que interactúan con sistemas biológicos como células, plantas, animales o seres humanos. Según su frecuencia y energía, las ondas electromagnéticas admiten la siguiente clasificación a efectos biológicos: radiaciones ionizantes y radiaciones no ionizantes. 2.9.2. Radiaciones del espectro electromagnético. La física y los efectos de las radiaciones en los organismos vivos son tema de gran interés. Las características y los efectos de las radiaciones son estudiadas por físicos, biólogos y químicos principalmente. Sin embargo, existen aspectos básicos que deben ser conocidos y poder ser reconocidos por todos los profesionales involucrados en el análisis por instrumentación. El término "radiación" significa básicamente transferencia de energía de una fuente a otra. Existen radiaciones electromagnéticas de varios tipos (energías), entre las que se encuentran la energía eléctrica, las ondas de radio y televisión, las ondas de radar, las microondas, la radiación infra-roja, la luz visible, la radiación ultravioleta, los rayos X, la radiación gamma y los rayos cósmicos, entre otros. Las radiaciones pueden ser radiación electromagnética (fotones) o radiación particulada (partículas como los electrones). Corpusculares (masa)
Alfa: α Beta: β
Electromagnéticas
Radiaciones gamma[ ]
Neutrones: no Electrones: eRayos X
a. Radiaciones ionizantes. En esta introducción general nos concentraremos en el estudio de los aspectos básicos de las radiaciones ionizantes. Las radiaciones ionizantes (electromagnéticas o particuladas) son aquellas con energía, longitud de onda y frecuencia tales que al interaccionar con un medio le transfieren energía suficiente para desligar a un electrón de su átomo. En ese instante en el que el electrón sale desprendido (es separado) del átomo al que pertenecía, se produce un proceso que se llama ionización. La ionización es, por lo tanto, la formación de un par de iones, el negativo (el electrón libre) y el positivo (el átomo sin uno de sus electrones).
La ionización producida por una radiación incidente que interacciona con la materia (que puede ser un medio biológico) puede ser directa o indirecta. La radiación electromagnética (rayos X y rayos gamma) es radiación indirectamente ionizante. La radiación directamente ionizante son las partículas cargadas (como los electrones y las partículas alfa), que interaccionan con el medio reaccionando con moléculas blanco (también conocidas como moléculas diana) como el oxígeno y el agua.